Độ tin cậy SVM theo khoảng cách từ hyperline


9

Đối với trình phân loại nhiều lớp xác suất, chúng ta có thể nhận được xác suất thành viên của một điểm mới cho mỗi lớp y i ; trong trường hợp 3 lớp giả sử ta nhận được P ( y a | x ) > P ( y b | x ) > P ( y c | x ) , do đó, lớp có thể xảy ra nhất của x là y a . Bây giờ giả sử rằng chúng tôi có một Svm nhiều lớp, nơi chúng tôi có thể nhận được số điểm thành viên của xxyTôiP(ymột|x)>P(yb|x)>P(yc|x)ymộtxđến từng lớp (theo khoảng cách từ các đường cao tốc); trong trường hợp 3 lớp giả sử ta nhận được , trong trường hợp này thế nào lớp x thứ nhất, thứ hai và thứ ba có khả năng nhất của x (không chuyển đổi các điểm số này thành xác suất)? Thông thường tôi nhận được các giá trị dương và âm như ví dụ S cScore(ymột|x),Score(yb|x),Score(yc|x)xScore1= =-8622,Score2= =5233,Score3= =-665

Câu trả lời:


11

Thực tế có thể lấy xác suất ra khỏi Máy Vector hỗ trợ, có thể hữu ích và dễ hiểu hơn giá trị "điểm số" tùy ý. Có một vài cách tiếp cận để làm điều này: một nơi hợp lý để bắt đầu là Platt (1999) .

Hầu hết các gói / thư viện SVM đều thực hiện một cái gì đó như thế này (ví dụ: tùy chọn -b 1 khiến LibSVM tạo ra xác suất). Nếu bạn sẽ tự lăn lộn, bạn nên lưu ý rằng có một số vấn đề về số tiềm năng, được Lin, Lin và Weng (2007) tóm tắt trong ghi chú này . Họ cũng cung cấp một số psuedocode, cũng có thể hữu ích.

Chỉnh sửa để phản hồi nhận xét của bạn : Tôi không rõ ràng về lý do tại sao bạn thích điểm số hơn một xác suất, đặc biệt là khi bạn có thể có được xác suất đó với nỗ lực tối thiểu. Tất cả những gì đã nói, hầu hết các tính toán xác suất có vẻ như chúng xuất phát từ khoảng cách giữa điểm và siêu phẳng. Nếu bạn nhìn vào Phần 2 của bài báo Platt, anh ta bước qua động lực và nói:

P(y= =1|f)= =11+điểm kinh nghiệm(Mộtf+B)
f

MộtB


1
|STôi|xTôi

0

Nếu tập dữ liệu huấn luyện được cân bằng hợp lý và có các tính năng được tiêu chuẩn hóa, tôi sẽ lấy điểm số SVM làm thước đo độ tin cậy khi thuộc về các lớp tương ứng. Cái gọi là phương pháp hiệu chuẩn chuyển đổi điểm số thành số lượng giống như xác suất, chẳng hạn như chia tỷ lệ Platt, thường sử dụng các hàm đơn điệu (như hàm logistic) để ánh xạ điểm đến xác suất. Do đó, nếu bạn chỉ muốn so sánh mức độ tin cậy của mô hình SVM đã học trong một biểu dữ liệu kiểm tra cụ thể thuộc về các lớp có thể, bạn chỉ có thể so sánh các giá trị điểm (không phải giá trị tuyệt đối của chúng) cho rằng tập dữ liệu huấn luyện mà mô hình được học từ đó là khá cân bằng và không có bất kỳ quirk bất thường.


Tôi không hiểu câu trả lời này.
Michael R. Chernick

Tôi chỉnh sửa nó để làm cho quan điểm của tôi rõ ràng hơn.
Reza
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.