Có rất nhiều - và những gì hoạt động tốt nhất phụ thuộc vào dữ liệu. Cũng có nhiều cách để gian lận - ví dụ: bạn có thể thực hiện hiệu chuẩn xác suất trên các đầu ra của bất kỳ phân loại nào cung cấp một số giá trị của điểm số (ví dụ: một sản phẩm chấm giữa vectơ trọng lượng và đầu vào). Ví dụ phổ biến nhất về điều này được gọi là tỉ lệ của Platt.
Ngoài ra còn có vấn đề về hình dạng của mô hình cơ bản. Nếu bạn có các tương tác đa thức với dữ liệu của mình, thì hồi quy logistic vanilla sẽ không thể mô hình hóa nó tốt. Nhưng bạn có thể sử dụng một phiên bản hạt nhân của hồi quy logistic để mô hình phù hợp với dữ liệu hơn. Điều này thường làm tăng "độ tốt" của đầu ra xác suất vì bạn cũng đang cải thiện độ chính xác của trình phân loại.
Nói chung, hầu hết các mô hình đưa ra xác suất thường sử dụng hàm logistic, vì vậy có thể khó so sánh. Nó chỉ có xu hướng hoạt động tốt trong thực tế, các mạng Bayes là một lựa chọn thay thế. Naive Bayes chỉ đưa ra một giả định quá đơn giản cho xác suất của nó là tốt - và điều đó dễ dàng được quan sát trên bất kỳ tập dữ liệu có kích thước hợp lý nào.
Cuối cùng, việc tăng chất lượng ước tính xác suất của bạn thường dễ dàng hơn bằng cách chọn mô hình có thể biểu thị dữ liệu tốt hơn. Theo nghĩa này, nó không quan trọng quá nhiều làm thế nào bạn có được xác suất. Nếu bạn có thể có được độ chính xác 70% với hồi quy logistic và 98% với SVM - thì chỉ cần đưa ra xác suất "hoàn toàn tự tin" sẽ giúp bạn có kết quả "tốt hơn" bằng hầu hết các phương pháp tính điểm, mặc dù chúng không thực sự có xác suất (và sau đó bạn có thể thực hiện hiệu chuẩn mà tôi đã đề cập trước đó, làm cho chúng thực sự tốt hơn).
Câu hỏi tương tự trong bối cảnh không thể có được một bộ phân loại chính xác sẽ thú vị hơn, nhưng tôi không chắc ai đã nghiên cứu / so sánh trong một kịch bản như vậy.