Các pro & nhược điểm của cả hai phương pháp là gì?
Các pro & nhược điểm của cả hai phương pháp là gì?
Câu trả lời:
Ước tính khả năng tối đa là một cách tiếp cận chung để ước tính các tham số trong các mô hình thống kê bằng cách tối đa hóahàm khả năng được xác định là
có nghĩa là, khả năng thu thập dữ liệu đưa ra một số giá trị của tham số θ . Biết hàm khả năng cho một vấn đề nhất định, bạn có thể tìm kiếm như vậy θ tối đa hóa xác suất lấy được dữ liệu bạn có. Ước lượng đôi khi chúng ta đã biết, ví dụ như trung bình cộng là một ước lượng MLE cho μ tham số cho phân phối chuẩn , nhưng trong những trường hợp khác mà bạn có thể sử dụng phương pháp khác nhau bao gồm sử dụng các thuật toán tối ưu hóa. Cách tiếp cận ML không cho bạn biết cách để tìm giá trị tối ưu của θ - bạn chỉ có thể lấy dự đoán và sử dụng khả năng để so sánh mà đoán được tốt hơn - nó chỉ cho bạn biết làm thế nào bạn có thể so sánh nếu một giá trị của là "nhiều khả năng" hơn người kia.
Gradient giảm dần là một thuật toán tối ưu hóa . Bạn có thể sử dụng thuật toán này để tìm mức tối thiểu (hoặc tối đa, sau đó nó được gọi là độ dốc tăng dần ) của nhiều hàm khác nhau. Thuật toán không thực sự quan tâm chức năng mà nó giảm thiểu là gì, nó chỉ thực hiện những gì nó được yêu cầu. Vì vậy, với việc sử dụng thuật toán tối ưu hóa, bạn phải biết bằng cách nào đó bạn có thể biết liệu một giá trị của tham số quan tâm có "tốt" hơn giá trị kia hay không. Bạn phải cung cấp cho thuật toán của mình một số chức năng để giảm thiểu và thuật toán sẽ giải quyết việc tìm tối thiểu của nó.
Bạn có thể có được ước tính khả năng tối đa bằng các phương pháp khác nhau và sử dụng thuật toán tối ưu hóa là một trong số đó. Mặt khác, độ dốc gốc cũng có thể được sử dụng để tối đa hóa các chức năng khác ngoài chức năng khả năng.
Thông thường, khi chúng ta có hàm khả năng
chúng ta có thể nhận được giá trị của có thể cung cấp giá trị max hoặc min của , đã hoàn tất!
f
Nhưng chức năng khả năng hồi quy logistic không theo cách này, giải pháp dạng đóng . Vì vậy, chúng ta phải sử dụng phương pháp khác, chẳng hạn như gradient descent
.
likelihood function
+ gradient descent
(để có được giải pháp của hàm khả năng) vẫn là một cách để thực hiện MLE.
Unlike linear regression, we can no longer write down the MLE in closed form. Instead, we need to use an optimization algorithm to compute it. For this, we need to derive the gradient and Hessian.
từ Machine Learning: Quan điểm xác suất, Kevin Murphy.