Có một số trang web mô tả độ dốc gốc để tìm các tham số cho hồi quy tuyến tính đơn giản ( đây là một trong số chúng). Google cũng mô tả nó trong khóa học ML mới (công khai) của họ.
Tuy nhiên, trên Wikipedia , các công thức sau đây để tính toán các tham số được cung cấp:
Ngoài ra, các scikit-học hồi quy tuyến tính chức năng, không có một n_iter_
(số lần lặp) thuộc tính như đối với nhiều chức năng học tập khác, mà tôi giả sử cho thấy gradient descent không được sử dụng?
Câu hỏi:
- Có phải các trang web mô tả độ dốc giảm dần cho hồi quy tuyến tính đơn giản chỉ làm như vậy để dạy khái niệm về nó trên mô hình ML cơ bản nhất? Là công thức trên Wikipedia mà hầu hết các phần mềm thống kê sẽ sử dụng để tính toán các tham số (ít nhất là scikit-learn dường như không sử dụng độ dốc gốc)?
- Những gì thường được sử dụng cho nhiều hồi quy tuyến tính?
- Đối với những loại mô hình học thống kê nào thì độ dốc gốc thường được sử dụng để tìm các tham số so với các phương thức khác? Tức là có một số quy tắc của ngón tay cái?