Cách tôi nhìn nhận là thống kê / học máy cho bạn biết những gì bạn nên tối ưu hóa, và tối ưu hóa là cách bạn thực sự làm như vậy.
Ví dụ, hãy xem xét hồi quy tuyến tính với nơi E ( ε ) = 0 và V một r ( ε ) = σ 2 tôi . Thống kê cho chúng ta biết rằng đây là (thường xuyên) một mô hình tốt, nhưng chúng tôi tìm thấy ước tính thực tế của chúng tôi β bằng cách giải một bài toán tối ưuY= Xβ+ εE( ε ) = 0Va r ( ε ) = σ2Tôiβ^
β^= argminb ∈ Rp| | Y- Xb | |2.
Các đặc tính của β được gọi cho chúng tôi qua số liệu vì vậy chúng tôi biết rằng đây là một vấn đề tối ưu hóa tốt để giải quyết. Trong trường hợp này, nó là một tối ưu hóa dễ dàng nhưng điều này vẫn cho thấy nguyên tắc chung.β^
Tổng quát hơn, phần lớn học máy có thể được xem như giải quyết
f = argmin f ∈ F 1
trong đó tôi đang viết bài này mà không cần chính quy nhưng có thể dễ dàng thêm vào.
f^= argminf∈ F1nΣi = 1nL ( yTôi, f( xTôi) )
Một lượng lớn nghiên cứu về lý thuyết học thống kê (SLT) đã nghiên cứu các tính chất của các argminima này, cho dù chúng có tối ưu không có triệu chứng hay không, chúng liên quan đến độ phức tạp của và nhiều thứ khác như vậy. Nhưng khi bạn thực sự muốn có được f , thường bạn kết thúc với một tối ưu hóa khó khăn và nó là một tập hợp toàn bộ riêng biệt của những người nghiên cứu vấn đề đó. Tôi nghĩ rằng lịch sử của SVM là một ví dụ tốt ở đây. Chúng tôi có những người SLT như Vapnik và Cortes (và nhiều người khác) đã chỉ ra cách SVM là một vấn đề tối ưu hóa tốt để giải quyết. Nhưng sau đó, những người khác như John Platt và các tác giả LIBSVM đã thực hiện điều này khả thi trong thực tế.Ff^
Để trả lời câu hỏi chính xác của bạn, biết một số tối ưu hóa chắc chắn là hữu ích nhưng nhìn chung không ai là chuyên gia trong tất cả các lĩnh vực này vì vậy bạn học được nhiều nhất có thể nhưng một số khía cạnh sẽ luôn là thứ gì đó trong hộp đen đối với bạn. Có thể bạn chưa nghiên cứu đúng các kết quả SLT đằng sau thuật toán ML yêu thích của bạn hoặc có thể bạn không biết hoạt động bên trong của trình tối ưu hóa bạn đang sử dụng. Đó là một hành trình cả đời.