Nếu số liệu thống kê là tất cả về tối đa hóa khả năng, thì học máy là tất cả về giảm thiểu tổn thất. Vì bạn không biết mất mát mà bạn sẽ phải chịu cho dữ liệu trong tương lai, nên bạn giảm thiểu xấp xỉ, tức là mất theo kinh nghiệm.
Ví dụ: nếu bạn có một nhiệm vụ dự đoán và được đánh giá bằng số lượng phân loại sai, bạn có thể huấn luyện các tham số để mô hình kết quả tạo ra số lượng phân loại sai nhỏ nhất trên dữ liệu đào tạo. "Số lượng phân loại sai" (nghĩa là mất 0-1) là một hàm mất cứng để làm việc vì nó không khác biệt, vì vậy bạn ước tính nó với một "thay thế" trơn tru. Chẳng hạn, mất nhật ký là giới hạn trên của tổn thất 0-1, vì vậy thay vào đó bạn có thể giảm thiểu điều đó và điều này sẽ giống như tối đa hóa khả năng có điều kiện của dữ liệu. Với mô hình tham số, phương pháp này trở nên tương đương với hồi quy logistic.
Trong một nhiệm vụ mô hình hóa có cấu trúc và xấp xỉ tổn thất log 0-1, bạn nhận được một cái gì đó khác với khả năng có điều kiện tối đa, thay vào đó bạn sẽ tối đa hóa sản phẩm của khả năng cận biên (có điều kiện).
Để có được xấp xỉ tổn thất tốt hơn, mọi người nhận thấy rằng mô hình đào tạo để giảm thiểu tổn thất và sử dụng tổn thất đó làm ước tính tổn thất trong tương lai là một ước tính quá lạc quan. Vì vậy, để giảm thiểu chính xác (tổn thất thực sự trong tương lai), họ thêm một thuật ngữ điều chỉnh sai lệch vào tổn thất theo kinh nghiệm và giảm thiểu điều đó, điều này được gọi là giảm thiểu rủi ro có cấu trúc.
Trong thực tế, việc tìm ra thuật ngữ điều chỉnh sai lệch đúng có thể quá khó, vì vậy bạn thêm một biểu thức "theo tinh thần" của thuật ngữ điều chỉnh sai lệch, ví dụ, tổng bình phương của các tham số. Cuối cùng, hầu hết tất cả các phương pháp phân loại có giám sát học máy tham số đều kết thúc đào tạo mô hình để giảm thiểu những điều sau đây
ΣtôiL ( m ( xtôi, w ) , ytôi) + P( w )
nơi là mô hình của bạn parametrized bởi vector , được thực hiện trên tất cả các datapoints , là một số xấp xỉ tính toán tốt đẹp của sự mất mát thực sự của bạn và là một số thiên vị-chỉnh / quy tắc kỳ hạn w i { x i , y i } L P ( w )mwtôi{ xtôi, ytôi}LP( w )
Chẳng hạn, nếu , , một cách tiếp cận thông thường sẽ là để , , và chọn bằng xác nhận chéo y ∈ { - 1 , 1 } m ( x ) = dấu ( w ⋅ x ) L ( m ( x ) , y ) = - log ( y × ( x ⋅ w ) ) P ( w ) = q × ( w ⋅ w )x ∈ { - 1 , 1 }dy∈ { - 1 , 1 }m (x)= dấu (w⋅x)L ( m ( x ) , y) = - đăng nhập( y× ( x ⋅ w ) )P( w ) = q× ( w ⋅ w )q