Ví dụ 1
Một trường hợp điển hình là gắn thẻ trong bối cảnh xử lý ngôn ngữ tự nhiên. Xem ở đây để giải thích chi tiết. Ý tưởng về cơ bản là để có thể xác định danh mục từ vựng của một từ trong câu (nó có phải là danh từ, tính từ, ...). Ý tưởng cơ bản là bạn có một mô hình ngôn ngữ của bạn bao gồm một mô hình markov ẩn ( HMM ). Trong mô hình này, các trạng thái ẩn tương ứng với các loại từ vựng và trạng thái quan sát với các từ thực tế.
Mô hình đồ họa tương ứng có dạng,
trong đó là chuỗi các từ trong câu và là chuỗi của các thẻ.y =(y1 , . . . , yN)x =(x1,..., xN)
Sau khi được đào tạo, mục tiêu là tìm ra chuỗi chính xác các danh mục từ vựng tương ứng với một câu đầu vào nhất định. Điều này được xây dựng như là tìm chuỗi các thẻ tương thích nhất / rất có thể đã được tạo bởi mô hình ngôn ngữ, nghĩa là
f( y) = a r g m a xx ∈Yp ( x ) p ( y | x )
Ví dụ thứ 2
Trên thực tế, một ví dụ tốt hơn sẽ là hồi quy. Không chỉ bởi vì nó dễ hiểu hơn, mà còn bởi vì làm cho sự khác biệt giữa khả năng tối đa (ML) và tối đa một posteriori (MAP) rõ ràng.
Về cơ bản, vấn đề là sự phù hợp của một số chức năng được đưa ra bởi các mẫu với sự kết hợp tuyến tính của một tập hợp các hàm cơ bản,
trong đó là các hàm cơ bản và là các trọng số. Người ta thường cho rằng các mẫu bị hỏng bởi nhiễu Gaussian. Do đó, nếu chúng ta giả sử rằng hàm mục tiêu có thể được viết chính xác như một tổ hợp tuyến tính như vậy, thì chúng ta có,t
y( X ; w ) = ΣTôiwTôiφTôi( x )
ϕ ( x )w
t=y(x;w)+ϵ
vì vậy chúng ta có
Giải pháp ML của vấn đề này tương đương với việc giảm thiểu,p(t|w)=N(t|y(x;w))
E(w)=12∑n(tn−wTϕ(xn))2
trong đó mang lại giải pháp lỗi vuông ít nổi tiếng nhất. Bây giờ, ML bị ảnh hưởng bởi tiếng ồn và trong một số trường hợp không ổn định. MAP cho phép bạn chọn giải pháp tốt hơn bằng cách đặt các ràng buộc về trọng lượng. Ví dụ, một trường hợp điển hình là hồi quy sườn, trong đó bạn yêu cầu các trọng số phải có một chỉ tiêu càng nhỏ càng tốt,
E(w)=12∑n(tn−wTϕ(xn))2+λ∑kw2k
tương đương với việc đặt Gaussian trước các trọng số . Trong tất cả, các trọng lượng ước tính làN(w|0,λ−1I)
w=argminwp(w;λ)p(t|w;ϕ)
Lưu ý rằng trong MAP, các trọng số không phải là tham số như trong ML, mà là các biến ngẫu nhiên. Tuy nhiên, cả ML và MAP đều là các công cụ ước tính điểm (chúng trả về một tập các trọng số tối ưu, thay vì phân phối các trọng số tối ưu).