Nói một cách đơn giản, và không có bất kỳ ký hiệu toán học nào, trước đó có nghĩa là niềm tin ban đầu về một sự kiện về mặt phân phối xác suất . Sau đó, bạn thiết lập một thử nghiệm và nhận một số dữ liệu, sau đó "cập nhật" niềm tin của bạn (và do đó phân phối xác suất) theo kết quả của thử nghiệm, (phân phối xác suất posteriori).
Ví dụ:
Giả sử chúng ta được tặng hai đồng tiền. Nhưng chúng tôi không biết đồng tiền nào là giả. Coin 1 không thiên vị (ĐẦU và TAILS có xác suất 50%) và Coin 2 bị sai lệch, giả sử, chúng tôi biết rằng nó mang lại cho ĐẦU với xác suất 60%. Về mặt toán học:
p ( H| Co i n1) = 0,4
p ( H| Co i n2) = 0,6
Vì vậy, đó là tất cả những gì chúng ta biết trước khi chúng ta thiết lập một thử nghiệm.
Bây giờ chúng tôi sẽ chọn một đồng xu tung nó, và dựa trên thông tin những gì chúng tôi có (H hoặc T), chúng tôi sẽ đoán xem chúng tôi đã chọn loại tiền nào (Coin 1 hoặc Coin 2).
p ( Co i n1) = p ( Co i n2) = 0,5
p ( Co i n1| H) = p ( H| Co i n1) p ( Co i n1)p ( H| Co i n1) p ( Co i n1) + p ( H| Co i n2) p ( Co i n2)= 0,4 × 0,50,4 × 0,5 + 0,6 × 0,5= 0,4
p ( Co i n2| H) = p ( H| Co i n2) p ( Co i n2)p ( H| Co i n1) p ( Co i n1) + p ( H| Co i n2) p ( Co i n2)= 0,6 × 0,50,4 × 0,5 + 0,6 × 0,5= 0,6
0,5
Đây là nguyên tắc cơ bản của suy luận và thống kê Bayes được sử dụng trong Machine learning.