Hàm likelihood được định nghĩa là xác suất của một sự kiện E (dữ liệu đặt x ) là một hàm của các thông số mô hình θ
L(θ;x)∝P(Event E;θ)=P(observing x;θ).
Do đó, không có giả định về tính độc lập của các quan sát. Theo cách tiếp cận cổ điển, không có định nghĩa cho sự độc lập của các tham số vì chúng không phải là các biến ngẫu nhiên; một số khái niệm liên quan có thể là nhận dạng , tính trực giao tham số và tính độc lập của Công cụ ước tính khả năng tối đa (là các biến ngẫu nhiên).
Vài ví dụ,
(1). Trường hợp rời rạc . là một mẫu (độc lập) quan sát rời rạc với P ( quan sát x j ; θ ) > 0 , sau đóx=(x1,...,xn)P(observing xj;θ)>0
L(θ;x)∝∏j=1nP(observing xj;θ).
Đặc biệt, nếu , với N đã biết, chúng ta có điều đóxj∼Binomial(N,θ)N
L(θ;x)∝∏j=1nθxj(1−θ)N−xj.
(2). Xấp xỉ liên tục . Hãy để là một mẫu từ một liên tục biến ngẫu nhiên X , với phân phối F và mật độ f , với sai số đo ε , đây là, bạn quan sát các bộ ( x j - ε , x j + ϵ ) . Sau đóx=(x1,...,xn)XFfϵ(xj−ϵ,xj+ϵ)
L(θ;x)∝∏j=1nP[observing (xj−ϵ,xj+ϵ);θ]=∏j=1n[F(xj+ϵ;θ)−F(xj−ϵ;θ)]
Khi là nhỏ, điều này có thể xấp xỉ (sử dụng Mean Value lý) bởiϵ
L(θ;x)∝∏j=1nf(xj;θ)
Đối với một ví dụ với trường hợp bình thường, hãy xem điều này .
(3). Mô hình phụ thuộc và Markov . Giả sử rằng là một tập hợp các quan sát có thể phụ thuộc và để f là mật độ chung của x , sau đóx=(x1,...,xn)fx
L(θ;x)∝f(x;θ).
Nếu thêm tài sản Markov được thỏa mãn, thì
L(θ;x)∝f(x;θ)=f(x1;θ)∏j=1n−1f(xj+1|xj;θ).
Hãy cũng xem này .