Câu hỏi được gắn thẻ «maximum-entropy»

entropy cực đại hoặc maxent là một nguyên tắc thống kê xuất phát từ lý thuyết thông tin. Các phân phối tối đa hóa entropy (theo một số ràng buộc) được cho là "tối đa không thông tin" với các ràng buộc. Entropy tối đa có thể được sử dụng cho nhiều mục đích, như lựa chọn trước, lựa chọn mô hình lấy mẫu hoặc thiết kế các thí nghiệm.







2
Hàm mật độ xác suất entropy tối đa cho một biến liên tục dương của trung bình và độ lệch chuẩn đã cho là gì?
Là gì phân phối entropy tối đa cho một biến liên tục tích cực, đưa ra những khoảnh khắc đầu tiên và thứ hai của nó? Ví dụ, phân phối Gaussian là phân phối entropy tối đa cho một biến không giới hạn, với giá trị trung bình và độ …


3
Ước tính khả năng tối đa của phân phối chung chỉ đưa ra số lượng biên
Đặt là phân phối chung của hai biến phân loại , với . Giả sử mẫu được rút ra từ phân phối này, nhưng chúng tôi chỉ được tính tổng số biên, cụ thể là cho :px,ypx,yp_{x,y}X,YX,YX,Yx,y∈{1,…,K}x,y∈{1,…,K}x,y\in\{1,\ldots,K\}nnnj=1,…,Kj=1,…,Kj=1,\ldots,K Sj=∑i=1nδ(Xi=l),Tj=∑i=1nδ(Yi=j),Sj=∑i=1nδ(Xi=l),Tj=∑i=1nδ(Yi=j), S_j = \sum_{i=1}^{n}{\delta(X_i=l)}, T_j = \sum_{i=1}^{n}{\delta(Y_i=j)}, Công cụ ước tính khả năng …





1
Là phân phối entropy tối đa phù hợp với phân phối biên đã cho phân phối sản phẩm của các lề?
Nhìn chung, có nhiều phân phối chung phù hợp với phân phối biên đã đặt .P(X1=x1,X2=x2,...,Xn=xn)P(X1=x1,X2=x2,...,Xn=xn)P(X_1 = x_1, X_2 = x_2, ..., X_n = x_n)fi(xi)=P(Xi=xi)fi(xi)=P(Xi=xi)f_i(x_i) = P(X_i = x_i) Trong số các bản phân phối chung này, sản phẩm có được hình thành bằng cách lấy sản phẩm của lề …


Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.