Tôi đề nghị bạn sử dụng khung tìm thấy trong bài báo sau:
Làm thế nào xa chúng ta có thể đi xa hơn tiền điện tử tuyến tính? , Thomas Baignères, Pascal Junod, Serge Vaudenay, ASIACRYPT 2004.
Kết quả quan trọng nói rằng bạn cần , trong đó là khoảng cách Kullback-Leibler giữa hai bản phân phối và . Mở rộng định nghĩa về khoảng cách KL, chúng tôi thấy rằng trong trường hợp của bạnD ( D 0n ~ 1 / D ( D0| |D1)D 0 D 1D ( D0| |D1)D0D1
D ( D0| |D1) = p đăng nhậppp + ε+ ( 1 - p ) nhật ký1 - p1 - p - ε,
với quy ước .0 nhật ký0p= 0
Khi , chúng tôi tìm thấy . Do đó, khi , chúng tôi thấy rằng bạn cần lần lật đồng xu. Khi , chúng tôi tìm thấy , vì vậy bạn cần lật . Do đó, công thức này phù hợp với các trường hợp đặc biệt mà bạn đã biết về ... nhưng nó khái quát cho tất cả .D ( D 0p≫ϵp ≫ ϵ n ∼ p ( 1 - p ) / ϵ 2 p = 0 D ( D 0D(D0||D1)≈ϵ2/(p(1−p))p≫ϵn∼p(1−p)/ϵ2p=0n ~ 1 / ε n , εD(D0||D1)=−log(1−ϵ)≈ϵn∼1/ϵn,ϵ
Để biện minh, xem giấy.
Khi , biện minh dễ dàng được thực hiện bằng tay. Với quan sát, số lượng đầu là hoặc , vì vậy bạn muốn tìm nhỏ nhất để có thể phân biệt hai phân phối này .n nhị thức ( n , p ) nhị thức ( n , p + ε ) np≫ϵnBinomial(n,p)Binomial(n,p+ϵ)n
Bạn có thể ước chừng cả hai điều này bằng một Gaussian với giá trị trung bình và phương sai đúng, sau đó sử dụng kết quả tiêu chuẩn về độ khó phân biệt hai Gaussian và câu trả lời sẽ rơi ra. Xấp xỉ là tốt nếu hoặc hơn.p≥5/n
Cụ thể, điều này giúp phân biệt với trong đó , , , . Bạn sẽ thấy rằng xác suất xảy ra lỗi trong trình phân biệt tối ưu là trong đó . Do đó, chúng ta cần để phân biệt với xác suất thành công không đổi. Điều này tương đương với điều kiện (tối đa là một yếu tố không đổi) ... khiN ( μ 1 , σ 2 1 ) μ 0 = p n μ 1 = p + ε ) n σ 2 0 = p ( 1 - p ) n σ 2 1 = ( p + ε ) ( 1 - p - ϵ ) n erfc (N(μ0,σ20)N(μ1,σ21)μ0=pnμ1=p+ϵ)nσ20=p(1−p)nσ21=(p+ϵ)(1−p−ϵ)nz = ( μ 1 - μ 0 ) / ( σ 0 + σ 1 ) ≈ ε √erfc(z) z~1n~2p(1-p)/ε2p»εz=(μ1−μ0)/(σ0+σ1)≈ϵn/2p(1−p)−−−−−−−−−−√z∼1n∼2p(1−p)/ϵ2p≫ϵ.
Đối với trường hợp chung ... xem bài viết.