Sự khác biệt giữa khoảng cách Bhattacharyya và phân kỳ KL


33

Tôi đang tìm kiếm một lời giải thích trực quan cho các câu hỏi sau:

Trong thống kê và lý thuyết thông tin, sự khác biệt giữa khoảng cách Bhattacharyya và phân kỳ KL, là thước đo của sự khác biệt giữa hai phân phối xác suất rời rạc?

Họ có hoàn toàn không có mối quan hệ và đo khoảng cách giữa hai phân phối xác suất theo cách hoàn toàn khác nhau?

Câu trả lời:


36

Các hệ số Bhattacharyya được định nghĩa là

DB(p,q)=p(x)q(x)dx
dH(p,q)
dH(p,q)= ={1-DB(p,q)}1/2
dKL(pq)2dH2(p,q)=2{1DB(p,q)}.

Tuy nhiên, đây không phải là câu hỏi: nếu khoảng cách Bhattacharyya được xác định là sau đó d B ( p , q ) = - log D B ( p , q )

dB(p,q)=deflogDB(p,q),
dB(p,q)=logDB(p,q)=logp(x)q(x)dx=deflogh(x)dx=logh(x)p(x)p(x)dxlog{h(x)p(x)}p(x)dx=12log{h2(x)p2(x)}p(x)dx=12log{q(x)p(x)}p(x)dx=12dKL(pq)
dKL(pq)2dB(p,q).
log(x)1x0x1,
enter image description here

we have the complete ordering

dKL(pq)2dB(p,q)2dH(p,q)2.

2
Brilliant! This explanation should be the one I am looking for eagerly. Just one last question: in what case (or what kinds of P and Q) will the inequality becomes equality?
JewelSue

1
Given that the log() function is strictly convex, I would assume the only case for equality is when the ratio p(x)/q(x) is constant in x.
Xi'an

5
And the only case when p(x)/q(x) is constant in x is when p=q.
Xi'an

8

I don't know of any explicit relation between the two, but decided to have a quick poke at them to see what I could find. So this isn't much of an answer, but more of a point of interest.

For simplicity, let's work over discrete distributions. We can write the BC distance as

dBC(p,q)=lnx(p(x)q(x))12

and the KL divergence as

dKL(p,q)=xp(x)lnp(x)q(x)

Now we can't push the log inside the sum on the BC distance, so let's try pulling the log to the outside of the KL divergence:

dKL(p,q)=lnx(q(x)p(x))p(x)

Let's consider their behaviour when p is fixed to be the uniform distribution over n possibilities:

dKL(p,q)=lnnln(xq(x))1ndBC(p,q)=ln1nlnxq(x)

On the left, we have the log of something that's similar in form to the geometric mean. On the right, we have something similar to the log of the arithmetic mean. Like I said, this isn't much of an answer, but I think it gives a neat intuition of how the BC distance and the KL divergence react to deviations between p and q.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.