Ưu điểm của Jeffries Matusita khoảng cách


11

Theo một số bài báo tôi đang đọc, khoảng cách Jeffries và Matusita thường được sử dụng. Nhưng tôi không thể tìm thấy nhiều thông tin về nó ngoại trừ công thức dưới đây

JMD (x, y) =(xi2yi2)22

Nó tương tự như khoảng cách Euclide ngoại trừ căn bậc hai

E (x, y) =(xiyi)22

Khoảng cách JM được khẳng định là đáng tin cậy hơn khoảng cách Euclide về mặt phân loại. Bất cứ ai có thể giải thích tại sao sự khác biệt này làm cho khoảng cách JM tốt hơn?


1
Tôi không thể tìm thấy một tài liệu tham khảo có thẩm quyền sử dụng công thức này cho khoảng cách Jeffries-Matusita. Các công thức tôi tìm thấy được dựa trên ma trận hiệp phương sai cho hai lớp và dường như không có mối quan hệ nào với lớp được đưa ra ở đây, nhưng dường như có thể có hai (hoặc nhiều) thứ khác nhau được biết bởi tên này. Bạn có thể cung cấp một tài liệu tham khảo hoặc (thậm chí tốt hơn) một liên kết? BTW, và có được tính bất kỳ cơ hội nào không? (Nếu vậy, có một cách giải thích tự nhiên về công thức của bạn.)xiyi
whuber

1
@whuber: có thể và là viết tắt củaxyp(x)q(x)
user603

@ user603 Có, tôi nghĩ bạn đã có nó. Bây giờ các kết nối đến phân kỳ KL và biện pháp Battacharyya trở nên rõ ràng.
whuber

Câu trả lời:


14

Một số khác biệt chính, trước một lời giải thích dài hơn dưới đây, là:

  1. Điều quan trọng: khoảng cách Jeffries-Matusita áp dụng cho các bản phân phối, thay vì các vectơ nói chung.
  2. Công thức khoảng cách JM mà bạn trích dẫn ở trên chỉ áp dụng cho các vectơ biểu thị các phân phối xác suất rời rạc (tức là các vectơ có tổng bằng 1).
  3. Không giống như khoảng cách Euclide, khoảng cách JM có thể được khái quát thành bất kỳ phân phối nào mà khoảng cách Bhattacharrya có thể được tạo thành.
  4. Khoảng cách JM có, thông qua khoảng cách Bhattacharrya, một cách giải thích xác suất.

Khoảng cách Jeffries-Matusita, dường như đặc biệt phổ biến trong tài liệu Viễn thám, là một biến đổi của khoảng cách Bhattacharrya (một thước đo phổ biến của sự khác biệt giữa hai phân phối, được ký hiệu ở đây là ) từ phạm vi đến phạm vi cố định :bp,q[0,inf)[0,2]

JMp,q=2(1exp(b(p,q))

Một lợi thế thực tế của khoảng cách JM, theo bài viết này là biện pháp này "có xu hướng triệt tiêu các giá trị phân tách cao, trong khi quá coi trọng các giá trị phân tách thấp".

Khoảng cách Bhattacharrya đo lường sự khác biệt của hai phân phối và theo nghĩa liên tục trừu tượng sau: Nếu phân phối và được ghi lại bằng biểu đồ, được biểu thị bằng các vectơ độ dài đơn vị (trong đó phần tử thứ là số được chuẩn hóa cho của thùng), điều này trở thành: Và do đó, khoảng cách JM cho hai biểu đồ là: Trong đó, lưu ý rằng đối với biểu đồ đã chuẩn hóapq

b(p,q)=lnp(x)q(x)dx
pqiiN
b(p,q)=lni=1Npiqi
JMp,q=2(1i=1Npiqi)
ipi=1, giống như công thức bạn đã đưa ra ở trên:
JMp,q=i=1N(piqi)2=i=1N(pi2piqi+qi)=2(1i=1Npiqi)

+1 Cảm ơn rất nhiều vì đã nhảy vào và nỗ lực hết sức để làm rõ tình hình.
whuber
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.