Một số khác biệt chính, trước một lời giải thích dài hơn dưới đây, là:
- Điều quan trọng: khoảng cách Jeffries-Matusita áp dụng cho các bản phân phối, thay vì các vectơ nói chung.
- Công thức khoảng cách JM mà bạn trích dẫn ở trên chỉ áp dụng cho các vectơ biểu thị các phân phối xác suất rời rạc (tức là các vectơ có tổng bằng 1).
- Không giống như khoảng cách Euclide, khoảng cách JM có thể được khái quát thành bất kỳ phân phối nào mà khoảng cách Bhattacharrya có thể được tạo thành.
- Khoảng cách JM có, thông qua khoảng cách Bhattacharrya, một cách giải thích xác suất.
Khoảng cách Jeffries-Matusita, dường như đặc biệt phổ biến trong tài liệu Viễn thám, là một biến đổi của khoảng cách Bhattacharrya (một thước đo phổ biến của sự khác biệt giữa hai phân phối, được ký hiệu ở đây là ) từ phạm vi đến phạm vi cố định :bp,q[0,inf)[0,2–√]
JMp,q=2(1−exp(−b(p,q))−−−−−−−−−−−−−−−√
Một lợi thế thực tế của khoảng cách JM, theo bài viết này là biện pháp này "có xu hướng triệt tiêu các giá trị phân tách cao, trong khi quá coi trọng các giá trị phân tách thấp".
Khoảng cách Bhattacharrya đo lường sự khác biệt của hai phân phối và theo nghĩa liên tục trừu tượng sau:
Nếu phân phối và được ghi lại bằng biểu đồ, được biểu thị bằng các vectơ độ dài đơn vị (trong đó phần tử thứ là số được chuẩn hóa cho của thùng), điều này trở thành:
Và do đó, khoảng cách JM cho hai biểu đồ là:
Trong đó, lưu ý rằng đối với biểu đồ đã chuẩn hóapq
b(p,q)=−ln∫p(x)q(x)−−−−−−−√dx
pqiiNb(p,q)=−ln∑i=1Npi⋅qi−−−−−√
JMp,q=2(1−∑i=1Npi⋅qi−−−−−√)−−−−−−−−−−−−−−−−⎷
∑ipi=1, giống như công thức bạn đã đưa ra ở trên:
JMp,q=∑i=1N(pi−−√−qi−−√)2−−−−−−−−−−−−−−⎷=∑i=1N(pi−2pi−−√qi−−√+qi)−−−−−−−−−−−−−−−−−−−⎷=2(1−∑i=1Npi⋅qi−−−−−√)−−−−−−−−−−−−−−−−⎷