Có nhiều cách để đo mức độ phân phối xác suất tương tự nhau. Trong số các phương pháp phổ biến (trong các vòng tròn khác nhau) là:
khoảng cách Kolmogorov: khoảng cách giữa các hàm phân phối;
khoảng cách Kantorovich-Rubinstein: sự khác biệt tối đa giữa các kỳ vọng đã tạo ra hai phân phối hàm với hằng số Lipschitz , cũng hóa ra là khoảng cách giữa các hàm phân phối;
khoảng cách ràng buộc-Lipschitz: giống như khoảng cách KR nhưng các chức năng cũng được yêu cầu phải có giá trị tuyệt đối tối đa .
Những cái này có những ưu điểm và nhược điểm khác nhau. Chỉ hội tụ theo nghĩa 3. thực sự tương ứng chính xác với hội tụ trong phân phối; hội tụ theo nghĩa 1. hoặc 2. nói chung mạnh hơn một chút. (Đặc biệt, nếu với xác suất, sau đóhội tụ vềtrong phân phối, nhưng không ở khoảng cách Kolmogorov. Tuy nhiên, nếu phân phối giới hạn là liên tục thì bệnh lý này không xảy ra.)
Từ quan điểm của xác suất cơ bản hoặc lý thuyết đo lường, 1. là rất tự nhiên bởi vì nó so sánh xác suất tồn tại trong một số tập hợp. Mặt khác, một viễn cảnh xác suất tinh vi hơn, có xu hướng tập trung nhiều hơn vào các kỳ vọng hơn là xác suất. Ngoài ra, từ góc độ phân tích chức năng, các khoảng cách như 2. hoặc 3. dựa trên tính đối ngẫu với một số không gian chức năng rất hấp dẫn, bởi vì có một bộ công cụ toán học lớn để làm việc với những thứ đó.
Tuy nhiên, ấn tượng của tôi (sửa tôi nếu tôi sai!) Là trong thống kê, khoảng cách Kolmogorov là cách thường được ưa thích để đo lường sự tương tự của các bản phân phối. Tôi có thể đoán một lý do: nếu một trong các bản phân phối rời rạc với sự hỗ trợ hữu hạn - đặc biệt, nếu đó là phân phối của một số dữ liệu trong thế giới thực - thì khoảng cách Kolmogorov đến phân phối mô hình rất dễ tính toán. (Khoảng cách KR sẽ khó tính hơn một chút và khoảng cách BL có thể là không thể về mặt thực tế.)
Vì vậy, câu hỏi của tôi (cuối cùng) là, có những lý do khác, hoặc thực tế hay lý thuyết, để ủng hộ khoảng cách Kolmogorov (hoặc một số khoảng cách khác) cho mục đích thống kê?