Tôi đang sử dụng Kappa của Cohen để tính toán thỏa thuận giữa hai thẩm phán.
Nó được tính như sau:
Trong đó là tỷ lệ của thỏa thuận và xác suất của thỏa thuận tình cờ.
Bây giờ cho tập dữ liệu sau, tôi nhận được kết quả mong đợi:
User A judgements:
- 1, true
- 2, false
User B judgements:
- 1, false
- 2, false
Proportion agreed: 0.5
Agreement by chance: 0.625
Kappa for User A and B: -0.3333333333333333
Chúng ta có thể thấy rằng cả hai thẩm phán đã không đồng ý rất tốt. Tuy nhiên, trong trường hợp sau đây khi cả hai thẩm phán đánh giá một tiêu chí, kappa ước tính bằng không:
User A judgements:
- 1, false
User B judgements:
- 1, false
Proportion agreed: 1.0
Agreement by chance: 1.0
Kappa for User A and B: 0
Bây giờ tôi có thể thấy rằng thỏa thuận tình cờ rõ ràng là 1, điều này dẫn đến kappa bằng 0, nhưng điều này có được coi là kết quả đáng tin cậy không? Vấn đề là tôi thường không có nhiều hơn hai phán đoán cho mỗi tiêu chí, vì vậy tất cả những điều này sẽ không bao giờ đánh giá bất kỳ kappa nào lớn hơn 0, mà tôi nghĩ là không đại diện.
Tôi có đúng với tính toán của tôi không? Tôi có thể sử dụng một phương pháp khác để tính toán thỏa thuận không?
Ở đây chúng ta có thể thấy rằng kappa hoạt động tốt cho nhiều phán đoán:
User A judgements:
- 1, false
- 2, true
- 3, false
- 4, false
- 5, true
User A judgements:
- 1, true
- 2, true
- 3, false
- 4, true
- 5, false
Proportion agreed: 0.4
Agreement by chance: 0.5
Kappa for User A and B: -0.19999999999999996
information-retrieval
thẻ ở đây.