Theo lập luận của Selvaraju et al. , có ba giai đoạn tiến hóa AI, trong đó tất cả các khả năng diễn giải đều hữu ích.
Trong giai đoạn đầu phát triển AI, khi AI yếu hơn hiệu suất của con người, tính minh bạch có thể giúp chúng ta xây dựng các mô hình tốt hơn . Nó có thể hiểu rõ hơn về cách thức hoạt động của một mô hình và giúp chúng tôi trả lời một số câu hỏi chính. Ví dụ: tại sao một mô hình hoạt động trong một số trường hợp và không hoạt động trong các trường hợp khác, tại sao một số ví dụ gây nhầm lẫn cho mô hình hơn các mô hình khác, tại sao các mô hình này hoạt động và các mô hình khác không hoạt động, v.v.
Khi AI ngang bằng với hiệu suất của con người và các mô hình ML bắt đầu được triển khai trong một số ngành, nó có thể giúp xây dựng niềm tin cho các mô hình này. Tôi sẽ giải thích một chút về điều này sau, bởi vì tôi nghĩ rằng đó là lý do quan trọng nhất.
Khi AI vượt trội đáng kể so với con người (ví dụ AI chơi cờ hoặc cờ vây), nó có thể giúp cho việc dạy máy (tức là học từ máy về cách cải thiện hiệu suất của con người trong nhiệm vụ cụ thể đó).
Tại sao niềm tin rất quan trọng?
Trước tiên, để tôi cho bạn một vài ví dụ về các ngành công nghiệp mà niềm tin là tối quan trọng:
Trong chăm sóc sức khỏe, hãy tưởng tượng một mạng lưới thần kinh sâu thực hiện chẩn đoán cho một bệnh cụ thể. Một hộp đen cổ điển NN sẽ chỉ xuất ra nhị phân "có" hoặc "không". Ngay cả khi nó có thể vượt trội hơn con người về khả năng dự đoán tuyệt đối, nó sẽ hoàn toàn vô dụng trong thực tế. Điều gì sẽ xảy ra nếu bác sĩ không đồng ý với đánh giá của người mẫu, anh ta không nên biết tại sao người mẫu đưa ra dự đoán đó; có lẽ nó đã nhìn thấy một cái gì đó bác sĩ đã bỏ lỡ. Hơn nữa, nếu nó chẩn đoán sai (ví dụ như một người bệnh được phân loại là khỏe mạnh và không được điều trị đúng cách), ai sẽ chịu trách nhiệm: người dùng của mô hình? bệnh viện? Công ty nào thiết kế mô hình? Khung pháp lý xung quanh điều này là một chút mờ.
Một ví dụ khác là xe tự lái. Những câu hỏi tương tự xuất hiện: nếu một chiếc xe gặp sự cố là lỗi của nó: người lái xe? nhà sản xuất xe hơi? công ty nào thiết kế AI? Trách nhiệm pháp lý, là chìa khóa cho sự phát triển của ngành công nghiệp này.
Trên thực tế, sự thiếu tin tưởng này, theo nhiều người đã cản trở việc áp dụng AI trong nhiều lĩnh vực (nguồn: 1 , 2 , 3 ). Mặc dù có một giả thuyết đang hoạt động rằng với các hệ thống minh bạch hơn, có thể giải thích hoặc giải thích hơn, người dùng sẽ được trang bị tốt hơn để hiểu và do đó tin tưởng các tác nhân thông minh (nguồn: 1 , 2 , 3 ).
Trong một số ứng dụng trong thế giới thực, bạn không thể chỉ nói "nó hoạt động 94% thời gian". Bạn cũng có thể cần cung cấp một lời biện minh ...
Quy định của chính phủ
Một số chính phủ đang dần tiến hành điều chỉnh AI và tính minh bạch dường như là trung tâm của tất cả những điều này.
Người đầu tiên đi theo hướng này là EU, nơi đã đặt ra một số hướng dẫn trong đó họ tuyên bố rằng AI phải minh bạch (nguồn: 1 , 2 , 3 ). Chẳng hạn, GDPR tuyên bố rằng nếu dữ liệu của một người phải tuân theo các hệ thống "ra quyết định tự động" hoặc "định hình", thì anh ta có quyền truy cập
"thông tin có ý nghĩa về logic liên quan"
( Điều 15, GDPR của EU )
Bây giờ điều này là một chút mờ, nhưng rõ ràng có ý định yêu cầu một số hình thức giải thích từ các hệ thống này. Ý tưởng chung mà EU đang cố gắng vượt qua là "nếu bạn có một hệ thống ra quyết định tự động ảnh hưởng đến cuộc sống của mọi người thì họ có quyền biết tại sao một quyết định nào đó đã được đưa ra." Ví dụ, một ngân hàng có AI chấp nhận và từ chối đơn xin vay tiền, thì người nộp đơn có quyền biết lý do tại sao đơn đăng ký của họ bị từ chối.
Tóm lại...
AI có thể giải thích là cần thiết bởi vì:
- Nó cho chúng ta hiểu rõ hơn, giúp chúng ta cải thiện chúng.
- Trong một số trường hợp, chúng ta có thể học hỏi từ AI cách đưa ra quyết định tốt hơn trong một số nhiệm vụ.
- Nó giúp người dùng tin tưởng vào AI, điều này dẫn đến việc áp dụng AI rộng rãi hơn.
- Các AI đã triển khai trong tương lai (không xa) có thể được yêu cầu phải "minh bạch" hơn.