Tại sao chúng ta cần AI có thể giải thích?


56

Nếu mục đích ban đầu để phát triển AI là giúp con người trong một số nhiệm vụ và mục đích đó vẫn còn, thì tại sao chúng ta phải quan tâm đến khả năng giải thích của nó? Ví dụ, trong học tập sâu, miễn là trí thông minh giúp chúng ta phát huy tốt nhất khả năng của họ và cẩn thận đưa ra quyết định của mình, tại sao chúng ta cần biết trí thông minh của nó hoạt động như thế nào?


15
Điều gì xảy ra khi AI không cho bạn câu trả lời hay? Làm thế nào để bạn tìm thấy vấn đề? Làm thế nào để bạn xác minh giải pháp, nếu bạn không hiểu lý do? Làm thế nào để bạn chắc chắn rằng chúng ta không biến tất cả thành kẹp giấy? :)
Luaan

8
Không đăng nó như một câu trả lời vì tôi nghi ngờ nó không đáp ứng các tiêu chuẩn, nhưng giả sử chúng ta hỏi AI cách khắc phục các vấn đề khí hậu và nó nói "gây ô nhiễm đại dương". Có lẽ nó đúng và có một số cách để khắc phục mọi thứ. Có thể một nhà phát triển đã gây ra lỗi và đầu ra thực tế phải là "bỏ chọn các đại dương". Làm thế nào để bạn có ý định phân biệt giữa hai người, nếu không bằng cách nói rất rõ lý luận của AI?
Flater

5
Có câu trả lời nào cho câu hỏi này thực sự cần thiết, ngoài kiến ​​thức phổ biến về sự tồn tại của các kỹ thuật đối nghịch không? Ngay bây giờ có thể thực hiện các tinh chỉnh nhỏ cho dữ liệu đầu vào tạo ra những thay đổi ồ ạt không tương xứng trong đầu ra. Trong các nhiệm vụ như nhận dạng trực quan các vật thể, trong đó các kết quả có thể dễ dàng kiểm tra đối với trí thông minh thực sự, các kết quả dường như vô nghĩa và điên rồ, và chỉ ra rằng những gì AI đang "nhìn thấy" là một thứ rất khác so với những gì chúng ta đang thấy . Nếu AI không thể tự giải thích trong những trường hợp như vậy, tính hữu dụng của nó sẽ giảm mạnh.
Mason Wheeler

1
Trong khi câu hỏi của bạn dựa trên nhu cầu về AI có thể giải thích được, tôi cũng muốn đề xuất một bài đọc thách thức quan điểm này - tôi nghĩ có những điểm rất tốt ở đó. Trong số những điều khác, một lý do cho nhu cầu giải thích có thể liên quan đến nhu cầu giải thích các hệ thống xung quanh chúng ta, và sau đó chúng ta tin tưởng cao hơn vào các hệ thống mà chúng ta hiểu, ngay cả khi các hệ thống này hoạt động kém hơn những hệ thống khác mà chúng ta KHÔNG hiểu. Hy vọng nó sẽ thêm một số tài liệu để phản ánh - hackernoon.com/ từ
Elisio Quintino

2
Đây có thể là một resoruce bổ sung thú vị. Mọi người đã cố gắng xây dựng một bộ phân loại Husky vs Wolf, sau đó nhận ra rằng mạng không tập trung vào con vật, mà là nền vì tất cả hình ảnh có tuyết trên nền đều là sói. Nói cách khác, nếu bạn phát hiện ra một chiếc xe hơi, bạn cần chắc chắn rằng đó là vì một chiếc xe trong hình ảnh chứ không phải vì một dấu hiệu dừng lại ở bên cạnh hình ảnh.
jaaq

Câu trả lời:


64

Theo lập luận của Selvaraju et al. , có ba giai đoạn tiến hóa AI, trong đó tất cả các khả năng diễn giải đều hữu ích.

  1. Trong giai đoạn đầu phát triển AI, khi AI yếu hơn hiệu suất của con người, tính minh bạch có thể giúp chúng ta xây dựng các mô hình tốt hơn . Nó có thể hiểu rõ hơn về cách thức hoạt động của một mô hình và giúp chúng tôi trả lời một số câu hỏi chính. Ví dụ: tại sao một mô hình hoạt động trong một số trường hợp và không hoạt động trong các trường hợp khác, tại sao một số ví dụ gây nhầm lẫn cho mô hình hơn các mô hình khác, tại sao các mô hình này hoạt động và các mô hình khác không hoạt động, v.v.

  2. Khi AI ngang bằng với hiệu suất của con người và các mô hình ML bắt đầu được triển khai trong một số ngành, nó có thể giúp xây dựng niềm tin cho các mô hình này. Tôi sẽ giải thích một chút về điều này sau, bởi vì tôi nghĩ rằng đó là lý do quan trọng nhất.

  3. Khi AI vượt trội đáng kể so với con người (ví dụ AI chơi cờ hoặc cờ vây), nó có thể giúp cho việc dạy máy (tức là học từ máy về cách cải thiện hiệu suất của con người trong nhiệm vụ cụ thể đó).

Tại sao niềm tin rất quan trọng?

Trước tiên, để tôi cho bạn một vài ví dụ về các ngành công nghiệp mà niềm tin là tối quan trọng:

  • Trong chăm sóc sức khỏe, hãy tưởng tượng một mạng lưới thần kinh sâu thực hiện chẩn đoán cho một bệnh cụ thể. Một hộp đen cổ điển NN sẽ chỉ xuất ra nhị phân "có" hoặc "không". Ngay cả khi nó có thể vượt trội hơn con người về khả năng dự đoán tuyệt đối, nó sẽ hoàn toàn vô dụng trong thực tế. Điều gì sẽ xảy ra nếu bác sĩ không đồng ý với đánh giá của người mẫu, anh ta không nên biết tại sao người mẫu đưa ra dự đoán đó; có lẽ nó đã nhìn thấy một cái gì đó bác sĩ đã bỏ lỡ. Hơn nữa, nếu nó chẩn đoán sai (ví dụ như một người bệnh được phân loại là khỏe mạnh và không được điều trị đúng cách), ai sẽ chịu trách nhiệm: người dùng của mô hình? bệnh viện? Công ty nào thiết kế mô hình? Khung pháp lý xung quanh điều này là một chút mờ.

  • Một ví dụ khác là xe tự lái. Những câu hỏi tương tự xuất hiện: nếu một chiếc xe gặp sự cố là lỗi của nó: người lái xe? nhà sản xuất xe hơi? công ty nào thiết kế AI? Trách nhiệm pháp lý, là chìa khóa cho sự phát triển của ngành công nghiệp này.

Trên thực tế, sự thiếu tin tưởng này, theo nhiều người đã cản trở việc áp dụng AI trong nhiều lĩnh vực (nguồn: 1 , 2 , 3 ). Mặc dù có một giả thuyết đang hoạt động rằng với các hệ thống minh bạch hơn, có thể giải thích hoặc giải thích hơn, người dùng sẽ được trang bị tốt hơn để hiểu và do đó tin tưởng các tác nhân thông minh (nguồn: 1 , 2 , 3 ).

Trong một số ứng dụng trong thế giới thực, bạn không thể chỉ nói "nó hoạt động 94% thời gian". Bạn cũng có thể cần cung cấp một lời biện minh ...

Quy định của chính phủ

Một số chính phủ đang dần tiến hành điều chỉnh AI và tính minh bạch dường như là trung tâm của tất cả những điều này.

Người đầu tiên đi theo hướng này là EU, nơi đã đặt ra một số hướng dẫn trong đó họ tuyên bố rằng AI phải minh bạch (nguồn: 1 , 2 , 3 ). Chẳng hạn, GDPR tuyên bố rằng nếu dữ liệu của một người phải tuân theo các hệ thống "ra quyết định tự động" hoặc "định hình", thì anh ta có quyền truy cập

"thông tin có ý nghĩa về logic liên quan"

( Điều 15, GDPR của EU )

Bây giờ điều này là một chút mờ, nhưng rõ ràng có ý định yêu cầu một số hình thức giải thích từ các hệ thống này. Ý tưởng chung mà EU đang cố gắng vượt qua là "nếu bạn có một hệ thống ra quyết định tự động ảnh hưởng đến cuộc sống của mọi người thì họ có quyền biết tại sao một quyết định nào đó đã được đưa ra." Ví dụ, một ngân hàng có AI chấp nhận và từ chối đơn xin vay tiền, thì người nộp đơn có quyền biết lý do tại sao đơn đăng ký của họ bị từ chối.

Tóm lại...

AI có thể giải thích là cần thiết bởi vì:

  • Nó cho chúng ta hiểu rõ hơn, giúp chúng ta cải thiện chúng.
  • Trong một số trường hợp, chúng ta có thể học hỏi từ AI cách đưa ra quyết định tốt hơn trong một số nhiệm vụ.
  • Nó giúp người dùng tin tưởng vào AI, điều này dẫn đến việc áp dụng AI rộng rãi hơn.
  • Các AI đã triển khai trong tương lai (không xa) có thể được yêu cầu phải "minh bạch" hơn.

4
Đó chính xác là vấn đề (IMHO). Thường thì bạn không thể kiểm tra toàn diện hộp đen và sau đó bạn chấp nhận (ngay cả trong các ứng dụng quan trọng trong cuộc sống) một cái gì đó "có vẻ đủ tốt", trong trường hợp này là bộ não con người, và tất cả chúng ta đều tốt với điều đó. Nếu chúng ta không thể làm điều đó cho AI thì đó là do (những hạn chế?) Trong quy định của chúng ta, không phải vì "để lái máy bay, mọi thứ phải được chứng minh về mặt toán học" (hiện tại, thậm chí không có AI). Tất nhiên cách bạn kiểm tra AI không thể giống như cách bạn kiểm tra một phi công người (ngay cả khi họ có thể trùng khớp một phần).
Adriano Repetti

11
@ZsoltSzilagy Tôi không nói rằng các quy định của chính phủ là một điều xấu. Tôi chỉ nói rằng họ là một lý do nghiêm trọng để phát triển AI có thể giải thích được, nếu bạn đang làm việc trong một số ngành công nghiệp.
Djib2011

8
Một điểm khác để thêm là tập trung rủi ro. Một con chó đánh hơi ma túy có thể bị thiên vị, và bạn không thể hỏi nó tại sao nó đưa ra quyết định nhất định. Nhưng nó chỉ là một con chó trong số hàng ngàn. Một mô hình AI duy nhất sẽ được triển khai trên toàn cầu, vì vậy nếu nó sai, nó có tác động lớn hơn nhiều.
Brendan Whites

19
@BrendanWhiting thực sự là một trường hợp thú vị. Sự khác biệt giữa một con chó đánh hơi ma túy và AI đánh hơi ma túy. Tại sao yêu cầu AI đưa ra lời giải thích trong khi con chó không phải .... Tôi nghĩ rằng sự khác biệt trong trường hợp đầu tiên, con chó chỉ là một công cụ giúp con người (trong trường hợp này là cảnh sát DEA) tạo ra quyết định của anh ấy. Cuối cùng anh ta là người chịu trách nhiệm cho nó, không phải con chó. Tương tự, không có vấn đề gì với AI hỗ trợ quyết định , chỉ với những người ra quyết định . Đó là cách tôi nghĩ rằng toàn bộ trách nhiệm giải trình trong nhiều lĩnh vực cuối cùng sẽ bị bỏ qua.
Djib2011

6
Có lẽ đó cũng là một vấn đề chưa biết. Chúng tôi đã đào tạo động vật trong hàng ngàn năm và chúng tôi khá tự tin rằng nó ổn định. Nếu sắp có những đàn thú được huấn luyện chiếm lĩnh thế giới, có lẽ điều đó đã xảy ra ngay bây giờ. (Mặc dù tôi giống như lý thuyết rằng hầu hết những con chó là loại ký sinh trùng, chúng đã tiến hóa để trở nên dễ thương đến nỗi chúng ta chăm sóc chúng thay vì trẻ nhỏ của chúng ta).
Brendan Whites

15

Tại sao chúng ta cần AI có thể giải thích? ... tại sao chúng ta cần biết "trí thông minh của nó hoạt động như thế nào?"

Bởi vì bất kỳ ai có quyền truy cập vào thiết bị, đủ kỹ năng và đủ thời gian, đều có thể buộc hệ thống đưa ra quyết định bất ngờ. Chủ sở hữu của thiết bị, hoặc các bên thứ 3, dựa vào quyết định mà không có lời giải thích về lý do tại sao nó là chính xác sẽ là một bất lợi.

Ví dụ - Ai đó có thể khám phá:

  • Những người được đặt tên là John Smith và yêu cầu phẫu thuật tim vào: buổi sáng thứ ba, buổi chiều thứ tư hoặc thứ sáu vào những ngày và tháng lẻ có 90% cơ hội di chuyển lên phía trước của dòng.

  • Các cặp vợ chồng có họ của một chữ cái lẻ trong nửa đầu của bảng chữ cái và xin vay với người phối ngẫu có tên bắt đầu bằng một chữ cái từ đầu bảng chữ cái có khả năng nhận khoản vay cao hơn 40% nếu họ có Ít hơn 5 mục xấu trong lịch sử tín dụng của họ.

  • Vân vân.

Lưu ý rằng các ví dụ trên không nên xác định các yếu tố liên quan đến câu hỏi đang được hỏi, nhưng đối thủ (với thiết bị của riêng họ hoặc kiến ​​thức về thuật toán) có thể khai thác nó.

Nguồn giấy tờ :

  • " AdvHat: Tấn công nghịch cảnh trong thế giới thực vào hệ thống ArcFace Face ID " (ngày 23 tháng 8 năm 2019) bởi Stepan Komkov và Aleksandr Petiushko

    • Tạo một nhãn dán và đặt nó trên mũ của bạn đánh lừa hệ thống nhận dạng khuôn mặt.
  • " Bảo vệ chống lại các cuộc tấn công bất lợi thông qua tái tạo tính năng kiên cường " (ngày 8 tháng 6 năm 2019), bởi Tejas Borkar, Felix Heide và Lina Karam

    • "Dự đoán mạng nơ ron sâu (DNN) đã được chứng minh là dễ bị tổn thương do nhiễu loạn đối thủ được chế tạo cẩn thận. Cụ thể, cái gọi là nhiễu loạn phổ biến là nhiễu loạn hình ảnh có thể được thêm vào bất kỳ hình ảnh nào và có thể đánh lừa mạng đích. Khởi hành từ các chiến lược phòng thủ đối nghịch hiện có, hoạt động trong miền hình ảnh, chúng tôi trình bày một biện pháp phòng thủ mới hoạt động trong miền tính năng DNN và bảo vệ hiệu quả trước các cuộc tấn công đối nghịch phổ quát như vậy. Cách tiếp cận của chúng tôi xác định các tính năng tích chập được đào tạo trước dễ bị tổn thương nhất tiếng ồn và triển khai các đơn vị phòng thủ biến đổi (tái tạo) các kích hoạt bộ lọc DNN này thành các tính năng chống ồn, bảo vệ chống lại các nhiễu loạn không nhìn thấy được. ".

  • " Tấn công một pixel để đánh lừa các mạng lưới thần kinh sâu " (ngày 3 tháng 5 năm 2019), bởi Jiawei Su, Danilo Vasconcellos Vargas và Sakurai Kouichi

    • Việc thay đổi một pixel có thể gây ra các lỗi này:

    Hình 1
    Hình 1. Các cuộc tấn công một pixel được tạo bằng thuật toán đề xuất đã đánh lừa thành công ba loại DNN được đào tạo trên bộ dữ liệu CIFAR-10: Mạng tích chập (AllConv), Mạng trong mạng (NiN) và VGG. Các nhãn lớp ban đầu có màu đen trong khi các nhãn lớp mục tiêu và độ tin cậy tương ứng được đưa ra dưới đây.

     

    Hình 2
    Hình 2. Các cuộc tấn công một pixel vào tập dữ liệu ImageNet trong đó các pixel được sửa đổi được tô sáng bằng các vòng tròn màu đỏ. Các nhãn lớp gốc có màu đen trong khi các nhãn lớp đích và độ tin cậy tương ứng của chúng được đưa ra dưới đây.

Nếu không có lời giải thích về cách thức và lý do đưa ra quyết định thì quyết định không thể hoàn toàn dựa vào.


1
Những phát hiện của một cuộc tấn công pixel và những thứ tương tự khác là lý do tại sao tôi cho rằng học sâu không học được gì.
Joshua

1
@Joshua Vâng, nó không học như trong học tập của con người (hiểu lý do), nhưng nó học chức năng đa chiều có thể phân loại các hình ảnh này trong các danh mục. Nó đã tự mình làm điều đó, mặc dù nó đã giải quyết được giải pháp tốt nhất bằng cách sử dụng vũ lực. Đó là rất nhiều điều mong đợi từ một bó kim loại, và cát được sắp xếp gọn gàng để cho phép dòng điện chạy theo hệ thống.
dùng14492

1
WRT đối với các ví dụ của bạn, giả sử khoản vay cho các cặp vợ chồng có điều kiện sôi nổi, không phải là loại điều này được giảm nhẹ bằng cách chỉ cung cấp dữ liệu mô hình mà nó nên quan tâm? Giống như tên không bao giờ được cung cấp cho AI, bởi vì AI không bao giờ nên đưa ra quyết định dựa trên tên của người yêu cầu. Tôi hiểu quan điểm của bạn mặc dù, có thể có ít ví dụ hơn so với các điểm dữ liệu mà AI thực sự cần. Các cuộc tấn công một pixel là rất thú vị
Cruncher

@Cruncher Các ví dụ ít giả tạo luôn tốt hơn khi một người đang đưa ra quan điểm, nhiều như nhận thức muộn màng là 20/20. Sẽ thế nào nếu khoản vay bị từ chối trước có cả số nguyên tố trong đó (lớn hơn 7) và số trước có hai số nguyên tố và từ 17 đến 43, v.v. Sau đó, bạn tìm thấy ai đó nói rằng họ sẽ bán thứ gì đó cho X đô la, đưa ra một khoản vay và cố gắng để bị loại, làm điều đó một vài lần, bây giờ đưa ra một khoản vay cho một ngôi nhà hoặc tàu - cơ hội tốt hơn 30% và từ chối giảm giá trước. Không có lời giải thích đằng sau lý do bạn sẽ luôn muốn đưa ra lựa chọn của riêng mình.
Cướp

@Joshua Chà, chắc chắn họ có thể học cách tìm một cuộc tấn công pixel và những thứ tương tự. (Bài viết được liên kết ở đây đã sử dụng một cách tiếp cận tiến hóa, nhưng tôi đã thấy kết quả tương tự khi sử dụng GAN.) Không có phương pháp phân loại nào là hoàn hảo. Tầm nhìn của con người dễ bị ảo ảnh quang học. Đây là máy tương đương. Chúng ta chỉ có thể tìm thấy nhiều ví dụ cực đoan hơn cho các hệ thống thị giác máy vì chúng có thể đưa ra và ghi lại các dự đoán nhanh hơn con người, vì vậy chúng ta có thể đào tạo một hệ thống khác để tìm các trạng thái thất bại phù hợp với các tiêu chí nhất định.
Ray

8

Nếu bạn là ngân hàng, bệnh viện hoặc bất kỳ thực thể nào sử dụng phân tích dự đoán để đưa ra quyết định về các hành động có ảnh hưởng lớn đến cuộc sống của mọi người, bạn sẽ không đưa ra quyết định quan trọng chỉ vì cây Gradient Boosted bảo bạn làm như vậy. Thứ nhất, vì nó rủi ro và mô hình cơ bản có thể sai và thứ hai, bởi vì trong một số trường hợp, điều đó là bất hợp pháp - xem Quyền giải thích .


5

AI có thể giải thích thường được mong muốn bởi vì

  1. AI (đặc biệt là các mạng thần kinh nhân tạo) có thể thất bại thảm hại trong việc thực hiện công việc dự định của chúng. Cụ thể hơn, nó có thể bị hack hoặc tấn công bằng các ví dụ bất lợi hoặc có thể đưa ra những quyết định sai lầm bất ngờ mà hậu quả của nó là thảm khốc (ví dụ, nó có thể dẫn đến cái chết của mọi người). Ví dụ, hãy tưởng tượng rằng AI chịu trách nhiệm xác định liều lượng thuốc cần dùng cho bệnh nhân, dựa trên các điều kiện của bệnh nhân. Điều gì xảy ra nếu AI đưa ra dự đoán sai và điều này dẫn đến cái chết của bệnh nhân? Ai sẽ chịu trách nhiệm cho một hành động như vậy? Để chấp nhận dự đoán liều lượng của AI, các bác sĩ cần tin tưởngAI, nhưng niềm tin chỉ đi kèm với sự hiểu biết, đòi hỏi một lời giải thích. Vì vậy, để tránh những thất bại có thể xảy ra, điều cơ bản là phải hiểu hoạt động bên trong của AI, để nó không đưa ra những quyết định sai lầm đó một lần nữa.

  2. AI thường cần tương tác với con người, đó là chúng sinh (chúng ta có cảm xúc) và điều đó thường cần một lời giải thích hoặc trấn an (liên quan đến một số chủ đề hoặc sự kiện).

  3. Nói chung, con người thường tìm kiếm một lời giải thích và hiểu biết về môi trường xung quanh và thế giới. Theo tự nhiên, chúng ta là những sinh vật tò mò và thích khám phá. Tại sao một quả táo rơi?


4

Câu trả lời cho điều này là vô cùng đơn giản. Nếu một ngày nào đó bạn là giám đốc điều hành ngân hàng, bạn có thể cần phải đứng lên tòa án và giải thích lý do tại sao AI của bạn từ chối thế chấp cho tất cả những người này ... những người tình cờ chia sẻ một số đặc điểm được bảo vệ theo luật chống phân biệt đối xử. Thẩm phán sẽ không vui nếu bạn rửa tay câu hỏi lẩm bẩm điều gì đó về thuật toán. Hoặc tệ hơn, tại sao chiếc xe / máy bay này gặp sự cố và làm thế nào bạn sẽ ngăn chặn nó lần sau.

Đây là công cụ chặn chính để áp dụng AI rộng rãi hơn trong nhiều ngành công nghiệp.


1
"Câu trả lời" đang phóng đại trường hợp của bạn. Tôi sẽ nâng cao nếu bạn nói "Một câu trả lời ..."
John Coleman

3

Một lý do khác: Trong tương lai, AI có thể được sử dụng cho các nhiệm vụ mà con người không thể hiểu được, bằng cách hiểu thuật toán AI được đưa ra hoạt động như thế nào đối với vấn đề đó, chúng ta có thể hiểu bản chất của hiện tượng đã cho.


2

Ngoài tất cả những câu trả lời đề cập đến những lý do thực tế hơn về lý do tại sao chúng ta muốn AI có thể giải thích được, tôi muốn thêm một lý thuyết mang tính triết học hơn.

Hiểu cách mọi thứ xung quanh chúng ta hoạt động là một trong những động lực chính của khoa học từ thời cổ đại. Nếu bạn không hiểu cách thức mọi thứ hoạt động, bạn không thể tiến hóa hơn điểm đó. Chỉ vì "trọng lực hoạt động" đã không ngăn chúng tôi cố gắng hiểu nó hoạt động như thế nào. Đổi lại, một sự hiểu biết tốt hơn về nó đã dẫn đến một số khám phá quan trọng, đã giúp chúng tôi phát triển công nghệ của chúng tôi.

Tương tự như vậy, nếu chúng ta dừng lại ở "nó hoạt động", chúng ta sẽ ngừng cải thiện nó.


Biên tập:

AI không chỉ là làm cho "máy móc suy nghĩ", mà còn thông qua chúng để hiểu bộ não của con người hoạt động như thế nào. AI và khoa học thần kinh đi đôi với nhau .

Tất cả điều này sẽ không thể thực hiện được nếu không có khả năng giải thích AI.


0

Không nên cho rằng sự phát triển của AI ban đầu được thúc đẩy bởi mong muốn giúp đỡ con người. Có nhiều cách giải thích hợp lý khó có thể chứng minh hoặc bác bỏ.

  • Được biết đến để mơ về một số ý tưởng tương lai trước khi bất cứ ai khác làm
  • Có được sức mạnh trước một số kẻ thù tưởng tượng hoặc một kẻ thù tiềm năng nào đó trong tương lai
  • Bởi vì nó có thể
  • Cho vui
  • Bởi vì Bộ Quốc phòng Hoa Kỳ có thể sẽ tài trợ nó vô thời hạn
  • Đó là một sự nghiệp tốt
  • Để chứng minh rằng không có gì đặc biệt kỳ diệu về bộ não con người
  • Chúng tôi đã được thuê và cho một số tiền, và có vẻ như đó là một cách tốt để chi tiêu
  • Nó đã quyết định theo đuổi nó nhưng không ai trong chúng tôi thực sự nhớ tại sao

Có một số từ mô tả được xác định kém trong câu hỏi này, mặc dù có thể khó tìm thấy bất kỳ từ nào tốt hơn để thay thế chúng. Làm thế nào chúng ta sẽ chính thức hóa những điều này?

  • Theo khả năng tốt nhất của họ (hệ thống thông minh) --- Chúng ta sẽ đánh giá khả năng và so sánh kết quả với chúng theo cách nào? Chúng tôi nói với một sinh viên, "Bạn không áp dụng chính mình", nhưng đó không phải là một quan sát khoa học. Đó là một phán đoán có phần độc đoán dựa trên dự đoán về thành tích không được đáp ứng theo hệ thống phân loại của bên thứ ba và ứng dụng của các bên dễ sai khác.
  • Cẩn thận đi đến quyết định --- Chăm sóc ngụ ý các mục tiêu mà chính họ là mục tiêu. Chúng tôi chưa ghi nhận một nền tảng điện toán tiên tiến mã hóa một hệ thống đạo đức áp dụng cho nhận thức trừu tượng về các tình huống, như trong trường hợp của một con người có đạo đức, nhờ đó sự chăm sóc có được bất kỳ ý nghĩa thực tế nào. Cổng nand thực hiện chức năng nand đáng tin cậy hoặc một số thuật toán được chứng minh là hội tụ với kích thước tập dữ liệu nhất định trong các điều kiện cụ thể hầu như không phải là ý nghĩa mở rộng hoàn toàn của những gì chúng ta đang cẩn thận.
  • Có thể giải thích --- Điều này cũng mơ hồ. Ở một thái cực, sự hội tụ trên một tập hợp các giá trị tham số trong quá trình hội tụ của mạng nhân tạo là một lời giải thích, nhưng các giá trị riêng lẻ không được giải thích. Ở thái cực ngược lại, một báo cáo đầy đủ về một giả thuyết, thiết kế thử nghiệm, lựa chọn một tập hợp các điều kiện, phân tích, kết quả và kết luận vẫn chưa phải là một lời giải thích thấu đáo. Một báo cáo như vậy chỉ có thể bao gồm dưới 1% thông tin mô tả ứng dụng trí thông minh của con người vào nghiên cứu được nêu trong báo cáo.

Công việc ban đầu trên các mạng nhân tạo đã bị chỉ trích trong các tạp chí AI đầu những năm 1990 vì không thể giải thích được trên cơ sở truy nguyên. Các hệ thống sản xuất (dựa trên quy tắc) đã để lại các quy tắc kiểm toán được áp dụng và kết quả của các quy tắc trước đó để ai đó có thể lắp ráp bằng chứng bằng văn bản về kết quả. Điều này là hữu ích hạn chế.

Khi vô lăng bị loại bỏ khỏi các phương tiện và một số khu vực pháp lý bắt đầu lập pháp chống lại việc lái xe của con người ở một số khu vực, điều đó sẽ không xảy ra vì bằng chứng về sự an toàn trong một triệu kịch bản đã được viết ra. Đó sẽ là do sự phân phối của các trường hợp tử vong do tai nạn, mất tích và phá hủy tài sản do tài xế AI cài đặt trong một loại phương tiện cụ thể, trong một khoảng thời gian đủ thuyết phục, cho thấy sự an toàn của nó đối với các bản phân phối đó cho người lái xe. Cuối cùng, trong một số phòng xử án hoặc hội nghị lập pháp sẽ có người nói điều này hoặc tương đương.

Nếu chúng ta không cấm người lái xe trong những điều kiện quy định cho khu vực đang thảo luận, chúng ta sẽ kết án X số đàn ông, phụ nữ, trẻ em và người đi bộ và hành khách già mỗi năm cho đến chết sớm.

Hiểu cơ chế hoạt động và các quyết định đưa ra cho các trường hợp cụ thể là hữu ích, nhưng tại sao điều đó lại hữu ích lại không rõ ràng như tại sao AI trở thành một lĩnh vực khả thi trong công việc và nghiên cứu.

  • Sẽ rất thú vị khi so sánh các hệ thống AI cạnh tranh theo một cách định lượng nào đó.
  • Nó sẽ có giá trị học tập lớn để hiểu thêm về trí thông minh.
  • Một lời giải thích tốt hơn làm cho một bài báo tốt.
  • Một ngày nọ, tôi đã vẽ nguệch ngoạc và tìm ra cách giải thích một lớp hệ thống cụ thể dường như được giải thích kém.

Mặc dù tính không thể kiểm toán của các hệ thống AI có thể xuất hiện trên sàn của các sự kiện lập pháp và tư pháp, phần lớn các quyết định được đưa ra sẽ dựa trên cách thức đánh giá thống kê được công bố và nhận thức. Những người khăng khăng các hệ thống vận hành theo cách có thể giải thích được, có thể, có ý thức hoặc tiềm thức, được thúc đẩy bởi một mối quan tâm trong một nhận thức rằng sự thống trị của con người là định mệnh rõ ràng. Điều đáng nói hơn là nhiều người giúp đỡ lợi ích của Hoa Kỳ và Liên Xô trong Chiến tranh Lạnh hiện được coi là những kẻ lãnh đạo khủng bố bởi những người kế thừa của cả hai phe trong Chiến tranh Lạnh.

Câu hỏi liên quan và có thể trả lời rõ ràng hơn là liệu một người trợ giúp thông minh có thể được kỳ vọng sẽ vẫn là người trợ giúp vô thời hạn hay không. Cuộc điều tra về những người giúp đỡ thông minh mãi mãi đang diễn ra và được mọi người quan tâm từ các tác giả khoa học và nhà biên kịch cho đến các nhà tư tưởng liên kết quân sự.


-1

IMHO, nhu cầu quan trọng nhất đối với AI có thể giải thích là ngăn chúng ta trở nên lười biếng về trí tuệ. Nếu chúng ta ngừng cố gắng tìm hiểu câu trả lời được tìm thấy như thế nào, chúng ta đã thừa nhận trò chơi với các máy của chúng ta.


Chà, chúng tôi hiểu làm thế nào họ tìm thấy câu trả lời ở mức độ cao: Họ đoán khoảng hàng triệu lần cho đến khi họ tìm thấy một mô hình đầy hứa hẹn. Nhiệm vụ trí tuệ là tìm hiểu NHỮNG GÌ gây ra những kẻ đó - một câu hỏi mà AI không quan tâm.
Zsolt Szilagy

Đôi khi điều đó là đúng, nhưng một số loại AI (ví dụ: thuật toán di truyền) thường làm tốt hơn thế và có thể được cấu trúc để cung cấp manh mối tốt về nguyên nhân gây ra các mô hình. Đôi khi chỉ cần chỉ ra rằng "mẫu tìm thấy trong tập dữ liệu này rất giống với mẫu được tìm thấy trong bộ dữ liệu khác này" có thể rất nhiều thông tin và dẫn đến giải thích nguyên nhân.
S. McGrew
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.