Làm thế nào có thể đo EQ của một chương trình AI?


9

Một chương trình AI có thể có EQ (Trí tuệ cảm xúc hay chỉ số cảm xúc) không?

Nói cách khác, có thể đo EQ của chương trình AI không?

Nếu EQ khó đo lường hơn IQ (ít nhất là với một ứng dụng tiêu chuẩn cho cả chương trình con người và AI), thì tại sao lại như vậy?


"Thử nghiệm EQ" nào bạn biết về con người? Điều gì sẽ là trở ngại để áp dụng chúng vào AI?
NietzscheanAI

Câu trả lời:


6

Câu trả lời cho câu hỏi của bạn là "Về nguyên tắc, có" - ở dạng chung nhất, thử nghiệm EQ chỉ là một trường hợp cụ thể của thử nghiệm Turing ("Bạn cảm thấy thế nào về ...?").

Để xem tại sao các xét nghiệm EQ có ý nghĩa có thể khó đạt được, hãy xem xét hai thử nghiệm có thể sau:

Ở một thái cực phức tạp, bộ phim 'Blade Runner' nổi tiếng cho thấy một thử nghiệm để phân biệt giữa con người và Android trên cơ sở trả lời các câu hỏi mang tính cảm xúc.

Nếu bạn đã thử hỏi những câu hỏi này (hoặc thậm chí là những câu hỏi đơn giản hơn nhiều) cho một chatbot hiện đại, bạn có thể nhanh chóng kết luận rằng bạn không nói chuyện với một người.

Vấn đề với việc đánh giá EQ là thử nghiệm càng phức tạp về mặt cảm xúc, hệ thống AI càng có khả năng tổng quát hơn, để biến đầu vào thành một đại diện có ý nghĩa.

Ở một thái cực khác từ trên, giả sử rằng một bài kiểm tra EQ được thực hiện theo một cách cực kỳ có cấu trúc, với đầu vào có cấu trúc được cung cấp bởi một con người. Trong trường hợp như vậy, thành công tại 'thử nghiệm EQ' không thực sự có cơ sở trong thế giới thực.

Trong một bài tiểu luận có tựa đề "Hiệu ứng Eliza không thể tránh khỏi và những nguy hiểm của nó", Douglas Hofstadter đưa ra ví dụ sau, trong đó chương trình ACME được tuyên bố (không phải bởi Hofstadter) để "hiểu" sự tương tự.

Tại đây, máy tính biết được về một anh chàng tên Sluggo đưa vợ Jane và người bạn thân Buck của anh ta đến một quán bar, nơi mọi thứ diễn ra theo cách tự nhiên của họ và Jane mang thai bởi Buck. Cô ấy có em bé nhưng không muốn, và vì vậy, được chồng giúp đỡ, cô ấy đã dìm em bé xuống sông, do đó "giải quyết gọn gàng" vấn đề "của Bambi.

Câu chuyện này được trình bày cho ACME dưới dạng sau:

ql: (neglectful-husband (Sluggo))
q2: (lonely-and-sex-starved-wife (Jane-Doe))
q3: (macho-ladykiller (Buck-Stag))
q4: (poor-innocent-little-fetus (Bambi))
q5: (takes-out-to-local-bar (Sluggo Jane-Doe Buck-Stag))
...
q11: (neatly-solves-the-problem-of (Jane-Doe Bambi))
q12: (cause (ql0 q11))

Giả sử chương trình được hỏi liệu hành vi của Jane Doe có đạo đức hay không. Các khái niệm cảm xúc phức tạp phức tạp như 'lơ là', 'cô đơn' và 'vô tội' ở đây chỉ đơn giản là những vị ngữ, không có sẵn cho AI để kiểm tra nội tâm sâu sắc hơn. Chúng có thể dễ dàng được thay thế bằng các nhãn như 'bling-blang-blong15657'.

Vì vậy, theo một nghĩa nào đó, sự vắng mặt của thành công trong thử nghiệm EQ với bất kỳ chiều sâu nào là dấu hiệu của vấn đề chung hiện đang đối mặt với AI: không thể xác định (hoặc tìm hiểu) các biểu hiện có ý nghĩa về sự phức tạp tinh tế của thế giới con người, nhiều hơn thế phức tạp hơn việc có thể nhận ra video của mèo.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.