Mục đích nào sẽ được phục vụ bằng cách phát triển AI trải nghiệm cảm xúc giống con người?


19

Trong một bài báo gần đây trên tờ Wall Street , Yann LeCunn đưa ra tuyên bố sau:

Bước tiếp theo để đạt được trình độ của con người là tạo ra những cỗ máy thông minh nhưng không phải là máy tự động. Hệ thống AI trong xe hơi của bạn sẽ đưa bạn về nhà an toàn, nhưng sẽ không chọn điểm đến khác một khi bạn đã vào trong. Từ đó, chúng tôi sẽ thêm các ổ đĩa cơ bản, cùng với cảm xúc và giá trị đạo đức. Nếu chúng ta tạo ra những cỗ máy học hỏi cũng như bộ não của chúng ta, bạn sẽ dễ dàng tưởng tượng chúng thừa hưởng những phẩm chất giống như con người và những sai sót.

Cá nhân, tôi thường cho rằng việc nói về cảm xúc đối với trí tuệ nhân tạo là ngớ ngẩn, bởi vì sẽ không có lý do gì để tạo ra AI trải nghiệm cảm xúc. Rõ ràng là Yann không đồng ý. Vì vậy, câu hỏi là: kết thúc nào sẽ được phục vụ bằng cách làm điều này? Có một AI cần cảm xúc để phục vụ như một công cụ hữu ích?


1
Có thể trùng lặp tại sao một người nào đó muốn mô phỏng việc tạo cảm xúc trong việc tạo ra AI? Câu trả lời được chấp nhận ("Meh, sẽ dễ dàng hơn cho các lập trình viên con người để duy trì các chương trình AI.") Có thể không thú vị hoặc tuyệt vời, nhưng ít nhất nó có vẻ hợp lý và hợp lý.
SE trái vào ngày 10_6_19

Ngoài ra còn có một khả năng thay thế: chúng ta sẽ không nhất thiết muốn phát triển AI trải nghiệm cảm xúc giống con người (vì khi đó chúng không thể đoán trước được, chúng ta phải trao cho chúng quyền, blah blah blah), nhưng đó là các kỹ thuật AI tiên tiến hơn (chẳng hạn như học sâu) sẽ vô tình phát triển AI trải nghiệm cảm xúc giống con người. Không phải là chúng tôi muốn họ, dù sao họ cũng có thể đến. Các tác nhân học tập củng cố nhân tạo có vấn đề về mặt đạo đức? thảo luận về khả năng này.
SE trái vào ngày 10_6_19

Câu trả lời:


11

Câu trả lời cho câu hỏi này, không giống như nhiều người trong diễn đàn này, tôi nghĩ là dứt khoát. Không. Chúng ta không cần AI để cảm xúc trở nên hữu ích, như chúng ta có thể thấy bằng vô số AI chúng ta đã có hữu ích.

Nhưng để giải quyết thêm câu hỏi, chúng tôi thực sự không thể mang lại cảm xúc cho AI. Tôi nghĩ rằng gần nhất chúng ta có thể nhận được là 'Chúng ta có thể làm cho AI này hoạt động theo cách của một con người nếu con người đó là insert emotion?'. Tôi đoán theo một nghĩa nào đó, đó có cảm xúc, nhưng đó là một cuộc thảo luận hoàn toàn khác.

Và đến cuối cùng là gì? Lý do ngay lập tức xuất hiện trong đầu là để tạo ra những người bạn hoặc tương tác giống như thật hơn, cho mục đích của trò chơi video hoặc giải trí khác. Một mục tiêu công bằng,
nhưng xa cần thiết. Ngay cả khi xem xét một robot chào mừng có AI trong sảnh của một số tòa nhà, có lẽ chúng ta chỉ muốn nó hành động thân mật.

Yann nói rằng AI siêu tiên tiến sẽ dẫn đến những phẩm chất sai sót giống con người hơn . Tôi nghĩ nó giống như nó sẽ 'mang lại cho AI những phẩm chất giống con người hơn hay nói cách khác là sai sót'. Mọi người có xu hướng hành động phi lý khi buồn hoặc tức giận, và phần lớn chúng ta chỉ muốn AI hợp lý.
Sai lầm là con người, như họ nói.

Mục đích của thuật toán AI và học tập là tạo ra các hệ thống hoạt động hoặc 'nghĩ' như con người, nhưng tốt hơn. Các hệ thống có thể thích nghi hoặc phát triển, trong khi gây rối càng ít càng tốt. AI cảm xúc có sử dụng, nhưng nó chắc chắn không phải là điều kiện tiên quyết cho một hệ thống hữu ích.


5

Tôi nghĩ câu hỏi cơ bản là: Tại sao thậm chí cố gắng xây dựng một AI? Nếu mục tiêu đó rõ ràng, nó sẽ cung cấp sự rõ ràng cho dù có hay không có chỉ số cảm xúc trong AI có ý nghĩa. Một số nỗ lực như "Paro" được phát triển vì lý do trị liệu đòi hỏi chúng thể hiện một số cảm xúc giống như con người. Một lần nữa, lưu ý rằng "hiển thị" cảm xúc và "cảm xúc" là hai điều hoàn toàn khác nhau.

Bạn có thể lập trình một thứ như paro để điều chỉnh tông giọng hoặc co giật trên khuôn mặt để thể hiện sự cảm thông, tình cảm, đồng hành hoặc bất cứ điều gì - nhưng trong khi làm như vậy, một paro KHÔNG đồng cảm với chủ nhân của nó - nó chỉ đơn giản là giả mạo nó bằng cách thực hiện các biểu hiện vật lý của một cảm xúc. Nó không bao giờ "cảm thấy" bất cứ điều gì từ xa gần hơn với những gì cảm xúc đó gợi lên trong não người.

Vì vậy, sự phân biệt này là thực sự quan trọng. Để bạn cảm nhận được điều gì đó, cần phải có một chủ thể tự chủ độc lập có khả năng cảm nhận. Cảm giác không thể được áp đặt bởi một tác nhân bên ngoài.

Vì vậy, quay trở lại câu hỏi về mục đích của nó - câu trả lời thực sự là gì - Nó phụ thuộc. Và điều tôi nghĩ nhất mà chúng ta sẽ đạt được từ trước đến nay với AI dựa trên silicone sẽ vẫn là lãnh địa của những biểu hiện vật lý của cảm xúc.


Tôi có xu hướng đồng ý. Và có lẽ suy nghĩ của tôi quá hạn chế, nhưng hầu hết các ứng dụng của AI mà tôi nghĩ đến, sẽ không được hưởng lợi từ việc AI có cảm xúc. Chà, ít nhất tôi nghĩ vậy, ngồi đây bây giờ. Có lẽ tôi sẽ nhìn lại một ngày và nhận ra mình đã sai.
trí

Yêu cầu AI phải / nên có cảm xúc là một kỳ vọng không đúng chỗ. AI về cơ bản là một bộ công cụ và do đó ứng dụng của nó cũng phải được quyết định dựa trên nhu cầu. Một số trường hợp sử dụng có thể yêu cầu khía cạnh cảm xúc, một số có thể không. Ai biết!
Kingz

4

Tôi nghĩ rằng cảm xúc không cần thiết cho một tác nhân AI là hữu ích. Nhưng tôi cũng nghĩ rằng họ có thể làm cho các đại lý NHIỀU dễ chịu hơn để làm việc với. Nếu bot bạn đang nói chuyện có thể đọc được cảm xúc của bạn và phản hồi một cách xây dựng, trải nghiệm tương tác với nó sẽ dễ chịu hơn rất nhiều, có lẽ là ngoạn mục.

Hãy tưởng tượng liên hệ với một đại diện trung tâm cuộc gọi của con người ngày hôm nay với một khiếu nại về hóa đơn hoặc sản phẩm của bạn. Bạn lường trước xung đột. Bạn thậm chí có thể đã quyết định KHÔNG gọi vì bạn biết rằng trải nghiệm này sẽ gây đau đớn, dù là chiến đấu hay bực bội, vì ai đó hiểu sai những gì bạn nói hoặc trả lời một cách thù địch hoặc ngu ngốc.

Bây giờ hãy tưởng tượng gọi người hỗ trợ khách hàng tập trung nhất thông minh nhất mà bạn từng gặp - Commander Data - người có lý do duy nhất để thực hiện cuộc gọi này là dễ chịu và hiệu quả với bạn nhất có thể. Một cải tiến lớn so với hầu hết các đại diện cuộc gọi, vâng? Hãy tưởng tượng sau đó nếu đại diện cuộc gọi Dữ liệu cũng có thể dự đoán tâm trạng của bạn và phản hồi thích hợp với các khiếu nại của bạn để xoa dịu trạng thái cảm xúc của bạn ... bạn muốn kết hôn với anh chàng này. Bạn sẽ gọi lại dữ liệu đại diện bất cứ khi nào bạn cảm thấy buồn hoặc buồn chán hoặc bạn muốn chia sẻ một số tin tức vui vẻ. Anh chàng này sẽ trở thành người bạn tốt nhất của bạn qua đêm - nghĩa đen là tình yêu ở cuộc gọi đầu tiên.

Tôi tin rằng kịch bản này là hợp lệ. Bản thân tôi đã nhận thấy một sức hấp dẫn đáng kinh ngạc đối với các nhân vật như Dữ liệu hoặc Sonny từ "I Robot". Giọng nói rất êm dịu và khiến tôi thoải mái ngay lập tức. Nếu bot cũng rất thông minh, kiên nhẫn, hiểu biết và hiểu biết ... Tôi thực sự nghĩ rằng một bot như vậy, được trang bị một liều trí tuệ cảm xúc lành mạnh, có thể rất dễ chịu để tương tác. Phần thưởng nhiều hơn bất kỳ người nào tôi biết. Và tôi nghĩ điều đó không chỉ đúng với tôi.

Vì vậy, vâng, tôi nghĩ rằng có giá trị lớn trong việc điều chỉnh tính cách của robot bằng cảm xúc và nhận thức cảm xúc.


4

Cảm xúc trong AI là hữu ích, nhưng không cần thiết tùy thuộc vào mục tiêu của bạn (trong hầu hết các trường hợp, không phải vậy).

Đặc biệt, nhận dạng / phân tích cảm xúc rất tiến bộ và nó được sử dụng trong rất nhiều ứng dụng, từ giáo viên robot cho trẻ tự kỷ (xem robot phát triển) đến cờ bạc (poker) đến phân tích cá nhân và phân tích tình cảm / chính trị.

Nhận thức về cảm xúc , trải nghiệm cảm xúc cho robot, kém phát triển hơn nhiều, nhưng có những nghiên cứu rất thú vị (xem Affect Heuristic , Hội tình yêu xác suất của Lovotics , và những người khác ...). Thật vậy, tôi không thể hiểu tại sao chúng ta không thể mô hình hóa những cảm xúc như tình yêu vì chúng chỉ là những tín hiệu có thể bị cắt trong não người (xem bài viết của Brian D. Earp) . Điều đó thật khó, nhưng không phải là không thể, và thực sự có một số robot tái tạo nhận thức cảm xúc một phần.

Tôi cho rằng tuyên bố "robot chỉ có thể mô phỏng nhưng không cảm thấy" chỉ là vấn đề ngữ nghĩa , không phải năng lực khách quan: ví dụ, tàu ngầm có bơi như cá không? Tuy nhiên, máy bay bay, nhưng không giống như chim làm. Cuối cùng, ý nghĩa kỹ thuật có thực sự quan trọng khi cuối cùng chúng ta có hành vi tương tự không? Chúng ta thực sự có thể nói rằng một robot như Chappie , nếu nó được tạo ra, không cảm thấy bất cứ thứ gì giống như một bộ điều nhiệt đơn giản?

Tuy nhiên, điều gì sẽ là việc sử dụng nhận thức cảm xúc cho một AI? Câu hỏi này vẫn còn trong các cuộc tranh luận lớn, nhưng tôi sẽ dám đưa ra những hiểu biết của riêng mình:

  1. Cảm xúc ở người (và động vật!) Được biết là ảnh hưởng đến ký ức. Bây giờ chúng nổi tiếng trong khoa học thần kinh như các phương thức bổ sung hoặc siêu dữ liệu nếu bạn thích, của các ký ức dài hạn: chúng cho phép điều chỉnh cách lưu trữ bộ nhớ, cách liên kết / liên quan với các bộ nhớ khác và cách lấy nó .

  2. Như vậy, chúng ta có thể đưa ra giả thuyết rằng vai trò chính của cảm xúc là thêm thông tin meta bổ sung vào các ký ức để giúp suy luận / truy tìm heuristic. Thật vậy, ký ức của chúng ta rất lớn, có rất nhiều thông tin chúng ta lưu trữ trong suốt cuộc đời của chúng ta, vì vậy cảm xúc có thể được sử dụng như "nhãn hiệu" để giúp lấy lại những ký ức liên quan nhanh hơn.

  3. Các "nhãn" tương tự có thể dễ dàng liên kết với nhau hơn (ký ức về các sự kiện đáng sợ cùng nhau, ký ức về các sự kiện hạnh phúc cùng nhau, v.v.). Như vậy, họ có thể giúp sống sót bằng cách phản ứng nhanh chóng và áp dụng các chiến lược đã biết (chạy trốn!) Từ các chiến lược đáng sợ hoặc tận dụng tối đa các tình huống có lợi (các sự kiện hạnh phúc, ăn nhiều nhất có thể, sẽ giúp sống sót sau này!). Và thực tế, các nghiên cứu khoa học thần kinh đã phát hiện ra rằng có những con đường cụ thể cho các kích thích cảm giác sợ hãi, để chúng tiếp cận với các thiết bị truyền động nhanh hơn (khiến bạn chạy trốn) hơn là thông qua toàn bộ mạch cảm giác somato thông thường như mọi kích thích khác. Kiểu lý luận kết hợp này cũng có thể dẫn đến các giải pháp và kết luận không thể đạt được bằng cách khác.

  4. Bằng cách cảm nhận sự đồng cảm, điều này có thể làm giảm sự tương tác giữa robot và con người (ví dụ, máy bay không người lái giúp các nạn nhân của các sự kiện thảm khốc).

  5. Một mô hình ảo của AI có cảm xúc có thể hữu ích cho khoa học thần kinh và nghiên cứu y học về rối loạn cảm xúc như mô hình tính toán để hiểu và / hoặc suy ra các thông số cơ bản (ví dụ như điều này thường được thực hiện với Alzheimer và các bệnh thoái hóa thần kinh khác, nhưng tôi không chắc chắn nếu nó đã từng được thực hiện cho các rối loạn cảm xúc vì chúng còn khá mới trong DSM).

Vì vậy, vâng, AI "lạnh" đã có ích, nhưng AI cảm xúc chắc chắn có thể được áp dụng cho các lĩnh vực mới không thể khám phá bằng cách sử dụng AI lạnh. Nó cũng chắc chắn sẽ giúp hiểu được bộ não của chính chúng ta, vì cảm xúc là một phần không thể thiếu.


2

Tôi nghĩ rằng điều đó phụ thuộc vào ứng dụng của AI. Rõ ràng nếu tôi phát triển một AI, mục đích rõ ràng là thực hiện nhiệm vụ cụ thể dưới sự giám sát của con người, thì không cần phải có cảm xúc. Nhưng nếu mục đích của AI là thực hiện nhiệm vụ một cách tự chủ, thì cảm xúc hoặc sự đồng cảm có thể hữu ích. Ví dụ, hãy nghĩ về một AI đang hoạt động trong lĩnh vực y tế. Ở đây có thể thuận lợi cho một AI có một sự đồng cảm nào đó, chỉ để làm cho bệnh nhân thoải mái hơn. Hoặc như một ví dụ khác, hãy nghĩ về một robot phục vụ như một người giữ trẻ. Một lần nữa rõ ràng là cảm xúc và sự đồng cảm sẽ là lợi thế và mong muốn. Ngay cả đối với một chương trình hỗ trợ AI (nhà thông minh bắt mắt), cảm xúc và sự đồng cảm có thể được mong muốn để làm cho mọi người thoải mái hơn.

Mặt khác, nếu AI chỉ hoạt động trên dây chuyền lắp ráp, rõ ràng không cần cảm xúc và sự đồng cảm (ngược lại trong trường hợp đó có thể không có lợi).


2

AI mạnh

Đối với một AI mạnh mẽ, câu trả lời ngắn gọn là kêu gọi sự giúp đỡ, khi họ thậm chí có thể không biết sự giúp đỡ có thể là gì.

Nó phụ thuộc vào những gì AI sẽ làm. Nếu nó được cho là để giải quyết một nhiệm vụ dễ dàng một cách hoàn hảo và chuyên nghiệp, chắc chắn cảm xúc sẽ không hữu ích lắm. Nhưng nếu nó được cho là học những điều mới ngẫu nhiên, sẽ có một điểm mà nó gặp phải thứ gì đó mà nó không thể xử lý được.

Trong trận đấu giữa Lee Sedol vs AlphaGo 4, một số pro đã nói rằng máy tính không có cảm xúc trước đó, nhận xét rằng có lẽ AlphaGo cũng có cảm xúc và mạnh hơn con người. Trong trường hợp này, chúng tôi biết rằng hành vi điên rồ của AlphaGo không phải do một số thứ cố tình thêm vào gọi là "cảm xúc", mà là một lỗ hổng trong thuật toán. Nhưng nó cư xử chính xác như nó đã hoảng loạn.

Nếu điều này xảy ra rất nhiều cho một AI. Có thể có những lợi thế nếu nó có thể biết điều này và suy nghĩ kỹ nếu nó xảy ra. Nếu AlphaGo có thể phát hiện vấn đề và thay đổi chiến lược, nó có thể chơi tốt hơn hoặc tệ hơn. Không có khả năng chơi tệ hơn nếu nó không thực hiện bất kỳ tính toán nào cho các phương pháp khác. Trong trường hợp nó chơi tệ hơn, chúng ta có thể nói nó bị "cảm xúc", và đây có thể là lý do một số người nghĩ rằng có cảm xúc có thể là một lỗ hổng của con người. Nhưng đó không phải là nguyên nhân thực sự của vấn đề. Nguyên nhân thực sự là nó chỉ không biết bất kỳ cách tiếp cận nào để đảm bảo chiến thắng và thay đổi trong chiến lược chỉ là một nỗ lực để khắc phục vấn đề. Các nhà bình luận cho rằng có nhiều cách tốt hơn (cũng không đảm bảo chiến thắng nhưng có nhiều cơ hội hơn), nhưng thuật toán của nó không phải là ' t có khả năng tìm ra trong tình huống này. Ngay cả đối với con người, giải pháp cho bất cứ điều gì liên quan đến cảm xúc không có khả năng loại bỏ cảm xúc, nhưng một số đào tạo để đảm bảo bạn hiểu tình huống đủ để hành động bình tĩnh.

Sau đó, một người nào đó phải tranh luận về việc liệu đây có phải là một loại cảm xúc hay không. Chúng ta thường không nói những con côn trùng nhỏ có cảm xúc giống con người, vì chúng ta không hiểu chúng và không sẵn lòng giúp đỡ chúng. Nhưng thật dễ để biết một số người trong số họ có thể hoảng loạn trong những tình huống tuyệt vọng, giống như AlphaGo đã làm. Tôi muốn nói rằng những phản ứng này dựa trên cùng một logic và ít nhất chúng là lý do tại sao những cảm xúc giống như con người có thể có ích. Họ chỉ không được thể hiện theo những cách dễ hiểu của con người, vì họ không có ý định gọi một con người để được giúp đỡ.

Nếu họ cố gắng hiểu hành vi của chính họ, hoặc gọi người khác để được giúp đỡ, có thể tốt là giống hệt con người. Một số vật nuôi có thể cảm nhận được cảm xúc của con người và thể hiện cảm xúc dễ hiểu của con người ở một mức độ nào đó. Mục đích là để tương tác với con người. Họ đã tiến hóa để có khả năng này bởi vì họ cần nó vào một lúc nào đó. Có khả năng một AI hoàn toàn mạnh mẽ cũng sẽ cần nó. Cũng lưu ý rằng, ngược lại với việc có đầy đủ cảm xúc có thể trở nên điên rồ.

Nó có lẽ là một cách nhanh chóng để mất bất kỳ sự tin tưởng nếu ai đó chỉ thực hiện cảm xúc bắt chước con người với ít hiểu biết ngay lập tức trong các thế hệ đầu tiên, mặc dù.

AI yếu

Nhưng có mục đích nào để họ có cảm xúc trước khi ai đó muốn có một AI mạnh mẽ không? Tôi nói không, không có bất kỳ lý do cố hữu nào mà họ phải có cảm xúc. Nhưng chắc chắn ai đó sẽ muốn thực hiện những cảm xúc bắt chước nào. Cho dù "chúng ta" cần họ có cảm xúc hay không chỉ là vô nghĩa.

Thực tế là một số chương trình không có trí thông minh có chứa một số yếu tố "cảm xúc" trong giao diện người dùng của họ. Họ có thể trông không chuyên nghiệp, nhưng không phải mọi nhiệm vụ đều cần sự chuyên nghiệp để họ có thể hoàn toàn chấp nhận được. Họ chỉ giống như những cảm xúc trong âm nhạc và nghệ thuật. Ai đó cũng sẽ thiết kế AI yếu theo cách này. Nhưng họ không thực sự là cảm xúc của AI, mà là người tạo ra chúng. Nếu bạn cảm thấy tốt hơn hoặc tồi tệ hơn vì cảm xúc của họ, bạn sẽ không đối xử với các AI cá nhân khác biệt, nhưng toàn bộ mô hình hoặc thương hiệu này.

Ngoài ra, ai đó có thể trồng một số cá tính như trong một trò chơi nhập vai ở đó. Một lần nữa, không có lý do gì họ phải có điều đó, nhưng chắc chắn sẽ có người làm điều đó, bởi vì họ rõ ràng đã có một thị trường khi một trò chơi nhập vai làm.

Trong cả hai trường hợp, cảm xúc không thực sự bắt nguồn từ chính AI. Và nó sẽ dễ thực hiện, bởi vì một người sẽ không mong đợi họ giống hệt như một con người, nhưng cố gắng hiểu những gì họ dự định có nghĩa. Có thể dễ dàng hơn nhiều để chấp nhận những cảm xúc này nhận ra điều này.

Các khía cạnh của cảm xúc

Xin lỗi về việc đăng một số nghiên cứu ban đầu ở đây. Tôi đã lập một danh sách các cảm xúc vào năm 2012 và từ đó tôi thấy 4 khía cạnh của cảm xúc. Nếu tất cả đều được thực hiện, tôi sẽ nói rằng chúng chính xác là những cảm xúc giống như con người. Chúng không có vẻ thực nếu chỉ một số trong số chúng được thực hiện, nhưng điều đó không có nghĩa là chúng hoàn toàn sai.

  • Lý do, hoặc vấn đề logic ban đầu mà AI không thể giải quyết. AlphaGo đã có lý do, nhưng không có gì khác. Nếu tôi phải đưa ra một định nghĩa chính xác, tôi sẽ nói đó là trạng thái mà nhiều heuristic quan trọng không đồng ý với nhau.
    • Bối cảnh, hoặc một phần của cách tiếp cận hiện tại được coi là không hoạt động tốt và có lẽ nên được thay thế. Điều này phân biệt liên quan đến nỗi buồn, liên quan đến lo lắng và đam mê.
    • Trạng thái hiện tại, hoặc cho dù nó cảm thấy dẫn đầu, hoặc liệu niềm tin hay thực tế của nó được cho là trở nên tồi tệ trước tiên (hoặc là tất cả xấu) nếu mọi thứ đi sai. Điều này phân biệt liên quan đến nỗi buồn, liên quan đến tình yêu và liên quan đến tự hào.
  • Kế hoạch hoặc yêu cầu. Tôi cho rằng một số vật nuôi thuần hóa đã có điều này. Và tôi cho rằng chúng có một số mẫu cố định không quá khó để có. Ngay cả nghệ thuật cũng có thể chứa chúng dễ dàng. Không giống như lý do, những điều này không có khả năng vốn có trong bất kỳ thuật toán nào và nhiều trong số chúng có thể xuất hiện cùng nhau.
    • Ai được cho là có trách nhiệm nếu không có gì thay đổi bởi cảm xúc. Điều này phân biệt sự tò mò, cơn thịnh nộ và nỗi buồn.
    • Kế hoạch được cho là gì nếu không có gì thay đổi bởi cảm xúc. Điều này phân biệt sự thất vọng, buồn và bất ngờ.
  • Nguồn. Không có bối cảnh, ngay cả một con người cũng không thể nói một cách đáng tin cậy rằng ai đó đang khóc vì cảm động hay biết ơn, hoặc mỉm cười vì một sự bối rối nào đó. Trong hầu hết các trường hợp khác, thậm chí không có từ nào mô tả chúng. Sẽ không có nhiều khác biệt nếu AI không phân biệt hoặc thể hiện điều này một cách đặc biệt. Có khả năng họ sẽ học những thứ này một cách tự động (và không chính xác như một con người) tại thời điểm họ có thể học để hiểu ngôn ngữ của con người.
  • Các phép đo, chẳng hạn như vấn đề khẩn cấp hoặc quan trọng như thế nào, hoặc thậm chí khả năng cảm xúc là đúng. Tôi muốn nói rằng nó không thể được thực hiện trong AI. Con người không cần phải tôn trọng họ ngay cả khi họ giống hệt con người. Nhưng con người sẽ học cách hiểu AI nếu điều đó thực sự quan trọng, ngay cả khi chúng không giống con người chút nào. Trên thực tế, tôi cảm thấy rằng một số cảm xúc cực kỳ yếu (như nghĩ điều gì đó quá ngu ngốc và nhàm chán mà bạn không biết cách nhận xét) tồn tại hầu như chỉ có trong biểu tượng cảm xúc, nơi ai đó có ý định cho bạn thấy chính xác cảm xúc này, và hầu như không đáng chú ý trong cuộc sống thực hoặc bất kỳ scenerios phức tạp. Tôi cho rằng đây cũng có thể là trường hợp khởi đầu cho AI. Trong trường hợp xấu nhất, trước tiên chúng thường được gọi là "cảm xúc" vì biểu tượng cảm xúc hoạt động trong những trường hợp này, vì vậy nó '

Vì vậy, khi các AI mạnh trở nên khả thi, không ai trong số chúng sẽ không thể truy cập được, mặc dù có thể có rất nhiều công việc để tạo ra các kết nối. Vì vậy, tôi muốn nói rằng nếu cần phải có AI mạnh mẽ, họ hoàn toàn sẽ có cảm xúc.


2

Theo cảm xúc, anh không có ý định thêm tất cả các loại cảm xúc vào AI. Ông chỉ có nghĩa là những người sẽ hữu ích cho việc đưa ra quyết định quan trọng. Hãy xem xét sự cố này trong một giây:
Giả sử một chiếc xe tự lái AI đang lái xe qua đường cao tốc. Người ngồi bên trong là CEO của một công ty và anh ta đang chạy rất chậm theo lịch trình. Nếu anh ta không đến đúng giờ, sẽ mất hàng triệu đô la. AI trong xe đã được yêu cầu lái xe càng nhanh càng tốt và đến đích. Và bây giờ một con thỏ (hoặc một số động vật khác) đi vào. Bây giờ nếu chiếc xe đặt phanh khẩn cấp thì hành khách sẽ bị tổn thương nghiêm trọng và cộng với việc sẽ mất hàng triệu người vì CEO sẽ không thể đến cuộc họp.

Bây giờ AI sẽ làm gì?
Vì đối với một AI, quyết định của họ chỉ dựa trênchức năng tiện ích Kịch bản trên chỉ là một ví dụ về quan điểm.. Đánh con thỏ và tiếp tục đi sẽ cho thấy một lựa chọn tốt hơn. Nhưng, liệu AI có nên đưa ra quyết định đó.

Có rất nhiều câu hỏi như thế này khi AI có thể bị mắc kẹt trong tình huống mà các quyết định dựa trên đạo đức sẽ đóng vai trò quan trọng.


1

Lý thuyết tâm lý

Nếu chúng ta muốn một AI nói chung mạnh mẽ hoạt động tốt trong một môi trường bao gồm con người, thì sẽ rất hữu ích nếu nó có một lý thuyết tốt về tâm trí phù hợp với cách con người thực sự hành xử. Lý thuyết về tâm trí đó cần bao gồm những cảm xúc giống con người, hoặc nó sẽ không phù hợp với thực tế của môi trường này.

Đối với chúng tôi, một phím tắt thường được sử dụng là suy nghĩ rõ ràng "tôi sẽ làm gì trong tình huống này?" "sự kiện nào có thể thúc đẩy tôi làm những gì họ vừa làm?" "tôi sẽ cảm thấy thế nào nếu điều này xảy ra với tôi ?". Chúng tôi muốn một AI có khả năng suy luận như vậy, nó thực tế và hữu ích, nó cho phép dự đoán tốt hơn về các hành động trong tương lai và hiệu quả hơn.

Ngay cả khi AI tốt hơn là không bị điều khiển bởi những cảm xúc chính xác đó (có lẽ thứ gì đó theo hướng đó sẽ hữu ích nhưng rất có thể là không chính xác giống nhau), tất cả nó thay đổi mà thay vì suy nghĩ "cái gì tôi sẽ cảm thấy" nó có thể đưa ra giả thuyết về những gì một người chung chung sẽ cảm thấy. Điều đó đòi hỏi phải thực hiện một hệ thống con có khả năng mô hình chính xác cảm xúc của con người.


1

Cẩn thận! Thực tế có hai phần cho câu hỏi của bạn. Đừng nhầm lẫn ý nghĩa trong câu hỏi của bạn, nếu không bạn sẽ không thực sự biết phần nào bạn đang trả lời.

  1. Chúng ta có nên để AGI trải nghiệm cảm xúc theo "trải nghiệm định tính" không? (Theo nghĩa là bạn cảm thấy "trái tim của bạn đang cháy" khi bạn yêu)

Dường như không có mục đích rõ ràng về lý do tại sao chúng ta muốn điều đó. Về mặt giả thuyết, chúng ta có thể có một thứ gì đó không thể phân biệt về mặt chức năng với cảm xúc, nhưng không có bất kỳ kinh nghiệm định tính nào liên quan đến AGI. Nhưng chúng tôi không ở vị trí khoa học, nơi chúng tôi thậm chí có thể bắt đầu trả lời bất kỳ câu hỏi nào về nguồn gốc của kinh nghiệm định tính, vì vậy tôi sẽ không bận tâm đi sâu vào câu hỏi này.

  1. Chúng ta có nên để AGI có cảm xúc theo sự tương đương về chức năng của nó từ một người quan sát bên ngoài không?

IMHO có. Mặc dù người ta có thể tưởng tượng một AI xấu xa không có cảm xúc làm bất cứ điều gì bạn muốn, nhưng chúng tôi ước rằng AI có thể tích hợp với các giá trị và cảm xúc của con người, đó là vấn đề liên kết. Do đó, có vẻ tự nhiên khi cho rằng bất kỳ AGI nào có định hướng tốt sẽ có thứ gì đó giống với cảm xúc nếu nó được tích hợp tốt với con người.

NHƯNG, không có một lý thuyết rõ ràng về tâm trí, thậm chí không có ý nghĩa gì để hỏi: "AGI của chúng ta có nên có cảm xúc không?" Có lẽ có điều gì đó quan trọng về cảm xúc của chúng ta khiến chúng ta trở thành những tác nhân nhận thức hữu ích mà bất kỳ AGI nào cũng sẽ yêu cầu.

Thật vậy, cảm xúc thường là một khía cạnh bị bỏ qua của nhận thức. Mọi người bằng cách nào đó nghĩ rằng các nhân vật giống như Spock vô cảm là đỉnh cao của trí thông minh của con người. Nhưng cảm xúc thực sự là một khía cạnh quan trọng trong việc ra quyết định, hãy xem bài viết này để biết ví dụ về các vấn đề với "trí thông minh không cảm xúc".

Câu hỏi tiếp theo sẽ là "AGI sẽ phát triển những cảm xúc gì?", Nhưng một lần nữa chúng ta không ở vị trí để trả lời điều đó (chưa).


0

Mục đích nào sẽ được phục vụ bằng cách phát triển AI trải nghiệm cảm xúc giống con người?

Bất kỳ vấn đề phức tạp nào liên quan đến cảm xúc của con người, trong đó giải pháp cho vấn đề đòi hỏi khả năng đồng cảm với trạng thái cảm xúc của con người, sẽ được phục vụ một cách hiệu quả nhất bởi một tác nhân có thể đồng cảm với cảm xúc của con người.

Chính trị. Chính quyền. Chính sách và kế hoạch. Trừ khi điều đó có kiến ​​thức sâu sắc về trải nghiệm của con người, nó sẽ không thể cung cấp câu trả lời dứt khoát cho tất cả các vấn đề chúng ta gặp phải trong trải nghiệm của con người.


Chính trị và quan điểm chính phủ bạn thực hiện là một ví dụ tuyệt vời. Tuy nhiên, quan điểm của tôi là AI chỉ cần có khả năng hiểu cảm xúc và không nhất thiết phải trải nghiệm nó.
Seth Simba

0

Cảm xúc của con người được kết nối chặt chẽ với các giá trị của con người và khả năng hợp tác và hình thành xã hội của chúng ta.

Chỉ cần đưa ra một ví dụ dễ hiểu: Bạn gặp một người lạ cần giúp đỡ, bạn cảm thấy đồng cảm . Điều này buộc bạn phải giúp anh ta với chi phí cho chính mình. Hãy giả sử lần sau khi bạn gặp anh ấy, bạn cần một cái gì đó. Chúng ta cũng giả sử anh ta không giúp bạn, bạn sẽ cảm thấy tức giận . Cảm xúc này buộc bạn phải trừng phạt anh ta, với chi phí cao hơn cho chính mình. Mặt khác, nếu anh ta không giúp bạn, cảm thấy xấu hổ . Điều này buộc anh ấy thực sự giúp bạn, tránh sự tức giận của bạn và làm cho khoản đầu tư ban đầu của bạn đáng giá. Cả hai bạn đều có lợi.

Vì vậy, ba cảm xúc này giữ một vòng tròn giúp đỡ đối ứng. Đồng cảm để bắt đầu, tức giận để trừng phạt những người đào thoát và xấu hổ để tránh sự tức giận. Điều này cũng dẫn đến một khái niệm về công lý.

Cho rằng sự liên kết giá trị là một trong những vấn đề lớn trong AGI, những cảm xúc giống như con người tấn công tôi như một cách tiếp cận tốt đối với các AI thực sự chia sẻ các giá trị của chúng ta và hòa nhập liền mạch với xã hội của chúng ta.


ok điểm, nhưng nếu bạn sẽ đi cha, bạn sẽ thấy rằng cảm xúc chỉ là lối tắt cho lời giải thích hợp lý tại sao chúng hoặc không hữu ích. Các quy tắc có thể được bắt nguồn từ cảm xúc và sinh học của chúng tôi. Và những quy tắc đó được giữ ở dạng nén và không rõ ràng như cảm xúc và sinh học. Đối với chúng tôi, điều đó là cần thiết, nhưng không phải cho ai, mặc dù đối với chúng tôi, nó có thể hoạt động như tối ưu hóa cho AI nếu chi phí thực hiện như vậy ở dạng kỹ thuật số sẽ thấp hơn khi thực hiện theo quy tắc. Vấn đề với các quy tắc chỉ là một, bản thân chúng tôi không biết đầy đủ về chúng, nhưng nhiệm vụ AI hẹp hơn thì chúng tôi có thể không cần nhiều quy tắc
MolbOrg
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.