Con người có thể làm tổn thương một AI có ý thức hay hữu tình?


9

Nếu một AI có ý thức là có thể, thì ai đó cũng có thể biết những gì họ đang làm để tra tấn (hoặc làm tổn thương) AI? Điều này có thể tránh được không? Làm sao?

Câu hỏi này liên quan đến AI dựa trên máy tính, không phải robot, có ý thức như mọi người (đây là một giả định của câu hỏi). Câu hỏi tự hỏi làm thế nào một tội phạm khó theo dõi như tải xuống bất hợp pháp, nhưng tệ hơn về mặt đạo đức, có thể được ngăn chặn. Lưu ý rằng mặc dù hầu hết mọi người đều tử tế và đồng cảm với các robot, luôn có những người xấu, và vì vậy việc dựa vào lương tâm chung sẽ không hiệu quả.

Câu trả lời:


9

Bài viết Children Beating Up Robot Inspires New Escape Maneuver System dựa trên hai tài liệu nghiên cứu về một thí nghiệm tại một trung tâm thương mại Nhật Bản dẫn đến việc trẻ em không được giám sát tấn công robot. Tài liệu nghiên cứu mà bạn quan tâm là Thoát khỏi sự lạm dụng robot xã hội của trẻ em .

Trong bài nghiên cứu đó, các nhà nghiên cứu đã có thể lập trình cho robot tuân theo mô phỏng lập kế hoạch để giảm khả năng lạm dụng trẻ em. Nếu phát hiện ra trẻ em, robot được lập trình để rút lui vào đám đông người lớn (người sau đó có thể kỷ luật trẻ em nếu cần). Điều này xảy ra bởi vì các nhà nghiên cứu thấy rằng đó chỉ là những đứa trẻ đang đánh bại các robot trong trung tâm thương mại.

Họ thảo luận về việc thử các lựa chọn khác mặc dù:

Trong công việc này, chiến lược của robot để ngăn chặn hành vi lạm dụng là để thoát khỏi phạm vi, tức là di chuyển đến một địa điểm ít xảy ra lạm dụng. Người ta có thể hỏi tại sao robot không thể vượt qua sự lạm dụng. Trong các thử nghiệm sơ bộ của chúng tôi, chúng tôi đã thử một số cách tiếp cận, nhưng chúng tôi thấy rằng robot rất khó thuyết phục trẻ em không lạm dụng nó. Ví dụ, chúng tôi đã thay đổi cách nói của robot bằng nhiều cách, sử dụng từ ngữ mạnh mẽ, biểu cảm hoặc lịch sự, nhưng không ai trong số chúng thành công. Một chiến lược thành công một phần là robot 'đẩy trẻ em' về thể chất. Khi đường của nó bị chặn, nó sẽ cố gắng tiếp tục và hành xử như thể nó sẽ va chạm vào trẻ em và buộc nó đi qua (dưới sự giám sát cẩn thận từ người điều khiển con người). Chúng tôi quan sát thấy rằng trẻ em ban đầu chấp nhận yêu cầu của robot và tuân theo chúng; nhưng, rất sớm họ biết rằng họ mạnh hơn robot để họ có thể giành chiến thắng nếu họ đẩy, và họ cũng có thể ngăn chặn nó bằng cách đẩy công tắc cản (gắn trên robot để đảm bảo an toàn). Sau khi nhận ra điều đó, họ chỉ tiếp tục với hành vi lạm dụng. Rõ ràng việc có một robot mạnh hơn sẽ gây ra vấn đề về an toàn và chấp nhận xã hội nên việc xử lý các tình huống lạm dụng như vậy vẫn còn khó khăn.


Nhưng hãy hỏi thêm câu hỏi của bạn:

Nếu AI có ý thức là có thể và có sức lan tỏa rộng, liệu có dễ dàng cho một người biết họ đang làm gì để hành hạ AI?

Tại sao bạn lại coi việc tra tấn như vậy là sai ? Rốt cuộc, người ta có thể lập luận rằng cỗ máy sẽ không thực sự 'trải nghiệm' nỗi đau nếu bạn hành hạ nó ... vì vậy sẽ ổn về mặt đạo đức khi hành hạ máy sau đó. Nó có thể đáp ứng như nếu nó là đau đớn, nhưng nó không rõ ràng cho dù khả năng để mô phỏng một trạng thái cảm xúc như "đang trong cơn đau" là tương đương với thực tế trong trạng thái cảm xúc. Xem câu hỏi Có phải mô phỏng trạng thái cảm xúc tương đương với thực sự trải nghiệm cảm xúc? để thảo luận thêm về chủ đề này.

Bạn có thể đưa ra một cuộc tranh luận như vậy, nhưng nó sẽ không thực sự hoạt động ở mức độ cảm xúc vì hầu hết mọi người sẽ cảm thấy đồng cảm với cỗ máy. Có thể khó để biện minh cho nó một cách logic (và nó có thể dựa trên xu hướng của con người để tham gia vào thuyết nhân hóa ), nhưng chúng tôi cảm thấy sự đồng cảm này. Chính sự đồng cảm này đã khiến bạn phải đặt câu hỏi này ngay từ đầu, khiến các nhà nghiên cứu tìm ra cách bảo vệ robot khỏi bị đánh, cho phép các sĩ quan cảnh sát bắt giữ một người đàn ông Nhật say xỉn vì đánh đập robot SoftBank và làm cho nhiều người buồn bã về sự phá hủy của hitchBOT . Và đó làlàm thế nào để tránh lạm dụng AI - sự đồng cảm của con người. Nếu hầu hết mọi người quan tâm đến phúc lợi của máy móc, họ sẽ ưu tiên ngăn chặn một vài người có khả năng và sẵn sàng lạm dụng máy móc.


EDIT: OP đã chỉnh sửa câu hỏi của anh ấy để làm rõ rằng anh ấy đang nói về phần mềm chứ không phải về robot. Đối với robot, bạn có thể dựa vào thuyết nhân hóa để tạo ra một số mức độ cảm thông, nhưng thật khó để đồng cảm với các dòng mã thô.

Bạn sẽ không ngừng lạm dụng các thuật toán. Nói một cách thẳng thắn, vì các thuật toán không giống chúng ta, chúng ta sẽ không mở rộng sự đồng cảm giống như chúng ta sẽ làm với robot. Ngay cả chatbot cũng tốt bụng. Nếu bạn có thể khiến mọi người đồng cảm với các dòng mã mặc dù (có thể bằng cách thực hiện một mô phỏng thuyết phục về cảm xúc và tính linh hoạt), thì câu trả lời trên được áp dụng - con người nhân hóa máy và sẽ đưa ra các biện pháp đối phó. Chúng tôi chưa đạt đến mức đó, vì vậy "ngăn chặn lạm dụng AI" sẽ là ưu tiên thấp.

Tuy nhiên, một số lỗi có thể được lập trình để hạn chế thiệt hại của lạm dụng, như chi tiết trong chủ đề này về lạm dụng chatbot - làm cho bot phản ứng một cách nhàm chán để khiến kẻ lạm dụng cảm thấy nhàm chán và chuyển sang mục tiêu tiếp theo, phản hồi lại kẻ lạm dụng trong một "trận chiến trí tuệ", hoặc thậm chí chỉ chặn những kẻ lạm dụng sử dụng dịch vụ.

Những failafes là sự thoải mái lạnh lùng cho những người muốn ngăn chặn lạm dụng, không đáp ứng với nó.

Ngoài ra ... một kẻ lạm dụng có thể vui vẻ học cách lập trình AI để sau đó lạm dụng nội dung trái tim của anh ấy / cô ấy. Không có gì có thể được thực hiện để ngăn chặn điều đó và bất kỳ biện pháp khả thi nào để ngăn chặn hành vi lạm dụng nói trên (như giám sát mọi người để đảm bảo rằng họ không lập trình AI để lạm dụng) có thể sẽ gây ra nhiều thiệt hại hơn so với giải quyết.


TBH điều này không thực sự trả lời câu hỏi của tôi, tôi đoán, tôi sẽ chỉnh sửa câu hỏi thêm một chút.
Lemon phá hủy

1
@TariqAli Cảm ơn bạn cho bài viết này. Tôi đã không nhận thức được vấn đề liên quan đến tương tác của trẻ em với robot xã hội, điều mà tôi thấy vừa vui nhộn vừa sâu sắc. (Tôi nhớ là một đứa trẻ nhỏ ở Disney World và "tấn công" các nhân vật Disney đã tiêu thụ như Chuột Mickey ra khỏi sự ngưỡng mộ.)
DukeZhou

6

Tôi đề nghị bạn xem xét tất cả các cách chúng tôi đã cố gắng ngăn mọi người lạm dụng NGƯỜI KHÁC. Không có khu vực màu xám đạo đức ở đây - mọi người đều rõ ràng rằng điều này là sai. Nhưng mọi người bị giết, bị hãm hiếp và tấn công hàng triệu người mỗi ngày.

Khi chúng tôi giải quyết vấn đề này liên quan đến nạn nhân của con người, giải pháp kết quả rất có thể sẽ chỉ hoạt động tốt đối với AI.


Tôi đã sẵn sàng để nói lý do tại sao điều này không hoàn toàn được áp dụng, nhưng dù sao bạn cũng có thể đúng ...
Lemon phá hủy

-1

AI và quan điểm bên ngoài hung hăng không thể được nhân đôi, chương trình không được giáo dục hoặc thiết kế như trí thông minh tự nhiên của chúng tôi Dữ liệu của AI không thể so sánh với trí tuệ Nhân văn theo quy trình tư duy xã hội được phát triển bởi kinh nghiệm lớn lên vì thiết kế của chúng tôi không được cấp bằng sáng chế Giống như lập trình AI Life được nhân đôi thông qua lý thuyết kỹ thuật chỉ dựa trên ví dụ sẽ không đủ kinh nghiệm là một người đàn ông tạo ra kiến ​​thức nhưng bằng hành động theo thời gian không phải là hành động được thiết kế qua kỹ thuật cảm xúc tiến sĩ. Tuy nhiên AI có thể sử dụng phân phối cảm xúc của chúng tôi theo kịch bản với một phần mềm dựa trên các ví dụ về hành động của con người dự đoán phản ứng không tự nhiên trong trường hợp các hộp thoại của người nhận phản ứng mà không phản hồi như họ hiểu bot là nhân tạo được cấp bằng sáng chế dựa trên phân phối cảm xúc của chúng tôi. để trò chuyện, chúng tôi sẽ chẩn đoán thông qua nguyên nhân và kết quả. Không phải là kinh nghiệm hợp lý, chúng ta cần AI trở thành bot có kinh nghiệm về cảm xúc nên cảm xúc nhân tạo cho bot phân biệt tính hợp lệ của chúng ta. Thay vào đó, chúng ta sẽ thấy những kết quả mà chúng ta nhận được đối với các đặc điểm phần mềm chương trình cơ bản khiến bot phản ứng với trí thông minh nhân tạo có kinh nghiệm được thiết kế theo khái niệm với cơ chế phần mềm cảm xúc mà chúng ta không biết kết quả nào chúng ta có thể nói một cách giả tạo.


2
1. Vui lòng định dạng bài đăng này tốt hơn, 2. AI có ý thức là một tiên đề của câu hỏi, không phải câu hỏi
Lemon phá hủy
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.