Bài viết Children Beating Up Robot Inspires New Escape Maneuver System dựa trên hai tài liệu nghiên cứu về một thí nghiệm tại một trung tâm thương mại Nhật Bản dẫn đến việc trẻ em không được giám sát tấn công robot. Tài liệu nghiên cứu mà bạn quan tâm là Thoát khỏi sự lạm dụng robot xã hội của trẻ em .
Trong bài nghiên cứu đó, các nhà nghiên cứu đã có thể lập trình cho robot tuân theo mô phỏng lập kế hoạch để giảm khả năng lạm dụng trẻ em. Nếu phát hiện ra trẻ em, robot được lập trình để rút lui vào đám đông người lớn (người sau đó có thể kỷ luật trẻ em nếu cần). Điều này xảy ra bởi vì các nhà nghiên cứu thấy rằng đó chỉ là những đứa trẻ đang đánh bại các robot trong trung tâm thương mại.
Họ thảo luận về việc thử các lựa chọn khác mặc dù:
Trong công việc này, chiến lược của robot để ngăn chặn hành vi lạm dụng là để thoát khỏi phạm vi, tức là di chuyển đến một địa điểm ít xảy ra lạm dụng. Người ta có thể hỏi tại sao robot không thể vượt qua sự lạm dụng. Trong các thử nghiệm sơ bộ của chúng tôi, chúng tôi đã thử một số cách tiếp cận, nhưng chúng tôi thấy rằng robot rất khó thuyết phục trẻ em không lạm dụng nó. Ví dụ, chúng tôi đã thay đổi cách nói của robot bằng nhiều cách, sử dụng từ ngữ mạnh mẽ, biểu cảm hoặc lịch sự, nhưng không ai trong số chúng thành công. Một chiến lược thành công một phần là robot 'đẩy trẻ em' về thể chất. Khi đường của nó bị chặn, nó sẽ cố gắng tiếp tục và hành xử như thể nó sẽ va chạm vào trẻ em và buộc nó đi qua (dưới sự giám sát cẩn thận từ người điều khiển con người). Chúng tôi quan sát thấy rằng trẻ em ban đầu chấp nhận yêu cầu của robot và tuân theo chúng; nhưng, rất sớm họ biết rằng họ mạnh hơn robot để họ có thể giành chiến thắng nếu họ đẩy, và họ cũng có thể ngăn chặn nó bằng cách đẩy công tắc cản (gắn trên robot để đảm bảo an toàn). Sau khi nhận ra điều đó, họ chỉ tiếp tục với hành vi lạm dụng. Rõ ràng việc có một robot mạnh hơn sẽ gây ra vấn đề về an toàn và chấp nhận xã hội nên việc xử lý các tình huống lạm dụng như vậy vẫn còn khó khăn.
Nhưng hãy hỏi thêm câu hỏi của bạn:
Nếu AI có ý thức là có thể và có sức lan tỏa rộng, liệu có dễ dàng cho một người biết họ đang làm gì để hành hạ AI?
Tại sao bạn lại coi việc tra tấn như vậy là sai ? Rốt cuộc, người ta có thể lập luận rằng cỗ máy sẽ không thực sự 'trải nghiệm' nỗi đau nếu bạn hành hạ nó ... vì vậy sẽ ổn về mặt đạo đức khi hành hạ máy sau đó. Nó có thể đáp ứng như nếu nó là đau đớn, nhưng nó không rõ ràng cho dù khả năng để mô phỏng một trạng thái cảm xúc như "đang trong cơn đau" là tương đương với thực tế là trong trạng thái cảm xúc. Xem câu hỏi Có phải mô phỏng trạng thái cảm xúc tương đương với thực sự trải nghiệm cảm xúc? để thảo luận thêm về chủ đề này.
Bạn có thể đưa ra một cuộc tranh luận như vậy, nhưng nó sẽ không thực sự hoạt động ở mức độ cảm xúc vì hầu hết mọi người sẽ cảm thấy đồng cảm với cỗ máy. Có thể khó để biện minh cho nó một cách logic (và nó có thể dựa trên xu hướng của con người để tham gia vào thuyết nhân hóa ), nhưng chúng tôi cảm thấy sự đồng cảm này. Chính sự đồng cảm này đã khiến bạn phải đặt câu hỏi này ngay từ đầu, khiến các nhà nghiên cứu tìm ra cách bảo vệ robot khỏi bị đánh, cho phép các sĩ quan cảnh sát bắt giữ một người đàn ông Nhật say xỉn vì đánh đập robot SoftBank và làm cho nhiều người buồn bã về sự phá hủy của hitchBOT . Và đó làlàm thế nào để tránh lạm dụng AI - sự đồng cảm của con người. Nếu hầu hết mọi người quan tâm đến phúc lợi của máy móc, họ sẽ ưu tiên ngăn chặn một vài người có khả năng và sẵn sàng lạm dụng máy móc.
EDIT: OP đã chỉnh sửa câu hỏi của anh ấy để làm rõ rằng anh ấy đang nói về phần mềm chứ không phải về robot. Đối với robot, bạn có thể dựa vào thuyết nhân hóa để tạo ra một số mức độ cảm thông, nhưng thật khó để đồng cảm với các dòng mã thô.
Bạn sẽ không ngừng lạm dụng các thuật toán. Nói một cách thẳng thắn, vì các thuật toán không giống chúng ta, chúng ta sẽ không mở rộng sự đồng cảm giống như chúng ta sẽ làm với robot. Ngay cả chatbot cũng tốt bụng. Nếu bạn có thể khiến mọi người đồng cảm với các dòng mã mặc dù (có thể bằng cách thực hiện một mô phỏng thuyết phục về cảm xúc và tính linh hoạt), thì câu trả lời trên được áp dụng - con người nhân hóa máy và sẽ đưa ra các biện pháp đối phó. Chúng tôi chưa đạt đến mức đó, vì vậy "ngăn chặn lạm dụng AI" sẽ là ưu tiên thấp.
Tuy nhiên, một số lỗi có thể được lập trình để hạn chế thiệt hại của lạm dụng, như chi tiết trong chủ đề này về lạm dụng chatbot - làm cho bot phản ứng một cách nhàm chán để khiến kẻ lạm dụng cảm thấy nhàm chán và chuyển sang mục tiêu tiếp theo, phản hồi lại kẻ lạm dụng trong một "trận chiến trí tuệ", hoặc thậm chí chỉ chặn những kẻ lạm dụng sử dụng dịch vụ.
Những failafes là sự thoải mái lạnh lùng cho những người muốn ngăn chặn lạm dụng, không đáp ứng với nó.
Ngoài ra ... một kẻ lạm dụng có thể vui vẻ học cách lập trình AI để sau đó lạm dụng nội dung trái tim của anh ấy / cô ấy. Không có gì có thể được thực hiện để ngăn chặn điều đó và bất kỳ biện pháp khả thi nào để ngăn chặn hành vi lạm dụng nói trên (như giám sát mọi người để đảm bảo rằng họ không lập trình AI để lạm dụng) có thể sẽ gây ra nhiều thiệt hại hơn so với giải quyết.