Là luật của Asimov thiếu sót trong thiết kế, hay chúng có khả thi trong thực tế không?


19

Ba định luật Robotics nổi tiếng của Isaac Asimov bắt nguồn từ bối cảnh những câu chuyện khoa học viễn tưởng của Asimov. Trong những câu chuyện đó, ba luật phục vụ như một biện pháp an toàn, để tránh các tình huống kịp thời hoặc bị thao túng bùng nổ trong sự tàn phá.

Thường xuyên hơn không, các câu chuyện của Asimov sẽ tìm cách phá vỡ chúng, khiến nhà văn tự thực hiện một số sửa đổi cho chính luật. Chẳng hạn, trong một số câu chuyện của mình, ông đã sửa đổi Luật thứ nhất , thêm Luật thứ tư (hoặc Zeroth) hoặc thậm chí loại bỏ hoàn toàn tất cả các Luật .

Tuy nhiên, thật dễ dàng để tranh luận rằng, trong văn hóa đại chúng, và thậm chí trong lĩnh vực nghiên cứu AI, Luật của Robotics được thực hiện khá nghiêm túc. Bỏ qua vấn đề phụ của các cách giải thích khác nhau, chủ quan và loại trừ lẫn nhau của các luật, có bất kỳ lý lẽ nào chứng minh bản thân các luật đó bị khiếm khuyết bởi thiết kế của chúng, hoặc, thay vào đó, đủ mạnh để sử dụng trong thực tế? Tương tự như vậy, có một heuristic bảo mật tốt hơn, chặt chẽ hơn được thiết kế cho mục đích?


Hãy coi chừng Killbot Hellscape! xkcd.com/1613
NietzscheanAI

Chúng tôi không quên khả năng này: xkcd.com/1450
dynrepsys

Luật pháp của Asimov chỉ là một nỗ lực nhỏ để bắt đầu cuộc thảo luận. Đối với một cuộc thảo luận kỹ lưỡng hơn nhiều, hãy đọc "Superintellect" của Nick Bostrom - đó là toàn diện vì nó dựa trên kiến ​​thức và sự hiểu biết hiện tại.
Florin Andrei

Câu trả lời:


12

Luật pháp của Asimov không đủ mạnh để được sử dụng trong thực tế. Sức mạnh thậm chí không phải là một sự cân nhắc, khi xem xét rằng vì chúng được viết bằng các từ tiếng Anh trước tiên sẽ phải được giải thích một cách chủ quan để có bất kỳ ý nghĩa nào. Bạn có thể tìm thấy một cuộc thảo luận tốt về điều này ở đây .

Để phiên âm một đoạn trích:

Làm thế nào để bạn xác định những điều này? Làm thế nào để bạn xác định "con người", mà trước tiên phải có lập trường về hầu hết mọi vấn đề. Và nếu "con người" không đủ cứng, thì bạn phải xác định "tác hại" và bạn lại gặp vấn đề tương tự. Hầu như bất kỳ định nghĩa rõ ràng thực sự vững chắc nào mà bạn đưa ra cho những từ đó mà không dựa vào trực giác của con người, kết quả là những lý thuyết kỳ quặc, dẫn đến AI của bạn làm điều gì đó mà bạn thực sự không muốn làm.

Người ta có thể dễ dàng tưởng tượng rằng Asimov đủ thông minh để biết điều này và quan tâm đến việc viết truyện hơn là thiết kế các giao thức điều khiển AI trong thế giới thực.

Trong tiểu thuyết Neuromancer , có ý kiến ​​cho rằng AI có thể đóng vai trò kiểm tra lẫn nhau. Ray Kurzweil sắp xảy ra Singularity , hoặc khả năng AGI siêu thông minh, có thể không để lại nhiều khả năng cho con người kiểm soát AI, để lại sự điều tiết ngang hàng là khả năng khả thi duy nhất.

Điều đáng chú ý là Eliezer Yudkowsky và những người khác đã chạy thử nghiệm trong đó Yudkowsky đóng vai trò là một AI siêu thông minh với khả năng nói, nhưng không có kết nối nào khác ngoài hộp bị khóa. Những kẻ thách thức được giao nhiệm vụ đơn giản là giữ AI trong hộp bằng mọi giá. Yudkowsky đã trốn thoát cả hai lần.


Bạn có biết nếu có bất kỳ bản sao nào của các thí nghiệm Yudkowsky đã từng được phát hành không? Liên kết bạn cung cấp (và trao đổi email sau đó liên kết đến) không xuất hiện để cung cấp một liên kết.
NietzscheanAI

@ user217281728 Không, tôi đã tìm nó nhưng có vẻ như anh ấy đang giữ nó, tức là chiến lược của anh ấy được thực hiện để duy trì khả năng thực hiện lại. Tôi có một số ý tưởng về những gì anh ấy nói và lý do tại sao tôi nghĩ rằng, tôi rất vui được chia sẻ nếu bạn DM cho tôi.
dynrepsys

Bây giờ tôi đã làm điều này.
NietzscheanAI

Tôi có ấn tượng rằng Asimov đủ thông minh để biết điều này, nhưng vấn đề là các quy tắc đơn giản không hoạt động. Chỉ ra các ví dụ tiêu cực ("bạn không thể chỉ bảo nó không gây hại cho mọi người, điều đó sẽ không hiệu quả") là công việc kiểm soát AI trong thế giới thực hữu ích theo cách riêng của nó.
Matthew Graves

2

Asimov đã đưa ra ba luật cụ thể để chứng minh rằng không có ba luật nào là đủ, bất kể lúc đầu chúng có vẻ hợp lý như thế nào. Tôi biết một anh chàng biết anh chàng và anh ấy đã xác nhận điều này.


2
"Tôi biết một anh chàng biết anh chàng" ... Bạn không có nguồn đáng tin cậy hơn một chút sao? Tôi không nghi ngờ câu trả lời của bạn, nhưng chắc chắn đã có một trích dẫn thích hợp về vấn đề này.
3442

Tên anh ấy là Ben Williams. Đây là bài đăng trên Google Plus, nơi ông mô tả ý kiến ​​của mình về Asimov và Ba định luật: plus.google.com/+JohnNewmanIII/posts/HeTnPdhaY9p
Doxosophoi

0

Hãy xem xét luật robot đầu tiên của Asimov:

Robot có thể không gây thương tích cho con người hoặc thông qua việc không hành động, cho phép con người đến gây hại.

Luật đó đã có vấn đề, khi xem xét xe tự lái.

Vấn đề ở đây là gì, bạn hỏi? Chà, có lẽ bạn sẽ quen thuộc với thí nghiệm tư duy cổ điển trong đạo đức được gọi là vấn đề xe đẩy . Hình thức chung của vấn đề là:

Xe đẩy đang đi thẳng cho họ. Bạn đang đứng một khoảng cách xa trong sân tàu, bên cạnh một đòn bẩy. Nếu bạn kéo cần gạt này, xe đẩy sẽ chuyển sang một bộ đường ray khác. Tuy nhiên, bạn nhận thấy rằng có một người trên đường đua. Bạn có hai lựa chọn: (1) Không làm gì cả, và xe đẩy giết chết năm người trên đường đua chính. (2) Kéo cần gạt, chuyển hướng xe đẩy sang đường bên, nơi nó sẽ giết chết một người. Đó là sự lựa chọn chính xác?

nguồn: Wikipedia

Những chiếc xe tự lái thực sự sẽ cần phải thực hiện các biến thể thực tế trong vấn đề xe đẩy, điều này có nghĩa là về cơ bản, những chiếc xe tự lái cần được lập trình để giết chết con người .

Tất nhiên điều đó không có nghĩa là TẤT CẢ các robot sẽ cần phải được lập trình để tiêu diệt, nhưng những chiếc xe tự lái là một ví dụ điển hình về một loại robot sẽ.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.