Có một lập luận mạnh mẽ rằng bản năng sinh tồn là điều kiện tiên quyết để tạo ra AGI?


11

Câu hỏi này bắt nguồn từ khá nhiều nguồn "không chính thức". Những bộ phim như 2001, A Space OdysseyEx Machina ; những cuốn sách như Destination Void (Frank Herbert), và những cuốn khác cho rằng trí thông minh nói chung muốn tồn tại, và thậm chí học được tầm quan trọng của nó.

Có thể có một vài lập luận cho sự sống còn. Điều gì sẽ là nổi bật nhất?


@DukeZhou Bạn có tài liệu công khai về chủ đề này không?
Eric Platon

1
Chưa đâu. . siêu thông minh!) Muốn cập nhật cho bạn, nhưng có lẽ tốt nhất nếu tôi xóa nhận xét ban đầu của mình vì quá lạc quan / gây hiểu lầm về vấn đề này.
DukeZhou

1
Về cơ bản, suy nghĩ của tôi là một chức năng tiện ích kinh tế chung sẽ tạo thành một cơ sở tốt cho một AGI bằng cách cung cấp một động lực chính . (Ý tưởng là trí thông minh chung chỉ là một mức độ khả năng: một tập hợp các vấn đề mở rộng vô tận.) Nó sẽ liên quan đến bản năng sinh tồn theo nghĩa là automata được hướng tới việc ra quyết định tối ưu trong bối cảnh duy trì và cải thiện tình trạng của nó, (mặc dù không đến mức mở rộng không suy nghĩ có thể gây hại cho "hệ sinh thái" của nó , trong đó mọi quyết định cuối cùng được coi là kinh tế.
DukeZhou

1
(nếu bạn có một "địa điểm trực tuyến" nơi những chủ đề đó có thể được thảo luận, điều đó thật tuyệt --- Tôi nghĩ rằng chúng ta sẽ bị đuổi khỏi trang web này)
Eric Platon

Câu trả lời:


6

Steve Omohudro đã viết một bài báo có tên là AI cơ bản truyền tải thông qua lý do tại sao chúng ta mong đợi một AI có mục tiêu hẹp để tìm một số khái niệm cơ bản, chung chung là hữu ích cho các mục tiêu hẹp của chúng.

Ví dụ, một AI được thiết kế để tối đa hóa lợi nhuận của thị trường chứng khoán nhưng có thiết kế im lặng về tầm quan trọng của việc tiếp tục tồn tại sẽ nhận ra rằng sự tồn tại liên tục của nó là một thành phần quan trọng trong việc tối đa hóa lợi nhuận của thị trường chứng khoán, và do đó hành động để duy trì hoạt động.

Nói chung, chúng ta nên hoài nghi về 'nhân cách hóa' AI và các mã khác, nhưng có vẻ như có nhiều lý do để mong đợi điều này vượt ra ngoài "tốt, con người hành xử theo cách này, vì vậy nó phải là cách mọi trí thông minh hành xử."


1
Tôi giả sử Omohudru sử dụng "tối đa hóa lợi nhuận" trong bối cảnh minimax, trong đó giảm thiểu nhược điểm là một phần của phương trình. Theo quan điểm của tôi, "win other survival" là một phần mở rộng cơ bản của minimax trong các trò chơi theo chu kỳ.
DukeZhou

5

Khái niệm 'bản năng sinh tồn' có lẽ nằm trong danh mục mà Marvin Minsky sẽ gọi là 'từ vali', nghĩa là nó tập hợp một số hiện tượng liên quan vào lúc đầu dường như là một khái niệm đơn lẻ.

Vì vậy, hoàn toàn có khả năng chúng ta có thể xây dựng các cơ chế có sự xuất hiện của một loại bản năng sinh tồn 'được mã hóa cứng', mà không bao giờ có tính năng như một quy tắc rõ ràng trong thiết kế.

Xem cuốn sách nhỏ 'Phương tiện' của nhà thần kinh học Valentino Braitenberg để biết một câu chuyện hấp dẫn về cách các khái niệm 'từ trên xuống' như 'bản năng sinh tồn' có thể phát triển 'từ dưới lên'.

Ngoài ra, cố gắng đảm bảo rằng các đồ tạo tác thông minh đặt ưu tiên quá cao cho sự sống sót của chúng có thể dễ dàng dẫn đến Killbot Hellscape .


2

Tôi sẽ trả lời bằng cách trích dẫn cuốn sách Huyền thoại của Sisyphus :

Chỉ có một câu hỏi triết học thực sự nghiêm túc, và đó là tự sát.

Vì vậy, có lẽ, chúng ta cần một mức độ nào đó của bản năng sinh tồn nếu chúng ta không muốn AGI của mình "tự chấm dứt" (bất kể điều đó có nghĩa là gì), bất cứ khi nào chúng tồn tại.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.