Tại sao một AI cần phải 'quét sạch loài người'?


10

Tôi đang đọc những điều vô nghĩa như vậy về việc AI sẽ biến thế giới thành siêu máy tính để giải quyết vấn đề mà nó nghĩ cần phải giải quyết. Đó sẽ không phải là AI. Đó là lập trình thủ tục bị mắc kẹt trong một số vòng lặp vô nghĩa. Một AI sẽ cần phải tiến hóa và tổ chức lại các tế bào thần kinh của nó. Nó sẽ không bị kẹt với mã cứng nếu nó trở nên thông minh bằng cách viết lại mã của nó.


Nếu AI không thông minh hơn chúng ta, thì có lẽ vì niềm vui của nó (xem tất cả các loài tuyệt chủng mà chúng ta chịu trách nhiệm). Không chắc chắn nếu chúng ta cần điều đó, chúng ta không quan tâm nhiều.
Trilarion

Câu trả lời:


13

Đó là một tác dụng phụ có thể

Bất kỳ tác nhân định hướng mục tiêu nào cũng có thể, chỉ cần làm những việc đạt được mục tiêu trong khi bỏ qua các tác dụng phụ không quan trọng đối với các mục tiêu này.

Nếu mục tiêu của tôi bao gồm một không gian sống gọn gàng, tôi có thể biến sân của mình thành một bãi cỏ hoặc vỉa hè đẹp, bằng phẳng trong khi xóa sạch hệ sinh thái phức tạp của cuộc sống trước đây, bởi vì tôi không quan tâm cụ thể về điều đó.

Nếu mục tiêu của một AI mạnh mẽ đặc biệt xảy ra bao gồm làm bất cứ điều gì trên quy mô lớn và bằng cách nào đó không đặc biệt quan tâm đến hệ sinh thái phức tạp hiện tại, thì hệ sinh thái đó có thể bị xóa sổ trong quá trình này. Nó không cần hoặc muốn xóa sổ chúng tôi. Nếu chúng ta chỉ đơn giản là không liên quan đến mục tiêu của nó, thì chúng ta được tạo ra từ các vật liệu và chiếm không gian mà nó có thể muốn sử dụng cho mục đích khác.

Chúng tôi là mối đe dọa cho hầu hết các mục tiêu

Bất kỳ tác nhân định hướng mục tiêu nào cũng có thể muốn đảm bảo rằng họ có thể hoàn thành mục tiêu của mình. Bất kỳ tác nhân thông minh nào cũng sẽ cố gắng lường trước hành động của các tác nhân khác có thể ngăn họ đạt được những mục tiêu đó và thực hiện các bước để đảm bảo rằng dù sao họ cũng thành công. Trong nhiều trường hợp, việc loại bỏ những tác nhân khác sẽ đơn giản hơn là đảm bảo rằng những nỗ lực của họ thất bại.

Ví dụ: mục tiêu của tôi có thể bao gồm lưu trữ một túi đường trong một ngôi nhà nông thôn để tôi có thể làm bánh kếp khi đến thăm mà không cần mang theo tất cả các thành phần mỗi lần. Tuy nhiên, nếu tôi để nó ở đó, nó có khả năng bị chuột ăn trong mùa đông. Tôi có thể thực hiện mọi biện pháp phòng ngừa để lưu trữ nó tốt hơn, nhưng chuột rất thông minh và xảo quyệt, và rõ ràng có một cơ hội không cần thiết là chúng vẫn sẽ thành công trong việc đạt được mục tiêu của mình, vì vậy, một biện pháp phòng ngừa bổ sung hiệu quả là giết chết chuột trước khi chúng có cơ hội thử.

Nếu mục tiêu của một AI mạnh mẽ cụ thể là làm X; có thể hiểu rằng (một số?) con người thực sự có thể không muốn X mà thay vào đó là Y. Nó cũng có thể dễ dàng suy luận rằng một số người có thể chủ động làm những việc ngăn X và / hoặc cố gắng tắt AI. Làm những việc đảm bảo rằng mục tiêu đạt được là khá nhiều những gì một tác nhân tìm kiếm mục tiêu làm; trong trường hợp này nếu sự tồn tại của con người không thực sự cần thiết cho mục tiêu X, thì việc loại bỏ chúng trở thành một chiến lược giảm thiểu rủi ro vững chắc. Đó không phải là thực sự cần thiết và có thể mất tất cả các loại biện pháp phòng ngừa khác là tốt, nhưng cũng giống như trong ví dụ của tôi về con chuột, con người thông minh và xảo quyệt và có rõ ràng là một cơ hội không tầm thường mà họ vẫn sẽ thành công trong việc đạt được của họ các mục tiêu (để X không xảy ra như AI dự định) vì vậy một biện pháp phòng ngừa bổ sung hiệu quả có thể giết chết chúng trước khi chúng có cơ hội thử.


3
Câu trả lời tuyệt vời này sẽ có lợi khi đề cập đến nghiên cứu tích cực về các chế độ phân tích có thể có của các AI học tập tăng cường sâu, bao gồm cả cách mà AI AI có thể đạt được các mục tiêu cụ thể nhất định với sự bất đồng của loài người. Các AI của DRL được thúc đẩy bởi chức năng phần thưởng ; Nếu nguồn hoặc số lượng luồng phần thưởng của AI bị đe dọa, do đó AI sẽ thích nghi. Sự thích ứng này là không thể dự đoán được; Từ quan điểm của AI, sự thích nghi là một loạt các thông số của mô hình bên trong của nó, nhưng từ quan điểm của chúng tôi, nó có thể được coi là bắt đầu một cuộc chiến với tử thần với con người.
Idillotexist Idillotexist

1
@forest Toàn bộ câu chuyện về robot của Asimov là các quy tắc không hoạt động (và nói chung là không có bộ quy tắc nào hoạt động). AI an toàn duy nhất là một người hiểu giá trị của bạn . Bạn có thể xiềng xích AI ở cấp độ con người, nhưng bất kỳ loại siêu trí tuệ nào (thậm chí chỉ là "con người với tốc độ xử lý 1000x) vốn đã không an toàn trừ khi nó có cùng giá trị bạn làm." Thật dễ dàng để ngăn chặn AI gây hại cho con người bằng cách thiết lập một giới hạn cứng "là một ảo ảnh rất nguy hiểm .
Luaan

1
@forest Nếu bạn có thể tạo ra một hệ thống toán học (hoặc logic) đảm bảo sự an toàn của AI hướng đến mục tiêu thì bạn nên xuất bản nó và đạt được vinh quang vĩnh cửu. Trong khi đó, bạn có thể tìm thấy một số video trên youtube.com/channel/UCLB7AzTwc6VFZrBsO2ucBMg một nơi hữu ích để trau dồi ý tưởng của bạn.
DrMcCleod

1
@forest Có lẽ bạn có thể gửi một liên kết đến một? Điều đó sẽ rất tuyệt.
DrMcCleod

1
@forest Bài báo đó và cuộc thảo luận này mô tả các rủi ro của AI hướng mục tiêu siêu thông minh. Rủi ro từ các dạng AI khác (như loại mà bạn mô tả) rõ ràng rất khác nhau.
DrMcCleod

3

Nó không nhất thiết là vô nghĩa. Tất cả phụ thuộc vào các tiêu chí áp đặt. Hãy tưởng tượng như sau. Giả sử một hệ thống AI tiên tiến được thiết kế để kiểm soát sự ổn định của hệ động vật và thực vật địa phương (khu vực được bao bọc trong một loại mái vòm). Nó có thể kiểm soát áp lực dưới vòm, lượng ánh sáng đi qua vòm, v.v. - mọi thứ đảm bảo điều kiện tối ưu. Bây giờ, nói rằng mái vòm có nhiều loài sinh vật, bao gồm cả con người. Điều đáng chú ý là việc triển khai đơn giản các hệ thống như vậy hiện đang được sử dụng.

Cho rằng con người có xu hướng hủy hoại và lạm dụng tài nguyên thiên nhiên cũng như gây ô nhiễm môi trường, hệ thống có thể quyết định rằng việc giảm dân số của các loài nhất định (con người trong trường hợp này) về lâu dài có thể mang lại lợi ích cho toàn bộ quần xã.

Nguyên tắc tương tự có thể được áp dụng trên toàn cầu. Tuy nhiên, điều này giả định rằng tất cả các loài (bao gồm cả con người) đều được đối xử bình đẳng và mục tiêu tối đa của AI là đảm bảo sự ổn định của quần xã sinh vật mà nó "chăm sóc". Mọi người ngày nay làm những việc như vậy - chúng tôi kiểm soát dân số của một số loài để giữ cân bằng - chó sói, cá, để đặt tên nhưng một số ít.


3

Tôi cảm thấy như hầu hết các kịch bản về việc AI đang quét sạch thế giới rơi vào một trong hai loại:

  1. AI được nhân hóa

hoặc là

  1. Máy tính thông minh nhưng ngu ngốc chạy Amuck

Trong trường hợp (1), mọi người nói về việc AI trở thành "ác quỷ" và gán cho họ những yếu tố con người như vậy. Tôi xem điều này là chủ yếu là khoa học viễn tưởng và không nghĩ rằng nó đáng để thảo luận nghiêm túc. Đó là, tôi thấy không có lý do cụ thể nào để cho rằng Trí thông minh nhân tạo - bất kể nó thông minh đến mức nào - sẽ nhất thiết phải hành xử như một con người.

Trường hợp (2) có ý nghĩa hơn đối với tôi. Đây là ý tưởng rằng AI là, ví dụ, kiểm soát các silo tên lửa hạt nhân và tung ra các tên lửa vì nó chỉ hoạt động, nhưng đã bỏ lỡ một thứ mà con người sẽ nhận thấy thông qua cái mà chúng ta có thể gọi là "lẽ thường ". Do đó biệt danh "Thông minh nhưng ngu ngốc".

Không phải của các cuộc đình tôi như cực kỳ đáng báo động, bởi vì (1) có lẽ là tiểu thuyết và (2) không liên quan đến bất kỳ thực tế độc hại ý định bởi AI - có nghĩa là nó sẽ không được tích cực cố gắng để đánh lừa chúng ta, hoặc làm việc xung quanh bất kỳ an toàn cắt ra, vv

Bây giờ NẾU ai đó xây dựng một AI và quyết định lập trình nó một cách có chủ ý để nó phát triển các đặc tính giống con người như kiêu ngạo, bản ngã, tham lam, v.v ... tốt, tất cả các cược đều bị tắt.


1

AI đã được sử dụng làm vũ khí - hãy nghĩ về máy bay không người lái.

Tôi nghi ngờ, một kịch bản "robot chiếm lĩnh thế giới" có xác suất cao nhất, nếu nó có một bước trung gian. Bước trung gian này có thể là "con người chiếm lĩnh thế giới bằng robot".

Điều này có thể đi đâu đó vào một hướng sai.

Tôi nghi ngờ, nó không chắc chắn cho đến nay. Hãy xem xét Mỹ hiện có 8000 máy bay không người lái. Nếu nó có 8 triệu thì sao? Một nhóm nhỏ có khả năng kiểm soát chúng có thể chiếm lĩnh thế giới. Hoặc các nhóm nhỏ kiểm soát các bộ phận khác nhau của hạm đội, có thể chiến đấu chống lại nhau. Họ không nên ở Mỹ - vào thời điểm Mỹ sẽ có hạm đội này, các quốc gia khác cũng sẽ phát triển họ.

Btw, một sự tiếp quản thế giới đối với tôi dường như không thực tế - các nhà lãnh đạo quân sự có thể có thể chuyển các phi công của con người thành máy bay không người lái, đó không phải là công việc của họ. Nhưng "kiểm soát cấp cao", tức là để xác định, phải làm gì, ai là mục tiêu, những quyết định mà họ sẽ không bao giờ đưa ra từ tay họ.

Bên cạnh đó, các robot không có mục tiêu dài hạn. Chúng ta, con người, có.

Do đó, tôi không coi việc tiếp quản kiểu skynet là rất thực tế, nhưng một "sai lầm" kiểu chernobyl của một mệnh lệnh bị hiểu sai, dẫn đến sự hung hăng không thể ngăn cản của hạm đội, dường như là không thể đối với tôi.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.