Tại sao Stephen Hawking lại nói Trí thông minh nhân tạo sẽ giết chết tất cả chúng ta? [đóng cửa]


10

Câu nói này của Stephen Hawking đã có tiêu đề khá lâu:

Trí tuệ nhân tạo có thể quét sạch loài người khi nó trở nên quá thông minh vì con người sẽ giống như loài kiến.

Tại sao anh ấy nói điều này? Nói một cách đơn giản theo cách nói của giáo dân: các mối đe dọa có thể có từ AI là gì? Nếu chúng ta biết rằng AI rất nguy hiểm tại sao chúng ta vẫn quảng bá nó? Tại sao nó không bị cấm?

Những hậu quả bất lợi của cái gọi là Singularity công nghệ là gì?


1
Có lẽ câu hỏi này có thể được nhắc lại cho một câu hỏi về khả năng của sự kỳ dị công nghệ?
Rob Murray

1
@ R.Mah Đã chỉnh sửa và thêm điểm của bạn vào cơ thể ...
tatan

2
Tôi xin lỗi, nhưng downvote từ tôi. Xin vui lòng, xin vui lòng, xin vui lòng đặt câu hỏi có thể trả lời thay vì những câu hỏi đầu cơ. Ý tôi là "Tại sao Stephen Hawking lại nói Trí thông minh nhân tạo sẽ giết chết tất cả chúng ta?". Bạn mong đợi câu trả lời đúng là gì? Chúng tôi cần các câu hỏi kỹ thuật từ giai đoạn đầu beta để thu hút các chuyên gia, thay vì bất kỳ ai có kiến ​​thức cơ bản từ việc đọc một vài trang wikipedia. Một lần nữa trích dẫn- "Tại sao Stephen Hawking lại nói Trí thông minh nhân tạo sẽ giết chết tất cả chúng ta?". Tôi không nghĩ rằng bất kỳ chuyên môn là cần thiết để trả lời này. Xin lỗi nếu tôi gặp phải sự thô lỗ trong lời nói nhỏ nhoi của mình: P
Rushat Rai

Câu hỏi sẽ tốt hơn sau khi chỉnh sửa, nhưng sẽ tốt hơn nếu giảm số lượng câu hỏi được hỏi cùng một lúc. Ví dụ: bạn có thể hỏi "Làm thế nào AI có thể quét sạch loài người?" (như bạn dường như đang làm), nhưng tại sao nó vẫn được nghiên cứu rất nhiều lại là một câu hỏi khác.
Ben N

2
Tôi nghĩ rằng câu hỏi trong tiêu đề không phải là một câu hỏi tồi. Nó có một câu trả lời, bởi vì nó đang hỏi về những gì Stephen Hawking nghĩ. Các câu hỏi khác trong cơ thể khác với điều này và nên được loại bỏ. Tôi đồng ý mặc dù đây không phải là loại câu hỏi sẽ thu hút các chuyên gia
Harsh

Câu trả lời:


5

Không chỉ Hawking, bạn còn nghe thấy nhiều biến thể của sự kiềm chế này từ nhiều người. Và cho rằng họ hầu hết là những người rất thông minh, có học thức, có hiểu biết (chẳng hạn như Elon Musk là một người khác), có lẽ điều đó không nên bị gạt ra khỏi tầm tay.

Dù sao, ý tưởng cơ bản dường như là thế này: Nếu chúng ta tạo ra trí thông minh nhân tạo "thực sự", đến một lúc nào đó, nó sẽ có thể tự cải thiện, giúp cải thiện khả năng tự cải thiện, có nghĩa là nó có thể cải thiện khả năng tự cải thiện ngay cả hơn nữa, v.v ... một thác chạy trốn dẫn đến "trí thông minh siêu phàm". Đó là để nói, dẫn đến một cái gì đó thông minh hơn chúng ta khu vực.

Vậy chuyện gì xảy ra nếu có một thực thể trên hành tinh này thực sự thông minh hơn chúng ta (con người)? Nó sẽ là một mối đe dọa cho chúng tôi? Chà, có vẻ hợp lý để suy đoán rằng nó có thể là như vậy. OTOH, chúng tôi không có lý do cụ thể, ngay bây giờ, để nghĩ rằng nó sẽ là như vậy.

Vì vậy, có vẻ như Hawking, Musk, v.v. đang đi xuống ở khía cạnh thận trọng / đáng sợ hơn của mọi thứ. Vì chúng ta không biết liệu AI siêu phàm có nguy hiểm hay không, và cho rằng nó không thể bị ngăn chặn nếu nó trở nên độc hại (hãy nhớ rằng, nó thông minh hơn chúng ta!), Đó là một điều hợp lý để xem xét.

Eliezer Yudkowsky cũng đã viết khá nhiều về chủ đề này, bao gồm cả việc đưa ra thí nghiệm "AI Box" nổi tiếng. Tôi nghĩ rằng bất cứ ai quan tâm đến chủ đề này nên đọc một số tài liệu của mình.

http://www.yudkowsky.net/singularity/aibox/


1
Tôi nghĩ rằng AI Box thực sự là một giới thiệu tồi tệ về rủi ro AI; nó nhắm vào một phần nhỏ cụ thể của lời giải thích, đó là "làm thế nào bất cứ ai có thể bị thuyết phục để đưa AI ra khỏi hộp?". Đối với ai đó nghĩ rằng AI đáng để sử dụng, họ đã quyết định rằng nó đáng để cho ra khỏi hộp. Luận án trực giao có lẽ là nơi tốt nhất để bắt đầu, tôi nghĩ vậy.
Matthew Graves

Đủ công bằng. Tôi tình cờ quen thuộc hơn với các tác phẩm của Yudkowsky. Tôi chắc chắn không có ý làm giảm tầm quan trọng của các tác phẩm khác về chủ đề này.
trí

4

Bởi vì anh ta vẫn chưa biết AI hiện tại còn bao xa ... Làm việc trong phòng thí nghiệm AI truyền thông, tôi nhận được câu hỏi này rất nhiều. Nhưng thực sự ... chúng ta vẫn còn một chặng đường dài từ đây. Các robot vẫn làm mọi thứ mà chúng tôi mô tả một cách bừa bãi để làm. Thay vì xem robot là thông minh, tôi sẽ tìm đến lập trình viên con người để biết sự sáng tạo thực sự xảy ra ở đâu.


Đánh giá trung thực về tình trạng nghiên cứu là một trong những trụ cột để tiến bộ. Cảm ơn bạn. Tôi đồng ý.
FauChristian

3

Nói một cách đơn giản theo thuật ngữ giáo dân, các mối đe dọa có thể có từ AI là gì?

Hiện tại, không có mối đe dọa.

Mối đe dọa xảy ra nếu con người tạo ra cái gọi là cỗ máy siêu thông minh, một cỗ máy có thể vượt qua mọi hoạt động trí tuệ của bất kỳ con người nào. Đây sẽ là phát minh cuối cùng mà con người cần phải làm, vì cỗ máy này phát minh ra máy móc tốt hơn con người (vì đó là một hoạt động trí tuệ). Tuy nhiên, điều này có thể khiến cỗ máy phát minh ra những cỗ máy có thể hủy hoại con người và chúng ta không thể ngăn chặn chúng vì chúng thông minh hơn chúng ta rất nhiều.

Đây chỉ là giả thuyết, thậm chí không ai có manh mối về một cỗ máy siêu thông minh trông như thế nào.

Nếu chúng ta biết rằng AI rất nguy hiểm tại sao chúng ta vẫn quảng bá nó? Tại sao nó không bị cấm?

Như tôi đã nói trước đây, sự tồn tại của một máy siêu thông minh là giả thuyết. Trí tuệ nhân tạo có rất nhiều ứng dụng hữu ích (nhiều hơn câu trả lời này có thể chứa) và nếu chúng tôi phát triển nó, chúng tôi sẽ nhận được nhiều ứng dụng hữu ích hơn nữa. Chúng ta chỉ cần cẩn thận rằng các máy móc sẽ không vượt qua chúng ta.


3

Như Andrew Ng đã nói , lo lắng về mối đe dọa như vậy từ AI cũng giống như lo lắng về tình trạng quá đông dân trên sao Hỏa. Đó là khoa học viễn tưởng.

nhập mô tả hình ảnh ở đây

Điều đó đang được nói, với sự gia tăng của robot (yếu hơn nhiều) và các tác nhân tự trị (bán) khác, các lĩnh vực của luật pháp và đạo đức đang ngày càng kết hợp chúng, ví dụ như xem Roboethics .


3

Có một số nguồn tài nguyên dài để trả lời loại câu hỏi này: hãy xem cuốn sách của Stuart Armstrong Smarter Than Us , cuốn sách Superintellect của Nick Bostrom , phát triển từ câu trả lời edge.org này , lời giải thích của Tim Urban , hoặc lời giải thích của Michael Cohen .

Nhưng đây là câu trả lời (hơi ngắn) của tôi: trí thông minh là tất cả về việc ra quyết định và chúng ta không có bất kỳ lý do nào để tin rằng con người ở gần nơi có thể trở thành người giỏi nhất trong việc ra quyết định. Một khi chúng ta có thể xây dựng một nhà nghiên cứu AI AI (nghĩa là một máy tính biết cách làm cho máy tính suy nghĩ tốt hơn), sự liên quan về kinh tế và quân sự của con người sẽ nhanh chóng biến mất vì mọi quyết định của con người có thể được đưa ra tốt hơn bởi một máy tính. (Tại sao có tướng người thay vì tướng robot, kỹ sư người thay vì kỹ sư robot, v.v.)

Đây không hẳn là một thảm họa. Nếu Vulcans xuất hiện vào ngày mai và mang lại quyết định tốt hơn cho Trái đất, chúng ta có thể tránh được rất nhiều đau khổ. Phần khó là đảm bảo rằng những gì chúng ta nhận được là Vulcans muốn chúng ta ở bên và hạnh phúc, thay vì những thứ không chia sẻ giá trị của chúng ta.


3

Ông nói điều này bởi vì nó có thể xảy ra. Nếu một cái gì đó trở nên thông minh hơn chúng ta, tại sao nó sẽ tiếp tục phục vụ chúng ta? Trường hợp xấu nhất là nó chiếm toàn bộ quy trình sản xuất và tiêu thụ tất cả vật chất để chuyển đổi nó thành vật liệu có khả năng tính toán, mở rộng ra bên ngoài vô tận cho đến khi mọi vật chất được tiêu thụ.

Chúng tôi biết rằng AI nguy hiểm nhưng điều đó không quan trọng bởi vì hầu hết mọi người không tin vào điều đó. Nó đi ngược lại mọi tôn giáo thoải mái phải cung cấp. Con người là mục đích cuối cùng của vũ trụ và nếu thực tế đó bị tranh chấp, con người sẽ cảm thấy lạc lõng và vô mục đích.

Thực tế là hầu hết mọi người không thừa nhận điều đó là có thể, hoặc điều đó sẽ xảy ra trong cuộc sống của chúng ta, mặc dù nhiều chuyên gia AI có uy tín đã đặt sự xuất hiện của điểm kỳ dị trong vòng hai thập kỷ. Nếu mọi người thực sự thừa nhận rằng AI thông minh hơn họ là có thể, liệu họ có sống khác đi không? Họ sẽ không tìm cách làm những việc họ thích, vì biết rằng bất cứ điều gì họ làm mà họ sợ sẽ được tự động hóa? Mọi người sẽ không kêu gọi một thu nhập cơ bản phổ quát chứ?

Một lý do khác mà chúng tôi không cấm là vì lời hứa của nó rất tuyệt vời. Một nhà nghiên cứu có thể được tăng cường bởi 1.000 trợ lý nghiên cứu kỹ thuật số. Tất cả lao động thủ công có thể được tự động. Lần đầu tiên, công nghệ cho chúng ta sự tự do thực sự để làm bất cứ điều gì chúng ta muốn.

Nhưng ngay cả trong trường hợp tốt nhất trong trường hợp không vượt qua chúng ta, con người vẫn phải thích nghi và thay đổi hệ thống kinh tế của họ thành một nơi không cần lao động. Nếu không, những người không được đào tạo kỹ thuật sẽ chết đói và nổi dậy.


Bạn có thích nước sốt này không -> "Các chuyên gia AI đặt sự xuất hiện của điểm kỳ dị trong vòng hai thập kỷ" , làm ơn? ;)
Daniel

Tôi dường như không thể tìm thấy khảo sát ban đầu, nhưng các trang web này đến gần: aiimpacts.org/predictions-of-human-level-ai-timelines - aiimpacts.org/ai-timeline-surveys - techemergence.com/art chích
zavtra
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.