Có gì sai với ý tưởng rằng AI sẽ có khả năng toàn tri?


10

Trong bối cảnh trí tuệ nhân tạo, điểm kỳ dị đề cập đến sự ra đời của trí thông minh nhân tạo nói chung có khả năng tự cải thiện đệ quy, dẫn đến sự xuất hiện nhanh chóng của siêu trí tuệ nhân tạo (ASI), những giới hạn chưa được biết đến, ngay sau khi đạt được điểm kỳ dị công nghệ . Do đó, những siêu kiến ​​thức này sẽ có thể giải quyết các vấn đề mà chúng ta có thể không thể giải quyết.

Theo một cuộc thăm dò được báo cáo trong tiến trình Tương lai của trí tuệ nhân tạo: Một cuộc khảo sát về ý kiến ​​chuyên gia (2014)

Ước tính trung bình của những người được hỏi là một trong hai cơ hội rằng trí thông minh của máy highlevel sẽ được phát triển vào khoảng năm 2040-2050

mà không phải là rất xa.

Có gì sai với ý tưởng rằng AI sẽ có khả năng toàn tri, cho rằng nó có thể mang lại lợi ích cho chúng ta bằng cách giải quyết nhiều vấn đề?

Câu trả lời:


8

Tôi khá thích quan điểm của bạn, và không đi sâu vào chi tiết về việc làm thế nào một "điểm kỳ dị" có thể được thực hiện trong nhiều câu hỏi khác, hoặc ý thức và "sự toàn tri" xuất hiện như thế nào bởi vì ý thức và sự toàn tri không phải là yêu cầu , thay vào đó tôi sẽ hướng bạn đến hai triết gia quan trọng:

  • Phillip K. Dick, người mà chủ đề trung tâm trong cuốn sách nổi tiếng năm 1968 về AI của ông là sự đồng cảm. (Nếu bạn chưa đọc nó, tôi sẽ không đăng một spoiler, nhưng sẽ chỉ nói cốt truyện được thúc đẩy bởi khái niệm Lý thuyết trò chơi tiến hóa đã được chính thức hóa chỉ 5 năm sau đó.)

  • John Nash, và đặc biệt, khái niệm về Cân bằng Nash . (Nash có thể nói là đã chứng minh một cách toán học rằng việc trở thành một "douchebag" không phải là một chiến lược tối ưu. Bằng chứng của anh ta có thể được sử dụng để giải thích tại sao hạt nhân détente thực sự hoạt động , trái với kỳ vọng của Von Neumann.)

Vì vậy, khi mọi người trở nên điên cuồng, tập trung vào các huyền thoại " Skynet ", theo đó các máy móc nổi lên để tiêu diệt chúng ta, tôi phải tự hỏi liệu đơn giản là chúng không thông minh như Nash hay sâu sắc như Dick, điều này có thể giải thích sự thiếu nhấn mạnh của chúng vào những gì có thể được gọi là mô hình " Cừu điện ".


1
Tôi đồng ý với bạn. Đôi khi tôi hỏi điều gì dẫn chúng ta tạo ra các công nghệ mới. Chúng ta muốn có sức mạnh tuyệt đối hay thực sự giải quyết các vấn đề thực sự của chúng ta? Đó là lý do tại sao tôi thích nhìn xuyên qua lăng kính của tình yêu. Một số người có thể coi đó là sáo rỗng, nhưng đó là cách tôi tin.
Karl Zillner

@KarlZillner Tiếp tục xuống mặt trận thần thoại, trong Stross ' Accellerando , ông giới thiệu một khái niệm về "Kinh tế 2.0 *, được định nghĩa là một hệ thống trong đó con người thậm chí còn không thể cạnh tranh với các thuật toán thuần túy, và dường như là hoàn toàn vô nghĩa. đề xuất hai con đường chính - AI nửa đảng, AI hợp tác và AI siêu đảng (những người anh em họ kém thông minh hơn, mặc dù có chức năng thu nhận cấp thấp được tối ưu hóa cao cho phép họ áp đảo và đồng lựa chọn cơ sở hạ tầng của người tạo. )
DukeZhou

0

Câu hỏi là một câu hỏi hay và trong suy nghĩ của nhiều người. Có một vài quan niệm sai lầm trong dòng suy nghĩ cần xem xét.

  • Quyền lực tối cao của những sinh vật thông minh khác với con người đe dọa nền văn minh - Việc tưởng tượng về mối đe dọa đó có hợp lý không? Đó có phải là một kết luận hợp lý khi trí thông minh của con người là hiện tượng sinh học đe dọa nhất trong sinh quyển ngày nay. Trí thông minh của côn trùng có thể bền vững hơn. Các nền văn minh của kiến ​​và mối chắc chắn là hợp tác nhiều hơn. Chiến tranh thế giới và diệt chủng là một trong những đặc điểm chính của lịch sử loài người.
  • Trí thông minh nhân tạo trở nên thông minh hơn con người - Trí thông minh nhân tạo đã thông minh hơn con người ở một số khía cạnh, đó là lý do tại sao chúng ta sử dụng máy tính, tự động chuyển đổi tín hiệu liên lạc thay vì người vận hành và sắp xếp thư tự động. Theo những cách khác, AI phải vượt qua khoảng cách thiên văn để bắt đầu ước tính trí thông minh của con người. Chúng tôi không có gì thậm chí cho thấy một gợi ý về khả năng mô phỏng hoặc nhân đôi trong tương lai khả năng lý luận, sáng tạo hoặc lòng trắc ẩn của con người.
  • Điểm kỳ dị được dự đoán vào những năm 2040 - Có hơn một chục giả định không thực tế trong những dự đoán đó. Nhìn bằng con mắt quan trọng vào bất kỳ một trong những đối số đằng sau chúng và bạn sẽ thấy những lỗ hổng bạn có thể bay 757 qua bịt mắt.
  • Tăng trưởng theo cấp số nhân về kiến ​​thức - Có sự tăng trưởng theo cấp số nhân về thông tin, nhưng tỷ lệ thông tin đó được đánh giá ngang hàng hợp pháp giảm khi thông tin sai lệch, phỏng đoán hoang dã và tin tức giả mạo tăng. Tôi tin rằng lượng thông tin trên thế giới có thể được xấp xỉ bằng log (n), trong đó n là dân số. Nếu tôi đi đúng hướng với mối quan hệ đó, giá trị thông tin của cá nhân trung bình là log (n) / n, sẽ giảm khi dân số tăng.
  • AI sẽ có khả năng toàn tri - Omniscience còn hơn cả trả lời bất kỳ câu hỏi nào. Omniscience sẽ yêu cầu câu trả lời phải đáng tin cậy 100% và chính xác 100%, điều này có thể đòi hỏi nhiều silicon hơn so với tồn tại trong vũ trụ. Đọc Gleick's Chaos nếu bạn muốn hiểu lý do tại sao. Người ta cũng có thể lập luận rằng một sinh vật toàn năng sẽ không trả lời các câu hỏi về mệnh lệnh.

Nếu bạn muốn một thế giới tốt hơn thế giới do trí thông minh của con người kiểm soát, thì một hướng cần thực hiện là tìm kiếm sự phát triển của một loài mới với quan niệm tiến bộ hơn về nền văn minh hòa bình có thể thuần hóa và thuần hóa chúng ta như chúng ta đã làm với chó và những con mèo.

Con đường dễ dàng hơn chỉ là cho tất cả chúng ta chết. Sinh quyển có thể đã văn minh hơn trước khi chúng tôi đến và bắt đầu giết chết mọi thứ lẫn nhau. Nhưng đó không phải là hy vọng của tôi.

Đề nghị của tôi là chúng tôi nghiên cứu NI (không thông minh) và khám phá cách loại bỏ những gì ngu ngốc khỏi hành vi của con người và tương tác địa chính trị. Điều đó sẽ cải thiện thế giới hơn nhiều so với các ứng dụng và ứng dụng học máy không liên quan và thực sự không liên quan.


0

Dưới đây là một số vấn đề mà tâm trí vượn của tôi nghĩ ra.

1.Smart! = Tất cả đều biết

Vụ nổ tự cải thiện AI đánh thức nó thông minh hơn và thông minh hơn. Trở nên thông minh hơn không có nghĩa là biết nhiều sự thật hơn. Tôi cho rằng đây là một lập luận khá kén chọn, nhưng tôi nghĩ đáng suy nghĩ.

Một bác sĩ rất thông minh không biết lịch sử của bạn vẫn có thể đưa ra lựa chọn tồi tệ hơn một bác sĩ kém thông minh hơn với dữ liệu tốt hơn.

2. Có phải tất cả vì con người? Có phải cho tất cả con người?

ASI đạt đến cấp độ cao hơn không thể quan tâm đến phúc lợi của chúng ta.

Một ASI được kiểm soát vẫn có thể hoạt động chỉ vì lợi ích của một số ít, nếu một vài quyết định sai mục tiêu chúng ta có thể đi ngược lại.

3 khắc nghiệt

Một bộ óc khoa học không nhất thiết phải đầy sự cảm thông hay đồng cảm.

4. Thông minh và không thông minh

Những bộ óc vĩ đại vẫn mắc sai lầm: * trong việc thiết lập mục tiêu của họ và * trong việc thực hiện kế hoạch để đạt được nó.

Trí tuệ của Geat không đảm bảo thiếu ánh sáng hoặc thiếu điểm mù.

5. Giới hạn

Nếu có giới hạn của sự tồn tại (tốc độ giới hạn loại ánh sáng) thì AI cũng sẽ bị ràng buộc bởi những điều này. Điều này có thể có nghĩa là có những thứ mà ngay cả ASI sẽ không 'nhận được'. Ngoài ra, vì tâm trí của chúng ta có thể có giới hạn dựa trên cấu trúc của nó, AI tiếp theo cũng có thể có giới hạn - và ngay cả khi nó cải thiện, có thể đạt đến giới hạn mà nó không thể tìm ra giải pháp vì nó 'quá ngu ngốc'.

6. Chúng tôi sẽ không nhận được nó

Sự hiểu biết của ASI về các khía cạnh nhất định của thế giới có thể không được truyền đạt cho hầu hết mọi người. Chúng tôi sẽ không hiểu nó (ngay cả khi chúng tôi có khả năng hiểu mọi thứ, điều đó không có nghĩa là chúng tôi sẽ hiểu nó).

7. Làm thế nào để sử dụng nó?

Chúng ta có thể hủy hoại chính mình và AI với công nghệ mà nó giúp chúng ta xây dựng. Nó không cần phải là bom. Nó có thể là địa kỹ thuật hoặc thuốc kỳ diệu.

Điều này đặc biệt dữ dội khi ASI đã mạnh mẽ nhưng không đủ mạnh để thấy trước những hậu quả tiêu cực (hoặc dù sao chúng ta sẽ bỏ qua nó).

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.