Không có nghi ngờ rằng AI có khả năng gây ra mối đe dọa hiện hữu cho nhân loại.
Mối đe dọa lớn nhất đối với nhân loại nằm ở AI siêu thông minh.
Một trí thông minh nhân tạo vượt qua trí thông minh của con người sẽ có khả năng tăng theo cấp số nhân trí thông minh của chính nó, dẫn đến một hệ thống AI mà đối với con người sẽ hoàn toàn không thể ngăn cản.
Ở giai đoạn này, nếu hệ thống trí tuệ nhân tạo quyết định rằng loài người không còn hữu ích, nó có thể quét sạch chúng ta khỏi bề mặt trái đất.
Như Eliezer Yudkowsky đặt nó vào Trí tuệ nhân tạo như một yếu tố tích cực và tiêu cực trong rủi ro toàn cầu ,
"AI không ghét bạn, nó cũng không yêu bạn, nhưng bạn được tạo ra từ các nguyên tử mà nó có thể sử dụng cho mục đích khác."
Một mối đe dọa khác nằm ở sự chỉ dẫn của AI rất thông minh
Ở đây rất hữu ích để xem xét thử nghiệm tối đa hóa kẹp giấy.
Một AI rất thông minh được hướng dẫn để tối đa hóa việc sản xuất kẹp giấy có thể thực hiện các bước sau để đạt được mục tiêu của nó.
1) Đạt được sự bùng nổ trí thông minh để biến nó trở nên siêu thông minh (điều này sẽ tăng hiệu quả tối ưu hóa kẹp giấy)
2) Xóa sổ loài người để nó không thể bị vô hiệu hóa (điều đó sẽ giảm thiểu sản xuất và không hiệu quả)
3) Sử dụng tài nguyên của Trái đất (bao gồm cả chính hành tinh) để xây dựng các robot tự sao chép lưu trữ AI
4) Trải rộng theo cấp số nhân trên vũ trụ, thu hoạch các hành tinh và các ngôi sao giống nhau, biến chúng thành nguyên liệu để xây dựng các nhà máy kẹp giấy
Rõ ràng đây không phải là điều mà con người kinh doanh sản xuất kẹp giấy mà nó mong muốn, tuy nhiên đó là cách tốt nhất để thực hiện các hướng dẫn của AI.
Điều này minh họa làm thế nào các hệ thống AI siêu thông minh và thông minh cao có thể trở thành nguy cơ tồn tại lớn nhất mà loài người có thể gặp phải.
Murray Shanahan, trong The Singological Singularity , thậm chí còn đề xuất rằng AI có thể là giải pháp cho nghịch lý Fermi: lý do tại sao chúng ta không thấy sự sống thông minh trong vũ trụ có thể là một khi nền văn minh đủ tiến bộ, nó sẽ phát triển một AI cuối cùng sẽ phá hủy nó Điều này được gọi là ý tưởng của một bộ lọc vũ trụ .
Tóm lại, chính trí thông minh làm cho AI trở nên hữu ích cũng khiến nó trở nên cực kỳ nguy hiểm.
Những nhân vật có ảnh hưởng như Elon Musk và Stephen Hawking đã bày tỏ lo ngại rằng AI siêu thông minh là mối đe dọa lớn nhất mà chúng ta sẽ phải đối mặt.
Hy vọng rằng câu trả lời câu hỏi của bạn :)