Trí tuệ nhân tạo có dễ bị hack không?
Đảo ngược câu hỏi của bạn một lát và suy nghĩ:
Điều gì sẽ khiến AI ít có nguy cơ bị hack so với bất kỳ loại phần mềm nào khác?
Vào cuối ngày, phần mềm là phần mềm và sẽ luôn có lỗi và vấn đề bảo mật. AI có nguy cơ đối với tất cả các vấn đề mà phần mềm không phải AI có nguy cơ mắc phải, vì AI không cấp cho nó một loại miễn dịch nào.
Đối với việc giả mạo cụ thể của AI, AI có nguy cơ bị cung cấp thông tin sai lệch. Không giống như hầu hết các chương trình, chức năng của AI được xác định bởi dữ liệu mà nó tiêu thụ.
Ví dụ trong thế giới thực, vài năm trước Microsoft đã tạo ra một chatbot AI có tên Tay. Người dân Twitter mất chưa đầy 24 giờ để dạy nó nói rằng "Chúng tôi sẽ xây dựng một bức tường và mexico sẽ trả tiền cho nó":
(Hình ảnh được lấy từ bài báo Verge được liên kết bên dưới, tôi khẳng định không có tín dụng nào cho nó.)
Và đó chỉ là phần nổi của tảng băng chìm.
Một số bài viết về Tay:
Bây giờ hãy tưởng tượng đó không phải là một bot trò chuyện, hãy tưởng tượng đó là một phần quan trọng của AI từ tương lai nơi AI chịu trách nhiệm về những việc như không giết người ngồi trong xe (tức là xe tự lái) hoặc không giết chết bệnh nhân bảng điều hành (tức là một số loại thiết bị hỗ trợ y tế).
Cấp, người ta sẽ hy vọng những AI như vậy sẽ được bảo mật tốt hơn trước các mối đe dọa như vậy, nhưng giả sử ai đó đã tìm cách cung cấp cho hàng loạt thông tin sai lệch AI như vậy mà không bị chú ý (rốt cuộc, những tin tặc giỏi nhất không để lại dấu vết), điều đó thực sự có nghĩa sự khác biệt giữa sự sống và cái chết.
Sử dụng ví dụ về một chiếc xe tự lái, hãy tưởng tượng nếu dữ liệu sai lệch có thể khiến chiếc xe nghĩ rằng cần phải dừng khẩn cấp khi đi trên đường cao tốc. Một trong những ứng dụng cho AI y tế là các quyết định sống hay chết trong ER, hãy tưởng tượng nếu một hacker có thể đưa ra các thang điểm có lợi cho quyết định sai.
Làm thế nào chúng ta có thể ngăn chặn nó?
Cuối cùng, quy mô của rủi ro phụ thuộc vào mức độ phụ thuộc của con người vào AI. Ví dụ, nếu con người đưa ra phán xét về AI và không bao giờ đặt câu hỏi về nó, họ sẽ tự mở ra cho mình mọi kiểu thao túng. Tuy nhiên, nếu họ sử dụng phân tích của AI như một phần của câu đố, sẽ dễ dàng phát hiện ra khi AI sai, thông qua các phương tiện vô tình hoặc độc hại.
Trong trường hợp của một người ra quyết định y tế, đừng chỉ tin vào AI, thực hiện các bài kiểm tra thể chất và cũng nhận được một số ý kiến của con người. Nếu hai bác sĩ không đồng ý với AI, hãy loại bỏ chẩn đoán của AI.
Trong trường hợp của một chiếc xe hơi, một khả năng là có một số hệ thống dự phòng về cơ bản phải 'bỏ phiếu' về những việc cần làm. Nếu một chiếc xe có nhiều AI trên các hệ thống riêng biệt phải bỏ phiếu về hành động nào cần thực hiện, một hacker sẽ phải loại bỏ nhiều hơn một AI để kiểm soát hoặc gây ra bế tắc. Điều quan trọng, nếu các AI chạy trên các hệ thống khác nhau, việc khai thác tương tự được sử dụng trên một hệ thống khác không thể được thực hiện trên một hệ thống khác, làm tăng thêm khối lượng công việc của hacker.