Liệu AI có thể suy nghĩ theo chiều ngang trong khi tránh các lựa chọn tối ưu về đạo đức của người Viking không?


13

Trong trò chơi PC gần đây The Turing Test , AI ("TOM") cần sự giúp đỡ của Ava để vượt qua một số phòng giải đố. TOM nói rằng anh ta không thể giải các câu đố vì anh ta không được phép " nghĩ theo chiều ngang ". Cụ thể, anh nói rằng anh sẽ không nghĩ sẽ ném một chiếc hộp qua cửa sổ để giải quyết căn phòng đầu tiên. Người sáng tạo của ông, câu chuyện kể, đã tắt khả năng đó bởi vì suy nghĩ như vậy có thể tạo ra các giải pháp "dưới mức tối ưu về mặt đạo đức", như chặt đứt một cánh tay để lại trên một tấm áp lực.

Tất cả các khả năng giải câu đố sáng tạo sẽ cần phải được loại bỏ khỏi AI để giữ cho kết quả của nó hợp lý, hoặc chúng ta có thể nhận được một số lợi ích của suy nghĩ bên mà không mất một cánh tay?

Câu trả lời:


17

Không , với một nhưng . Chúng ta có thể giải quyết vấn đề đạo đức nhưng sáng tạo nếu hệ thống có một hệ thống đạo đức hoàn chỉnh, nhưng nếu không thì sự sáng tạo sẽ không an toàn theo mặc định.

Người ta có thể phân loại các cách tiếp cận ra quyết định AI thành hai loại: nhà tư tưởng nội suy và nhà tư tưởng ngoại suy.

Các nhà tư tưởng nội suy học cách phân loại và bắt chước bất cứ điều gì họ học được và không cố gắng đưa ra kết quả hợp lý ngoài phạm vi đào tạo của họ. Bạn có thể nghĩ về chúng như là nội suy giữa các ví dụ đào tạo và được hưởng lợi từ tất cả các bảo đảm và chứng minh toán học như các kỹ thuật thống kê khác.

Các nhà tư tưởng ngoại suy học cách thao túng các nguyên tắc cơ bản, cho phép họ kết hợp các nguyên tắc đó theo những cách chưa từng thấy trước đây. Trường liên quan cho trực giác ở đây là tối ưu hóa số , trong đó ví dụ đơn giản và nổi tiếng nhất là lập trình tuyến tính , thay vì các trường thống kê sinh ra học máy. Bạn có thể nghĩ về chúng như ngoại suy ngoài các ví dụ đào tạo (thực sự, nhiều người trong số họ thậm chí không yêu cầu các ví dụ đào tạo hoặc sử dụng các ví dụ đó để suy ra các nguyên tắc cơ bản).

Lời hứa của các nhà tư tưởng ngoại suy là họ có thể đưa ra các giải pháp 'bên' này nhanh hơn nhiều so với mọi người có thể. Vấn đề với những nhà tư tưởng ngoại suy này là họ chỉ sử dụng các nguyên tắc nói chứ không phải bất kỳ điều gì không được nói có vẻ quá rõ ràng để đề cập.

Một thuộc tính của các giải pháp cho các vấn đề tối ưu hóa là vectơ đặc trưng thường 'cực đoan' theo một cách nào đó. Trong lập trình tuyến tính, ít nhất một đỉnh của không gian giải pháp khả thi sẽ là tối ưu và vì vậy các phương pháp giải pháp đơn giản tìm thấy một đỉnh tối ưu (gần như không khả thi vì bản chất là một đỉnh).

Một ví dụ khác, giải pháp nhiên liệu tối thiểu để di chuyển tàu vũ trụ từ vị trí này sang vị trí khác được gọi là ' bang-bang ', trong đó bạn tăng tốc phi thuyền nhanh nhất có thể ở đầu và cuối quỹ đạo, di chuyển với tốc độ tối đa ở giữa .

Trong khi một đức tính khi hệ thống được hiểu chính xác (bang-bang tối ưu cho nhiều trường hợp), thì điều này là thảm khốc khi hệ thống được hiểu không chính xác. Ví dụ yêu thích của tôi ở đây là vấn đề ăn kiêng của Dantzig (thảo luận bắt đầu ở trang 5 của pdf), nơi anh ta cố gắng tối ưu hóa chế độ ăn uống của mình bằng toán học. Theo bộ ràng buộc đầu tiên của mình, anh ta nên uống 500 gallon giấm mỗi ngày. Dưới thứ hai của mình, 200 khối bouillon. Dưới thứ ba của anh, hai cân cám. Những cân nhắc làm cho những ý tưởng rõ ràng tồi tệ đó không được đưa vào hệ thống, và vì vậy hệ thống vô tình gợi ý chúng.

Nếu bạn hoàn toàn có thể mã hóa kiến ​​thức và giá trị mà một người sử dụng để đánh giá các kế hoạch này vào AI, thì các hệ thống ngoại suy cũng an toàn như người đó. Họ sẽ có thể xem xét và từ chối các loại kế hoạch cực đoan sai lầm và để lại cho bạn các loại kế hoạch cực đoan đúng đắn.

Nhưng nếu bạn không thể, thì sẽ tốt hơn nếu không xây dựng một người ra quyết định ngoại suy, và thay vào đó xây dựng một nội suy. Đó là, thay vì tự hỏi "làm thế nào để tôi hoàn thành tốt nhất mục tiêu X?" nó tự hỏi "một người sẽ làm gì trong tình huống này?". Điều thứ hai có thể tồi tệ hơn nhiều khi hoàn thành mục tiêu X, nhưng nó có ít rủi ro hơn khi hy sinh các mục tiêu khác để hoàn thành X.


2

Đạo đức liên quan đến mối quan hệ nhu cầu giữa hai hoặc nhiều bên. Như Matthew Graves đã nói, nếu AI thiếu bối cảnh của con người (hiểu về nhu cầu), nó sẽ tạo ra hành vi đạo đức dường như đồi trụy.

Và thành thật mà nói, một số người sẽ cắt cánh tay của người khác và đặt chúng lên các tấm áp lực. Ngay cả những người giỏi nhất trong chúng ta cũng sẽ không thể thông cảm với nhu cầu của người khác với độ chính xác 100% - tốt nhất, chúng tôi đoán. Và sau đó, có những tình huống hiếm hoi mà tôi thực sự muốn bạn cắt đứt cánh tay của tôi và đặt nó lên một tấm áp lực, có lẽ để cứu một người thân yêu.

Nếu chúng ta có thể làm một điều có thể thông cảm với những gì một con người có thể cần trong bất kỳ tình huống độc đoán nhất định, sau đó chúng tôi sẽ đã tạo ra một trong hai A) một nhân tạo con người thông minh (AHI) (mà có thể là nhiều hơn hoặc ít hơn có thể sai lầm, giống như một con người), hoặc B) một nhà tiên tri có thể lý giải về tất cả các nhu cầu có thể có của con người với tốc độ nhanh hơn nhiều so với quy mô thời gian của con người - trong trường hợp đó bạn sẽ không cần một AI có ý thức, vì tất cả các nhu cầu và giải pháp của con người có thể được tính toán trước thông số kỹ thuật chính thức, có lẽ là vô lý để xem xét.


0

Bạn có thể coi chương trình là một phần đạo đức của thiết kế. AI sẽ hành động dựa trên những gì đã được hướng dẫn cho nó có quan trọng về mặt đạo đức hay không. Nó thậm chí có thể / nên là một phần của các tham số giả mạo quá trình tìm kiếm giải pháp, có thể cho phép một giải pháp sáng tạo và tinh tế hơn.

Chúng tôi hiểu những điều cơ bản về đạo đức trong các trường hợp thông thường, nhưng nếu chúng tôi không dự đoán được bất kỳ con người nào sẽ hành xử trong một câu hỏi hóc búa về đạo đức, chúng tôi có thể thực thi những gì AI sẽ làm.

Miễn là chúng tôi có quyền kiểm soát cơ chế điều khiển AI, chúng tôi chắc chắn có khả năng đáp ứng để tiêm các lỗi đạo đức. Vấn đề nằm ở việc AI tự học với khả năng ghi đè các chỉ thị. (Luật Asimov của CF.)

Cách AI sáng tạo dường như không liên quan trong trường hợp đó.


-1

Rất nhiều điều này phụ thuộc vào chiều rộng xem xét. Ví dụ, những tác động trung và dài hạn của tư duy bên sẽ là gì? Rô bốt có thể cắt một cánh tay cho một tấm áp lực nhưng điều đó có nghĩa là người đó không còn cánh tay nữa, hạn chế về chức năng, rằng người đó có thể bị chảy máu và chết / bị hạn chế nghiêm trọng, và người đó (và người ở trong đó chung) sẽ không còn hợp tác và có khả năng tìm cách loại bỏ robot. Mọi người có thể suy nghĩ theo chiều ngang vì xem xét những điều này - đạo đức thực sự không có gì khác hơn là một bộ hướng dẫn bao gồm những cân nhắc này. Robot cũng có thể, được thiết kế để xem xét các ngoại ứng này.

Nếu vẫn thất bại,

Định luật Robotics của Asimov: (0. Robot có thể không gây hại cho nhân loại, hoặc, bằng cách không hành động, cho phép loài người gây hại.) 1. Robot có thể không gây thương tích cho con người hoặc thông qua việc không hành động, cho phép con người đến làm hại. 2. Robot phải tuân theo mệnh lệnh được đưa ra bởi con người trừ khi những mệnh lệnh đó sẽ mâu thuẫn với Luật đầu tiên. 3. Robot phải bảo vệ sự tồn tại của chính mình miễn là sự bảo vệ đó không mâu thuẫn với Luật thứ nhất hoặc Thứ hai

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.