Không , với một nhưng . Chúng ta có thể giải quyết vấn đề đạo đức nhưng sáng tạo nếu hệ thống có một hệ thống đạo đức hoàn chỉnh, nhưng nếu không thì sự sáng tạo sẽ không an toàn theo mặc định.
Người ta có thể phân loại các cách tiếp cận ra quyết định AI thành hai loại: nhà tư tưởng nội suy và nhà tư tưởng ngoại suy.
Các nhà tư tưởng nội suy học cách phân loại và bắt chước bất cứ điều gì họ học được và không cố gắng đưa ra kết quả hợp lý ngoài phạm vi đào tạo của họ. Bạn có thể nghĩ về chúng như là nội suy giữa các ví dụ đào tạo và được hưởng lợi từ tất cả các bảo đảm và chứng minh toán học như các kỹ thuật thống kê khác.
Các nhà tư tưởng ngoại suy học cách thao túng các nguyên tắc cơ bản, cho phép họ kết hợp các nguyên tắc đó theo những cách chưa từng thấy trước đây. Trường liên quan cho trực giác ở đây là tối ưu hóa số , trong đó ví dụ đơn giản và nổi tiếng nhất là lập trình tuyến tính , thay vì các trường thống kê sinh ra học máy. Bạn có thể nghĩ về chúng như ngoại suy ngoài các ví dụ đào tạo (thực sự, nhiều người trong số họ thậm chí không yêu cầu các ví dụ đào tạo hoặc sử dụng các ví dụ đó để suy ra các nguyên tắc cơ bản).
Lời hứa của các nhà tư tưởng ngoại suy là họ có thể đưa ra các giải pháp 'bên' này nhanh hơn nhiều so với mọi người có thể. Vấn đề với những nhà tư tưởng ngoại suy này là họ chỉ sử dụng các nguyên tắc nói chứ không phải bất kỳ điều gì không được nói có vẻ quá rõ ràng để đề cập.
Một thuộc tính của các giải pháp cho các vấn đề tối ưu hóa là vectơ đặc trưng thường 'cực đoan' theo một cách nào đó. Trong lập trình tuyến tính, ít nhất một đỉnh của không gian giải pháp khả thi sẽ là tối ưu và vì vậy các phương pháp giải pháp đơn giản tìm thấy một đỉnh tối ưu (gần như không khả thi vì bản chất là một đỉnh).
Một ví dụ khác, giải pháp nhiên liệu tối thiểu để di chuyển tàu vũ trụ từ vị trí này sang vị trí khác được gọi là ' bang-bang ', trong đó bạn tăng tốc phi thuyền nhanh nhất có thể ở đầu và cuối quỹ đạo, di chuyển với tốc độ tối đa ở giữa .
Trong khi một đức tính khi hệ thống được hiểu chính xác (bang-bang là tối ưu cho nhiều trường hợp), thì điều này là thảm khốc khi hệ thống được hiểu không chính xác. Ví dụ yêu thích của tôi ở đây là vấn đề ăn kiêng của Dantzig (thảo luận bắt đầu ở trang 5 của pdf), nơi anh ta cố gắng tối ưu hóa chế độ ăn uống của mình bằng toán học. Theo bộ ràng buộc đầu tiên của mình, anh ta nên uống 500 gallon giấm mỗi ngày. Dưới thứ hai của mình, 200 khối bouillon. Dưới thứ ba của anh, hai cân cám. Những cân nhắc làm cho những ý tưởng rõ ràng tồi tệ đó không được đưa vào hệ thống, và vì vậy hệ thống vô tình gợi ý chúng.
Nếu bạn hoàn toàn có thể mã hóa kiến thức và giá trị mà một người sử dụng để đánh giá các kế hoạch này vào AI, thì các hệ thống ngoại suy cũng an toàn như người đó. Họ sẽ có thể xem xét và từ chối các loại kế hoạch cực đoan sai lầm và để lại cho bạn các loại kế hoạch cực đoan đúng đắn.
Nhưng nếu bạn không thể, thì sẽ tốt hơn nếu không xây dựng một người ra quyết định ngoại suy, và thay vào đó xây dựng một nội suy. Đó là, thay vì tự hỏi "làm thế nào để tôi hoàn thành tốt nhất mục tiêu X?" nó tự hỏi "một người sẽ làm gì trong tình huống này?". Điều thứ hai có thể tồi tệ hơn nhiều khi hoàn thành mục tiêu X, nhưng nó có ít rủi ro hơn khi hy sinh các mục tiêu khác để hoàn thành X.