Tại sao đạo đức không được tích hợp nhiều hơn vào các hệ thống AI hiện tại?


9

Tôi là nghiên cứu sinh tiến sĩ về khoa học máy tính và hiện đang tạo ra một trạng thái tổng quan nghệ thuật trong các ứng dụng được thực hiện trong Machine Ethics (một lĩnh vực đa ngành kết hợp triết học và AI, nhìn vào việc tạo ra các chương trình hoặc tác nhân đạo đức rõ ràng). Có vẻ như lĩnh vực này chủ yếu chứa các lập luận lý thuyết và có rất ít triển khai, mặc dù có nhiều người có nền tảng kỹ thuật trong lĩnh vực này.

Tôi hiểu rằng vì đạo đức có liên quan, không có sự thật nền tảng và vì đó là một phần của triết học, người ta có thể bị lạc khi tranh luận về loại đạo đức nào nên được thực hiện và làm thế nào điều này có thể được thực hiện tốt nhất. Tuy nhiên, trong khoa học máy tính, thông thường thậm chí thử một cách thực hiện đơn giản để chỉ ra các khả năng hoặc giới hạn của phương pháp của bạn.

Những lý do có thể có rất ít được thực hiện trong việc thực hiện rõ ràng đạo đức trong AI và thử nghiệm với nó là gì?


2
Ví dụ về các phương pháp có thể được tìm thấy trong tài liệu nàytài liệu tổng quan này.
Suzanne

Câu trả lời:


2

Đây chắc chắn là một câu trả lời cấp cao và có tính đầu cơ cao, nhưng tôi đã suy nghĩ về câu hỏi này và đây là suy nghĩ của tôi:

  • Việc thực hiện các thuật toán đạo đức đòi hỏi một nền tảng toán học cho triết học vì máy tính là công cụ khác biệt

Sau thất bại nổi tiếng của Russell & Whitehead, và định lý bất toàn của Gôdel, điều này dường như có vấn đề.

  • AI là một lĩnh vực được ứng dụng cao, đặc biệt là ngày nay khi tiếp tục xác nhận học tập sâu và không có công ty nào muốn tiến gần đến vấn đề đạo đức trừ khi họ bị buộc phải

Vì vậy, bạn nhìn thấy nó trong những chiếc xe tự lái bởi vì các kỹ sư không có lựa chọn nào khác ngoài việc vật lộn với vấn đề. Ngược lại, tôi không nghĩ rằng bạn sẽ thấy nhiều công ty giao dịch chứng khoán thuật toán, nơi kinh doanh có hiệu quả Pareto , lo lắng về đạo đức hoặc tác động xã hội của đầu cơ tài chính. (Giải pháp cho "sự cố flash" dường như là các quy tắc tạm dừng giao dịch, thay vì giải quyết giá trị xã hội của giao dịch thuật toán tần số cao.) Một ví dụ rõ ràng hơn là các công ty truyền thông xã hội bỏ qua số lượng lạm dụng thông tin cực đoan (không rõ ràng và thông tin sai lệch) được đăng trên trang web của họ, làm cho sự thiếu hiểu biết, rất đáng nghi ngờ ở chỗ hoạt động được tạo ra bởi lạm dụng thông tin ảnh hưởng tích cực đến kết quả cuối cùng của họ.

  • Các lĩnh vực ứng dụng có xu hướng chủ yếu được thúc đẩy bởi lợi nhuận

Chỉ thị chính của các tập đoàn là trả lại lợi nhuận cho các nhà đầu tư. Không có gì lạ khi các tập đoàn vi phạm luật khi tiền phạt và tiền phạt dự kiến ​​sẽ thấp hơn lợi nhuận do hoạt động bất hợp pháp. (Có khái niệm về đạo đức trong kinh doanh, nhưng văn hóa nói chung dường như đánh giá con người và các công ty dựa trên số tiền họ kiếm được, bất kể phương tiện nào.)

  • Việc thực hiện đạo đức máy móc đang được khám phá ở những khu vực cần thiết để bán sản phẩm, nhưng ở những nơi khác, nó vẫn chủ yếu là giả thuyết

Nếu siêu trí tuệ phát triển và quét sạch loài người (như một số người rất thông minh có kỹ năng toán học vượt trội đang cảnh báo chúng ta,) thì cảm giác của tôi là nó sẽ là một chức năng của tự nhiên, trong đó sự tiến hóa không hạn chế của các thuật toán này là do các trình điều khiển kinh tế tập trung vào siêu automata đảng phái trong các ngành công nghiệp như đầu cơ tài chính và chiến tranh tự trị. Về cơ bản, theo đuổi lợi nhuận bằng mọi giá, bất kể các tác động.


Thú vị, khía cạnh lợi nhuận! Tôi đã không nghĩ về điều đó vì tôi quá tập trung vào các lý do nghiên cứu, nhưng điều đó có ý nghĩa rằng không có áp lực nào từ ngành công nghiệp để nghiên cứu theo đuổi nó hơn nữa.
Suzanne

@SuzanneTolmeijer Cảm ơn. Tôi đã đi sâu vào cách lý thuyết trò chơi kết nối với đạo đức trong một vài năm nay. (Chủ yếu là triết học ban đầu, ví dụ, "cân bằng" được cho là "tốt" - cân bằng là một hàm cân bằng và có thể được định nghĩa chính xác về mặt toán học. Nó liên quan đến kinh tế học trong sự ổn định thường được hiểu là tối ưu, trong đó sự bất ổn có khả năng là thảm họa.) Nhưng tôi không phải là người đóng góp AI duy nhất đã chạm vào các trình điều khiển kinh tế trong lĩnh vực này và những nguy cơ tiềm ẩn của cái mà tôi gọi là "AI siêu đảng".
DukeZhou

1

Tôi cảm thấy một phần của vấn đề là tại sao có rất ít cách thức triển khai đạo đức của các công nghệ AI / ML, đơn giản là vì không cần hoặc áp dụng đúng các khung lý thuyết.

Ý tôi là, không có cách nào đáng kể chúng ta có thể áp dụng sự hiểu biết này cho các thuật toán và mô hình không thể tương tác theo một cách có ý nghĩa. Chúng tôi có một khung lý thuyết lớn như vậy về an toàn / đạo đức AI vì nó cực kỳ quan trọng. Chúng ta cần đưa ra các hướng dẫn an toàn để thực hiện AI mạnh trước khi nó được tạo ra.

Một số bài báo rất tập trung đã bắt đầu thu hẹp các vấn đề trong việc tạo ra các hệ thống AI đạo đức / an toàn. Xem các vấn đề cụ thể trong an toàn AI


Dường như cần phải có đạo đức rõ ràng, ít nhất nhiều nhà nghiên cứu kêu gọi sự tiến bộ của đạo đức rõ ràng (ví dụ Moor 2006 ). Về mặt áp dụng đúng các khung lý thuyết, bạn có thể đúng: thực hiện hàm ý một số giải thích trong một số trường hợp, điều này có thể chứng minh khó khăn. Tuy nhiên, bạn đồng ý rằng các hướng dẫn an toàn cho AI rất quan trọng, điều đó có nghĩa là các hướng dẫn thực tế về những gì chúng tôi cho là 'đúng' hoặc 'đạo đức' để máy móc của chúng tôi thực hiện. Những hướng dẫn này sẽ ngụ ý cách thực hiện đạo đức trong máy theo một cách nào đó.
Suzanne

1

Với phương pháp bắt chước, hành vi thích hợp nhất có thể được tích hợp vào trí tuệ nhân tạo. Trí tuệ nhân tạo có thể được định hình lại khi vị trí đạo đức thay đổi. Nó được sử dụng cho mục đích tư tưởng hoặc để thu thập thông tin. Không rõ robot là gì.


1

Chúng ta có thể đưa mô hình lỗi vào kế toán. Nhận biết sự thiên vị và phương sai giữa hiệu suất trong các mạng thần kinh có thể là bước đầu tiên. Và sau đó chúng ta có thể thảo luận về việc hiệu suất như vậy có được cho phép hay không. Theo chúng tôi biết, thực hành dân tộc học đòi hỏi nghiên cứu thực nghiệm và thực địa. chúng ta không thể đơn giản lấy các lý lẽ và bài tiểu luận trên giấy để xác định hoạt động của các máy đã học là sai hay không. Nó có thể được chia thành tai nạn, lỗi hoặc thậm chí lỗi được tạo ra từ các nhà phát triển.


Một điểm thú vị mà bạn nêu ra ở đây là về cơ bản, các biện pháp nào có thể được sử dụng để kiểm tra hệ thống và làm thế nào để bạn xác định xem hệ thống có hoạt động chính xác không? Đây là một điều còn thiếu trong lĩnh vực này, và tôi cảm thấy là một phần của vấn đề thực sự: làm thế nào để kiểm tra hệ thống của bạn mà không có sự thật cơ bản? Những biện pháp (kích thước trong) nào có ý nghĩa trong bối cảnh của các thuật toán đạo đức rõ ràng? Không có điều đó, bạn không có cách nào để so sánh các hệ thống, điều này hạn chế tiến trình trong lĩnh vực này.
Suzanne

1

Nói một cách trực giác, dường như có rất ít nghiên cứu về việc thực hiện đạo đức AI vì:

  1. Xã hội nói chung dường như thoải mái đồng ý rằng tình trạng hiện tại của trí thông minh máy móc không đủ mạnh để nó được coi là có ý thức hay hữu tình. Vì vậy, chúng ta không cần phải cung cấp cho nó quyền đạo đức (chưa).

  2. Việc thực hiện hành vi đạo đức vào một chương trình đòi hỏi một phương pháp để máy tính có khả năng diễn giải "ý nghĩa" mà chúng ta chưa biết cách thực hiện.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.