Tại sao chúng ta cần có ý thức chung trong AI?


10

Hãy xem xét ví dụ này:

Đó là sinh nhật của John, hãy mua cho anh ta một con diều.

Con người chúng ta rất có thể sẽ nói diều là một món quà sinh nhật, nếu được hỏi tại sao nó được mua; và chúng tôi đề cập đến lý do này là lẽ thường .

Tại sao chúng ta cần điều này trong các tác nhân thông minh nhân tạo? Tôi nghĩ rằng nó có thể gây ra vô số vấn đề, vì rất nhiều lỗi của con người chúng ta gây ra bởi những giả định mơ hồ này.

Hãy tưởng tượng một AI bỏ qua làm một số việc nhất định bởi vì nó cho rằng nó đã được thực hiện bởi người khác (hoặc AI khác), sử dụng ý nghĩa thông thường của nó.

Điều đó có mang lỗi của con người vào hệ thống AI không?


Bình luận không dành cho thảo luận mở rộng; cuộc trò chuyện này đã được chuyển sang trò chuyện .
nbro

Câu trả lời:


16

Kiến thức thông thường là tập hợp các tiền đề mà mọi người, trong một bối cảnh nhất định (do đó kiến ​​thức thông thường có thể là một chức năng của bối cảnh), được coi là điều hiển nhiên. Sẽ tồn tại rất nhiều thông tin sai lệch giữa con người và AI nếu AI không sở hữu kiến ​​thức thông thường. Do đó, kiến ​​thức thông thường là nền tảng cho sự tương tác giữa con người và AI .

Cũng có những tiền đề mà mọi người đều được cấp độc lập với đất nước, văn hóa hoặc, nói chung, bối cảnh. Ví dụ, mỗi con người (gần như từ khi ra đời) có một cơ chế lý luận về vật lý ngây thơ, chẳng hạn như không gian, thời gian và các tương tác vật lý. Nếu một AI không sở hữu kiến ​​thức này, thì nó không thể thực hiện các nhiệm vụ đòi hỏi kiến ​​thức này.

Bất kỳ nhiệm vụ nào đòi hỏi một cỗ máy phải có kiến ​​thức thông thường (của một người bình thường) được cho là hoàn thành AI , nghĩa là nó đòi hỏi trí thông minh ở cấp độ con người (hoặc nói chung). Xem phần 3 của bài viết Kiến thức chung (2009), của Christian Andrich, Leo Novosel và Bojan Hrnkas.

Tất nhiên, những vấn đề phát sinh trong khi con người giao tiếp vì những giả định hoặc tiền đề khác nhau cũng có thể nảy sinh giữa con người và AI (sở hữu kiến ​​thức thông thường).


Bình luận không dành cho thảo luận mở rộng; cuộc trò chuyện này đã được chuyển sang trò chuyện .
nbro

10

Chúng ta cần loại kiến ​​thức thông thường này nếu chúng ta muốn máy tính hiểu ngôn ngữ của con người. Thật dễ dàng để một chương trình máy tính phân tích cấu trúc ngữ pháp của ví dụ bạn đưa ra, nhưng để hiểu ý nghĩa của nó, chúng ta cần biết bối cảnh có thể, đó là những gì bạn gọi là "lẽ thường" ở đây.

Điều này đã được nhấn mạnh rất nhiều trong Roger Schank et al. Công việc của máy tính là hiểu các câu chuyện và dẫn đến nhiều nghiên cứu về biểu diễn tri thức, kịch bản, kế hoạch, mục tiêu. Một ví dụ từ công việc của Schank là Mary đói. Cô nhặt một Hướng dẫn Michelin. - điều này có vẻ như không phải là một sequitur: nếu bạn đói, tại sao lại chọn một cuốn sách? Cho đến khi bạn nhận ra rằng đó là một hướng dẫn nhà hàng, và Mary có lẽ đang lên kế hoạch đến một nhà hàng để ăn. Nếu bạn biết rằng đi đến một nhà hàng là một giải pháp tiềm năng cho vấn đề đói, thì bạn không có vấn đề gì trong việc hiểu câu chuyện này.

Bất kỳ câu chuyện nào cũng cần có ý thức chung để được hiểu, bởi vì không có câu chuyện nào là hoàn toàn rõ ràng. Những điều phổ biến được "hiểu" và không được đề cập rõ ràng. Những câu chuyện liên quan đến trải nghiệm của con người, và một câu chuyện sẽ khiến mọi thứ rõ ràng có thể sẽ đọc giống như một chương trình máy tính. Bạn cũng cần có ý thức chung để hiểu cách các nhân vật trong câu chuyện hành xử và cách họ bị ảnh hưởng bởi những gì đang xảy ra. Một lần nữa, điều này rất chủ quan, nhưng nó là cần thiết. Một số ý nghĩa thông thường có thể được áp dụng chung, các khía cạnh khác của nó sẽ không được. Đây là một vấn đề phức tạp, đó là lý do tại sao các nhà nghiên cứu đã đấu tranh với nó trong ít nhất nửa thế kỷ nghiên cứu về AI.

Tất nhiên, điều này sẽ đưa "lỗi của con người" vào một hệ thống AI. Tất cả điều này là rất chủ quan và văn hóa cụ thể. Đi đến một nhà hàng ở Mỹ khác với đi đến một nhà hàng ở Pháp - đây là lý do tại sao đi ra nước ngoài có thể là một thách thức. Và việc tôi đọc một câu chuyện có lẽ sẽ khác với bạn. Nhưng nếu bạn muốn mô phỏng trí thông minh của con người, bạn không thể làm điều đó mà không có "lỗi" con người tiềm năng.


Bình luận không dành cho thảo luận mở rộng; cuộc trò chuyện này đã được chuyển sang trò chuyện .
nbro

2

Tôi sẽ trả lời câu hỏi này trong một số phần:

Tại sao các hệ thống AGI cần phải có ý thức chung?

Con người theo lý do hoang dã và giao tiếp bằng cách sử dụng ý thức thông thường nhiều hơn so với logic chặt chẽ, bạn có thể thấy điều này bằng cách lưu ý rằng nó dễ thu hút cảm xúc của ai đó hơn logic. Vì vậy, bất kỳ hệ thống nào tìm cách tái tạo nhận thức của con người (như trong AGI) cũng nên sao chép xu hướng sử dụng thông thường này.

Nói một cách đơn giản hơn, chúng tôi muốn rằng hệ thống AGI của chúng tôi có thể nói chuyện với chúng tôi bằng ngôn ngữ thông thường đơn giản vì đó là điều chúng tôi hiểu rõ nhất (nếu không chúng tôi sẽ không hiểu AGI thân thiện của mình thì sao?). Lý thuyết khó hiểu và logic chặt chẽ về mặt kỹ thuật có thể đúng, nhưng không thu hút sự hiểu biết của chúng tôi.

Không phải mục tiêu của AGI là tạo ra hệ thống tiến bộ nhận thức nhất sao? Tại sao hệ thống AGI "hoàn hảo nhất" cần phải đối phó với sự không hoàn hảo và thiếu chính xác như vậy theo nghĩa thông thường?

Đầu tiên, nó chỉ có vẻ là trường hợp logic thông thường là "phi lý". Có lẽ có một cách toán học nhất quán để mô hình hóa ý thức chung sao cho tất cả sự tinh tế của lẽ thường được thể hiện một cách nghiêm ngặt.

Thứ hai, nghiên cứu ban đầu về Trí tuệ nhân tạo bắt đầu trong nghiên cứu về khoa học nhận thức, trong đó các nhà nghiên cứu đã cố gắng sao chép "thuật toán của tâm trí", hay chính xác hơn là: các thủ tục có thể quyết định sao chép suy nghĩ của con người. Ở mức độ đó, nghiên cứu về AI không phải để tạo ra "tác nhân nhận thức tối cao nhất" mà chỉ đơn thuần là sao chép suy nghĩ / hành vi của con người. Một khi chúng ta có thể tái tạo hành vi của con người, có lẽ chúng ta có thể cố gắng tạo ra một thứ gì đó siêu nhân bằng cách cho nó sức mạnh tính toán nhiều hơn, nhưng điều đó không được đảm bảo.

Tôi vẫn không thấy lý do tại sao cần có ý thức chung trong các hệ thống AGI. Không phải AGI về việc trở thành hệ thống tính toán thông minh và mạnh mẽ nhất sao? Tại sao nó phải quan tâm hoặc phù hợp với giới hạn hiểu biết của con người, đòi hỏi lẽ phải thông thường?

Có lẽ sau đó bạn có một chút hiểu biết sai lệch về những gì AGI đòi hỏi. AGI không có nghĩa là sức mạnh tính toán không giới hạn (không thể thực hiện được do các ràng buộc vật lý đối với tính toán như giới hạn của Bremermann ) hoặc trí thông minh không bị ràng buộc (có lẽ là không thể về mặt vật lý do các ràng buộc trước đó). Nó thường chỉ có nghĩa là "trí thông minh chung" nhân tạo, nghĩa chung là rộng và phổ biến.

Cân nhắc về các tác nhân không bị ràng buộc được nghiên cứu chi tiết hơn trong các lĩnh vực như khoa học máy tính lý thuyết (lý thuyết loại tôi tin), lý thuyết quyết định và thậm chí có thể đặt ra lý thuyết, nơi chúng ta có thể đặt câu hỏi về các tác nhân có sức mạnh tính toán không giới hạn. Chúng ta có thể nói rằng có những câu hỏi thậm chí một hệ thống AGI với sức mạnh vô biên không thể trả lời do các vấn đề ngăn chặn , nhưng chỉ khi các giả định về những lĩnh vực bản đồ vào cấu trúc của AGI đưa ra, trong đó có thể không đúng.

Để hiểu rõ hơn về những gì AGI có thể đòi hỏi và mục tiêu của nó, tôi có thể giới thiệu hai cuốn sách: Trí tuệ nhân tạo: Ý tưởng rất của John Haugeland cho cách tiếp cận thực tế hơn (có thể thực dụng như triết lý AI và Về nguồn gốc của các đối tượng Brian Cantwell Smith cho một cách tiếp cận nghiêng về triết học hơn.

Như một niềm vui sang một bên, bộ sưu tập của Zen koan: Cổng không cánh, bao gồm đoạn văn sau: (trích dẫn và chỉnh sửa từ wikipedia )

Một nhà sư hỏi Zhaozhou, một thiền sư Trung Quốc, "Có một con chó Phật tự nhiên hay không?" Triệu Châu trả lời: "Wú"

Wú (無) dịch thành "không", "không", hoặc "không có gì", có thể được hiểu là để tránh trả lời có hoặc không. Cá nhân giác ngộ này không tìm cách trả lời nghiêm túc mọi câu hỏi, mà chỉ trả lời theo cách có ý nghĩa. Nó thực sự không quan trọng bằng việc con chó có bản chất Phật hay không (dù ý nghĩa của Phật là gì), vì vậy, chủ nhân mặc định loại bỏ câu hỏi thay vì giải quyết nó.


3
Sẽ vui hơn nhiều nếu chủ nhân trả lời "wúf wúf!"
m3char character

1

Có lẽ nó sẽ giúp đưa ra một ví dụ về những gì có thể sai mà không có ý nghĩa thông thường: Khi bắt đầu cuốn tiểu thuyết "Hai mặt của ngày mai" của James Hogan, một giám sát viên xây dựng trên Mặt trăng gửi yêu cầu với một hệ thống tự động, yêu cầu điều đó một phần lớn thiết bị xây dựng được chuyển đến địa điểm của anh ấy càng sớm càng tốt. Hệ thống trả lời rằng nó sẽ đến trong hai mươi phút nữa. Hai mươi phút sau, người giám sát bị giết khi thiết bị đâm vào công trường xây dựng của anh ta. Hệ thống đã xác định rằng cách nhanh nhất để đưa thiết bị đến địa điểm đó là gắn thiết bị lên một trình điều khiển hàng loạt và khởi chạy nó tại địa điểm đó. Nếu hệ thống được đề cập đã được đưa ra ý nghĩa thông thường, nó sẽ suy ra các ràng buộc bổ sung không được nêu trong truy vấn, chẳng hạn như 'thiết bị sẽ đến nguyên vẹn', ' sự xuất hiện của thiết bị sẽ không gây ra thiệt hại hoặc mất mạng ', v.v. (phần còn lại của cuốn tiểu thuyết mô tả một thí nghiệm được thiết kế để tạo ra một hệ thống mới với ý nghĩa thông thường)


Ví dụ khá thú vị. Mặc dù, có lẽ nó cũng có thể đi theo một cách khác. Tưởng tượng AI kiểm tra bệnh nhân và bằng cách nhìn ngoại hình bình thường của bệnh nhân, kết luận rằng bệnh nhân có thể / sẽ ổn (dựa trên ý nghĩa thông thường là nếu bạn trông ổn thì có lẽ bạn vẫn thế); tuy nhiên, bệnh nhân đang cần sự giúp đỡ nghiêm trọng. Tuy nhiên, tôi nghĩ bây giờ rõ ràng rằng ý thức chung không phải là vấn đề, đó là ý thức / kiến ​​thức thông thường bị lỗi có thể trở nên nguy hiểm trong các tình huống quan trọng. Vì vậy, tôi đoán chúng ta nên kiểm soát và đảm bảo rằng AI có ý thức chung hoàn hảo .
Titan

0

Là ý thức chung này, hay đây là sự hiểu biết ngôn ngữ tự nhiên?

Người ta nói rằng hiểu ngôn ngữ tự nhiên là một trong những nhiệm vụ AI khó nhất. Đây là một trong những ví dụ cho thấy tại sao. Phần đầu tiên của câu có liên quan đến phần thứ hai, đó là cách câu hoạt động.

Bây giờ câu hỏi có liên quan là làm thế nào hai phần có liên quan. Có một vài mối quan hệ tiêu chuẩn mà chúng ta gặp phải, ví dụ như một trật tự thời gian. Trong ví dụ cụ thể này, bản chất của mối quan hệ gần với nhân quả hơn.

Bạn thấy hiệu ứng này khi chúng tôi chèn một từ để làm cho mối quan hệ này rõ ràng:

Đó là sinh nhật của John, vì vậy hãy mua cho anh ta một con diều. hoặc Hãy mua cho John một con diều, đó là sinh nhật của anh ấy.

Đây là một kỹ thuật cho con người để làm cho những mối quan hệ ngầm này rõ ràng.

Bây giờ, như tò mò lưu ý, bạn cũng cần có kiến ​​thức văn hóa để hiểu làm thế nào một sinh nhật có thể là một nguyên nhân cho một món quà. Không có ý nghĩa thông thường giúp với điều đó.


Chúng tôi sử dụng " ý thức chung " chúng tôi phải hiểu một câu như thế. NLP thực sự rất khó, tôi đồng ý, và đó là bởi vì cho đến nay AI vẫn chưa sở hữu kiến ​​thức và mô hình toàn diện về thế giới mà con người chúng ta có; do đó nó thiếu kết nối các dấu chấm và hiểu những quan hệ ngầm đó. " Kiến thức văn hóa " mà bạn đề cập về cơ bản được coi là lẽ thường của chúng ta.
Titan
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.