AI sẽ học ngôn ngữ như thế nào?


11

Tôi đã nghĩ về AI và cách chúng hoạt động, khi tôi nhận ra rằng tôi không thể nghĩ ra cách mà AI có thể được dạy ngôn ngữ. Một đứa trẻ có xu hướng học ngôn ngữ thông qua sự liên kết ngôn ngữ và hình ảnh với một đối tượng (ví dụ, mọi người nói từ "chó" trong khi xung quanh một con chó, và sau đó nhận ra rằng mọi người nói "một con chó" và "một chiếc xe hơi" và tìm hiểu "a "Có nghĩa là, v.v.). Tuy nhiên, AI dựa trên văn bản không thể sử dụng phương pháp này để tìm hiểu vì chúng sẽ không có quyền truy cập vào bất kỳ loại thiết bị đầu vào nào.

Cách duy nhất tôi có thể nghĩ ra là lập trình trong từng từ và quy tắc, bằng ngôn ngữ tiếng Anh (hoặc bất kỳ ngôn ngữ nào có nghĩa là 'nói'), tuy nhiên, điều đó sẽ có khả năng, phải mất nhiều năm để làm.

Có ai có bất kỳ ý tưởng về làm thế nào điều này có thể được thực hiện? Hoặc nếu nó đã được thực hiện, nếu vậy làm thế nào?

Nhân tiện, trong bối cảnh này, tôi đang sử dụng AI có nghĩa là một hệ thống Trí tuệ nhân tạo có trí thông minh gần như con người và không có kiến ​​thức về ngôn ngữ.

Câu trả lời:


12

Khu vực nghiên cứu chung được gọi là cảm ứng ngữ pháp .

Nó thường được đóng khung như là một vấn đề học tập có giám sát, với đầu vào được trình bày dưới dạng văn bản thô và đầu ra mong muốn của cây phân tích tương ứng . Tập huấn luyện thường bao gồm cả ví dụ tích cực và tiêu cực.

Không có phương pháp tốt nhất duy nhất để đạt được điều này, nhưng một số kỹ thuật đã được sử dụng cho đến nay bao gồm:


6

Thuật ngữ ô cho vấn đề của bạn được gọi là xử lý ngôn ngữ tự nhiên (NLP) - một chủ đề thuộc trí tuệ nhân tạo.

Có nhiều chủ đề phụ cho lĩnh vực này bao gồm ngữ nghĩa ngôn ngữ, phân tích ngữ pháp, các phần của gắn thẻ bài phát biểu, phân tích ngữ cảnh cụ thể của miền, v.v.


5

Để hoàn thiện, tôi sẽ chỉ ra rằng Mạng lưới thần kinh tái phát (tức là mạng lưới thần kinh có kết nối ngược) thường được sử dụng để xử lý ngôn ngữ tự nhiên (NLP). Điều này bao gồm các biến thể như hai chiều, Jordan và Elman Networks. Bộ nhớ ngắn hạn dài (LSTM) là một thuật toán mạng thần kinh phức tạp hơn, có thể thực hiện cùng các nhiệm vụ theo thời gian và theo trình tự, nhưng có thể thúc đẩy các phương pháp học tập tiêu chuẩn như backprop vì nó không gặp phải "vấn đề độ dốc biến mất". Điều này là do các LSTM đã được thiết kế tuyệt vời như là "các nhà tích hợp hoàn hảo", giúp cho việc tính toán độ dốc lỗi v.v ... dễ dàng hơn rất nhiều trong thời gian dài. Ngược lại, học với RNNs vẫn chưa có căn cứ về mặt lý thuyết và rất khó tính toán thông qua các phương pháp hiện có như Backpropagation Through Time (BPTT). Trong Mạng lưới thần kinh trì hoãn thời gian (TDNN), ý tưởng là thêm các nơ-ron mới và các kết nối với mỗi ví dụ đào tạo mới trong một khoảng thời gian hoặc chuỗi đào tạo; thật không may, điều này đặt ra một giới hạn thực tế về số lượng ví dụ bạn có thể cung cấp cho mạng trước khi kích thước của mạng vượt khỏi tầm kiểm soát hoặc nó bắt đầu quên, giống như với RNNs. Các LSTM có bộ nhớ dài hơn nhiều (đặc biệt là khi được tăng cường bằng Máy thần kinh thần kinh) vì vậy đó là lựa chọn đầu tiên của tôi, giả sử tôi muốn sử dụng mạng lưới thần kinh cho mục đích NLP. Kiến thức của tôi về chủ đề này còn hạn chế (tôi vẫn đang cố gắng học các sợi dây) vì vậy có thể có các thuật toán mạng thần kinh quan trọng khác mà tôi đang xem ...

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.