Tôi là một sinh viên CS (nhưng tôi không biết nhiều về AI, mặc dù không tham gia khóa học nào về nó và chắc chắn không có gì về NN cho đến gần đây), người sắp làm một dự án trường học về AI, vì vậy tôi chọn một chủ đề liên quan cảm ứng ngữ pháp (của ngôn ngữ không ngữ cảnh và có lẽ một số tập hợp con của ngôn ngữ nhạy cảm ngữ cảnh) sử dụng học tập củng cố trên mạng lưới thần kinh. Tôi bắt đầu nghiên cứu cách tiếp cận thành công trước đó để xem liệu chúng có thể được điều chỉnh hay không, và bây giờ tôi đang cố gắng hiểu cách tiếp cận bằng cách học có giám sát với Bộ nhớ dài hạn. Tôi đang đọc "Học cách quên: Dự đoán liên tục với LSTM". Tôi cũng đang đọc bài báo về lổ nhìn trộm, nhưng nó thậm chí còn phức tạp hơn và tôi chỉ đang thử một cái gì đó đơn giản hơn trước. Tôi nghĩ rằng tôi nhận được chính xác làm thế nào các tế bào bộ nhớ và cấu trúc liên kết mạng hoạt động. Những gì tôi không nhận được ngay bây giờ là thuật toán đào tạo. Vì vậy, tôi có một số câu hỏi để hỏi:
Làm thế nào chính xác để đầu vào khác nhau được phân biệt? Rõ ràng mạng không được thiết lập lại sau mỗi đầu vào và không có ký hiệu đặc biệt để phân định đầu vào khác nhau. Có phải mạng chỉ nhận được một chuỗi liên tục mà không có bất kỳ manh mối nào về nơi kết thúc đầu vào và chuỗi tiếp theo bắt đầu?
Độ trễ thời gian giữa đầu vào và đầu ra mục tiêu tương ứng là gì? Chắc chắn một số lượng thời gian trễ là bắt buộc, và do đó, mạng không bao giờ có thể được đào tạo để có được đầu ra mục tiêu từ đầu vào mà nó không có đủ thời gian để xử lý. Nếu đó không phải là ngữ pháp Reber đã được sử dụng, nhưng một thứ phức tạp hơn có khả năng cần nhiều thông tin hơn để được lưu trữ và truy xuất, lượng thời gian cần để truy cập thông tin có thể thay đổi tùy thuộc vào đầu vào, điều gì đó có lẽ không thể dự đoán được trong khi chúng tôi quyết định độ trễ thời gian để làm đào tạo.
Có một lời giải thích trực quan hơn về thuật toán đào tạo? Tôi cảm thấy khó khăn để tìm ra những gì đang diễn ra đằng sau tất cả các công thức phức tạp và tôi sẽ cần phải hiểu nó bởi vì tôi cần phải điều chỉnh nó thành một thuật toán học tăng cường sau này.
Ngoài ra, bài báo đã không đề cập bất cứ điều gì liên quan đến dữ liệu đào tạo ồn ào . Tôi đã đọc ở một nơi khác rằng mạng có thể xử lý dữ liệu thử nghiệm rất ồn. Bạn có biết nếu LSTM có thể xử lý tình huống trong đó dữ liệu đào tạo có một số cơ hội bị hỏng / bị treo với thông tin không cần thiết không?