Có Mạng thần kinh tái phát và Mạng thần kinh đệ quy. Cả hai thường được ký hiệu bằng cùng một từ viết tắt: RNN. Theo Wikipedia , NN tái phát thực tế là NN đệ quy, nhưng tôi không thực sự hiểu lời giải thích.
Hơn nữa, tôi dường như không tìm thấy cái nào tốt hơn (với các ví dụ hoặc như vậy) cho Xử lý ngôn ngữ tự nhiên. Thực tế là, mặc dù Socher sử dụng NN đệ quy cho NLP trong hướng dẫn của mình , tôi không thể tìm thấy triển khai tốt các mạng thần kinh đệ quy và khi tôi tìm kiếm trên Google, hầu hết các câu trả lời là về NN tái phát.
Ngoài ra, có một DNN nào áp dụng tốt hơn cho NLP không, hay nó phụ thuộc vào nhiệm vụ NLP? Deep Belief Nets hoặc Autoencoder xếp chồng? (Tôi dường như không tìm thấy bất kỳ việc sử dụng cụ thể nào cho ConvNets trong NLP và hầu hết các triển khai đều có trong tầm nhìn của máy).
Cuối cùng, tôi thực sự thích triển khai DNN cho C ++ (tốt hơn nếu có hỗ trợ GPU) hoặc Scala (tốt hơn nếu có hỗ trợ Spark) thay vì Python hoặc Matlab / Octave.
Tôi đã thử Deeplearning4j, nhưng nó đang được phát triển liên tục và tài liệu hơi lỗi thời và dường như tôi không thể làm cho nó hoạt động được. Quá tệ bởi vì nó có "hộp đen" như cách làm việc, rất giống như scikit-learn hoặc Weka, đó là những gì tôi thực sự muốn.