Câu hỏi được gắn thẻ «word-embeddings»

Nhúng từ là tên chung của một tập hợp các kỹ thuật học tính năng và mô hình ngôn ngữ trong NLP, trong đó các từ được ánh xạ tới vectơ của số thực trong không gian chiều thấp, liên quan đến kích thước từ vựng.


2
Lớp 'Nhúng' của Keras hoạt động như thế nào?
Cần hiểu hoạt động của lớp 'Nhúng' trong thư viện Keras. Tôi thực thi đoạn mã sau trong Python import numpy as np from keras.models import Sequential from keras.layers import Embedding model = Sequential() model.add(Embedding(5, 2, input_length=5)) input_array = np.random.randint(5, size=(1, 5)) model.compile('rmsprop', 'mse') output_array = model.predict(input_array) cung cấp đầu …



3

1
Hiệu suất hiện đại được báo cáo của việc sử dụng vectơ đoạn để phân tích tình cảm đã được nhân rộng?
Tôi đã rất ấn tượng với kết quả trong bài báo " Các đại diện phân phát về câu và tài liệu " của ICML 2014 của Le và Mikolov. Kỹ thuật mà họ mô tả, được gọi là "vectơ đoạn", học các biểu diễn không được giám sát của …




3
Tại sao softmax phân cấp tốt hơn cho các từ không thường xuyên, trong khi lấy mẫu âm tính tốt hơn cho các từ thường xuyên?
Tôi tự hỏi tại sao softmax phân cấp lại tốt hơn cho các từ không thường xuyên, trong khi lấy mẫu âm sẽ tốt hơn cho các từ thường xuyên, trong các mô hình CBOW và bỏ qua gram của word2vec. Tôi đã đọc khiếu nại trên https://code.google.com.vn/p/word2vec/ .




1
Những ưu và nhược điểm của việc áp dụng thông tin lẫn nhau theo chiều trên một ma trận đồng biến từ trước SVD là gì?
Một cách để tạo ra các từ nhúng như sau ( gương ): Nhận một tập đoàn, ví dụ: "Tôi thích bay. Tôi thích NLP. Tôi thích học sâu." Xây dựng ma trận cooccurrence từ nó: Thực hiện SVD trên và giữ các cột đầu tiên của U.XXXkkk Mỗi hàng …


Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.