Tôi không phải là chuyên gia về word2vec, nhưng khi đọc Rong, X. (2014). Giải thích về tham số word2vec và từ kinh nghiệm NN của riêng tôi, tôi đơn giản hóa lý do cho việc này:
- O ( l o g( N) )Ô ( N)
- Lấy mẫu tiêu cực là một cách để lấy mẫu dữ liệu đào tạo, tương tự như việc giảm độ dốc ngẫu nhiên, nhưng điều quan trọng là bạn tìm kiếm các ví dụ đào tạo tiêu cực. Theo trực giác, nó đào tạo dựa trên các địa điểm lấy mẫu mà nó có thể mong đợi một từ, nhưng không tìm thấy một từ nào, nhanh hơn việc đào tạo toàn bộ một xác chết mỗi lần lặp và có ý nghĩa đối với các từ phổ biến.
Về mặt lý thuyết, hai phương pháp này không phải là độc quyền, nhưng dù sao đó dường như là lý do tại sao chúng tốt hơn cho những từ thường xuyên và không thường xuyên.