Sử dụng liblinear trên dữ liệu lớn để phân tích ngữ nghĩa


17

Tôi sử dụng Libsvm để huấn luyện dữ liệu và dự đoán phân loại về vấn đề phân tích ngữ nghĩa . Nhưng nó có một vấn đề về hiệu suất trên dữ liệu quy mô lớn, bởi vì phân tích ngữ nghĩa liên quan đến vấn đề n chiều .

Năm ngoái, Liblinear đã được phát hành và nó có thể giải quyết nút thắt hiệu suất. Nhưng nó tốn quá nhiều bộ nhớ . MapReduce có phải là cách duy nhất để giải quyết vấn đề phân tích ngữ nghĩa trên dữ liệu lớn? Hoặc có bất kỳ phương pháp nào khác có thể cải thiện tình trạng tắc nghẽn bộ nhớ trên Liblinear ?

Câu trả lời:


11

Lưu ý rằng có một phiên bản đầu tiên của LIBLINEAR được chuyển sang Apache Spark . Xem bình luận danh sách gửi thư để biết một số chi tiết ban đầu, và trang web của dự án .


Cảm ơn câu trả lời của bạn. Nó trông giống như khác với SVM. Tôi sẽ khảo sát nó. :)
Puffin GDI

4
Chỉ cần một lời nhắc nhở rằng chúng tôi không khuyến khích liên kết ngoài trang web với câu trả lời vì các liên kết dễ bị phá vỡ, khiến tài nguyên cộng đồng hữu ích khác thay vào đó biến thành ngõ cụt. Tốt nhất là luôn luôn trả lời trực tiếp vào bài viết của bạn.
Ana

1
Đồng ý với điều đó. Tại thời điểm này, nó hầu như không tồn tại nhiều hơn liên kết đó. Tôi sẽ thêm một liên kết đến dự án cơ bản.
Sean Owen

10

Bạn có thể kiểm tra wow vowpal . Nó khá phổ biến cho việc học tập quy mô lớn và bao gồm các điều khoản song song.

Từ trang web của họ:

VW là bản chất của tốc độ trong học máy, có thể học từ các bộ dữ liệu terafeature một cách dễ dàng. Thông qua học song song, nó có thể vượt quá thông lượng của bất kỳ giao diện mạng máy đơn lẻ nào khi thực hiện học tuyến tính, lần đầu tiên trong số các thuật toán học.


1
Nguồn mở và một số wiki. Nó có vẻ tốt. Cảm ơn lời đề nghị của bạn. :)
Puffin GDI
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.