Câu hỏi này là để trả lời một bình luận tôi thấy trên một câu hỏi khác.
Nhận xét liên quan đến giáo trình khóa học Machine Learning trên Coursera và dọc theo dòng "SVM không được sử dụng nhiều hiện nay".
Tôi mới chỉ tự mình hoàn thành các bài giảng có liên quan, và sự hiểu biết của tôi về SVM là chúng là một thuật toán học tập mạnh mẽ và hiệu quả để phân loại, và khi sử dụng kernel, chúng có một số "tính năng" bao gồm 10 đến 1000 và số lượng mẫu đào tạo có lẽ 100 đến 10.000. Giới hạn đối với các mẫu đào tạo là do thuật toán cốt lõi xoay quanh việc tối ưu hóa các kết quả được tạo từ một ma trận vuông với các kích thước dựa trên số lượng mẫu đào tạo, chứ không phải số lượng các tính năng ban đầu.
Nhận xét mà tôi thấy có đề cập đến một số thay đổi thực sự kể từ khi khóa học được thực hiện, và nếu vậy, đó là gì: Một thuật toán mới bao gồm "điểm ngọt" của SVM cũng vậy, CPU tốt hơn có nghĩa là lợi thế tính toán của SVM không đáng bao nhiêu ? Hoặc có lẽ là ý kiến hoặc kinh nghiệm cá nhân của người bình luận?
Tôi đã thử tìm kiếm ví dụ "là các máy vectơ hỗ trợ lỗi thời" và không tìm thấy điều gì có nghĩa là chúng bị bỏ rơi để ủng hộ bất cứ điều gì khác.
Và Wikipedia có cái này: http://en.wikipedia.org/wiki/Support_vector_machine#Issues . . . điểm dính chính dường như là khó khăn trong việc diễn giải mô hình. Điều này làm cho SVM tốt cho một công cụ dự đoán hộp đen, nhưng không tốt cho việc tạo ra thông tin chi tiết. Tôi không coi đó là một vấn đề lớn, chỉ là một điều nhỏ khác cần tính đến khi chọn công cụ phù hợp cho công việc (cùng với bản chất của dữ liệu đào tạo và nhiệm vụ học tập, v.v.).