Về cách tiếp cận, SVM với hạt nhân RBF hoạt động tốt, nhưng SVM có thể bị làm chậm bởi kích thước đối tượng lớn, trừ khi bạn đang sử dụng CV với ví dụ 1/10 dữ liệu được gán ngẫu nhiên cho mỗi lần gấp. Tuy nhiên, bạn có tự hỏi tại sao bạn lại sử dụng SVM không?
Bạn đã thử hồi quy tuyến tính đa biến, , trong đó mỗi bản ghi của được mã hóa nếu đối tượng thứ ở trong lớp và nếu không? Nếu độ chính xác phân loại cao đáng kể khi sử dụng hồi quy tuyến tính, thì dữ liệu của bạn có thể phân tách tuyến tính và các phương pháp phức tạp hơn như SVM và ANN không cần thiết. Bước 2 sẽ chỉ ra rằng người hàng xóm gần nhất k, Bayes ngây thơ, phân tích phân biệt tuyến tính (Fisher), hồi quy logistic polytomous, vv, bị phá vỡ và thất bại.Y y i j = + 1 i jY=XβYyij=+1ijyij=−1
Đối với thuật ngữ, bạn có thể giải quyết vấn đề có nhiều trọng số lớp hơn trong bối cảnh "tỷ lệ thấp hơn của các đối tượng trong các lớp nhất định" hoặc "kích thước lớp gần bằng không". Skew có xu hướng được sử dụng để mô tả phân phối các giá trị của một tính năng, như trong độ nghiêng, đuôi béo, v.v.
Bạn có bao nhiêu tính năng? Bạn đã thử phân cụm không giám sát (khám phá lớp) trên 100.000 đối tượng trước khi thử phân loại có giám sát (dự đoán lớp) với SVM? Có thể 100.000 đối tượng có thể được nhóm thành ít hơn 50 lớp, trong đó thành viên lớp mới có thể được sử dụng làm lớp mục tiêu trong quá trình phân tích phân loại. Điều này có thể làm giảm bớt vấn đề có quy mô lớp gần như bằng không.