Nhân tuyến tính: Hiệu ứng ở đây tương tự như đa nhân trong hồi quy tuyến tính. Mô hình đã học của bạn có thể không đặc biệt ổn định trước các biến thể nhỏ trong tập huấn luyện, bởi vì các vectơ trọng lượng khác nhau sẽ có đầu ra tương tự. Mặc dù vậy, các dự đoán tập huấn luyện sẽ khá ổn định và do đó sẽ kiểm tra dự đoán nếu chúng đến từ cùng một phân phối.
Hạt nhân RBF: Hạt nhân RBF chỉ xem xét khoảng cách giữa các điểm dữ liệu. Do đó, hãy tưởng tượng bạn thực sự có 11 thuộc tính, nhưng một trong số chúng được lặp lại 10 lần (một trường hợp khá cực đoan). Sau đó, thuộc tính lặp đi lặp lại đó sẽ đóng góp gấp 10 lần khoảng cách so với bất kỳ thuộc tính nào khác và mô hình đã học có thể sẽ bị ảnh hưởng nhiều hơn bởi tính năng đó.
Một cách đơn giản để giảm tương quan với hạt nhân RBF là sử dụng khoảng cách Mahalanobis: , trong đó là một ước tính của ma trận hiệp phương sai mẫu. Tương tự, ánh xạ tất cả các vectơ của bạn thành và sau đó sử dụng hạt nhân RBF thông thường, trong đó sao cho , ví dụ: phân tách Cholesky của .d(x,y)=(x−y)TS−1(x−y)−−−−−−−−−−−−−−−√SxCxCS−1=CTCS−1