Giả sử bạn có hai biến dự đoán tương quan cao và giả sử cả hai biến được căn giữa và tỷ lệ (có nghĩa là không, phương sai một). Sau đó, hình phạt sườn núi trên vector tham số là β 2 1 + β 2 2 trong khi hạn phạt Lasso là | β 1 | + | β 2 | . Bây giờ, do mô hình được cho là rất cao, do đó x và z ít nhiều có thể thay thế nhau trong dự đoán Y , do đó, rất nhiều tổ hợp tuyến tính của x , z trong đó chúng ta chỉ cần thay thế một phầnx,zβ21+β22∣β1∣+∣β2∣xzYx,z đối với z , sẽ hoạt động tương tự như các yếu tố dự đoán, ví dụ 0,2 x + 0,8 x , 0,3 x + 0,7 z hoặc 0,5 x + 0,5 zxz0.2x+0.8x,0.3x+0.7z0.5x+0.5zsẽ tốt như nhau như dự đoán. Bây giờ hãy xem ba ví dụ này, hình phạt Lasso trong cả ba trường hợp đều bằng nhau, đó là 1, trong khi hình phạt sườn núi khác nhau, tương ứng là 0,68, 0,58, 0,5, vì vậy hình phạt sườn núi sẽ thích trọng số của các biến colinear bằng nhau trong khi hình phạt lasso sẽ không thể chọn. Đây là một lý do sườn núi (hay nói chung hơn là lưới đàn hồi, là sự kết hợp tuyến tính của hình phạt lasso và sườn núi) sẽ hoạt động tốt hơn với các công cụ dự đoán colinear: Khi dữ liệu đưa ra ít lý do để lựa chọn giữa các kết hợp tuyến tính khác nhau của các công cụ dự đoán colinear, lasso sẽ chỉ "Đi lang thang" trong khi sườn núi có xu hướng chọn trọng số bằng nhau. Điều cuối cùng có thể là một dự đoán tốt hơn để sử dụng với dữ liệu trong tương lai! Và, nếu đó là như vậy với dữ liệu hiện tại, có thể hiển thị trong xác thực chéo là kết quả tốt hơn với sườn núi.
Chúng ta có thể xem điều này theo một cách bay bổng: Ridge và lasso ngụ ý các thông tin trước khác nhau, và thông tin trước được ngụ ý bởi sườn núi có xu hướng hợp lý hơn trong các tình huống như vậy. .