YTôi= β0+ β1xTôi+ β2zTôi+ εTôi
i = 1 , ... , nx*Tôi= ( XTôi- x¯) / sd ( x )z*Tôi= ( zTôi- z¯) / sd ( z)
YTôi= β*0+ β*1x*Tôi+ β*2z*Tôi+ εTôi
Sau đó, các tham số được trang bị (betas) sẽ thay đổi, nhưng chúng thay đổi theo cách bạn có thể tính toán bằng đại số đơn giản từ chuyển đổi áp dụng. Vì vậy, nếu chúng ta gọi các betas ước tính từ mô hình bằng cách sử dụng các yếu tố dự đoán được chuyển đổi cho và biểu thị các betas từ mô hình chưa được dịch với , chúng ta có thể tính toán một tập hợp các betas từ người khác, biết các phương tiện và độ lệch chuẩn của các yếu tố dự đoán. Sự phân chia giữa các tham số được chuyển đổi và không được chuyển đổi giống như giữa các ước tính của chúng, khi dựa trên OLS. Một số đại số sẽ cho mối quan hệ như
β*1 , 2β^1 , 2β0= β*0- β*1x¯sd (x)- β*2z¯sd (z),β1= β*1sd (x),β2= β*2sd (z)
Vì vậy, tiêu chuẩn hóa không phải là một phần cần thiết của mô hình hóa. (Nó vẫn có thể được thực hiện vì những lý do khác, mà chúng tôi không đề cập ở đây). Câu trả lời này cũng phụ thuộc vào chúng ta sử dụng bình phương tối thiểu thông thường. Đối với một số phương pháp phù hợp khác, chẳng hạn như sườn núi hoặc Lasso, tiêu chuẩn hóa là rất quan trọng, bởi vì chúng ta mất đi tính bất biến này mà chúng ta có với các ô vuông nhỏ nhất. Điều này rất dễ thấy: cả lasso và sườn đều thực hiện chính quy hóa dựa trên kích thước của betas, do đó, bất kỳ biến đổi nào làm thay đổi kích thước tương đối của betas sẽ thay đổi kết quả!
Và cuộc thảo luận này cho trường hợp hồi quy tuyến tính cho bạn biết những gì bạn nên chăm sóc trong các trường hợp khác: Có bất biến hay không? Nói chung, các phương pháp phụ thuộc vào các thước đo khoảng cách giữa các yếu tố dự đoán sẽ không hiển thị bất biến , vì vậy tiêu chuẩn hóa là rất quan trọng. Một ví dụ khác sẽ được phân cụm.