Để đưa ra một đánh giá ngây thơ về tình hình:
nói chung: giả sử bạn có hai hệ thống chức năng cơ bản khác nhau , cũng như cho một số chức năng (hilbert-) không gian, , tức là không gian của tất cả các hàm có thể tích hợp hình vuông. { ~ p } ∞ n = 1 L 2 ( [ một , b ] ){pn}∞n=1{p~}∞n=1L2([a,b])
Điều này có nghĩa là mỗi trong hai cơ sở có thể được sử dụng để giải thích từng yếu tố của , tức là với bạn có một số hệ số và , (trong -sense):
L2([a,b])y∈L2([a,b])θnθ~n∈Rn=1,2,…L2
∑n=1∞θ~np~n=y=∑n=1∞θnpn.
Tuy nhiên, mặt khác, nếu bạn cắt bớt cả hai bộ hàm cơ bản ở một số số , tức là bạn lấy
cũng như các bộ hàm cơ bản bị cắt cụt này rất có khả năng hai mô tả "các phần khác nhau" của .k<∞
{pn}kn=1
{p~}kn=1,
L2([a,b])
Tuy nhiên, ở đây trong trường hợp đặc biệt có một cơ sở, , chỉ là một trực giao của cơ sở khác, , dự đoán tổng thể của sẽ giống nhau cho từng mô hình bị cắt cụt ( và đối tác trực giao của chúng sẽ mô tả cùng một không gian con -chiều của ).{p~}∞n=1{pn}∞n=1y{p}kn=1kL2([a,b])
Nhưng mỗi hàm cơ sở riêng lẻ từ hai cơ sở "khác nhau" sẽ mang lại sự đóng góp khác nhau cho dự đoán này (rõ ràng là các hàm / dự đoán khác nhau!) Dẫn đến giá trị và hệ số khác nhau .p
Do đó, về mặt dự đoán, (trong trường hợp này) không có sự khác biệt.
Từ quan điểm tính toán, một ma trận mô hình bao gồm các hàm cơ sở trực giao có các thuộc tính số / tính toán đẹp cho công cụ ước lượng bình phương nhỏ nhất. Trong khi cùng lúc theo quan điểm thống kê, việc trực giao hóa dẫn đến các ước tính không tương quan, vì theo các giả định tiêu chuẩn.var(θ~^)=Iσ²
Câu hỏi tự nhiên đặt ra nếu có một hệ thống cơ sở cắt ngắn tốt nhất. Tuy nhiên, câu trả lời cho câu hỏi không đơn giản cũng không độc đáo và ví dụ phụ thuộc vào định nghĩa của từ "tốt nhất", tức là những gì bạn đang cố lưu trữ.