Điều gì làm cho một bề mặt lỗi lồi? Nó được xác định bởi Ma trận Covarinace hay Hessian?


17

Tôi hiện đang tìm hiểu về ước lượng bình phương nhỏ nhất (và khác) cho hồi quy và từ những gì tôi cũng đang đọc trong một số tài liệu thuật toán thích ứng, thường xuất hiện cụm từ "... và vì bề mặt lỗi bị lồi ..." xuất hiện và bất kỳ độ sâu nào về lý do tại sao nó lồi bắt đầu là không tìm thấy ở đâu.

... Vậy chính xác thì điều gì làm cho nó lồi ?

Tôi thấy thiếu sót lặp đi lặp lại này gây khó chịu nhẹ vì tôi muốn có thể thiết kế các thuật toán thích ứng của riêng mình, với các hàm chi phí của riêng tôi, nhưng nếu tôi không thể biết liệu hàm chi phí của mình có mang lại bề mặt lỗi lồi hay không, tôi sẽ không thể đi quá xa trong việc áp dụng một cái gì đó như giảm độ dốc vì sẽ không có mức tối thiểu toàn cầu. Có lẽ tôi muốn sáng tạo - có thể tôi không muốn sử dụng bình phương nhỏ nhất làm tiêu chí lỗi của mình chẳng hạn.

Khi đào sâu hơn, (và câu hỏi của tôi bắt đầu từ đây), tôi thấy rằng để có thể biết nếu bạn có bề mặt lỗi lồi, bạn phải chắc chắn rằng ma trận Hessian của bạn là bán xác định dương. Đối với các ma trận đối xứng, thử nghiệm này rất đơn giản - chỉ cần đảm bảo tất cả các giá trị riêng của ma trận Hessian là không âm. (Nếu ma trận của bạn không đối xứng, bạn có thể làm cho nó đối xứng bằng cách thêm nó vào chuyển vị của chính nó và thực hiện cùng một bài kiểm tra eigenvalue, nhờ vào Gramian , nhưng điều đó không quan trọng ở đây).

Ma trận Hessian là gì? Ma trận Hessian mã hóa tất cả sự kết hợp có thể có của các phần của hàm chi phí của bạn. Có bao nhiêu partials? Nhiều như số lượng các tính năng trong vector tính năng của bạn. Làm thế nào để tính toán các hạt? Lấy các công cụ phái sinh một phần 'bằng tay' từ hàm chi phí ban đầu.

Vì vậy, đó chính xác là những gì tôi đã làm: Tôi giả sử rằng chúng ta có ma trận dữ liệu m x n , được biểu thị bằng ma trận X , trong đó, m biểu thị số lượng ví dụ và n biểu thị số lượng tính năng trên mỗi ví dụ. (cũng sẽ là số lượng hạt). Tôi cho rằng chúng ta có thể nói rằng chúng ta có m mẫu thời gian và n mẫu không gian từ các cảm biến, nhưng ứng dụng vật lý không quá quan trọng ở đây.

Hơn nữa, chúng ta cũng có một vectơ y có kích thước m x 1 . (Đây là vectơ 'nhãn' của bạn hoặc 'câu trả lời' của bạn tương ứng với mỗi hàng X ). Để đơn giản, tôi đã giả sử m=n=2 cho ví dụ cụ thể này. Vì vậy, 2 'ví dụ' và 2 'tính năng'.

Vì vậy, bây giờ giả sử rằng bạn muốn xác định 'dòng' hoặc đa thức phù hợp nhất ở đây. Nghĩa là, bạn chiếu các tính năng dữ liệu đầu vào của mình theo vectơ đồng hiệu suất đa thứcθ sao cho hàm chi phí của bạn là:

J(θ)=12mi=1m[θ0x0[i]+θ1x1[i]y[i]]2

Bây giờ, chúng ta hãy lấy wrt phái sinh một phần đầu tiên , (tính năng 0) Do đó:θ0

δJ(θ)δθ0=1mi=1m[θ0x0[i]+θ1x1[i]y[i]]x0[i]

δJ(θ)δθ0=1mi=1m[θ0x02[i]+θ1x1[i]x0[i]y[i]x0[i]]

Bây giờ, chúng ta hãy tính tất cả các phần thứ hai, vì vậy:

δ2J(θ)δθ02=1mi=1mx02[i]

δ2J(θ)δθ0θ1=1mi=1mx0[i]x1[i]

δ2J(θ)δθ1θ0=1mi=1mx1[i]x0[i]

δ2J(θ)δθ12=1mi=1mx12[i]

We know that the Hessian is nothing but:

H(J(θ))=[δ2J(θ)δθ02δ2J(θ)δθ0θ1δ2J(θ)δθ1θ0δ2J(θ)δθ12]

H(J(θ))=[1mi=1mx02[i]1mi=1mx0[i]x1[i]1mi=1mx1[i]x0[i]1mi=1mx12[i]]

Now, based on how I have constructed the data matrix X, (my 'features' go by columns, and my examples go by rows), the Hessian appears to be:

H(J(θ))=XTX=Σ

...which is nothing but the sample covariance matrix!

So I am not quite sure how to interpret - or I should say, I am not quite sure how generalizing I should be here. But I think I can say that:

  • Always true:

    • The Hessian matrix always controls whether or not your error/cost surface is convex.
    • If you Hessian matrix is pos-semi-def, you are convex, (and can happily use algorithms like gradient descent to converge to the optimal solution).
  • True for LSE only:

    • The Hessian matrix for the LSE cost criterion is nothing but the original covariance matrix. (!).
    • To me this means that, if I use LSE criterion, the data itself determines whether or not I have a convex surface? ... Which would then mean that the eigenvectors of my covariance matrix somehow have the capability to 'shape' the cost surface? Is this always true? Or did it just work out for the LSE criteria? It just doesnt sit right with me that the convexity of an error surface should be dependent on the data.

So putting it back in the context of the original question, how does one determine whether or not an error surfance (based on some cost function you select) is convex or not? Is this determination based on the data, or the Hessian?

Thanks

TLDR: How, exactly, and practically do I go about determining whether my cost-function and/or data-set yield a convex or non-convex error surface?

Câu trả lời:


7

You can think of linear-least squares in single dimension. The cost function is something like a2. The first derivative (Jacobian) is then 2a, hence linear in a. The second derivative (Hessian) is 2 - a constant.

Since the second derivative is positive, you are dealing with convex cost function. This is eqivalent to positive definite Hessian matrix in multivariate calculus.

You deal with just two variables (θ1, θ2) thus the Hessian is particularly simple.

In practice, however, there are often many variables involved, so it is impractical to build and inspect Hessian.

More efficient method is to work directly on the Jacobian matrix J in the least-squares problem:

Jx=b

J can be rank-deficient, singular or near-singular. In such cases, the quadratic surface of the cost function is almost flat and/or wildly stretched in some direction. You can also find that your matrix is theoretically solvable, but the solution is numerically unstable. A method of preconditioning can be used to cope with such cases.

Some algorithms simple run a Cholesky decomposition of J. If the algorithm fails, it means that J is singular (or ill-conditioned).

Numerically more stable, but more expensive is a QR decomposition, which also exists only if J is regular.

Finally, the state-of-the art method is a Singular Value Decomposition (SVD), which is most expensive, can be done on every matrix, reveals numerical rank of J and allows you to treat rank-deficient cases separately.

I wrote an article about linear and non-linear least squares solutions that covers these topics in detail:

Linear and Nonlinear Least-Squares with Math.NET

There are also references to great books that deal with advanced topics related to least-squares (covariance in parameters/data points, preconditioning, scaling, orthogonal distance regression - total least-squares, determining precision and accuracy of the least-squares estimator etc.).

I have made a sample project for the article, which is open source:

LeastSquaresDemo - binary

LeastSquaresDemo - source (C#)


Thanks Libor: 1) Tangential but, choleskey is like a matrix square root it seems, yes? 2) Not sure I understand your point about how the Hessian tells you about convexity at each point on the error surface - are you saying in general? Because from LSE derivation above, the Hessian does not depend on the θ parameters at all, and just on the data. Perhaps you mean in general? 3) Finally in total, how to then determine if an error surface is convex - just stick to making sure the Hessian is SPD? But you mentioned that it might depend on θ...so how can one know for sure? Thanks!
Spacey

2) Yes I mean in general. In linear least squares, the whole error surface has constant Hessian. Taking second derviative of quadratic is constant, the same applies for Hessian. 3) It depends on conditioning of your data matrix. If the Hessian is spd, you there is a single closed solution and the error surface is convex in all directions. Otherwise the data matrix is ill conditioned or singular. I have never used Hessian to probe that, rather inspecting singular values of the data matrix or checking whether it has Cholesky decomposition. Both ways will tell you whether there is a solution.
Libor

Libor - 1) If you can, please add how you have used SVD of X data matrix, or how you have used Choleskey decomposition to check that you have a single closed solution, they seems to be very useful and it a good point, and I would be curious to learn how to use those. 2) Last thing, just to make sure I understand you about Hessian: So the Hessian is, in general, a function of θ, and/or X. If it is SPD, we have a convex surface. (If the Hessian has θ in it however, we would have to evaluate it everywhere it seems). THanks again.
Spacey

Mohammad: 1) I have rewritten the answer and added links to my article about Least-Squares (there may be some errors, I have not published it officialy yet) including working sample project. I hope it will help you understand the problem more deeply... 2) In linear-least squares, Hessian is constant and depends on data points only. In general, it depends on model parameters as well, but this is only the case of non-linear least squares.
Libor
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.