Hiểu về hồi quy logistic và khả năng


12

Làm thế nào để ước lượng tham số / Đào tạo hồi quy logistic thực sự hoạt động? Tôi sẽ cố gắng đưa những gì tôi đã có cho đến nay.

  1. Đầu ra là y đầu ra của hàm logistic dưới dạng xác suất tùy thuộc vào giá trị của x:
    P(y=1|x)=11+eωTxσ(ωTx)
    P(y=0|x)=1P(y=1|x)=111+eωTx
  2. Đối với một thứ nguyên, cái gọi là Odds được định nghĩa như sau:
    p(y=1|x)1p(y=1|x)=p(y=1|x)p(y=0|x)=eω0+ω1x
  3. Bây giờ thêm logchức năng để có được W_0 và W_1 ở dạng tuyến tính:
    Logit(y)=log(p(y=1|x)1p(y=1|x))=ω0+ω1x
  4. Bây giờ đến phần vấn đề Sử dụng khả năng (Big X là y)
    L(X|P)=i=1,yi=1NP(xi)i=1,yi=0N(1P(xi))
    Có ai có thể nói lý do tại sao chúng tôi xem xét xác suất y = 1 hai lần không? kể từ:
    P(y=0|x)=1P(y=1|x)

và làm thế nào để có được các giá trị của ω từ nó?

Câu trả lời:


10

Giả sử nói chung rằng bạn đã quyết định lấy một mô hình của mẫu

P(y=1|X=x)=h(x;Θ)

đối với một số thông số . Sau đó, bạn chỉ cần viết ra khả năng cho nó, tức làΘ

L(Θ)=i{1,...,N},yi=1P(y=1|x=x;Θ)i{1,...,N},yi=0P(y=0|x=x;Θ)

giống như

L(Θ)=i{1,...,N},yi=1P(y=1|x=x;Θ)i{1,...,N},yi=0(1P(y=1|x=x;Θ))

Bây giờ bạn đã quyết định 'giả định' (mô hình)

P(y=1|X=x)=σ(Θ0+Θ1x)

nơi

σ(z)=1/(1+ez)

vì vậy bạn chỉ tính toán công thức cho khả năng và làm một số loại thuật toán tối ưu hóa trong để tìm ra , ví dụ, Newtons phương pháp hoặc bất kỳ phương pháp dựa dốc khác.argmaxΘL(Θ)

Đôi khi, mọi người nói rằng khi họ thực hiện hồi quy logistic, họ không tối đa hóa khả năng (như chúng tôi / bạn đã làm ở trên) mà là họ giảm thiểu chức năng mất

l(Θ)=i=1Nyilog(P(Yi=1|X=x;Θ))+(1yi)log(P(Yi=0|X=x;Θ))

nhưng lưu ý rằng .log(L(Θ))=l(Θ)

Đây là một mô hình chung trong Machine Learning: Mặt thực tế (giảm thiểu các hàm mất mát để đo mức độ "sai" của một mô hình heuristic) trên thực tế bằng với "mặt lý thuyết" (mô hình hóa rõ ràng với -symbol, tối đa hóa các đại lượng thống kê như khả năng) và trên thực tế, nhiều mô hình không giống như xác suất (ví dụ SVM) có thể được sử dụng lại trong bối cảnh xác suất và trên thực tế là tối đa hóa khả năng.P


L(θ)yi=1ω1ω0

Σf(x)=x2x=3f as it is to complicated. Now the derivative of f is f=2x. Interestingly if we are right from the minimum x=0 it points to the right and if we are left of it it points left. Mathematically the derivative points into the direction of the 'strongest ascend'
Fabian Werner

@Engine: In more dimensions you replace the derivative by the gradient, i.e. you start off at a random point x0 and compute the gradient f at x and if you want to maximize then your next point x1 is x1=x0+f(x0). Then you compute f(x1) and you next x is x2=x1+f(x1) and so forth. This is called gradient ascend/descent and is the most common technique in maximizing a function. Now you do that with L(Θ) or in your notation L(ω) in order to find the ω that maxeimizes L
Fabian Werner

@Engine: You are not at all interested in the case y=1! You are interested in 'the' ω that 'best explains your data'. From thet ω aou let the model 'speak for itself' and get back to the case of y=1 but first of all you need to setup a model! Here, 'best explains' means 'having the highest likelihood' because that is what people came up with (and I think it is very natural)... however, there are other metrics (different loss functions and so on) that one could use! There are two products because we want the model to explain the y=1 as well as the y=0 'good'!
Fabian Werner

8

Your likelihood function (4) consists of two parts: the product of the probability of success for only those people in your sample who experienced a success, and the product of the probability of failure for only those people in your sample who experienced a failure. Given that each individual experiences either a success or a failure, but not both, the probability will appear for each individual only once. That is what the ,yi=1 and ,yi=0 mean at the bottom of the product signs.

The coefficients are included in the likelihood function by substituting (1) into (4). That way the likelihood function becomes a function of ω. The point of maximum likelihood is to find the ω that will maximize the likelihood.


thanks so much for your answer, sorry but still don't get it. isn'tyi=0 means the probability that y =0[Don't occure] for all y's of the product. and vis versa for y_i=1. And still after the subtitutiing of how can I find ω values, caclulating the 2nd derivative ? or gradient ? thanks a lot for your help !
Engine

i=1,y=1N should be read as "product for persons i=1 till N, but only if y=1. So the first part only applies to those persons in your data that experienced the event. Similarly, the second part only refers to persons who did not experienced the event.
Maarten Buis

There are many possible algorithms for maximizing the likelihood function. The most common one, the Newton-Raphson method, indeed involves computing the first and second derivatives.
Maarten Buis
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.