Giảm dần độ dốc và giảm dần độ dốc


11

Đối với một dự án, tôi phải thực hiện hai phương thức này và so sánh cách chúng thực hiện trên các chức năng khác nhau.

Có vẻ như phương pháp gradient liên hợp có nghĩa là để giải các hệ phương trình tuyến tính của

Ax=b

Trong đó A là ma trận n-by-n đối xứng, xác định dương và thực.

Mặt khác, khi tôi đọc về độ dốc giảm dần, tôi thấy ví dụ về hàm Rosenbrock , đó là

f(x1,x2)=(1x1)2+100(x2x12)2

Như tôi thấy, tôi không thể giải quyết điều này bằng phương pháp gradient liên hợp. Hay tôi bỏ lỡ điều gì?

Câu trả lời:


14

Giảm dần và phương pháp gradient liên hợp là cả hai thuật toán để giảm thiểu các hàm phi tuyến, nghĩa là các hàm như hàm Rosenbrock

f(x1,x2)=(1x1)2+100(x2x12)2

hoặc một hàm bậc hai đa biến (trong trường hợp này có thuật ngữ bậc hai đối xứng)

f(x)=12xTATAxbTAx.

xdnf(x)αx

minf(x)

Cả hai phương thức đều bắt đầu từ một phỏng đoán ban đầu, , và sau đó tính toán lần lặp tiếp theo bằng cách sử dụng hàm của biểu mẫux0

xi+1=xi+αidi.

Nói cách khác, giá trị tiếp theo của được tìm thấy bằng cách bắt đầu tại vị trí hiện tại và di chuyển theo hướng tìm kiếm trong một khoảng cách . Trong cả hai phương pháp, khoảng cách để di chuyển có thể được tìm thấy bằng tìm kiếm dòng (thu nhỏ trên ). Các tiêu chí khác cũng có thể được áp dụng. Trường hợp hai phương pháp khác nhau là sự lựa chọn của họ về . Đối với phương thức gradient, . Đối với phương pháp gradient liên hợp, thủ tục Grahm-Schmidt được sử dụng để trực giao các vectơ gradient. Cụ thể, , nhưng sau đó bằngxxidiαif(xi+αidi)αididi=f(xi)d0=f(x0)d1f(x1) trừ đi phép chiếu của vectơ lên sao cho . Mỗi vectơ gradient tiếp theo được trực giao với tất cả các vectơ trước đó, dẫn đến các thuộc tính rất đẹp cho hàm bậc hai ở trên.d0(d1)Td0=0

Hàm bậc hai ở trên (và các công thức liên quan) cũng là nơi thảo luận về việc giải bằng phương pháp gradient liên hợp xuất phát từ đó, vì mức tối thiểu của đạt được tại điểm trong đó .Ax=bf(x)xAx=b


9

Trong ngữ cảnh này, cả hai phương thức có thể được coi là các vấn đề tối thiểu hóa của hàm: Khi đối xứng, thì được thu nhỏ khi .

ϕ(x)=12xTAxxTb
AϕAx=b

Gradient giảm dần là phương pháp lặp đi lặp lại tìm kiếm một bộ giảm thiểu bằng cách nhìn theo hướng gradient. Độ dốc liên hợp tương tự nhau, nhưng các hướng tìm kiếm cũng được yêu cầu phải trực giao với nhau theo nghĩa .piTApj=0i,j

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.