Giảm dần và phương pháp gradient liên hợp là cả hai thuật toán để giảm thiểu các hàm phi tuyến, nghĩa là các hàm như hàm Rosenbrock
f(x1,x2)=(1−x1)2+100(x2−x21)2
hoặc một hàm bậc hai đa biến (trong trường hợp này có thuật ngữ bậc hai đối xứng)
f(x)=12xTATAx−bTAx.
xdnf(x)αx∗
minf(x)
Cả hai phương thức đều bắt đầu từ một phỏng đoán ban đầu, , và sau đó tính toán lần lặp tiếp theo bằng cách sử dụng hàm của biểu mẫux0
xi+1=xi+αidi.
Nói cách khác, giá trị tiếp theo của được tìm thấy bằng cách bắt đầu tại vị trí hiện tại và di chuyển theo hướng tìm kiếm trong một khoảng cách . Trong cả hai phương pháp, khoảng cách để di chuyển có thể được tìm thấy bằng tìm kiếm dòng (thu nhỏ trên ). Các tiêu chí khác cũng có thể được áp dụng. Trường hợp hai phương pháp khác nhau là sự lựa chọn của họ về . Đối với phương thức gradient, . Đối với phương pháp gradient liên hợp, thủ tục Grahm-Schmidt được sử dụng để trực giao các vectơ gradient. Cụ thể, , nhưng sau đó bằngxxidiαif(xi+αidi)αididi=−∇f(xi)d0=−∇f(x0)d1−∇f(x1) trừ đi phép chiếu của vectơ lên sao cho . Mỗi vectơ gradient tiếp theo được trực giao với tất cả các vectơ trước đó, dẫn đến các thuộc tính rất đẹp cho hàm bậc hai ở trên.d0(d1)Td0=0
Hàm bậc hai ở trên (và các công thức liên quan) cũng là nơi thảo luận về việc giải bằng phương pháp gradient liên hợp xuất phát từ đó, vì mức tối thiểu của đạt được tại điểm trong đó .Ax=bf(x)xAx=b