Có khả năng là một bài báo mới hơn nhằm cố gắng giải quyết nhiều hơn từ nhóm Langford và Shapire: Học các khối ResNet sâu liên tục bằng cách sử dụng lý thuyết tăng cường
Các phần quan tâm là (Xem phần 3):
Sự khác biệt chính là việc tăng cường là một tập hợp của giả thuyết ước tính trong khi ResNet là một tập hợp các biểu diễn tính năng ước tính . Để giải quyết vấn đề này, chúng tôi giới thiệu một bộ phân loại tuyến tính phụ trợ trên đầu mỗi khối còn lại để xây dựng mô-đun giả thuyết . Chính thức một
mô-đun giả thuyết được định nghĩa làΣTt = 0ft( gt( x ) )wto t ( x ) : = w T t g t ( x ) ∈ Rot( x ) : = wTtgt( X ) ∈ R
...
(trong đó)ot(x)=∑t−1t′=0wTtft′(gt′(x))
Bài viết đi sâu vào chi tiết hơn nhiều về việc xây dựng bộ phân loại mô-đun yếu và cách tích hợp với thuật toán BoostResNet của họ .ht(x)
Thêm một chút chi tiết cho câu trả lời này, tất cả các thuật toán tăng cường có thể được viết dưới một số dạng [1] (p 5, 180, 185 ...):
FT(x):=∑t=0Tαtht(x)
Trong đó là giả thuyết yếu của , đối với một số lựa chọn . Lưu ý rằng các thuật toán tăng cường khác nhau sẽ mang lại và theo những cách khác nhau.httthαtαtht
Ví dụ: AdaBoost [1] (p 5.) sử dụng để giảm thiểu lỗi có trọng số vớihtϵtαt=12log1−ϵtϵt
Mặt khác, trong cài đặt tăng cường độ dốc [1] (tr 190.), được chọn tối đa hóa và được chọn (như tỷ lệ học tập, v.v.)ht∇L(Ft−1(x))⋅htαt>0
Trong trường hợp như trong [2] trong Bổ đề 3.2, có thể thấy rằng đầu ra của độ sâu- ResNet là tương đương vớiTF(x)
F(x)∝∑t=0Tht(x)
điều này hoàn thành mối quan hệ giữa tăng cường và resnet. Bài báo [2] đề xuất thêm lớp tuyến tính phụ trợ để đưa nó vào dạng , dẫn đến thuật toán BoostResNet của họ và một số thảo luận về điều đóFT(x):=∑Tt=0αtht(x)
[1] Robert E. Schapire và Yoav Freund. 2012. Boosting: Cơ sở và thuật toán. Báo chí MIT. p 5, 180, 189
[2] Furong Huang, Jordan Ash, John Langford, Robert Schapire: Học các khối ResNet sâu liên tục sử dụng lý thuyết tăng cường, ICML 2018