hiểu bình thường hóa hàng loạt


8

Trong bài viết Chuẩn hóa hàng loạt: Tăng tốc đào tạo mạng sâu b y Giảm sự thay đổi đồng biến nội bộ ( ở đây ) Trước khi giải thích quá trình chuẩn hóa hàng loạt, bài viết cố gắng giải thích các vấn đề liên quan (Tôi không hiểu vấn đề chính xác được giải quyết ở đây là gì) .

đoạn trích từ phần 2, đoạn 2:

Chúng tôi có thể xem xét kích hoạt làm trắng ở mỗi bước đào tạo hoặc tại một số khoảng thời gian, bằng cách sửa đổi trực tiếp mạng hoặc bằng cách thay đổi các tham số của thuật toán tối ưu hóa phụ thuộc vào các giá trị kích hoạt mạng (Wiesler et al., 2014; Raiko et al., 2012 ; Povey và cộng sự, 2014; Desjardins & Kavukcuoglu). Tuy nhiên, nếu các sửa đổi này được xen kẽ với các bước tối ưu hóa, thì bước giảm độ dốc có thể cố gắng cập nhật các tham số theo cách yêu cầu chuẩn hóa phải được cập nhật, làm giảm hiệu ứng của bước gradient. Ví dụ: xem xét một lớp có u đầu vào có thêm độ lệch đã học và bình thường hóa kết quả bằng cách trừ đi giá trị trung bình của kích hoạt được tính trên dữ liệu huấn luyện:bx^=xE[x]trong đó là tập hợp các giá trị của trên tập huấn luyện và .x=u+b,X=x1...NxE[x]=1N(i=1nxi)

Nếu một bước giảm độ dốc bỏ qua sự phụ thuộc của E [x] vào b, thì nó sẽ cập nhật bb+b , trong đó bl/x^ . Khi đó

(1)u+(b+b)E[u+(b+b)]=u+bE[u+b]
.

Do đó, sự kết hợp của việc cập nhật lên b và thay đổi chuẩn hóa tiếp theo dẫn đến không có sự thay đổi nào trong đầu ra của lớp và do đó, mất mát. Khi đào tạo tiếp tục, b sẽ tăng trưởng vô thời hạn trong khi tổn thất vẫn cố định. Vấn đề này có thể trở nên tồi tệ hơn nếu việc chuẩn hóa không chỉ các trung tâm mà còn mở rộng quy mô kích hoạt.

đây là sự hiểu biết của tôi về văn học:

  1. Chúng tôi có một lô cỡ N (Một đợt đào tạo)

  2. Để có hai lớp ẩn tùy ý được kết nối với nhau (L1 và L2) được kết nối bởi các tham số vàWb

  3. đầu ra của L1 là x1

  4. u=x1W (đây là lúc tài liệu ở trên bắt đầu. thứ nguyên của u là MxN) (M là số đơn vị trong L2)

  5. x=u+b (thứ nguyên b = thứ x = thứ nguyên u = MxN)

  6. Bây giờ trước khi cho x vào L2, chúng ta căn giữa nó bằng cách trừ giá trị trung bình của từ mỗi mục trong ( )xxx^=xE[x]

  7. Chúng tôi tính toán tổn thất và sao lưu lại độ dốc và chỉ cập nhật lớp để cung cấp cho nó một bài kiểm tra độ tỉnh táo. Mới =bbb+Δb

  8. Chúng tôi chạy lại trên cùng một đợt với cập nhậtb

  9. lặp lại 3 và 4

  10. xnew=u+b+Δb (kích thước b, = kích thước x = kích thước u = MxN)Δb

  11. Bây giờ trước khi cho x vào L2, chúng ta căn giữa nó bằng cách trừ giá trị trung bình của từ mỗi mục trong ( ). giống như những gì đã được tính toán trước khi cập nhật b và do đó cập nhật b phải có hiệu lực trong việc đào tạoxxx^=x+ΔbE[x+Δb]=xE[x]

Câu hỏi của tôi là với phần này của đoạn trích:

"Nếu bước giảm độ dốc bỏ qua sự phụ thuộc của E [x] vào b, thì nó sẽ cập nhật , trong đó . Sau đó "bb+bbl/x^

(1)u+(b+b)E[u+(b+b)]=u+bE[u+b]

Tại sao lại là

" " phụ thuộc vào những gì đến trước nó? Thậm chí điểm của bit đó là gì? Cũng xin lưu ý cách sử dụng từ "Then" (được in đậm) ngụ ý tuyên bố nhất thiết phải rút ra quan hệ nhân quả từ những gì đến trước

(1)u+(b+b)E[u+(b+b)]=u+bE[u+b]

Câu trả lời:


3

Giả sử rằng bạn đang cố gắng giảm thiểu tổn thất sau cho một tác vụ nhất định, trong đólà khoảng cách Eucledian và đầu ra dự đoán là để đơn giản. Độ dốc sau đó có thể được tính như sau:

(y,y^)=12yy^2,
y^=x^

Δb=x^x^b,Δω=x^x^ω

Bây giờ, độ dốc của đối với độ lệch làx^b

x^b=b(xE[x])=b((u+b)E[(u+b)])=1bE[(u+b)]

Bỏ qua thực tế phụ thuộc vào làm cho độ dốc trên bằng 1 và do đó tiếp tục cập nhật độ lệch như sau:E(x)b

x^b=1bE[x]=10=1
và sau đó

Δb=x^(1),bb+Δb

Mặt khác, nếu bạn muốn xem xét sự phụ thuộc này, độ dốc trở thành 0 và do đó không có cập nhật nào như sau:

x^b=1bE[u+b]=1(bE[u]+bE[b])=1(0+1)=0
và sau đó
Δb=x^(0),bb+0

Trong cả hai trường hợp, bất kể cập nhật sai lệch, chức năng mất sẽ vẫn cố định,

u+(b+Δb)E[u+(b+b)]=u+bE[u+b],

tuy nhiên, trong trường hợp đầu tiên, sự thiên vị sẽ tăng lên vô tận.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.