Tại sao các chức năng kích hoạt không tập trung không phải là một vấn đề trong backpropagation?


26

Tôi đọc ở đây như sau:

  • Đầu ra Sigmoid không phải là trung tâm không . Điều này là không mong muốn vì các nơ-ron trong các lớp xử lý sau này trong Mạng thần kinh (sẽ sớm có thêm thông tin này) sẽ nhận được dữ liệu không phải là trung tâm. Này có ý nghĩa về sự năng động trong gradient descent, bởi vì nếu các dữ liệu đi vào một tế bào thần kinh luôn luôn là tích cực (ví dụ elementwise trong )), sau đó gradient trên trọng lượng chí trong lan truyền ngược trở hoặc tất cả đều dương hoặc tất cả âm (tùy thuộc vào độ dốc của toàn bộ biểu thức x>0f=wTx+bwf). Điều này có thể giới thiệu động lực zig-zagging không mong muốn trong các bản cập nhật độ dốc cho các trọng số. Tuy nhiên, lưu ý rằng một khi các gradient này được thêm vào trong một loạt dữ liệu, bản cập nhật cuối cùng cho các trọng số có thể có các dấu hiệu khác nhau, phần nào giảm thiểu vấn đề này. Do đó, đây là một sự bất tiện nhưng nó có hậu quả ít nghiêm trọng hơn so với vấn đề kích hoạt bão hòa ở trên.

Tại sao có tất cả (theo nguyên tố) sẽ dẫn đến độ dốc toàn dương hoặc toàn âm trên ?x>0w



2
Tôi cũng có cùng một câu hỏi khi xem video CS231n.
tàu điện ngầm

Câu trả lời:


28

f=wixi+b
dfdwi=xi
dLdwi=dLdfdfdwi=dLdfxi

bởi vì , gradient luôn có cùng dấu với (tất cả dương hoặc tất cả âm).xi>0dLdwidLdf

Cập nhật
Giả sử có hai tham số và , nếu độ dốc của hai chiều luôn có cùng dấu, điều đó có nghĩa là chúng ta chỉ có thể di chuyển thô theo hướng đông bắc hoặc tây nam trong không gian tham số.w1w2

Nếu mục tiêu của chúng tôi là ở phía đông bắc, chúng tôi chỉ có thể di chuyển theo kiểu ngoằn ngoèo để đến đó, giống như đỗ xe song song trong một không gian hẹp. (tha thứ cho bản vẽ của tôi)

nhập mô tả hình ảnh ở đây

Do đó, các chức năng kích hoạt hoàn toàn tích cực hoặc hoàn toàn tiêu cực (relu, sigmoid) có thể khó khăn cho việc tối ưu hóa dựa trên độ dốc. Để giải quyết vấn đề này, chúng ta có thể chuẩn hóa dữ liệu trước thành không tập trung như trong chuẩn hóa lô / lớp.

Ngoài ra, một giải pháp khác tôi có thể nghĩ đến là thêm một thuật ngữ sai lệch cho mỗi đầu vào để lớp trở thành Độ dốc là dấu hiệu sẽ không phụ thuộc hoàn toàn vào .

f=wi(xi+bi).
dLdwi=dLdf(xibi)
xi


Vui lòng sửa lại cho tôi nếu tôi sai nhưng không nên thay đổi giá trị của dL / df của x tức là xT vì chúng tôi sẽ sử dụng ý tưởng của Jacobin tại đây.
chinmay

@chinmay xin lỗi vì những lời cuối, tôi nghĩ rằng ở đây là kết quả của vì vậy giá trị của dL / df không phụ thuộc vào x, và thường là một đại lượng vô hướng, và là vectơ 1d, vì vậy dL / df cũng nên là một vô hướng, phải không? fwTx+bLwx
dontloo

Vâng, đó là một lỗi đánh máy lớn từ cuối của tôi. Ý tôi là df / dw .... nhưng tôi nghĩ nó phụ thuộc nhiều hơn vào vectơ x và nếu đó là vectơ hàng hay vectơ cột
chinmay

@dontloo xin lỗi vì đã trả lời rất muộn nhưng vấn đề với các gradient có cùng dấu với gì? Tại sao đó lại là một điều xấu? dL/df
floyd

1
@floyd hi Tôi vừa thêm một số cập nhật cho câu hỏi của bạn
dontloo
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.