Câu hỏi được gắn thẻ «activation-function»



2
Kích hoạt GELU là gì?
Tôi đã xem qua giấy BERT sử dụng GELU (Đơn vị tuyến tính lỗi Gaussian) trong đó nêu phương trình là mà tương ứng với 0,5x (1 + tanh [\ sqrt {2 / π} (x + 0,044715x ^ 3)]) Bạn có thể đơn giản hóa phương trình và giải thích …


3
Làm cách nào để sử dụng LeakyRelu làm chức năng kích hoạt trong chuỗi DNN trong máy ảnh? Khi nào nó tốt hơn Relu?
Làm thế nào để bạn sử dụng LeakyRelu như một chức năng kích hoạt trong chuỗi DNN trong máy ảnh? Nếu tôi muốn viết một cái gì đó tương tự như: model = Sequential() model.add(Dense(90, activation='LeakyRelu')) Giải pháp là gì? Đặt LeakyRelu tương tự như Relu? Câu hỏi thứ hai …

4
Vấn đề độ dốc biến mất có thể được giải quyết bằng cách nhân đầu vào của tanh với một hệ số không?
Theo hiểu biết của tôi, vấn đề độ dốc biến mất xảy ra khi đào tạo mạng nơ ron khi độ dốc của mỗi chức năng kích hoạt nhỏ hơn 1 sao cho khi hiệu chỉnh được truyền ngược qua nhiều lớp, sản phẩm của các gradient này trở nên …
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.