Câu hỏi được gắn thẻ «autoencoders»

Mạng lưới thần kinh Feedforward được đào tạo để xây dựng lại đầu vào của riêng họ. Thông thường, một trong các lớp ẩn là "nút cổ chai", dẫn đến việc giải mã-> giải mã.






1
Không thể thực hiện chức năng mạng bộ mã hóa tự động này đúng cách (với các lớp chập và maxpool)
Các mạng tự động mã hóa dường như phức tạp hơn các mạng MLP phân loại bình thường. Sau nhiều lần thử sử dụng Lasagne, tất cả những gì tôi nhận được ở đầu ra được xây dựng lại là thứ gì đó giống với mức trung bình mờ nhất …



1
Việc đào tạo các tầng sâu của mạng tham lam có cần thiết cho việc đào tạo thành công hay là độ dốc ngẫu nhiên đủ giảm?
Có thể đạt được kết quả hiện đại bằng cách chỉ sử dụng phương pháp truyền ngược (không cần đào tạo trước )? Hoặc là để tất cả các phương pháp phá kỷ lục sử dụng một số hình thức đào tạo trước? Là tuyên truyền trở lại một mình …




1
Giảm kích thước phi tuyến: thuật toán hình học / cấu trúc liên kết so với bộ tự động
Theo tôi hiểu, có ba cách tiếp cận chính để giảm kích thước phi tuyến: Học tập đa dạng (các thuật toán hình học / topo như ISOMAP, LLE, LTSA) Bộ tự động những thứ không phù hợp với 2 loại đầu tiên (xác suất lấy cảm hứng từ t-SNE, …
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.