sự khác biệt giữa mạng lưới thần kinh và học tập sâu


10

Xét về sự khác biệt giữa mạng thần kinh và học sâu, chúng ta có thể liệt kê một số mục, chẳng hạn như bao gồm nhiều lớp hơn, tập dữ liệu lớn, phần cứng máy tính mạnh mẽ để thực hiện mô hình phức tạp.

Bên cạnh những điều này, có lời giải thích chi tiết hơn về sự khác biệt giữa NN và DL không?


3
Theo như tôi biết, chỉ cần có một vài lớp ẩn là đủ để làm cho một mạng "sâu;" nhiều dữ liệu hơn và các máy tính lớn hơn là một triệu chứng của sự sẵn có ngày càng tăng của cả hai cho các nhiệm vụ học máy.
Sycorax nói Phục hồi lại

Có lẽ câu hỏi này nên được chuyển sang trao đổi ngăn xếp thông minh nhân tạo mới ?
WilliamKF

2
@WilliamKF Đây là chủ đề chính ở đây.
Sycorax nói Phục hồi lại

Câu trả lời:



3

Frank Dernoncourt có câu trả lời cho mục đích chung tốt hơn, nhưng tôi nghĩ rằng đáng nói là khi mọi người sử dụng thuật ngữ "Học sâu", họ thường ngụ ý sử dụng các kỹ thuật gần đây, như tích chập, mà bạn sẽ không tìm thấy trong truyền thống / cũ hơn (kết nối đầy đủ) mạng lưới thần kinh. Đối với các vấn đề nhận dạng hình ảnh, tích chập có thể cho phép các mạng nơ-ron sâu hơn vì các nơ-ron / bộ lọc phức tạp làm giảm nguy cơ quá mức phần nào bằng cách chia sẻ trọng lượng.


1

Mạng lưới thần kinh với rất nhiều lớp kiến trúc sâu.

Tuy nhiên, thuật toán học backpropagation được sử dụng trong các mạng thần kinh không hoạt động tốt khi mạng rất sâu. Kiến trúc học tập trong kiến ​​trúc sâu ("học sâu") phải giải quyết điều này. Ví dụ, máy Boltzmann sử dụng thuật toán học tương phản thay thế.

Đến với một kiến ​​trúc sâu là dễ dàng. Đến với một thuật toán học tập hoạt động tốt cho một kiến ​​trúc sâu đã được chứng minh là khó khăn.


Nhưng có vẻ như thuật toán backpropagation vẫn được sử dụng để huấn luyện mạng lưới và mạng tái phát, mặc dù chúng tận dụng một số kỹ thuật tối ưu hóa số mới được phát triển, chẳng hạn như chuẩn hóa hàng loạt.
user3269

@ user3269 chuẩn hóa và bỏ học hàng loạt là những ví dụ về sửa đổi thuật toán học tập để cố gắng làm cho chúng hoạt động tốt trong các kiến ​​trúc sâu.
Neil G

0

Học sâu đòi hỏi một mạng lưới thần kinh có nhiều lớp - mỗi lớp thực hiện các phép biến đổi toán học và đưa vào lớp tiếp theo. Đầu ra từ lớp cuối cùng là quyết định của mạng đối với đầu vào đã cho. Các lớp giữa lớp đầu vào và đầu ra được gọi là các lớp ẩn.

Một mạng lưới thần kinh học tập sâu là một tập hợp lớn các tri giác được kết nối với nhau trong các lớp. Trọng lượng và độ lệch của mỗi perceptron trong mạng ảnh hưởng đến bản chất của quyết định đầu ra của toàn bộ mạng. Trong một mạng nơ ron được điều chỉnh hoàn hảo, tất cả các giá trị về trọng số và độ lệch của tất cả các tri giác đều sao cho quyết định đầu ra luôn luôn đúng (như mong đợi) cho tất cả các đầu vào có thể. Làm thế nào là trọng lượng và thiên vị được cấu hình? Điều này xảy ra lặp đi lặp lại trong quá trình đào tạo mạng - được gọi là học sâu. (Sharad Gandhi)

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.