Làm thế nào đúng là slide này về học tập sâu tuyên bố rằng tất cả các cải tiến từ những năm 1980 chỉ là do nhiều dữ liệu hơn và máy tính nhanh hơn nhiều?


22

Tôi đã nghe một cuộc nói chuyện và thấy slide này:

nhập mô tả hình ảnh ở đây

Nó đúng như thế nào?


6
Tôi cần nhiều bối cảnh hơn.
Đức hồng y

2
nó sẽ giúp nếu bạn trích dẫn các nhà nghiên cứu. đối với tôi, ở cốt lõi, học sâu bao gồm các mạng lớn hơn nhiều về số lượng tế bào thần kinh và nhiều lớp hơn. thừa nhận rằng điều đó có phần ngụ ý bởi những điểm trên có vẻ gần như chính xác. các điểm trên tạo điều kiện cho các mạng lớn hơn.
vzn

Nguồn cho việc này là gì?
MachineEpsilon

Câu trả lời:


11

Tôi đang duyệt AI StackExchange và gặp một câu hỏi rất giống nhau: Điều gì phân biệt giữa Deep Deep Learning với các mạng thần kinh khác?

Vì AI StackExchange sẽ đóng vào ngày mai (một lần nữa), tôi sẽ sao chép hai câu trả lời hàng đầu tại đây (đóng góp của người dùng được cấp phép theo cc by-sa 3.0 với yêu cầu ghi công):


Tác giả: mommi84less

Hai bài báo được trích dẫn tốt năm 2006 đã mang lại hứng thú nghiên cứu cho việc học sâu. Trong "Thuật toán học nhanh cho mạng lưới niềm tin sâu sắc" , các tác giả định nghĩa một mạng lưới niềm tin sâu sắc là:

[...] Mạng lưới niềm tin được kết nối dày đặc có nhiều lớp ẩn.

Chúng tôi tìm thấy gần như cùng một mô tả cho các mạng sâu trong " Lớp tham lam - Đào tạo khôn ngoan về mạng sâu" :

Mạng lưới thần kinh đa lớp sâu có nhiều cấp độ phi tuyến tính [...]

Sau đó, trong tài liệu khảo sát "Học đại diện: Đánh giá và quan điểm mới" , học sâu được sử dụng để bao gồm tất cả các kỹ thuật (xem thêm bài nói chuyện này ) và được định nghĩa là:

[...] Xây dựng nhiều cấp độ đại diện hoặc tìm hiểu hệ thống phân cấp các tính năng.

Do đó, tính từ "sâu" được các tác giả ở trên sử dụng để làm nổi bật việc sử dụng nhiều lớp ẩn phi tuyến tính .


Tác giả: lejlot

Chỉ cần thêm vào câu trả lời @ mommi84.

Học sâu không giới hạn trong các mạng lưới thần kinh. Đây là khái niệm rộng hơn so với chỉ các DBN của Hinton, v.v. Học sâu là về

xây dựng nhiều cấp độ đại diện hoặc học một hệ thống phân cấp các tính năng.

Vì vậy, nó là một tên cho các thuật toán học đại diện phân cấp . Có các mô hình sâu dựa trên Mô hình Markov ẩn, Trường ngẫu nhiên có điều kiện, Máy vectơ hỗ trợ, v.v. Điểm chung duy nhất là, thay vì kỹ thuật tính năng (phổ biến trong thập niên 90) , nơi các nhà nghiên cứu đang cố gắng tạo ra bộ tính năng, đó là tốt nhất để giải quyết một số vấn đề phân loại - những máy này có thể giải quyết được đại diện từ dữ liệu thô. Cụ thể - áp dụng cho nhận dạng hình ảnh (hình ảnh thô), chúng tạo ra biểu diễn đa cấp bao gồm pixel, sau đó là đường nét, sau đó là các đặc điểm khuôn mặt (nếu chúng ta đang làm việc với khuôn mặt) như mũi, mắt và cuối cùng - khuôn mặt tổng quát. Nếu được áp dụng cho Xử lý ngôn ngữ tự nhiên - họ xây dựng mô hình ngôn ngữ, kết nối các từ thành khối, khối thành câu, v.v.


Một slide thú vị khác:

nhập mô tả hình ảnh ở đây

nguồn



6

Đây chắc chắn là một câu hỏi sẽ gây tranh cãi.

Khi mạng lưới thần kinh được sử dụng trong học tập sâu, chúng thường được đào tạo theo những cách không được sử dụng trong những năm 1980. Trong các chiến lược cụ thể, ngăn chặn các lớp riêng lẻ của mạng thần kinh để nhận ra các tính năng ở các cấp độ khác nhau được khẳng định để giúp đào tạo các mạng có nhiều lớp dễ dàng hơn. Đó chắc chắn là một sự phát triển mới kể từ những năm 1980.


5

Chìa khóa là từ "sâu" trong học tập sâu. Ai đó (quên ref) trong những năm 80 đã chứng minh rằng tất cả các chức năng phi tuyến tính có thể được xấp xỉ bằng một đơn mạng nơ ron lớp với, tất nhiên, một số đủ lớn của các đơn vị ẩn. Tôi nghĩ rằng kết quả này có lẽ không khuyến khích mọi người tìm kiếm mạng lưới sâu hơn trong thời đại trước đó.

Nhưng độ sâu của mạng là những gì được chứng minh là yếu tố quan trọng trong biểu diễn phân cấp, thúc đẩy sự thành công của nhiều ứng dụng ngày nay.



0

Không chính xác, ANN bắt đầu trong những năm 50. Kiểm tra một trong những ngôi sao nhạc rock ML của Yann LeCun để có phần giới thiệu chân thực và toàn diện. http://www.cs.nyu.edu/~yann/talks/lecun-ranzato-icml2013.pdf


Điều này là viết tắt của một câu trả lời theo tiêu chuẩn của chúng tôi, nhiều hơn một nhận xét. Bạn thực sự nên mở rộng nó thành một câu trả lời đầy đủ bằng cách đưa ra một số điểm quan trọng từ slide đó!
kjetil b halvorsen
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.