Các lớp của mạng lưới thần kinh sâu có thể được xem là mạng Hopfield?


10

Các mạng Hopfield có thể lưu trữ một vectơ và lấy nó bắt đầu từ một phiên bản ồn ào của nó. Họ làm như vậy để thiết lập các trọng số để giảm thiểu hàm năng lượng khi tất cả các nơ-ron được đặt bằng với các giá trị vectơ và lấy vectơ bằng cách sử dụng phiên bản nhiễu của nó làm đầu vào và cho phép mạng ổn định ở mức tối thiểu năng lượng.

Bỏ qua các vấn đề như thực tế là không có gì đảm bảo rằng mạng sẽ giải quyết ở mức tối thiểu gần nhất, v.v. - các vấn đề cuối cùng đã được giải quyết với các máy Boltzmann và cuối cùng với sự lan truyền ngược - bước đột phá là chúng là điểm khởi đầu để có các biểu diễn trừu tượng. Hai phiên bản của cùng một tài liệu sẽ gọi lại cùng một trạng thái, chúng sẽ được thể hiện trong mạng, bởi cùng một trạng thái.

Như chính Hopfield đã viết trong bài báo Mạng lưới thần kinh và hệ thống vật lý năm 1982 với khả năng tính toán tập thể mới nổi

Mô hình hiện tại sau đó có thể liên quan đến cách một thực thể hoặc Gestalt được ghi nhớ hoặc phân loại trên cơ sở các đầu vào đại diện cho một bộ sưu tập các tính năng của nó.

Mặt khác, bước đột phá của học sâu là khả năng xây dựng nhiều biểu diễn phân cấp, phân cấp của đầu vào, cuối cùng dẫn đến việc làm cho cuộc sống của các học viên AI dễ dàng hơn, đơn giản hóa kỹ thuật tính năng. (xem ví dụ: Học đại diện: Đánh giá và quan điểm mới , Bengio, Courville, Vincent).

Từ quan điểm khái niệm, tôi tin rằng người ta có thể thấy học tập sâu như một sự khái quát hóa của mạng Hopfield: từ một đại diện duy nhất đến một hệ thống phân cấp.

Điều đó có đúng theo quan điểm tính toán / tô pô không? Không xem xét các mạng Hopfield "đơn giản" như thế nào (nơ-ron 2 trạng thái, không bị ngăn chặn, chức năng năng lượng), người ta có thể xem mỗi lớp của mạng là mạng Hopfield và toàn bộ quá trình như một trích xuất tuần tự của Gestalt được ghi nhớ trước đó và sắp xếp lại những Gestalt này?

Câu trả lời:


0

Deep Learning không phải là một khái quát của các mạng Hopfield. Deep Learning là một "khái quát hóa" của lĩnh vực kết nối / mạng lưới thần kinh được bắt đầu bởi Rumelhart và McClelland.

Có hai loại mạng thần kinh:

  • Được chỉ đạo (Perceptron, MLP, ConvNets, RNNs, v.v.)
  • Không bị ngăn cản (Hopfield Nets, Boltzmann Machines, mô hình dựa trên năng lượng, v.v.)

Bất kỳ trong số này có thể được thực hiện sâu. Như bạn đã nói, các máy Boltzmann là phiên bản xác suất của Hopfield Networks, và đã có nhiều công việc sâu sắc hơn các mô hình này so với lưới Hopfield: máy Deep Boltzmann, Deep Belief Networks và mô hình năng lượng sâu. Hinton thực sự là chàng trai bạn muốn đọc để tìm hiểu về các mô hình này, nhưng bạn có thể xem bài báo này so sánh ba mô hình.

Không chắc chắn về tổ chức Gestalt. Tôi đoán tôi sẽ để điều đó cho bạn giải thích.


Câu hỏi của tôi có lẽ không đủ rõ ràng. Tôi đã hỏi về sự xuất hiện của khả năng phân loại (Gestalt) trong NN.
Mario Alemi
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.