Tôi đang vật lộn để tạo ra kết nối toán học giữa một mạng thần kinh và một mô hình đồ họa.
Trong các mô hình đồ họa, ý tưởng rất đơn giản: phân phối xác suất nhân tố theo các nhóm trong biểu đồ, với các tiềm năng thường là của gia đình hàm mũ.
Có một lý do tương đương cho một mạng lưới thần kinh? Người ta có thể biểu thị phân phối xác suất trên các đơn vị (biến) trong máy Boltzmann bị hạn chế hoặc CNN như là một hàm của năng lượng của chúng, hoặc sản phẩm của năng lượng giữa các đơn vị?
Ngoài ra, phân phối xác suất được mô hình hóa bởi mạng RBM hoặc Deep niềm tin (ví dụ với CNN) của gia đình hàm mũ?
Tôi hy vọng tìm thấy một văn bản chính thức hóa kết nối giữa các loại mạng thần kinh và thống kê hiện đại này giống như cách mà Jordan & Wainwright đã làm cho các mô hình đồ họa với Mô hình đồ họa, Gia đình hàm mũ và Suy luận biến đổi . Mọi gợi ý đều tuyệt.
"using deep nets as factors in an MRF"
), mà nhiều hơn về cách xem mạng sâu như một biểu đồ nhân tố xác suất. Khi Yann LeCun nói "of course deep Boltzmann Machines are a form of probabilistic factor graph themselves"
, tôi thích nhìn thấy sự kết nối đó một cách toán học.
https://distill.pub/2017/feature-visualization/
( Cách mạng lưới thần kinh xây dựng sự hiểu biết về hình ảnh của chúng ), trong đó một hình ảnh phức tạp có các đối tượng thành phần được biểu thị bằng các nút lớp ẩn. Các trọng số có thể "thay đổi" cấu trúc liên kết "theo cách không rời rạc. Mặc dù tôi chưa thấy nó, một số phương pháp có thể bao gồm các yếu tố co rút để loại bỏ các cạnh và do đó thay đổi cấu trúc liên kết ban đầu