Trong các lĩnh vực xử lý tín hiệu thích ứng / học máy, học sâu (DL) là một phương pháp cụ thể trong đó chúng ta có thể đào tạo các biểu diễn phức tạp cho máy móc.
Nói chung, họ sẽ có một công thức có thể ánh xạ , tất cả các cách đến mục tiêu đích, , thông qua một loạt các hoạt động được xếp theo thứ bậc (đây là nơi hoạt động của 'sâu') . Các hoạt động đó thường là các hoạt động / phép chiếu tuyến tính ( ), theo sau là một phi tuyến tính ( ), như vậy:xyWifi
y=fN(...f2(f1(xTW1)W2)...WN)
Bây giờ trong DL, có nhiều kiến trúc khác nhau : Một kiến trúc như vậy được gọi là mạng lưới thần kinh tích chập (CNN). Một kiến trúc khác được gọi là perceptionron nhiều lớp , (MLP), v.v ... Các kiến trúc khác nhau cho vay để giải quyết các loại vấn đề khác nhau.
MLP có lẽ là một trong những loại kiến trúc DL truyền thống nhất mà người ta có thể tìm thấy, và đó là khi mọi yếu tố của lớp trước, được kết nối với mọi thành phần của lớp tiếp theo. Nó trông như thế này:
Trong MLP, các ma trận mã hóa sự chuyển đổi từ lớp này sang lớp khác. (Qua một ma trận nhân lên). Ví dụ: nếu bạn có 10 nơ-ron trong một lớp được kết nối với 20 nơ-ron tiếp theo, thì bạn sẽ có ma trận , sẽ ánh xạ đầu vào thành đầu ra , thông qua: . Mỗi cột trong , mã hóa tất cả các cạnh đi từ tất cả các phần tử của một lớp, sang một trong các phần tử của lớp tiếp theo.WiW∈R10x20v∈R10x1u∈R1x20u=vTWW
MLP không được ủng hộ sau đó, một phần vì họ khó đào tạo. Mặc dù có nhiều lý do cho sự khó khăn đó, một trong số đó cũng là vì các kết nối dày đặc của họ không cho phép họ mở rộng quy mô dễ dàng cho các vấn đề về thị giác máy tính khác nhau. Nói cách khác, họ không có sự tương đương về dịch thuật. Điều này có nghĩa là nếu có tín hiệu trong một phần của hình ảnh mà họ cần phải nhạy cảm, họ sẽ cần học lại cách nhạy cảm với nó nếu tín hiệu đó di chuyển xung quanh. Điều này làm lãng phí năng lực của mạng, và vì vậy việc đào tạo trở nên khó khăn.
Đây là nơi CNN đến! Đây là những gì một người trông giống như:
Các CNN đã giải quyết vấn đề dịch tín hiệu, bởi vì chúng sẽ kết hợp từng tín hiệu đầu vào bằng một bộ dò, (hạt nhân) và do đó nhạy cảm với cùng một tính năng, nhưng lần này ở mọi nơi. Trong trường hợp đó, phương trình của chúng ta vẫn giống nhau, nhưng các ma trận trọng số thực sự là các ma trận toeplitz tích chập . Toán học là như nhau mặc dù. Wi
Người ta thường thấy "CNN" đề cập đến các mạng mà chúng ta có các lớp chập trên mạng và MLP ở cuối, vì vậy đó là một điều cần lưu ý.