Tôi đang tự hỏi làm thế nào để giải thích một kiến trúc định kỳ trong ngữ cảnh EEG. Cụ thể tôi đang nghĩ về điều này như là một CNN định kỳ (trái ngược với các kiến trúc như LSTM), nhưng có lẽ nó cũng áp dụng cho các loại mạng lặp lại khác
Khi tôi đọc về R-CNN, chúng thường được giải thích trong bối cảnh phân loại hình ảnh. Chúng thường được mô tả là "học theo thời gian" hoặc "bao gồm cả ảnh hưởng của thời gian-1 đến đầu vào hiện tại"
Giải thích / giải thích này thực sự khó hiểu khi làm việc với dữ liệu EEG. Một ví dụ về R-CNN đang được sử dụng trên dữ liệu EEG có thể được tìm thấy ở đây
Hãy tưởng tượng tôi có các ví dụ đào tạo, mỗi ví dụ bao gồm một mảng 1x512. Mảng này chụp một điện áp đọc cho 1 điện cực tại 512 điểm thời gian liên tiếp. Nếu tôi sử dụng điều này làm đầu vào cho CNN định kỳ (sử dụng các kết cấu 1D), phần lặp lại của mô hình không thực sự nắm bắt được "thời gian", phải không? (như được ngụ ý bởi các mô tả / giải thích được thảo luận trước đó) Bởi vì trong bối cảnh này, thời gian đã được nắm bắt bởi chiều thứ hai của mảng
Vì vậy, với thiết lập như thế này, phần thường xuyên của mạng thực sự cho phép chúng ta mô hình hóa một CNN thông thường không thể (nếu không phải là thời gian)?
Dường như với tôi, việc lặp lại chỉ có nghĩa là thực hiện một phép chập, thêm kết quả vào đầu vào ban đầu và kết hợp lại. Điều này được lặp lại cho x số bước lặp lại. Quá trình này thực sự mang lại lợi thế gì?