Khi mọi người nói về mạng lưới thần kinh, họ có ý nghĩa gì khi họ nói "kích thước hạt nhân"? Kernels là các hàm tương tự, nhưng điều đó nói gì về kích thước kernel?
Khi mọi người nói về mạng lưới thần kinh, họ có ý nghĩa gì khi họ nói "kích thước hạt nhân"? Kernels là các hàm tương tự, nhưng điều đó nói gì về kích thước kernel?
Câu trả lời:
Các mạng nơ-ron sâu, các mạng nơ-ron tích chập (CNN) cụ thể hơn, về cơ bản là một chồng các lớp được xác định bởi tác động của một số bộ lọc trên đầu vào. Những bộ lọc thường được gọi là hạt nhân.
Ví dụ, các hạt nhân trong lớp chập, là các bộ lọc tích chập. Trên thực tế không có tích chập được thực hiện, nhưng một mối tương quan chéo. Kích thước kernel ở đây đề cập đến widthxheight của mặt nạ lọc.
Ví dụ, lớp gộp tối đa trả về pixel có giá trị tối đa từ một tập hợp pixel trong mặt nạ (kernel). Hạt nhân đó được quét qua đầu vào, lấy mẫu con.
Vì vậy, không có gì để làm với khái niệm hạt nhân trong các máy vectơ hỗ trợ hoặc mạng chính quy. Bạn có thể nghĩ về chúng như các trình trích xuất tính năng.
Như bạn có thể thấy ở trên, kernel, còn được gọi là ma trận kernel là hàm ở giữa và kích thước của nó, ở đây 3, là kích thước kernel (trong đó chiều rộng của kernel bằng với độ cao của kernel).
Lưu ý rằng hạt nhân không nhất thiết phải đối xứng và chúng tôi có thể xác minh điều đó bằng cách trích dẫn văn bản này từ tài liệu của Conv2D trong Tensorflow :
kernel_size: Một số nguyên hoặc tuple / danh sách gồm 2 số nguyên, chỉ định chiều cao và chiều rộng của cửa sổ tích chập 2D. Có thể là một số nguyên duy nhất để chỉ định cùng một giá trị cho tất cả các kích thước không gian.
Nhưng thông thường, chúng ta chỉ làm cho chiều rộng và chiều cao bằng nhau, và nếu không phải kích thước hạt nhân phải là một tuple bằng 2. Và kích thước hạt nhân có thể nhiều hơn 2 số, ví dụ (4, 4, 3) trong ví dụ dưới đây là Conv3D :