Khi sử dụng các hàm kích hoạt logistic, đúng là hàm liên quan đến đầu vào của mỗi đơn vị với đầu ra của nó giống như đối với hồi quy logistic. Nhưng, điều này thực sự không giống như mỗi đơn vị thực hiện hồi quy logistic. Sự khác biệt là, trong hồi quy logistic, các trọng số và độ lệch được chọn sao cho đầu ra phù hợp nhất với các giá trị đích đã cho (sử dụng tổn thất log / entropy chéo). Ngược lại, các đơn vị ẩn trong mạng lưới thần kinh gửi đầu ra của chúng đến các đơn vị hạ nguồn. Không có đầu ra mục tiêu để phù hợp cho các đơn vị ẩn riêng lẻ. Thay vào đó, các trọng số và độ lệch được chọn để giảm thiểu một số hàm mục tiêu phụ thuộc vào đầu ra cuối cùng của mạng.
Thay vì thực hiện hồi quy logistic, có thể có ý nghĩa hơn khi nghĩ về mỗi đơn vị ẩn khi tính toán tọa độ trong một số không gian tính năng. Từ quan điểm này, mục đích của một lớp ẩn là biến đổi đầu vào của nó - vectơ đầu vào được ánh xạ thành một vectơ kích hoạt lớp ẩn. Bạn có thể nghĩ về điều này như ánh xạ đầu vào vào một không gian đặc trưng với kích thước tương ứng với từng đơn vị ẩn.
Lớp đầu ra thường có thể được coi là một thuật toán học tập tiêu chuẩn hoạt động trong không gian tính năng này. Ví dụ, trong một nhiệm vụ phân loại, sử dụng đơn vị đầu ra logistic có mất entropy chéo tương đương với thực hiện hồi quy logistic trong không gian tính năng (hoặc hồi quy logistic đa phương nếu sử dụng đầu ra softmax). Trong tác vụ hồi quy, sử dụng đầu ra tuyến tính có lỗi bình phương tương đương với thực hiện hồi quy tuyến tính bình phương nhỏ nhất trong không gian tính năng.
Đào tạo số lượng mạng để học chức năng ánh xạ không gian tính năng và phân loại / hồi quy (trong không gian tính năng), cùng nhau, mang lại hiệu suất tốt nhất. Giả sử các đơn vị ẩn phi tuyến, tăng chiều rộng của lớp ẩn hoặc xếp chồng nhiều lớp ẩn cho phép ánh xạ không gian tính năng phức tạp hơn, do đó cho phép các chức năng phức tạp hơn phù hợp.