Đây là một câu hỏi về thuật ngữ. Đôi khi tôi thấy mọi người gọi các mạng lưới thần kinh sâu là "tri giác đa tầng", tại sao lại như vậy? Một perceptron, tôi đã được dạy, là một bộ phân loại một lớp (hoặc biến hồi quy) với đầu ra ngưỡng nhị phân sử dụng một cách cụ thể để đào tạo các trọng số (không phải là back-prop). Nếu đầu ra của perceptron không khớp với đầu ra đích, chúng ta sẽ cộng hoặc trừ vectơ đầu vào thành các trọng số (tùy thuộc vào việc perceptron cho kết quả dương tính giả hay âm tính giả). Đây là một thuật toán học máy khá nguyên thủy. Quy trình đào tạo dường như không khái quát hóa cho trường hợp nhiều lớp (ít nhất là không phải không sửa đổi). Một mạng lưới thần kinh sâu được đào tạo thông qua backprop sử dụng quy tắc chuỗi để truyền các gradient của hàm chi phí trở lại thông qua tất cả các trọng số của mạng.
Vì vậy, câu hỏi là. Là một "tri giác đa lớp" có giống với "mạng lưới thần kinh sâu" không? Nếu vậy, tại sao thuật ngữ này được sử dụng? Nó dường như là khó hiểu không cần thiết. Ngoài ra, giả sử thuật ngữ này có thể hoán đổi cho nhau, tôi chỉ thấy thuật ngữ "tri giác đa lớp" khi đề cập đến một mạng chuyển tiếp được tạo thành từ các lớp được kết nối đầy đủ (không có lớp chập hoặc kết nối lặp lại). Làm thế nào rộng là thuật ngữ này? Liệu người ta có sử dụng thuật ngữ "perceptionron nhiều lớp" khi đề cập đến, ví dụ, mạng Inception không? Làm thế nào về một mạng lặp lại sử dụng các mô-đun LSTM được sử dụng trong NLP?