Câu trả lời:
"Backprop" giống như "backpropagation": đó chỉ là một cách ngắn hơn để nói. Nó đôi khi được viết tắt là "BP".
'Backprop' là viết tắt của 'backpropagation of error' để tránh nhầm lẫn khi sử dụng thuật ngữ backpropagation .
Về cơ bản backpropagation đề cập đến phương pháp tính toán độ dốc của hàm lỗi theo trường hợp liên quan đến các trọng số cho một mạng Werbos tiếp theo . Và backprop đề cập đến một phương pháp đào tạo sử dụng backpropagation để tính toán độ dốc.
Vì vậy, chúng ta có thể nói rằng một mạng backprop là một mạng feedforward được đào tạo bởi backpropagation .
Thuật ngữ 'backprop tiêu chuẩn' là một uyển ngữ cho quy tắc delta tổng quát , phương pháp đào tạo được giám sát sử dụng rộng rãi nhất.
Nguồn: Backprop là gì? tại FAQ của nhóm tin Usenet comp.ai.neural-lưới
Người giới thiệu:
Đúng, như Franck đã đặt đúng, "backprop" có nghĩa là backpropogation, thường được sử dụng trong miền của các mạng thần kinh để tối ưu hóa lỗi.
Để giải thích chi tiết, tôi sẽ chỉ ra hướng dẫn này về khái niệm backpropogation bằng một cuốn sách rất hay của Michael Nielsen.
Trong học máy, backpropagation (backprop, BP) là một thuật toán được sử dụng rộng rãi trong việc đào tạo các mạng thần kinh tiếp liệu cho việc học có giám sát. Tổng quát hóa backpropagation tồn tại cho các mạng nơ ron nhân tạo khác (ANN) và cho các chức năng nói chung - một loại thuật toán được gọi chung là "backpropagation".
Đó là một cái tên lạ mắt cho quy tắc chuỗi đa biến.