Một người học 'yếu' (classifer, dự đoán, v.v.) chỉ là một người thực hiện tương đối kém - độ chính xác của nó là trên cơ hội, nhưng chỉ là hầu như không. Thường có, nhưng không phải lúc nào, hàm ý thêm rằng nó đơn giản về mặt tính toán. Người học yếu cũng gợi ý rằng nhiều trường hợp của thuật toán đang được gộp chung (thông qua việc tăng cường, đóng bao, v.v.) để tạo ra một bộ phân loại tập hợp "mạnh".
Nó được đề cập trong bài báo AdaBoost ban đầu của Freund & Schapire:
Có lẽ điều đáng ngạc nhiên nhất trong số các ứng dụng này là việc tạo ra một ứng dụng mới để "tăng cường", tức là chuyển đổi thuật toán học PAC "yếu", hoạt động tốt hơn một chút so với đoán ngẫu nhiên thành một ứng dụng có độ chính xác cao tùy ý. - (Freund & Schapire, 1995)
nhưng tôi nghĩ cụm từ này thực sự cũ hơn thế - tôi đã thấy mọi người trích dẫn một bài viết hạn (?!) của Michael Kearns từ những năm 1980.
Ví dụ kinh điển về Người học yếu là Cây quyết định, cây quyết định một cấp (1R hoặc OneR là một người học yếu khác thường được sử dụng; nó khá giống nhau). Sẽ hơi lạ khi gọi một SVM là 'người học yếu', ngay cả trong những tình huống nó hoạt động kém, nhưng sẽ hoàn toàn hợp lý khi gọi một quyết định duy nhất là một người học yếu ngay cả khi nó tự thực hiện tốt một cách đáng ngạc nhiên.
Adaboost là một thuật toán lặp và thường biểu thị số lần lặp hoặc "vòng". Thuật toán bắt đầu bằng cách đào tạo / kiểm tra một người học yếu về dữ liệu, cân nhắc từng ví dụ như nhau. Các ví dụ được phân loại sai sẽ tăng trọng lượng của chúng cho các vòng tiếp theo, trong khi các ví dụ được phân loại chính xác sẽ giảm trọng lượng của chúng.
T
Tôi không chắc có điều gì kỳ diệu về . Trong bài báo năm 1995, được cung cấp dưới dạng tham số miễn phí (nghĩa là bạn tự đặt nó).TT= 10T