"Người học yếu" nghĩa là gì?


34

Ai đó có thể cho tôi biết cụm từ 'người học yếu' nghĩa là gì không? Có phải nó được coi là một giả thuyết yếu? Tôi bối rối về mối quan hệ giữa người học yếu và người phân loại yếu. Cả hai giống nhau hay có một số khác biệt?

Trong thuật toán adaboost , T=10. Điều đó có nghĩa là gì? Tại sao chúng ta chọn T=10?


1
Chào mừng đến với trang web, @vrushali. Tôi chỉnh sửa nó để làm cho tiếng Anh mượt mà hơn; hãy chắc chắn rằng nó vẫn nói những gì bạn muốn nói Ngoài ra, tôi không chắc liệu bộ câu hỏi thứ hai (về adaboost) có giống với bộ câu hỏi đầu tiên không; nó có thể có ý nghĩa hơn để tách chúng thành các chủ đề khác nhau.
gung - Phục hồi Monica

Câu trả lời:


35

Một người học 'yếu' (classifer, dự đoán, v.v.) chỉ là một người thực hiện tương đối kém - độ chính xác của nó là trên cơ hội, nhưng chỉ là hầu như không. Thường có, nhưng không phải lúc nào, hàm ý thêm rằng nó đơn giản về mặt tính toán. Người học yếu cũng gợi ý rằng nhiều trường hợp của thuật toán đang được gộp chung (thông qua việc tăng cường, đóng bao, v.v.) để tạo ra một bộ phân loại tập hợp "mạnh".

Nó được đề cập trong bài báo AdaBoost ban đầu của Freund & Schapire:

Có lẽ điều đáng ngạc nhiên nhất trong số các ứng dụng này là việc tạo ra một ứng dụng mới để "tăng cường", tức là chuyển đổi thuật toán học PAC "yếu", hoạt động tốt hơn một chút so với đoán ngẫu nhiên thành một ứng dụng có độ chính xác cao tùy ý. - (Freund & Schapire, 1995)

nhưng tôi nghĩ cụm từ này thực sự cũ hơn thế - tôi đã thấy mọi người trích dẫn một bài viết hạn (?!) của Michael Kearns từ những năm 1980.

Ví dụ kinh điển về Người học yếu là Cây quyết định, cây quyết định một cấp (1R hoặc OneR là một người học yếu khác thường được sử dụng; nó khá giống nhau). Sẽ hơi lạ khi gọi một SVM là 'người học yếu', ngay cả trong những tình huống nó hoạt động kém, nhưng sẽ hoàn toàn hợp lý khi gọi một quyết định duy nhất là một người học yếu ngay cả khi nó tự thực hiện tốt một cách đáng ngạc nhiên.


Adaboost là một thuật toán lặp và thường biểu thị số lần lặp hoặc "vòng". Thuật toán bắt đầu bằng cách đào tạo / kiểm tra một người học yếu về dữ liệu, cân nhắc từng ví dụ như nhau. Các ví dụ được phân loại sai sẽ tăng trọng lượng của chúng cho các vòng tiếp theo, trong khi các ví dụ được phân loại chính xác sẽ giảm trọng lượng của chúng.T

Tôi không chắc có điều gì kỳ diệu về . Trong bài báo năm 1995, được cung cấp dưới dạng tham số miễn phí (nghĩa là bạn tự đặt nó).TT=10T


Theo như tôi biết thì một Quyết định khác với 1Rule. Stump Stump luôn là cây nhị phân 1 cấp (cho cả thuộc tính danh nghĩa và số). 1Rule có thể có nhiều hơn 2 con (cho cả danh nghĩa và số) và đối với các thuộc tính số có một bài kiểm tra phức tạp hơn so với phân chia nhị phân cho một giá trị. Ngoài ra, trong WEKA có 2 cách triển khai khác nhau: ReasonStump và OneR.
rapaio

Hmmm ... tôi đoán bạn đúng. Bài báo 1R ban đầu cho biết "Loại quy tắc cụ thể được kiểm tra trong bài viết này, được gọi là 1-Quy tắc, là các quy tắc phân loại một đối tượng trên cơ sở một thuộc tính duy nhất (nghĩa là chúng là cây quyết định cấp 1." Nhưng cây quyết định có thể được thực hiện theo nhiều cách khác nhau. Tôi sẽ chỉnh sửa rõ ràng.
Matt Krause

Ngoài ra còn có triển khai OneR gốc: Gói OneR, trên CRAN: CRAN.R-project.org/package=OneR , đây là họa tiết: cran.r-project.org/web/packages/OneR/vignettes/OneR. html (công bố đầy đủ: Tôi là tác giả của gói này).
vonjd

7

Người học yếu là người học rằng bất kể phân phối trên dữ liệu đào tạo là gì sẽ luôn luôn làm tốt hơn cơ hội, khi nó cố gắng gắn nhãn dữ liệu. Làm tốt hơn cơ hội có nghĩa là chúng ta sẽ luôn có tỷ lệ lỗi nhỏ hơn 1/2.

Điều này có nghĩa là thuật toán người học sẽ luôn học một cái gì đó, không phải lúc nào cũng hoàn toàn chính xác, tức là nó yếu và kém khi học các mối quan hệ giữa (đầu vào) và (mục tiêu).YXY

Nhưng sau đó tăng cường , trong đó chúng tôi bắt đầu bằng cách xem qua dữ liệu đào tạo và tạo ra một số phân phối, sau đó tìm một số nhóm Người học yếu (phân loại) có lỗi thấp và mỗi người học đưa ra một giả thuyết, . Điều này tạo ra một số (nhãn lớp) và cuối cùng kết hợp tập hợp các giả thuyết tốt để tạo ra một giả thuyết cuối cùng. YHxY

Điều này cuối cùng cải thiện những người học yếu và chuyển đổi họ thành những người học mạnh.

Để biết thêm thông tin: https://youtu.be/zUXJb1hdU0k .


Chào mừng đến với CV. Vì bạn là người mới ở đây, bạn có thể muốn tham quan chúng tôi , nơi có thông tin cho người dùng mới. . Câu trả lời này dường như không cung cấp một cái gì đó mới hoặc cải thiện so với các câu trả lời trước đó. Bạn có nghĩ rằng có cái gì đó thiếu trong những cái trước?
TEG - Tái lập lại

Tại sao nó phải dưới 1/2. Nếu tỷ lệ lỗi cao hơn 1/2 thì cũng nên phân loại yếu.
Mã Giáo hoàng

@CodePope, tôi có quan điểm của bạn, nhưng thực ra một "người học yếu" được định nghĩa chính thức theo các thuật ngữ như vậy. Tôi đồng ý bất kỳ mô hình nào có lỗi hơn 50% cũng nghèo và yếu. Nhưng nói về các định nghĩa chính thức theo định nghĩa của các nhà khoa học, một người học yếu là một người có sai số nhỏ hơn 1/2 hoặc 50%.
Anish Singh Walia

1

Người học yếu giống như người phân loại yếu, hoặc người dự đoán yếu. Ý tưởng là bạn sử dụng một trình phân loại, tốt ..., không tốt lắm, nhưng ít nhất là tốt hơn ngẫu nhiên. Lợi ích là bộ phân loại sẽ mạnh mẽ trong việc cung cấp quá mức. Tất nhiên, bạn không chỉ sử dụng một nhưng một bộ lớn, mỗi cái tốt hơn một chút so với ngẫu nhiên. Cách chính xác mà bạn chọn / kết hợp chúng phụ thuộc vào phương pháp / thuật toán, ví dụ AdaBoost.

Trong thực tế là trình phân loại yếu, bạn sử dụng một cái gì đó giống như một ngưỡng đơn giản trên một tính năng duy nhất. Nếu tính năng vượt quá ngưỡng thì bạn dự đoán nó thuộc về mặt tích cực nếu không bạn quyết định nó thuộc về phủ định. Không chắc chắn về T = 10, vì không có ngữ cảnh, nhưng tôi có thể cho rằng đó là một ví dụ về ngưỡng một số tính năng.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.