Bạn nói thuật toán là: thuật toán lân cận k-gần nhất với k = số điểm đào tạo được sử dụng. Tôi định nghĩa đây là jms-k-lân cận hàng xóm .
Do kích thước VC là số điểm đào tạo lớn nhất có thể bị phá vỡ bởi thuật toán có lỗi tàu 0, nên kích thước VC của jms-k-lân cận gần nhất chỉ có thể là k hoặc 0.
1 trường hợp đào tạo => k = 1: Trong quá trình đào tạo, cửa hàng jms-1-lân cận gần nhất chính xác với trường hợp này. Trong ứng dụng trên cùng một tập huấn luyện, một thể hiện là gần nhất với thể hiện đào tạo được lưu trữ (vì chúng giống nhau), do đó lỗi đào tạo là 0.
Vì vậy, tôi đồng ý, kích thước VC ít nhất là 1.
2 trường hợp đào tạo => k = 2: Chỉ có thể có vấn đề nếu các nhãn khác nhau. Trong trường hợp này, câu hỏi là, quyết định cho nhãn lớp được đưa ra như thế nào. Phiếu bầu đa số không dẫn đến kết quả (VC = 0?), Nếu chúng ta sử dụng phiếu bầu đa số có trọng số ngược theo khoảng cách, kích thước VC là 2 (giả sử rằng không được phép có cùng một ví dụ đào tạo hai lần với các nhãn khác nhau, trong đó trong trường hợp kích thước VC của tất cả các thuật toán sẽ là 0 (tôi đoán vậy)).
Không có thuật toán láng giềng k tiêu chuẩn gần nhất, nó là một gia đình có cùng ý tưởng cơ bản nhưng hương vị khác nhau khi nói đến chi tiết thực hiện.
Tài nguyên được sử dụng: slide kích thước VC của Andrew Moore