Nhiều phân loại nhị phân so với phân loại đa lớp đơn


12

Những yếu tố nào cần được xem xét khi xác định nên sử dụng nhiều phân loại nhị phân hay một phân loại đa lớp đơn?

Ví dụ: tôi đang xây dựng một mô hình phân loại cử chỉ tay. Một trường hợp đơn giản có 4 kết quả đầu ra: [Không có, thumbs_up, clenched_fist, all_fingftimeextends]. Tôi thấy hai cách để tiếp cận điều này:

Tùy chọn 1 - Nhiều phân loại nhị phân

  1. [Không, thumbs_up]
  2. [Không, clenched_fist]
  3. [Không, all_fingftimeextends]

Tùy chọn 2 - Trình phân loại đa lớp đơn

  1. [Không có, thumbs_up, clenched_first, all_fingftimeextends]

Phương pháp nào có xu hướng tốt hơn và trong điều kiện nào?

Câu trả lời:


13

Lựa chọn 1 của bạn có thể không phải là cách tốt nhất để đi; nếu bạn muốn có nhiều phân loại nhị phân, hãy thử một chiến lược gọi là One-vs-All .

Trong One-vs-All bạn về cơ bản có một bộ phân loại nhị phân chuyên gia thực sự tốt trong việc nhận ra một mẫu từ tất cả các mẫu khác và chiến lược thực hiện thường được xếp tầng. Ví dụ:

  if classifierNone says is None: you are done
  else:
    if classifierThumbsUp says is ThumbsIp: you are done
    else:
      if classifierClenchedFist says is ClenchedFist: you are done
      else:
        it must be AllFingersExtended and thus you are done

Dưới đây là phần giải thích đồ họa về One-vs-all từ khóa học của Andrew Ng: Thí dụ


Phân loại nhiều lớp ưu và nhược điểm:

Ưu điểm :

  • Dễ dàng sử dụng ra khỏi hộp
  • Tuyệt vời khi bạn thực sự có nhiều lớp

Nhược điểm :

  • Thường chậm hơn phân loại nhị phân trong quá trình đào tạo
  • Đối với các vấn đề chiều cao, họ thực sự có thể mất một thời gian để hội tụ

Phương pháp phổ biến :

  • Mạng lưới thần kinh
  • Các thuật toán dựa trên cây

One-vs-All phân loại ưu và nhược điểm:

Ưu điểm :

  • Vì chúng sử dụng phân loại nhị phân, chúng thường nhanh hơn để hội tụ
  • Tuyệt vời khi bạn có một số ít các lớp học

Nhược điểm :

  • Thật là khó chịu khi phải đối phó khi bạn có quá nhiều lớp
  • Bạn thực sự cần phải cẩn thận khi đào tạo để tránh mất cân bằng lớp giới thiệu sai lệch, ví dụ, nếu bạn có 1000 mẫu nonevà 3000 mẫu của thumbs_uplớp.

Phương pháp phổ biến :

  • SVM
  • Hầu hết các phương pháp tập hợp
  • Các thuật toán dựa trên cây

Nó sẽ tốt hơn để làm rõ rằng hθi các chức năng là xác suất đầu ra và nhãn cuối cùng được xác định bởi argmaxihθi
Lii

Đó là một câu trả lời rất hay về One-vs-All & One-vs-One và thật tốt khi đăng câu trả lời của bạn ở đây vì bài đăng sau phổ biến hơn (nhưng ít nhiều về cùng một chủ đề): số liệu thống kê. stackexchange.com/questions/91091/... .
Bị ruồng bỏ
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.