Tôi hiện đang xem xét hình thức nguyên thủy không giới hạn của trình phân loại một đấu tất cả
Ở đâu
là số lượng phiên bản, là số lượng các lớp, là số lượng tính năng, là ma trận dữ liệu , là một vectơ của nhãn lớp, là ma trận trong đó mỗi ma trận tương ứng đến các trọng số cho siêu phẳng tách một lớp từ phần còn lại, là một số hàm mất tùy ý.
Tôi hiểu rằng chức năng ở trên cố gắng tìm một siêu phẳng cho mỗi lớp nhằm tối đa hóa khoảng cách giữa các mẫu trong lớp liên kết với tất cả các mẫu khác. Nếu các siêu phẳng được định vị chính xác thì phải luôn âm, sẽ luôn hoạt động trở lại Khá thấp.
Tôi đang cố gắng thực hiện điều này bằng cách sử dụng mất bản lề mà tôi tin rằng trong trường hợp này sẽ kết thúc
).
Tuy nhiên, trong những điều trên, chúng ta không thể kết thúc với một tình huống mà các siêu máy bay phân loại tất cả các mẫu là thuộc về mỗi lớp. Ví dụ: nếu chúng ta đang xem lớp siêu phẳng tách lớp 1 từ tất cả các lớp khác, với điều kiện thì tổn thất phát sinh sẽ là 0 mặc dù bị phân loại là sai lớp.
Tôi đã đi sai ở đâu? Hoặc không quan trọng liệu là âm hay dương với điều kiện kết thúc với số điểm cao hơn? Tôi có cảm giác rằng việc tôi sử dụng chức năng bản lề như tôi đã mô tả ở đây là không chính xác nhưng việc sử dụng Google của tôi ngày nay chỉ dẫn đến sự nhầm lẫn nhiều hơn.
Trên một lưu ý liên quan, tại sao có 1 trong các chức năng trên? Tôi nghĩ rằng nó sẽ có ít tác động.