Chính quy hóa sử dụng biểu đồ laplacian trong SVM


8

Tôi đang cố gắng thực hiện Chính quy hóa Manifold trong Máy vectơ hỗ trợ (SVM) trong Matlab. Tôi đang làm theo hướng dẫn trong bài báo của Belkin và cộng sự (2006), có phương trình trong đó:

f=argminfHki=1lV(xi,yi,f)+γAfA2+γIfI2

Trong đó V là một số hàm mất và là trọng số của chỉ tiêu của hàm trong RHKS (hoặc định mức môi trường), thì thực thi một điều kiện trơn tru trên các giải pháp có thể và \ gamma_I là trọng số của định mức của hàm trong đa tạp chiều thấp (hoặc chỉ tiêu nội tại), thực thi trơn tru dọc theo mẫu M. Bộ điều chỉnh môi trường xung quanh làm cho vấn đề được đặt ra tốt, và sự hiện diện của nó có thể thực sự hữu ích từ quan điểm thực tế khi giả định đa tạp giữ ở mức độ thấp hơn .γAγI

Nó đã được thể hiện trong Belkin et al. (2006) rằng f thừa nhận sự mở rộng về n điểm của S, f(x)=i=1nαik(xi,x) Hàm quyết định mà phân biệt giữa lớp +1 và -1 là y(x)=sign(f(x)) .

Vấn đề ở đây là, tôi đang cố gắng đào tạo SVM bằng LIBSVM trong MATLAB nhưng tôi không muốn sửa đổi mã gốc, vì vậy tôi đã tìm thấy phiên bản tiền mã hóa của LIBSVM thay vì lấy dữ liệu đầu vào và các nhóm đầu ra làm tham số , được ma trận Kernal tính toán và các nhóm đầu ra và huấn luyện mô hình SVM. Tôi đang thử nguồn cấp dữ liệu với ma trận Kernel thông thường (Gram Matrix) và để nó làm phần còn lại.

Tôi đã cố gắng tìm công thức thường xuyên hóa Kernal và đi đến đây: Xác định là ma trận danh tính có cùng chiều với Ma trận hạt nhân,IK

G=2γAI+2γILKI

Gram=KG

Trong đó là Ma trận đồ thị Laplacian, là Ma trận hạt nhân và là ma trận danh tính. Và được tính bằng phép nhân bên trong của hai ma trận và .LKIGramKG

Có ai có thể giúp tôi tìm ra cách tính toán này không?



1
@Sveltely Không có gì
Moh

Câu trả lời:


6

Trong khi tôi không kiểm tra nó , đọc bài báo, vấn đề tối ưu hóa, cho cả SVMLapSVM , được đưa ra là:

β=maxβRli=1lβi12βTQβ
chủ đề:
i=1lβiyi=00βi1l, with i=1,,l

Đối với SVM :

QSVM=Y(K2γ)YαSVM=Yβ2γ

Trong khi đối với LapSVM, chúng ta có các phần sau (thêm dấu ngoặc đơn để làm cho mối quan hệ rõ ràng hơn):

QLapSVM=Y(JK(2γAI+2γI(l+u)2LK)1JT)YαLapSVM=(2γAI+2γI(l+u)2LK)1JTYβ

Chúng ta có thể định nghĩa if:

QSVM*QLapSVM

{γSVM*=1/2KSVM*=JKLapSVM(2γAI+2γI(l+u)2LKLapSVM)1JT

Cuối cùng:

αLapSVM=KLapSVM(2γAI+2γI(l+u)2LKLapSVM)1JTαSVM*

Tôi có thể xác nhận rằng nó hoạt động. Xem ví dụ này với nhân Gaussian và cách lớp virginicabắt đầu len vào dữ liệu không ghi nhãn khi so với , đó là SVM tiêu chuẩn.γI=2500γI=0

nhập mô tả hình ảnh ở đây

nhập mô tả hình ảnh ở đây

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.