Phân tích phân biệt tuyến tính và quy tắc Bayes: phân loại


12

Mối quan hệ giữa phân tích phân biệt tuyến tính và quy tắc Bayes là gì? Tôi hiểu rằng LDA được sử dụng trong phân loại bằng cách cố gắng giảm thiểu tỷ lệ phương sai trong nhóm và giữa phương sai nhóm, nhưng tôi không biết cách sử dụng quy tắc Bayes trong đó.


Các hàm phân biệt được trích xuất để tối đa hóa biến thể giữa các nhóm thành tỷ lệ biến thể trong nhóm. Nó không liên quan gì đến phân loại, đó là giai đoạn thứ hai và độc lập của LDA.
ttnphns

Câu trả lời:


16

Phân loại trong LDA diễn ra như sau (phương pháp tiếp cận quy tắc của Bayes). [Về trích xuất phân biệt đối xử người ta có thể nhìn vào đây .]

Theo định lý Bayes, tìm kiếm, cho khả năng mà chúng tôi đang làm việc với lớp trong khi đang quan sát điểm xP ( k | x ) = P ( k ) * P ( x | k ) / P ( x ) , nơikxP(k|x)=P(k)P(x|k)/P(x)

- xác suất vô điều kiện (nền) của lớp k ; P ( x ) - xác suất vô điều kiện (nền) của điểm x ; P ( x | k ) - xác suất xuất hiện điểm x trong lớp k , nếu lớp được xử lý là k .P(k)kP(x)xP(x|k)xkk

"Quan sát điểm hiện tại " là điều kiện cơ bản, P ( x ) = 1 , và do đó mẫu số có thể được bỏ qua. Do đó, P ( k | x ) = P ( k ) * P (xP(x)=1 .P(k|x)=P(k)P(x|k)

là xác suất trước (phân tích trước) rằng lớp gốc cho x k ; P ( k ) được chỉ định bởi người dùng. Thông thường theo mặc định, tất cả các lớp đều nhận được P ( k ) = 1 / number_of_groupes bằng nhau. Để tính P ( k | x ) , tức là xác suất sau (phân tích hậu) xác suất rằng lớp gốc cho x k , người ta phải biết P ( xP(k)xkP(k)P(k)P(k|x)xk .P(x|k)

- xác suấtmỗi se- không thể tìm thấy, đối với người phân biệt đối xử, vấn đề chính của LDA, là các biến liên tục, không rời rạc. Số lượng biểu thị P ( x | k ) trong trường hợp này và tỷ lệ với nó làmật độ xác suất(hàm PDF). Bằng cách này, chúng ta cần tính toán PDF cho điểm x trong lớp k , P D F ( x | k ) , trongphân phối chuẩn p -chiều hai chiều được hình thành bởi các giá trị của pP(x|k)P(x|k)xkPDF(x|k)ppphân biệt đối xử. [Xem Wikipedia phân phối bình thường nhiều biến số]

PDF(x|k)=ed/2(2π)p/2|S|)

trong đó - bình phương khoảng cách Mahalanobis [Xem khoảng cách Wikipedia Mahalanobis] trong không gian của người phân biệt đối xử từ điểm x đến một trung tâm lớp; S - ma trận hiệp phương sai giữa các phân biệt đối xử , được quan sát trong lớp đó.dxS

Tính theo cách này cho mỗi lớp. P ( k ) * P D F ( x | k ) cho điểm x và lớp k bày tỏ sự ưa chuộng cho P ( k ) * P ( x | k ) đối với chúng tôi. Nhưng với dự trữ trên mà PDF không có xác suất mỗi lần, chỉ tỷ lệ thuận với nó, chúng ta nên bình thường hóaPDF(x|k)P(k)PDF(x|k)xkP(k)P(x|k) , chia cho tổng của P ( k ) * P D F ( x | k ) s khắp các lớp học. Ví dụ: nếu có tất cả 3 lớp, k , l , m , thìP(k)PDF(x|k)P(k)PDF(x|k)klm

P(k|x)=P(k)PDF(x|k)/[P(k)PDF(x|k)+P(l)PDF(x|l)+P(m)PDF(x|m)]

Điểm được LDA gán cho lớp mà P ( k | x ) là cao nhất.xP(k|x)

Ghi chú. Đây là cách tiếp cận chung. Nhiều chương trình LDA theo mặc định sử dụng ma trận trong lớp S được gộp chung cho tất cả các lớp trong công thức cho PDF ở trên. Nếu vậy, công thức đơn giản hóa rất nhiều vì S như vậy trong LDA là ma trận danh tính (xem chú thích dưới cùng ở đây ), và do đó | S | = 1d biến thành khoảng cách euclide bình phương (nhắc nhở: nhóm S trong nhóm chúng ta đang nói đến là hiệp phương sai giữa các phân biệt đối xử, - không phải giữa các biến đầu vào, ma trận thường được chỉ định là S w ).SS|S|=1dSSw

Ngoài ra . Trước khi phương pháp phân loại Bayes ở trên được giới thiệu cho LDA, Fisher, người tiên phong LDA, đã đề xuất tính toán cái gọi là các hàm phân loại tuyến tính của Fisher để phân loại các điểm trong LDA. Đối với điểm , điểm số của lớp k là tổ hợp tuyến tính b k v 1 V 1 x + b k v 2 V 2 x + . . . + C o n s t k , trong đó V 1 ,xkbkv1V1x+bkv2V2x+...+Constk là các biến dự đoán trong phân tích.V1,V2,...Vp

Hệ số , g là số lớp và s v w là phần tử của ma trận phân tán trong lớp gộp của p V- biến.bkv=(ng)wpsvwV¯kwgsvwp V

.Constk=log(P(k))(vpbkvV¯kv)/2

Điểm được chỉ định cho lớp có điểm cao nhất. Kết quả phân loại thu được bằng phương pháp của Fisher này (mà bỏ qua khai thác của biệt thức tham gia vào eigendecomposition phức tạp) là giống hệt với những thu được bằng cách Bayes' phương pháp duy nhất nếu gộp trong lớp ma trận hiệp phương sai được sử dụng với Bayes' phương pháp dựa trên biệt thức (xem mục 'Ghi chú' ở trên) và tất cả các phân biệt đối xử đang được sử dụng trong phân loại. Phương pháp của Bayes tổng quát hơn vì nó cũng cho phép sử dụng các ma trận trong lớp riêng biệt .x


This is Bayesian approach right? What is the Fisher's approach for this?
zca0

1
Added to the answer upon your request
ttnphns

+1 for distinguishing between Bayes' and Fisher's approach of LDA. I'm a new-comer in LDA, and the books I read teach me LDA in Bayes' approach, which classifies X to class K with the highest p(K|X), so I have to compute all the p(K|X) for each class K, right? By Fisher's approach, I just need to figure out the discriminants and their corresponding coefs, and no need to compute the posterior for each class, right?
avocado

And I think the Bayes' approach is more understandable, and why do we need to use the Fisher's approach?
avocado

We don't need. Just for historical matter.
ttnphns

1

Assume equal weights for the two error types in a two class problem. Suppose the two classes have a multivariate class conditional density of the classification variables. Then for any observed vector x and class conditional densities f1(x) and f2(x) the Bayes rule will classify x as belonging to group 1 if f1(x)f2(x) and as class 2 otherwise. The Bayes rule turns out to be a linear discriminant classifier if f1 and f2 are both multivariate normal densities with the same covariance matrix. Of course in order to be able to usefully discriminate the mean vectors must be different. A nice presentation of this can be found in Duda and Hart Pattern Classification and Scene Analysis 1973 (the book has recently been revised but I like particularly the presentation in the original edition).

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.