Nói chung, trình phân loại Bayes ngây thơ không phải là tuyến tính, nhưng nếu các yếu tố khả năng là từ các gia đình hàm mũ , thì phân loại Bayes ngây thơ tương ứng với một phân loại tuyến tính trong một không gian đặc trưng cụ thể. Đây là cách để thấy điều này.p(xi∣c)
Bạn có thể viết bất kỳ trình phân loại Bayes ngây thơ nào dưới dạng *
p(c=1∣x)=σ(∑ilogp(xi∣c=1)p(xi∣c=0)+logp(c=1)p(c=0)),
trong đó là hàm logistic . Nếu là từ một gia đình hàm mũ, chúng ta có thể viết nó dưới dạngσp(xi∣c)
p(xi∣c)=hi(xi)exp(u⊤icϕi(xi)−Ai(uic)),
và do đó
p(c=1∣x)=σ(∑iw⊤iϕi(xi)+b),
Ở đâu
wib=ui1−ui0,=logp(c=1)p(c=0)−∑i(Ai(ui1)−Ai(ui0)).
Lưu ý rằng điều này tương tự như hồi quy logistic - một bộ phân loại tuyến tính - trong không gian tính năng được xác định bởi . Đối với nhiều hơn hai lớp, chúng tôi tương tự nhận được hồi quy logistic đa thức (hoặc softmax) .ϕi
Nếu là Gaussian, thì và chúng ta nên có
p(xi∣c)ϕi(xi)=(xi,x2i)
wi1wi2bi=σ−21μ1−σ−20μ0,=2σ−20−2σ−21,=logσ0−logσ1,
giả sử .p(c=1)=p(c=0)=12
* Đây là cách lấy kết quả này:
p(c=1∣x)=p(x∣c=1)p(c=1)p(x∣c=1)p(c=1)+p(x∣c=0)p(c=0)=11+p(x∣c=0)p(c=0)p(x∣c=1)p(c=1)=11+exp(−logp(x∣c=1)p(c=1)p(x∣c=0)p(c=0))=σ(∑ilogp(xi∣c=1)p(xi∣c=0)+logp(c=1)p(c=0))