Làm thế nào một perceptionron đa kính có thể làm việc?


13

Tôi không có bất kỳ nền tảng nào về toán học, nhưng tôi hiểu Perceptionron đơn giản hoạt động như thế nào và tôi nghĩ rằng tôi nắm được khái niệm siêu phẳng (tôi tưởng tượng nó như một mặt phẳng trong không gian 3D ngăn cách hai đám mây điểm, giống như một đường phân cách hai đám mây điểm trong không gian 2D).

Nhưng tôi không hiểu làm thế nào một mặt phẳng hoặc một đường thẳng có thể tách ba đám mây điểm khác nhau trong không gian 3D hoặc trong không gian 2D, tương ứng - điều này là không thể về mặt hình học, phải không?

Tôi đã cố gắng để hiểu phần tương ứng trong bài viết Wikipedia , nhưng đã thất bại thảm hại tại câu ở đây, đầu vào x và đầu ra y được rút ra từ các tập hợp tùy ý. Ai đó có thể giải thích cho perceptionron đa giác với tôi và làm thế nào nó đi với ý tưởng về siêu phẳng, hoặc có thể chỉ cho tôi một lời giải thích phi toán học?

Câu trả lời:


8

Giả sử chúng ta có dữ liệu trong đó x iR n là các vectơ đầu vào và y i{ đỏ, xanh lam, xanh lục } là các phân loại.(x1,y1),Giáo dục,(xk,yk)xTôiRnyTôi{đỏ, xanh dương, xanh lá cây}

Chúng tôi biết cách xây dựng bộ phân loại cho kết quả nhị phân, vì vậy chúng tôi thực hiện ba lần: nhóm các kết quả lại với nhau, , { xanh dương, đỏ hoặc xanh lục }{ xanh lá cây, xanh dương hoặc đỏ } .{đỏ, xanh dương hoặc xanh lá cây}{xanh dương, đỏ hoặc xanh lá cây}{xanh lá cây, xanh dương hoặc đỏ}

Mỗi mô hình có dạng hàm , gọi chúng lần lượt là f R , f B , f G. Này có một vector đầu vào cho khoảng cách ký từ siêu phẳng gắn liền với từng mô hình, nơi tương ứng với khoảng cách tích cực cho một dự đoán của màu xanh nếu f B , đỏ nếu f R và xanh lá cây nếu f G . Về cơ bản càng tích cực f G ( x ) , mô hình càng nghĩ rằng xf:RnRfR,fB,fGfBfRfGfG(x)xlà màu xanh lá cây, và ngược lại. Chúng ta không cần đầu ra là một xác suất, chúng ta chỉ cần có thể đo lường mức độ tự tin của mô hình.

Với một đầu vào , chúng tôi phân loại nó theo argmax c f c ( x ) , vì vậy nếu f G ( x ) là lớn nhất trong số { f G ( x ) , f B ( x ) , f R ( x ) } thì chúng tôi sẽ dự đoán màu xanh lá cây cho x .xargmaxc fc(x)fG(x){fG(x),fB(x),fR(x)}x

Chiến lược này được gọi là "một so với tất cả" và bạn có thể đọc về nó ở đây .


3

Tôi không thể hiểu ý nghĩa của bài viết Wiki đó. Đây là một cú đâm thay thế để giải thích nó.

Một perceptron với một nút đầu ra logistic là một mạng phân loại cho 2 lớp. Nó xuất ra , xác suất ở một trong các lớp, với xác suất nằm trong một lớp khác chỉ đơn giản là 1 - p .p1-p

pTôi1-ΣTôi= =(1,2)pTôi

mm+1


Bạn có chắc chắn rằng đầu ra là một xác suất thực tế? Dù sao, tôi không biết làm thế nào hồi quy logistic đa thức hoạt động, vì vậy tôi sẽ phải xem xét điều đó. Nhưng không có cách nào (thuật toán) để giải thích làm thế nào một perceptron có hai hoặc nhiều nút đầu ra được xây dựng? Họ bị xích lại với nhau bằng cách nào đó?
wnstnsmth
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.