Phân loại với các cách tiếp cận khác nhau


7

Vài ngày trước tôi đã hỏi câu hỏi, nếu một NN có chức năng kích hoạt tuyến tính có thể tạo ra một hàm được ghép nối các hàm tuyến tính thì điều gì thực sự là không thể ( NN có chức năng kích hoạt tuyến tính có thể tạo ra kết nối của các hàm tuyến tính không? ).

Bây giờ tôi có ở đây một số ví dụ phân loại, nhưng tôi thực sự không thể quyết định hoàn toàn, cái nào dựa trên cách tiếp cận nào:

nhập mô tả hình ảnh ở đây

1 -> C Perceptionron không tìm kiếm mức phân tách tối đa.

2 -> E Mạng thần kinh có chức năng kích hoạt tuyến tính

3 -> Một SVM tuyến tính, vì biên độ tách tối đa.

4 -> B Do hình dạng hyperbol của siêu phẳng.

5 -> D? Hồi quy logisitc? Tôi nghĩ nó chỉ có thể tách tuyến tính?

6 -> FI đoán NN với chức năng kích hoạt tanh, vì không có hình dạng rất mịn, xuất phát từ kích thước lớp ẩn quá nhỏ.

Tôi thực sự không hiểu làm thế nào trình phân loại hồi quy logistic có thể tạo ra một siêu phẳng như trong 5? Tôi đã phân loại sai ở đây là gì?


Không có ý kiến ​​gì?
HansPeterLoft

có vẻ như một bài tập về nhà
pcko1

Câu trả lời:


1

Theo như tôi hiểu câu hỏi của bạn, bạn đang cố gắng kết hợp thuật toán học tập với kết quả của họ.

Đầu tiên, tôi không nghĩ rằng ánh xạ câu trả lời bạn đã cung cấp là chính xác.

Đầu tiên, chúng tôi thấy các tùy chọn và tìm ra cái nào phân tách tuyến tính dữ liệu: Chúng tôi có 3 ứng cử viên cho công việc:

A. SVM tuyến tính

C. Perceptionron

D. Hồi quy logistic

Trong các bộ dữ liệu chỉ có 1, 2 và 3 được phân tách tuyến tính. Vì, chúng ta biết SVM tuyến tính sẽ tìm kiếm ranh giới quyết định với sự phân tách tối đa giữa 2 tập dữ liệu có thể phân tách tuyến tính do đó A đi với 3. Pereceptron về cơ bản là phiên bản tuyến tính của hồi quy logistic. Bây giờ, LR là một thuật toán theo cấp số nhân do đó lỗi không xuất hiện lớn như bình thường. Nói rằng đối với một vectơ đầu vào cụ thể x, y = 1hãy đặt giả thuyết ( x * transpose(theta)) thuật toán của bạn được tạo ra 5. Đối với lỗi perceptron sẽ là 5 - 1 = 4trong khi đối với LR thì nó sẽ xảy ra 1 / (1 + e^(-5)) - 1 = 0.9932. Nếu giả thuyết tạo ra 6lỗi sẽ 5dành cho perceptron và về0.9974cho LR. Vì vậy, chúng tôi thấy ngay cả đối với sự gia tăng rất lớn về lỗi, chi phí cho LR sẽ không tăng đáng kể (thuộc tính vốn có của hàm mũ) trong khi nó tăng tuyến tính cho perceptron.

Do đó, 1 đi với C vì nó cố gắng giảm thiểu lỗi, trong khi 2 sẽ đi với D vì mặc dù có chi phí lớn hơn nhưng nó được thu nhỏ do hàm số mũ.

Và bây giờ tôi nghĩ 5 sẽ đi với F vì đường cong có độ mịn liên quan đến nó, trong khi đó do đường cong của Re-Lu sẽ chuyển sang E (do độ sắc nét liên quan) và cuối cùng B chuyển sang 4 vì nó có hạt nhân của bậc 2 và x^2/a^2 + y^2/b^2 +xy = clà phương trình của một hyperbola của bậc 2.

Một hyperbola ngẫu nhiên

Do đó ánh xạ cuối cùng:

  • A - 3
  • B 4
  • C - 1
  • D - 2
  • E - 6
  • F - 5

Tôi có thể đã bỏ lỡ một vài phép toán khác, và tôi sẽ biết ơn nếu ai đó chỉ ra chúng.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.