Cách đơn giản để giải thích là việc chính quy hóa giúp không phù hợp với nhiễu, nó không làm được gì nhiều trong việc xác định hình dạng của tín hiệu. Nếu bạn nghĩ về việc học sâu như một hàm xấp xỉ hàm khổng lồ, thì bạn nhận ra rằng nó cần rất nhiều dữ liệu để xác định hình dạng của tín hiệu phức tạp.
Nếu không có nhiễu thì độ phức tạp tăng dần của NN sẽ tạo ra xấp xỉ tốt hơn. Sẽ không có bất kỳ hình phạt nào đối với quy mô của NN, lớn hơn sẽ tốt hơn trong mọi trường hợp. Hãy xem xét một xấp xỉ Taylor, nhiều thuật ngữ luôn luôn tốt hơn cho hàm không đa thức (bỏ qua các vấn đề chính xác về số).
Điều này bị phá vỡ khi có tiếng ồn, bởi vì bạn bắt đầu phù hợp với tiếng ồn. Vì vậy, ở đây có sự chính quy để trợ giúp: nó có thể giảm sự phù hợp với tiếng ồn, do đó cho phép chúng tôi xây dựng NN lớn hơn để phù hợp với các vấn đề phi tuyến.
Các cuộc thảo luận sau đây không cần thiết cho câu trả lời của tôi, nhưng tôi đã thêm một phần để trả lời một số ý kiến và thúc đẩy cơ thể chính của câu trả lời ở trên. Về cơ bản, phần còn lại của câu trả lời của tôi giống như lửa Pháp đi kèm với một bữa ăn burger, bạn có thể bỏ qua nó.
(Ir) Trường hợp liên quan: Hồi quy đa thức
Chúng ta hãy xem một ví dụ đồ chơi của hồi quy đa thức. Nó cũng là một xấp xỉ khá tốt cho nhiều chức năng. Chúng ta sẽ xem xét hàm trong vùng . Như bạn có thể thấy từ loạt Taylor của mình bên dưới, việc mở rộng đơn hàng thứ 7 đã khá phù hợp, vì vậy chúng ta có thể hy vọng rằng một đa thức của đơn hàng 7+ cũng phải phù hợp rất tốt:x ∈ ( - 3 , 3 )tội( x )x ∈ ( - 3 , 3 )
Tiếp theo, chúng tôi sẽ điều chỉnh các đa thức với thứ tự cao hơn dần dần thành một tập dữ liệu rất nhỏ với 7 quan sát:
Chúng ta có thể quan sát những gì chúng ta đã được nói về đa thức bởi nhiều người biết: chúng không ổn định và bắt đầu dao động dữ dội với sự gia tăng theo thứ tự đa thức.
Tuy nhiên, vấn đề không phải là đa thức. Vấn đề là tiếng ồn. Khi chúng ta điều chỉnh đa thức cho dữ liệu nhiễu, một phần của sự phù hợp là nhiễu, không phải tín hiệu. Đây là các đa thức chính xác tương tự phù hợp với cùng một tập dữ liệu nhưng đã loại bỏ hoàn toàn nhiễu. Sự phù hợp là tuyệt vời!
Lưu ý một sự phù hợp hoàn hảo về mặt trực quan cho đơn hàng 6. Điều này không có gì đáng ngạc nhiên vì 7 quan sát là tất cả những gì chúng ta cần để xác định duy nhất đa thức bậc 6, và chúng ta đã thấy từ biểu đồ xấp xỉ Taylor ở trên rằng lệnh 6 đã là một xấp xỉ rất tốt với trong phạm vi dữ liệu của chúng tôi.tội( x )
Cũng lưu ý rằng đa thức bậc cao không phù hợp cũng như bậc 6, vì không có đủ các quan sát để định nghĩa chúng. Vì vậy, hãy nhìn vào những gì xảy ra với 100 quan sát. Trên biểu đồ bên dưới, bạn thấy cách tập dữ liệu lớn hơn cho phép chúng tôi điều chỉnh các đa thức bậc cao hơn, do đó hoàn thành sự phù hợp tốt hơn!
Tuyệt vời, nhưng vấn đề là chúng ta thường xử lý dữ liệu ồn ào. Nhìn vào những gì xảy ra nếu bạn phù hợp với 100 quan sát dữ liệu rất ồn ào, xem biểu đồ dưới đây. Chúng ta trở lại hình vuông thứ nhất: đa thức bậc cao tạo ra sự dao động khủng khiếp. Vì vậy, việc tăng tập dữ liệu không giúp được gì nhiều trong việc tăng độ phức tạp của mô hình để giải thích rõ hơn về dữ liệu. Đây là, một lần nữa, bởi vì mô hình phức tạp phù hợp tốt hơn không chỉ với hình dạng của tín hiệu, mà cả hình dạng của nhiễu.
Cuối cùng, chúng ta hãy thử một số chính quy khập khiễng về vấn đề này. Biểu đồ dưới đây cho thấy chính quy hóa (với các hình phạt khác nhau) được áp dụng để đặt hàng hồi quy đa thức 9. So sánh điều này với thứ tự (sức mạnh) 9 phù hợp đa thức ở trên: ở mức độ chính quy phù hợp, có thể điều chỉnh các đa thức bậc cao hơn cho dữ liệu nhiễu.
Chỉ trong trường hợp không rõ ràng: Tôi không đề xuất sử dụng hồi quy đa thức theo cách này. Đa thức là tốt cho phù hợp với địa phương, vì vậy một đa thức khôn ngoan có thể là một lựa chọn tốt. Để phù hợp với toàn bộ miền với chúng thường là một ý tưởng tồi, bởi vì chúng nhạy cảm với tiếng ồn, thực sự, vì nó nên rõ ràng từ các lô ở trên. Cho dù tiếng ồn là số hoặc từ một số nguồn khác không quan trọng trong bối cảnh này. tiếng ồn là tiếng ồn và đa thức sẽ phản ứng với nó một cách say mê.