Tôi có một mạng nơ ron (lớp đơn chuyển tiếp) mà tôi cố gắng dự đoán một biến liên quan đến môi trường từ hai biến tài chính (hồi quy). Tôi sử dụng chức năng "tàu" từ gói caret.
Tôi sử dụng nnet()
thuật toán trong gói caret. Tôi có hai dự đoán liên tục và 420 điểm dữ liệu.
Để hiểu lý thuyết, tôi cố gắng phù hợp với mô hình của tôi; theo hiểu biết của tôi, điều này thường sẽ hoạt động với mọi tập dữ liệu, ví dụ như bei tăng "kích thước" (tức là số lượng đơn vị ẩn). Tuy nhiên, việc tăng quy mô của các đơn vị ẩn quyết liệt không dẫn đến tình trạng thừa.
Vì vậy, có sai không khi cho rằng bạn có thể điều chỉnh quá mức mọi mạng lưới thần kinh bằng cách tăng "kích thước"? Thay vào đó, biến nào khác có thể dẫn đến quá mức?
grid <- expand.grid(size = 20
)
control <- trainControl(method = "cv",
number = 10,
verboseIter = TRUE
)
fit <- train(x=train_parametres, y=train_result,
method = "mlp",
metric = "Rsquared",
learnFunc = "Std_Backpropagation",
learnFuncParams = c(0.2, 0.0),
maxit = 1000,
trControl = control,
tuneGrid = grid,
preProcess = c("center", "scale"),
linout = T,
verbose = T,
allowParallel = T
)