Khi xem xét mô hình dự đoán ứng dụng của ứng dụng ", một nhà phê bình tuyên bố :
Một bài phê bình tôi có về sư phạm học thống kê (SL) là không có sự cân nhắc hiệu suất tính toán trong việc đánh giá các kỹ thuật mô hình khác nhau. Với những điểm nhấn của nó về bootstrapping và xác thực chéo để điều chỉnh / kiểm tra các mô hình, SL khá chuyên sâu. Thêm vào đó, việc lấy mẫu lại được nhúng trong các kỹ thuật như đóng gói và tăng cường, và bạn có bóng ma của địa ngục tính toán để học có giám sát các tập dữ liệu lớn. Trên thực tế, các ràng buộc về bộ nhớ của R áp đặt các giới hạn khá nghiêm trọng đối với kích thước của các mô hình có thể phù hợp bằng các phương pháp hoạt động hàng đầu như các khu rừng ngẫu nhiên. Mặc dù SL thực hiện tốt công việc hiệu chỉnh mô hình đối với các tập dữ liệu nhỏ, nhưng chắc chắn sẽ rất tốt nếu hiểu hiệu suất so với chi phí tính toán cho dữ liệu lớn hơn.
Các hạn chế về bộ nhớ của R là gì và chúng có áp đặt các giới hạn nghiêm trọng đối với kích thước của các mô hình có thể phù hợp với các phương pháp hoạt động hàng đầu như các khu rừng ngẫu nhiên không?