Tôi biết rằng R không đặc biệt hữu ích cho việc phân tích các bộ dữ liệu lớn do R tải tất cả dữ liệu trong bộ nhớ trong khi một cái gì đó giống như SAS thực hiện phân tích tuần tự. Điều đó nói rằng, có các gói như bigmemory cho phép người dùng thực hiện phân tích dữ liệu lớn (phân tích thống kê) hiệu quả hơn trong R.
Tôi muốn biết, ngoài tất cả các thông tin lý thuyết, có ai đã sử dụng / đang sử dụng R để phân tích các bộ dữ liệu lớn trong môi trường doanh nghiệp và các vấn đề điển hình có thể phát sinh là gì. Bằng các bộ dữ liệu lớn, tôi đang đề cập đến các bộ dữ liệu có kích thước ~ 200 GB. Ngoài ra, bất kỳ suy nghĩ nào về các ví dụ thực tế về việc di chuyển từ SAS sang R trong các trường hợp sử dụng như vậy sẽ hữu ích.
ff
và bigmemory
. @Glen_b, bạn có nghĩ rằng R mới (với máy 64 bit) sẽ cạnh tranh với SAS (về kích thước bộ dữ liệu có thể)?