Tôi đang sử dụng Spark (1.5.1) từ máy tính xách tay IPython trên macbook pro. Sau khi cài đặt Spark và Anaconda, tôi khởi động IPython từ một thiết bị đầu cuối bằng cách thực thi : IPYTHON_OPTS="notebook" pyspark
. Điều này mở ra một trang web liệt kê tất cả các máy tính xách tay IPython của tôi. Tôi có thể chọn một trong số họ, mở nó trong một trang web thứ hai. SparkContext (sc) đã có sẵn và lệnh đầu tiên của tôi trong sổ ghi chép là help(sc)
chạy tốt. Vấn đề tôi gặp phải là tôi đang gặp lỗi không gian heap Java mà tôi không biết cách giải quyết. Làm cách nào để tôi xem cài đặt heap Java hiện tại của mình và làm cách nào để tăng nó trong bối cảnh thiết lập của tôi. Thông báo lỗi tôi nhận được sau:
Py4JJavaError: An error occurred while calling z:org.apache.spark.api.python.PythonRDD.collectAndServe.
: org.apache.spark.SparkException: Job aborted due to stage failure: Task 19 in stage 247.0 failed 1 times, most recent failure: Lost task 19.0 in stage 247.0 (TID 953, localhost): java.lang.OutOfMemoryError: Java heap space