在IPython Notebook使用Spark
程序员文章站
2022-05-27 23:26:01
...
在IPython Notebook使用Spark
PYSPARK_DRIVER_PYTHON=jupyter PYSPARK_DRIVER_PYTHON_OPTS="notebook" pyspark
IPython Notebook 运行在hadoop Yarn-client模式
start-all.sh
PYSPARK_DRIVER_PYTHON=jupyter PYSPARK_DRIVER_PYTHON_OPTS="notebook" HAHOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop MASTER=yarn-client pyspark
使用IPython Notebook在Spark Stand Alone模式运行
start-all.sh
/usr/local/spark/sbin/start-all.sh
PYSPARK_DRIVER_PYTHON=jupyter PYSPARK_DRIVER_PYTHON_OPTS="notebook" MASTER=spark://master:7077 pyspark --num-executors 1 --total-executor-cores 2 --executor-memory 512m
推荐阅读
-
在PyCharm下使用 ipython 交互式编程的方法
-
详解在Python和IPython中使用Docker
-
在 Spark SQL 和 Spark Structured Streaming 中使用 Pulsar
-
ModuleNotFoundError: No module named 'torch'(anaconda安装好Pytorch却无法在Jupyter notebook使用)
-
【解决方案】在Pycharm使用jupyter要求填写token【please enter your jupyter notebook url】
-
在Anaconda虚拟环境中使用jupyter notebook
-
在PyCharm环境中使用Jupyter Notebook的两种方法总结
-
Python 在 VSCode 中使用 IPython Kernel 的方法详解
-
Hanlp分词1.7版本在Spark中分布式使用记录
-
在ipython notebook中调用ggplot的三种不同的方法