欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

pyspark On Yarn 的模块依赖问题

程序员文章站 2022-04-29 10:54:02
...

创建自定义模块

dependency/mydata.py,这个模块被主函数依赖

data = range(100)

创建主程序

引入自定义模块,进行数据打印和和保存至HDFS

# -*- coding: utf-8 -*-
from pyspark import SparkContext
from dependency.mydata import data  # 自己写的模块

# 获取spark的上下文
sc = SparkContext()
sc.setLogLevel('WARN')

out = sc.parallelize(data)
print(out.collect())

# out是RDD格式需调用.toDF()转为spark.dataFrame格式
df = out.toDF()
df.show()

out.saveAsTextFile("hdfs://s0:8020/input/text")

自定义模块打压缩包

[aaa@qq.com ~]# cd /root
[aaa@qq.com ~]# cd dependency
[aaa@qq.com dependency]# ls
__init__.py  mydata.py
[aaa@qq.com dependency]# cd ../
[aaa@qq.com ~]# zip -r dep.zip dependency/
  adding: dependency/ (stored 0%)
  adding: dependency/mydata.py (stored 0%)
  adding: dependency/__init__.py (stored 0%)

pyspark On Yarn 的模块依赖问题
pyspark On Yarn 的模块依赖问题

执行命令

spark-submit --master yarn --deploy-mode cluster --py-files /root/dep.zip /root/Demo6.py

注:压缩文件必须是全路径,即使它在 PYTHONPATH 环境变量内,不写全路径也会报错 file do not exist

--py-files
它是 spark-submit 的参数,官方解释如下:
Comma-separated list of .zip, .egg, or .py files to place on the PYTHONPATH for Python apps.
用逗号分隔的 zip、egg、py 文件列表来代替 PYTHONPATH 环境变量

参照:https://www.cnblogs.com/yanshw/p/12083488.html