为了账号安全,请及时绑定邮箱和手机立即绑定

spark submit的时候怎么导入自己写的依赖模块?

spark submit的时候怎么导入自己写的依赖模块?

收到一只叮咚 2018-10-13 18:26:30
python代码中的importfrom spark_learning.utils.default_utils import setDefaultEncoding,initSparkContext,ensureOffsetsubmit命令:bin/spark-submit --jars /home/jabo/software/spark-1.5.2-bin-hadoop2.6/lib/spark-streaming-kafka-assembly_2.10-1.5.2.jar\/home/jabo/spark-by-python/spark_learning/third_day/streaming_kafka_avg.py\ --py-files /home/jabo/spark-by-python/spark_learning/utils/default_utils.py官网解释:For Python applications, simply pass a .py file in the place of <application-jar> instead of a JAR, andadd Python .zip, .egg or .py files to the search path with --py-files.但是会报错,找不到import模块:Traceback (most recent call last):  File "/home/jabo/spark-by-python/spark_learning/third_day/streaming_kafka_avg.py", line 10, in <module>    import spark_learning.utils.default_utils ImportError: No module named spark_learning.utils.default_utils如何解决??
查看完整描述

2 回答

?
烙印99

TA贡献1829条经验 获得超13个赞

你可以试一下把--py-files 参数 放在你要运行脚本的前面哈!刚才我们也遇到这个问题 就是这样解决的!

查看完整回答
反对 回复 2018-10-27
  • 2 回答
  • 0 关注
  • 1532 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信