为了账号安全,请及时绑定邮箱和手机立即绑定

spark-submit yarn错误解决

标签:
Spark

Spark 集群提交模式

Spark一般常用三种提交模式,local、独立集群、yarn

1.提交配置优先级

应用里面set的优先级>spark_submit
参考:http://blog.csdn.net/xiaolang85/article/details/51364259

2.独立集群

(前提是应用程序里没有配置setMaster或者将该值设置为master)
Spark-submit --mater spark://master:7077  XXX
打开master:4040查看environment

webp


Spark.master即为独立集群模式

3.yarn模式

提交方式:
Spark-submit --mater yarn  XXX


webp


各种报错,
第一个错误:
Yarn application has already ended! It might have been killed or unable to launch application master
解决:
检查配置文件,在spark-env.sh中要配置SPARK_HOME和 YARN_CONF_DIR

export SPARK_HOME=$HOME/spark
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop

第 二个错误:
Failed to send RPC
原因: the Java 8 excessive memory allocation issue:
解决:在yarn-site.xml添加

<property>
<name>yarn.nodemanager.pmem-check-enabled</name>
<value>false</value>
</property>

<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>



作者:玄月府的小妖在debug
链接:https://www.jianshu.com/p/409f77977376


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消