为了账号安全,请及时绑定邮箱和手机立即绑定

spark-运行 jar 包

标签:
Spark

spark jar 本非方式运行

首先我们通过帮助命令来看spark 如何提交执行jar包
spark-submit --help


webp

image.png

spark-submit 详细参数说明

--master     master 的地址,提交任务到哪里执行,例如 spark://host:port,  yarn,  local--deploy-mode    在本地 (client) 启动 driver 或在 cluster 上启动,默认是 client
--class  应用程序的主类,仅针对 java 或 scala 应用
--name   应用程序的名称
--jars   用逗号分隔的本地 jar 包,设置后,这些 jar 将包含在 driver 和 executor 的 classpath 下
--packages   包含在driver 和executor 的 classpath 中的 jar 的 maven 坐标
--exclude-packages   为了避免冲突 而指定不包含的 package--repositories   远程 repository--conf PROP=VALUE   指定 spark 配置属性的值,例如 -conf spark.executor.extraJavaOptions="-XX:MaxPermSize=256m"--properties-file    加载的配置文件,默认为 conf/spark-defaults.conf
--driver-memory  Driver内存,默认 1G
--driver-java-options    传给 driver 的额外的 Java 选项
--driver-library-path    传给 driver 的额外的库路径
--driver-class-path  传给 driver 的额外的类路径
--driver-cores   Driver 的核数,默认是1。在 yarn 或者 standalone 下使用
--executor-memory    每个 executor 的内存,默认是1G--total-executor-cores   所有 executor 总共的核数。仅仅在 mesos 或者 standalone 下使用
--num-executors  启动的 executor 数量。默认为2。在 yarn 下使用
--executor-core  每个 executor 的核数。在yarn或者standalone下使用

通过帮助文档我们可以知道启动 spark java jar 包的命令如下

spark-submit --master local --name MyWordCount --class com.river.WordCountDemon ~/Downloads/spark-demon-1.0-SNAPSHOT.jar ~/hadoop/spark/wordcount/text.txt

文档内容

hello frank
hello lucy
do you know that I miss you so much
long long age I know you , you know me

看到结果

(long,2)
(you,4)
(that,1)
(do,1)
(I,2)
(know,3)
(hello,2)
(age,1)
(so,1)
(frank,1)
(,,1)
(lucy,1)
(much,1)
(miss,1)
(me,1)



作者:良人与我
链接:https://www.jianshu.com/p/5982b24b909d


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消