为了账号安全,请及时绑定邮箱和手机立即绑定

如何更改 spark master 的工作目录

如何更改 spark master 的工作目录

精慕HU 2023-02-12 19:14:10
我有一个 sparksession,我目前是这样创建的:spark = SparkSession.builder.master("local").appName("myapp").getOrCreate()我想设置 spark master 的工作目录。它目前正在使用 /tmp,我想使用其他东西。我注意到有一个 config(..) 选项,我可以做类似的事情吗:spark = SparkSession.builder.master("local").appName("myapp").config("option", "value").getOrCreate()是否有某处可用的选项列表?应该以不同的方式完成吗?
查看完整描述

2 回答

?
犯罪嫌疑人X

TA贡献2080条经验 获得超4个赞

您可以设置spark.local.dir为自定义文件夹或设置环境变量SPARK_LOCAL_DIRS。默认情况下,它使用/tmp

更多细节在这里https://spark.apache.org/docs/2.1.0/configuration.html#application-properties


查看完整回答
反对 回复 2023-02-12
?
临摹微笑

TA贡献1982条经验 获得超2个赞

我刚刚发现我可以设置环境变量SPARK_LOCAL_DIRS来做到这一点,但如果我能以编程方式做到这一点,我会更喜欢它。



查看完整回答
反对 回复 2023-02-12
  • 2 回答
  • 0 关注
  • 166 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号