为了账号安全,请及时绑定邮箱和手机立即绑定

Spark菜鸟之路(1):Spark在Windows10下的环境配置

1)安装Scala 2.12.0(好像要2.11.0的,修改)

从https://www.scala-lang.org/download/all.html下载Scala相应版本


查看JAVA版本


两种下载

前者的IDE


还是选择msi吧。。。


装到固态上吧再见


cmd没Scala出来呀。。。

看看环境变量添加一下行不行


失败了。。。


哎呦重新进一回可以了!!!

2)Spark

来装Spark吧!!

http://spark.apache.org/downloads.html


这里用个适中的版本试一下(2.1.1)(用最新版了(2.3.0))

加个环境变量


跑一下从cmd


Hadoop


这里已经有winutils.exe了,没有的话去https://github.com/steveloughran/winutils 下一个,改下权限

[plain] view plain copy

  1. e:\hadoop\bin\winutils.exe chmod 777 /tmp/hive  

输入spark-shell,Emmmm,还有个Warn



原文出处

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消