最赞回答 / 贝加尔湖畔v
c1和c2不是代表只有两个partition,可以把这两个当做输入的参数,类似于reduce函数。c1代表前几个partition已经累计计算到的值,c2代表新partition的值。
2018-03-11
最新回答 / qq_蜕变_33
不用吧,直接用“”把文件路径括起来就好了,像这样val rdd = sc.textFile("C:\\Users\\Desktop\\Test.txt")
2017-12-12
最赞回答 / Leco
内个需要自己添加 ... 也可以不使用SBT添加依赖jar,打开你spark安装目录下/spark-2.1.1/jars检索spark-core.jar这个名字就会找到对应的jar包将这个jar包导入到工程里就可以了
2017-09-30
最新回答 / mickeychen
用textFile加载本地文件时你试试这样写sc.textFile("/home/hadoop/2.txt")路径前面就别加 " file:// " 试试,我写的时候就没加,可以读取到本地文件
2017-08-29