为了账号安全,请及时绑定邮箱和手机立即绑定

如何在Apache Spark 2.0中使用SparkSession?

/ 猿问

如何在Apache Spark 2.0中使用SparkSession?

翻过高山走不出你 2018-10-17 15:11:57

如何在Apache Spark 2.0中使用SparkSession


查看完整描述

1 回答

?
慕桂英546537

TA贡献1672条经验 获得超13个赞

在Spark的早期版本,sparkContext是进入Spark的切入点。我们都知道RDD是Spark中重要的API,然而它的创建和操作得使用sparkContext提供的API;对于RDD之外的其他东西,我们需要使用其他的Context。比如对于流处理来说,我们得使用StreamingContext;对于SQL得使用sqlContext;而对于hive得使用HiveContext。

查看完整回答
反对 回复 2018-11-07
  • 1 回答
  • 0 关注
  • 522 浏览
我要回答
慕课专栏
更多

添加回答

回复

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信