为了账号安全,请及时绑定邮箱和手机立即绑定

Spark内核分析之Spark的HA源码分析

标签:
Spark

  Spark作业运行的集群环境有两种,分别基于standalone模式和Yarn集群模式。我们知道Yarn集群提供了HA来保证了集群的高可用,而standalone也提供了一种集群高可用的方法,即通过配置可以实现双master机制,保证在一个master挂掉以后,另外一个master立即启用。spark的主备切换提供了两种模式,一种是基于文件系统的,另外一种是基于zookeeper的。下面我们来看看spark集群的master主备切换是怎么实现的,如下图所示;

webp

Master主备切换原理图

1.当active master挂掉以后,通知standby master启动,并使用持久化引擎对持久化数据进行读取;

2.持久化引擎将不为空的数据全部注册到master的内存缓冲中;

3.master向所有的Application,Worker发送自己的地址信息;

4.Application,Driver,Worker收到消息并返回一个消息告知master;

5.master一一接收到来自各个Application,worker,Driver的消息以后,开始过滤掉没有响应的节点信息,然后开始调用scheduler()方法,开始为相关进程分配资源;

通过以上原理的介绍,下面看看我们的源码具体是怎么实现的,

webp

webp

worker过滤具体实现

webp

application过滤实现

webp

Driver过滤实现

        关于持久化引擎的补充说明,在spark中引入了三种持久化引擎,分别是基于文件的持久化引擎,基于zookeeper的持久化引擎,BlackHolePersistenceEngine引擎;系统默认采用的是基于文件的持久化引擎,可以通过spark.deploy.recoveryMode参数配置具体采用那种持久化引擎,该参数的设置位置时spark-env.sh中。

设置为zookeeper的方式:

//spark.deploy.recoveryMode=ZOOKEEPER

//spark.deploy.zookeeper.url=192.168.1.100:2181,192.168.1.101:2181

// /spark是默认的,可以不写

//spark.deploy.zookeeper.dir=/spark

设置为基于文件系统的方式:

spark.deploy.recoveryMode=FILESYSTEM

spark.deploy.recoveryDirectory=/usr/local/src/spark/dataDir

总结:到这里基本上关于spark的HA的原理及实现分析就完了,后续关于其他组件的实现及源码不定期更新,欢迎关注。

如需转载,请注明:

上一篇:Spark内核分析之SparkContext初始化源码分析

本篇:Spark内核分析之Spark的HA源码分析

下一篇:Spark内核分析之Master的注册机制实现原理



作者:z小赵
链接:https://www.jianshu.com/p/3a4a8bfb700b


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
JAVA开发工程师
手记
粉丝
50
获赞与收藏
175

关注作者,订阅最新文章

阅读免费教程

  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消