为了账号安全,请及时绑定邮箱和手机立即绑定

3个案例:用Spark解决Map Reduce问题!

标签:
Spark

Spark是一个Apache项目,它被标榜为“快如闪电的集群计算”。它拥有一个繁荣的开源社区,并且是目前最活跃的Apache项目。

webp

Spark提供了一个更快、更通用的数据处理平台。和Hadoop相比,Spark可以让你的程序在内存中运行时速度提升100倍,或者在磁盘上运行时速度提升10倍。同时spark也让传统的mapreducejob开发变得更加简单快捷。之前我们大圣众包小编也为大家整理过Spark书单和方法,而本文将简单介绍几个经典hadoop的mr按理用spark实现,来让大家熟悉spark的开发。

最大值最小值

webp

求最大值最小值一直是Hadoop的经典案例,我们用Spark来实现一下,借此感受一下spark中mr的思想和实现方式。话不多说直接上code

预期结果:

max:1001min:2

思路和hadoop中的mr类似,设定一个key,value为需要求最大与最小值的集合,然后再groupBykey聚合在一起处理。第二个方法就更简单,性能也更好。

平均值问题

求每个key对应的平均值是常见的案例,在spark中处理类似问题常常会用到combineByKey这个函数,详细介绍请google一下用法,下面看代码:

webp

我们让每个partiton先求出单个partition内各个key对应的所有整数的和sum以及个数count,然后返回一个pair(sum,count)在shuffle后累加各个key对应的所有sum和count,再相除得到均值.

TopN问题

Topn问题同样也是hadoop种体现mr思想的经典案例,那么在spark中如何方便快捷的解决呢:

webp

思路很简单,把数据groupBykey以后按key形成分组然后取每个分组最大的2个。预期结果:

webp

以上简单介绍了一下hadoop中常见的3个案例在spark中的实现。如果读者们已经接触过或者写过一些hadoop的mapreducejob,那么会不会觉得在spark中写起来方便快捷很多呢。

原文地址:http://www.dashengzb.cn/articles/a-327.html



作者:大圣众包
链接:https://www.jianshu.com/p/5887ea2832e1


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消