为了账号安全,请及时绑定邮箱和手机立即绑定

Spark算子:统计RDD分区中的元素及数量

标签:
Spark

Spark RDD是被分区的,在生成RDD时候,一般可以指定分区的数量,如果不指定分区数量,当RDD从集合创建时候,则默认为该程序所分配到的资源的CPU核数,如果是从HDFS文件创建,默认为文件的Block数。

具体看例子:

//创建一个RDD,默认分区15个,因为我的spark-shell指定了一共使用15个CPU资源//–total-executor-cores 15

rdd1 parititons

webp

//统计rdd1每个分区中元素数量

partition中元素数量

webp

//统计rdd1每个分区中有哪些元素

partition中元素

webp

//从HDFS文件创建的RDD,包含65个分区,因为该文件由65个Block

rdd2 partitions

webp

//rdd2每个分区的元素数量

partition中元素数量

webp



作者:ZyZhu
链接:https://www.jianshu.com/p/48d99cbfb824


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消