为了账号安全,请及时绑定邮箱和手机立即绑定

spark的那些事(三) Structured streaming 窗口期内存数据的查询

标签:
Spark

之前的文章中提过,structured streaming处理流数据,如果使用聚合,将会有window的概念,对应属性watermark.不知你是否了解过druid,druid处理数据同样有窗口期的概念,用于判断数据何时丢弃.超时的数据将被直接丢弃.
druid的实现比较完善.不管是窗口期的内存数据还是固化到hdfa中的数据,都可以实时联合查询.而structured streaming目前尚未见到类似实现.前文提到它支持三种输出模式.complete.append和update.对于支持update的sink类型还好.若使用的sink类型,如elastatic search,不支持update呢?

试想一下,如果你的流数据每分钟聚合一次.允许延迟十分钟到达的数据有效.那么,对于仅支持append格式的es来说,从es查询到的数据将一直延迟十分钟.因为窗口期的数据存在发生变化的可能性.所以直到数据有效期结束才会被写入es.这样的查询延时当然难以被接受.

对于该问题,或许可以期待structured后续版本更新完善.现阶段,如果使用es等仅支持append模式的sink,
方案一:
可以考虑使用上文提到的foreach模式,首先将数据以update写入redis等内存数据库.再通过控制redis的数据过期来触发es写入.该方式的实现有可行性.略微复杂.需要自己写逻辑控制数据的过期和同步.查询的时候需要联合es进行查询.
方案二:
也可以考虑两个sink同时使用.一方面实时写入redis.且redis数据过期时间为十分钟.另一方面写入es.查询时联合两者查询.这种方式的缺陷是数据会被消费和处理两遍.增加资源消耗.

方案三:使用foreach update直接写入es.而不直接使用es官方提供的api.这种方式的缺点是增加es写入负担和硬盘资源消耗.同时.会有大量冗余数据进入es.查询时需做过滤.

方案四:
更直接的.如果可以.换掉es吧.使用kudu等列式存储.像上文所写存储redis的方式将数据写入kudu.该方式简单易行.需要关注的就是kudu的update性能.



作者:假文艺的真码农
链接:https://www.jianshu.com/p/9a11d9841899


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
JAVA开发工程师
手记
粉丝
205
获赞与收藏
1007

关注作者,订阅最新文章

阅读免费教程

  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消