为了账号安全,请及时绑定邮箱和手机立即绑定

2018-11-21-Flink(2)——apache flink 介绍

标签:
Flink

本文转自个人微信公众号,原文链接

Apache Flink is a framework and distributed processing engine for stateful computations over unbounded and bounded data streams. Flink has been designed to run in all common cluster environments, perform computations at in-memory speed and at any scale.

1 概念

1.1 Bounded Streams VS Unbounded Streams & 批处理 VS 流处理

Bounded Streams 可以理解为有开始也有结束的数据流,处理这类数据流可以等所有数据都到了再处理,也就是常说的批处理

Unbounded Streams 可以理解为有开始没有结束的数据流,这类数据流持续产生数据,所以,也要持续的进行处理而不能等数据流结束再处理,也就是常说的流处理

Apache Flink 既能处理Bounded Streams 也擅长处理Unbounded Streams,既能做批处理也能做流处理。

1.2 部署方式

Apache Flink 是一个分布式系统,需要资源以运行其它应用,Apache Flink 支持常见的资源管理器,包括Yarn、 Mesos、K8S,也可以以Stand-Alone Cluster的方式运行。

1.3. Runtime

webp

Apache Flink Runtime 是一个典型的master-slave架构, 包括Jobmanagers 和 Taskmanagers 两部分:

Jobmanagers (masters):协调分布式执行,包括调度任务、协调checkpoints、从失败恢复等。一般至少需要一个Jobmanager,在HA环境下,需要有多个Jobmanagers,其中有一个作为leader,其他的standby。

taskmanagers (workers):执行具体的任务,buffer和传递数据流。

另外,Clients 不是Apache Flink Runtime的一部分,但常用于准备和提交Job到 Jobmanager。

1.4 编程模型

1.4.1 抽象

webp

Apache Flink 提供了不同的抽象级别以开发Flink 应用。

Stateful Streaming:抽象级别最低,给应用开发者提供了最大的自由度,实际开发中很少使用。

DataStream / DataSet API: 这是Flink 提供的核心APIs,DataStream API 用于Unbounded Stream Data,DataSet API 用于Boundesd Stream Data,用于使用各种方法对数据进行计算处理,如map等。

Table API:以为核心的的声明式DSL,该表可以是动态变化的表,该层API提供了诸如Select、Join、Group-by、Aggregate之类的操作,更加简洁。另外,用户可以在Table API和Dataset/Datastream API 之间无缝切换甚至混用。

SQL:跟Table API相似,只不过是以SQL的方式进行描述。

1.4.2 程序与Dataflows

webp

Apache Flink 程序一般包括data streams和 transformations 两部分,其中,data streams 是数据流,transformations 是操作数据流的算子,以一个或多个数据流为输入,输出一个或多个数据流。

当Apache Flink 程序运行时,Flink 程序可以理解为包含streams 和 transformation operators 的streaming dataflow,每个dataflow 以一个或多个sources开始并以一个或多个sinks 结束,这个dataflow 类似于DAGs(directed acyclic graphs)。(有没有一种熟悉的感觉,比如Spark、Flume…)

Sources:数据源,常见的如kafka。

Transformations:数据转换,可以理解为对数据的操作。

Sinks:接收器,Flink 转换后将数据发送到的地方。

1.4.3 其它重要概念

1.4.3.1 Time

在流计算中,Time包括三种:

Ingestion Time:数据记录进入Flink Data Source的时间。

Processing Time:Flink Operator进行time-based 操作的本地时间。

Event Time:数据的时间,一般有业务意义。

Apache 可以支持这三种Time,每种Time都有特定的用途,后序文章会详细进行说明。

webp

1.4.3.2 Window

不同于批计算,流计算的计算一般是针对一个窗口的数据的计算,比如“统计过去5分钟的记录数”、“过去100个数据的平均值”等。

窗口包括按时间进行划分的和按数据进行划分的,典型的包括 tumbling windows、 sliding windowssession windows,每种窗口应用于不同的场景。

1.4.3.3 State

有些操作只需要知道当前数据记录即可,还有些操作需要其它数据记录,我们称这种操作是stateful operations,比如要计算Sum、Avg等,这些值是需要存储的,因为会不断变化,这些值就可以理解为 state

Apache Flink 提供了内置的状态管理,这也是Flink 区别于其它流计算引擎的最主要的区别。

1.4.3.4 Checkpoint

Apache Flink的checkpoints 可以理解为输入数据流在某一点以及所有operators对应的state,Apache Flink 基于checkpoints 和 stream replay 实现容错,并基于此实现数据一致性(exactly-once)。

2 Why Flink

上面主要介绍Flink 中的核心概念,总结下为什么选择Flink:

Apache Flink 是一个低延迟、高吞吐、统一的大数据计算引擎。

支持状态管理,提供有状态的计算。

提供准确的结果,即使出现数据乱序或数据延迟。Flink 程序符合自然规律,如多种窗口、event time等能满足正确性的要求,而且,基于checkpoint 和replay 提供故障恢复,支持 Exactly-Once 语义,保障正确性。

支持Yarn / Mesos / K8S等多种资源管理器,可以方便扩展。

是一个批流统一的平台,在未来,批流融合是一大趋势。

Flink SQL 降低了使用门槛,便于推广。

下篇文章,开始编写第一个Flink 程序。



作者:此星爷非彼星爷
链接:https://www.jianshu.com/p/b50c6bdd98bb


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消