浅析大数据技术之Flink

随着大数据时代的发展,海量数据和多种业务的实时处理需求激增,比如:实时监控报警系统、实时风控系统、实时推荐系统等,传统的批处理方式和早期的流式处理框架因其自身的局限性,难以在延迟性、吞吐量、容错能力以及使用便捷性等方面满足业务日益苛刻的要求。
在过去的几年里,从storm到后面spark的异军突起,面向数据时代的实时计算技术出现了很多。flink自2019年初开源以来,以其独特的天然流式计算特性和更为先进的架构设计,极大地改善了以前的流式处理框架所存在的问题,迅速成为大数据实时计算领域炙手可热的技术框架,以及未来技术重要的发力点。
01 flink简介
【什么是flink】
flink 是一个框架和分布式处理引擎,用于在无边界和有边界数据流上进行有状态的计算。flink能在所有常见集群环境中运行,并能以内存速度和任意规模进行计算。使用官网的语句来介绍, flink 就是 “stateful computations over data streams”。对于这句话,我们该怎么理解呢。
首先,flink是一个纯流式的计算引擎,它的基本数据模型是数据流。流可以是无边界的无限流,即一般意义上的流处理。也可以是有边界的有限流,也就是批处理。因此 flink 用一套架构同时支持了流处理和批处理。其次,flink支持有状态的计算,稍微复杂一点的数据处理,比如说基本的聚合,数据流之间的关联都是有状态处理。
更直观的讲,对 flink ⽽⾔,其所要处理的主要场景就是流数据,批数据只是流数据的⼀个极限特例⽽已,所以 flink 是⼀款真正的流批统⼀的计算引擎。
【无界和有界数据】
**任何类型的数据都可以形成一种事件流。信用卡交易、传感器测量、机器日志、网站或移动应用程序上的用户交互记录,所有这些数据都形成一种流。数据可以被作为无界或者有界流来处理。 **
无界流 :有定义流的开始,但没有定义流的结束。它们会无休止地产生数据。无界流的数据必须持续处理,即数据被摄取后需要立刻处理。我们不能等到所有数据都到达再处理,因为输入是无限的,在任何时候输入都不会完成。处理无界数据通常要求以特定顺序摄取事件,例如事件发生的顺序,以便能够推断结果的完整性。
有界流: 有定义流的开始,也有定义流的结束。有界流可以在摄取所有数据后再进行计算。有界流所有数据可以被排序,所以并不需要有序摄取。有界流处理通常被称为批处理。
批处理:有界数据**
流处理:无界数据
flink 擅长处理无界和有界数据集。精确的时间控制和状态化使得 flink能够运行任何处理无界流的应用。有界流则由一些特殊设计的算法和数据结构进行内部处理,也产生了出色的性能。
【有状态计算】**
**有状态的计算:每次进行数据计算的时候基于之前数据的计算结果(状态)做计算,并且每次计算结果都会保存到存储介质中,计算关联上下文context 基于有状态的计算不需要将历史数据重新计算,提高了计算效率。
无状态的计算:每次进行数据计算只是考虑当前数据,不会使用之前数据的计算结果。**
【flink 基石】
目前比较一致的观点是,flink之所以能备受欢迎,离不开它最重要的四个基石:checkpoint、state、time、window。**
首先是checkpoint机制,这是 flink 最重要的一个特性。flink实现了分布式一致性的快照,从而提供了 exactly-once 的语义。在 flink 之前的流计算系统都没有很好地解决这一问题。
每一个具有一定复杂度的流处理应用都是有状态的。提供了一致性的语义之后,flink 为了让用户在编程时能够更轻松、更容易地去管理状态,引入了托管状态(managed state)并提供了 api 接口,让用户使用起来感觉就像在用java 的集合类一样。
流处理的一个重要方面是应用程序如何衡量时间,即区分事件时间和处理时间。flink 实现了 watermark 的机制,解决了基于事件时间处理时的数据乱序和数据迟到的问题。
最后,流计算中的计算一般都会基于窗口来计算,所以 flink 提供了一套开箱即用的窗口操作,包括滚动窗口、滑动窗口、会话窗口,还支持非常灵活的自定义窗口以满足特殊业务的需求。
02 flink核心架构
flink 采用分层的架构设计,从而保证各层在功能和职责上的清晰。如图所示,自上而下分别是 api & libraries 层、runtime 核心层以及物理部署层:
【api & libraries 层】这一层主要提供了编程api和顶层类库:
编程 api : 用于进行流处理的 datastream api 和用于进行批处理的 dataset api。
顶层类库:包括用于复杂事件处理的库,用于结构化数据查询的 sql & table 库,以及基于批处理的机器学习库和图形处理库。
【runtime 核心层】这一层是 flink 分布式计算框架的核心实现层,包括作业转换,任务调度,资源分配,任务执行等功能,基于这一层的实现,可以在流式引擎下同时运行流处理程序和批处理程序。
【 物理部署层】flink的物理部署层,用于支持在不同平台上部署应用。flink 不仅可以运行在包括 yarn、kubernetes 在内的多种资源管理框架上,还支持在裸机集群上独立部署。在启用高可用选项的情况下,它不存在单点失效问题。事实证明,flink 已经可以扩展到数千核心,其状态可以达到 tb 级别,且仍能保持高吞吐、低延迟的特性。
03 flink分层api
在上面介绍的 api & libraries 这一层,flink 又进行了更为具体的划分。
按照如图所示的层次结构,api 的一致性由下至上依次递增,接口的表现能力由下至上依次递减,各层的核心功能如下:
【sql & table api】flink 提供的最高层级的抽象是 sql 。
flink 支持两种关系型的 api,table api 和 sql。这两个 api 都是批处理和流处理统一的 api,意味着在无边界的实时数据流和有边界的历史记录数据流上,关系型 api 会以相同的语义执行查询,并产生相同的结果。支持用户自定义的标量函数,聚合函数以及表值函数,可以满足多样化的查询需求。
【datastream api】datastream & dataset api 是 flink 数据处理的核心 api,支持使用java或scala语言进行调用,提供了数据读取,数据转换和数据输出等一系列常用操作的封装。
datastream api 为许多通用的流处理操作提供了处理原语。这些操作包括窗口、逐条记录的转换操作,在处理事件时进行外部数据库查询等,并预先定义了例如map()、reduce()、aggregate()等函数。你可以通过扩展实现预定义接口或使用lambda 表达式实现自定义的函数。
【processfunction】processfunction 是 flink 所提供的最具表达力的接口,可以处理一或两条输入数据流中的单个事件,或者归入一个特定窗口内的多个事件。它提供了对于时间和状态的细粒度控制。开发者可以在其中任意地修改状态, 实现许多有状态的事件驱动应用所需要的、基于单个事件的复杂业务逻辑。
04 flink核心组件
flink 核心架构的第二层是 runtime 层,该层包含了两个重要角色,分别是jobmanager和taskmanager,是一个典型的master-slave架构。jobmanager相当于是master,taskmanager相当于是slave。它们的功能分别如下:
(一)jobmanager(jvm进程)
负责整个集群的资源管理与任务调度,在一个集群中只能有一个正在工作(active)的 jobmanager,如果ha集群,那么其他jobmanager是standby状态。
(1)资源管理。集群启动,taskmanager会将当前节点的资源信息注册给jobmanager,所有taskmanager全部注册完毕,集群启动成功,此时jobmanager会根据集群中的资源情况,为当前的application分配taskslot资源。
(2)任务调度。分发task到taskslot中运行,job执行过程中,jobmanager会根据设置的策略触发checkpoint,任务执行完毕,jobmanager会将job执行的信息反馈给client,并且释放资源。
(二)taskmanager(jvm进程)
(1)负责当前节点上的任务运行及资源管理,taskmanager资源通过taskslot进行了划分,每个taskslot代表的是一份固定资源。例如,具有三个slots 的taskmanager会将其管理的内存资源分成三等份给每个 slot。
(2)负责taskmanager之间的数据交换。
05 flink应用场景
世界各地有很多要求严苛的流处理应用都运行在 flink 之上。接下来我们介绍常见的几类应用,分别是:事件驱动型应用,数据分析应用以及数据管道应用。
【事件驱动型应用】事件驱动型应用是一类具有状态的应用,它从一个或多个事件流提取数据,并根据到来的事件触发计算、状态更新或其它外部动作。
在传统架构中,应用需要读写远程事务型数据库。相反,事件驱动型应用是在计算存储分离的传统应用基础上进化而来,是基于状态化流处理来完成。在该设计中,数据和计算不会分离,应用只需访问本地(内存或磁盘)即可获取数据。系统容错性的实现依赖于定期向远程持久化存储写入checkpoint。下图描述了传统应用和事件驱动型应用架构的区别。
事件驱动型应用无须查询远程数据库,本地数据访问使得它具有更高的吞吐和更低的延迟。典型的应用实例:反欺诈,异常检测,基于规则的报警以及业务流程监控等。
【数据分析应用】数据分析任务需要从原始数据中提取有价值的信息和指标。传统的分析方式通常是利用批查询,或将事件记录下来并基于此构建应用来完成。为了得到最新数据的分析结果,必须先将它们加入分析数据集并重新执行查询或运行应用,随后将结果写入存储系统。
借助一些先进的流处理引擎,还可以实时地进行数据分析。和传统模式下读取有限数据集不同,流式查询会接入实时事件流,并随着事件消费持续产生和更新结果。这些结果数据可能会写入外部数据库系统或以内部状态的形式维护。
如图所示,flink为持续流式分析和批量分析都提供了良好的支持。具体而言,它内置的 sql 接口,将批、流查询的语义统一起来。无论是在记录事件的静态数据集上还是实时事件流上,相同 sql 查询都会得到一致的结果。典型的应用实例:电信网络质量监控,移动应用中的产品更新及实验评估分析,消费者技术中的实时数据即席分析以及大规模图分析等。
【数据管道应用】提取-转换-加载(etl)是一种在存储系统之间进行数据转换和迁移的常用方法。etl 作业通常会周期性地触发,将数据从事务型数据库拷贝到分析型数据库或数据仓库。
数据管道和 etl 作业的用途相似,都可以转换、丰富数据,并将其从某个存储系统移动到另一个。但数据管道是以持续流模式运行,而非周期性触发。因此它支持从一个不断生成数据的源头读取记录,并将它们以低延迟移动到终点。例如:数据管道可以用来监控文件系统目录中的新文件,并将其数据写入事件日志;另一个应用可能会将事件流物化到数据库或增量构建和优化查询索引。
和周期性 etl 作业相比,持续数据管道可以明显降低将数据移动到目的端的延迟。此外,由于它能够持续消费和发送数据,因此用途更广,支持用例更多。很多常见的数据转换和增强操作可以利用 flink 的接口及用户自定义函数解决。典型的应用实例:电子商务中的实时查询索引构建以及电子商务中的持续etl等。
06 flink优点及挑战
【flink 的优点】
基于上面的介绍,总结一下 flink 的优点:
1)flink 是基于事件驱动 (event-driven) 的应用,能够同时支持流处理和批处理,结合watermark处理乱序数据;
2)同时支持高吞吐、低延迟、高性能;
3)基于内存的计算,能够保证高吞吐和低延迟,具有优越的性能表现;
4)支持精确一次 (exactly-once) 语意,能够完美地保证一致性和正确性;
5)支持有状态计算,并且可以将状态存在内存或者 rocksdb;
6)分层 api ,能够满足各个层次的开发需求;
7)支持高可用配置,支持保存点机制,能够提供安全性和稳定性上的保证;
8)多样化的部署方式,支持本地,远端,云端等多种部署方案;
9)具有横向扩展架构,能够按照用户的需求进行动态扩容;
10)活跃度极高的社区和完善的生态圈的支持。
**【flink面临的挑战】**flink目前流计算的模型已经相对比较成熟和领先,也经历了各个公司大规模生产的验证,属于大数据生态里的计算环节,只做计算,不做存储。但是在实际工作当中,你会发现往往单独用flink是不够的。比如你的数据是从哪里读出来,计算完之后数据又将存到哪里,又怎么消费这些数据,如何利用flink来完成某个垂直领域的特殊任务等等。
**与此同时,如果要用flink要做其他一些场景(比如机器学习,交互式分析)就会比较复杂,用户体验上还有很大的提升空间。这些涉及到上下游,需要一个强大的生态圈来完成。这也正是flink生态所面临的挑战。

Excel只是一个技能精通数据分析信息
如何确定4-20mA环路负载
魅族MX7什么时候上市?魅族MX7最新消息:魅族MX7除了价格,你还有什么想知道?
物联网技术将会成为未来科技发展的必然趋势
小康助手怎么看中医?省时省力还省钱的家庭健康机器人
浅析大数据技术之Flink
线性直流电源的操作注意事项
如何区别碳锌电池和碱性电池?
促使EDA行业高速增长的原因分析
VOC监测仪的功能特点有哪些
亚马逊公司已经开始通过云计算模式,向美国警方提供人脸识别服务
过程测量仪表实验(热电偶测温实验)
OPPO Reno3 Pro月夜黑高清图集
AMD Threadripper 3990X深度评测
华为P9和mate9在泰国获奖 华为P10确认采用曲面屏
电源斩波调光控制可提高LED驱动器效率并将浪涌电流降至最低
废旧电子拆解企业生存困境:正规军不敌小商贩
数字化浪潮在全球范围持续演进 施耐德制造业逐渐向智能制造方向转型
35家美企联名请求解禁华为
阜时科技成功开发出一款适用于普通TFT-LCD显示面板的屏下指纹方案
s