前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >超级大佬用4500字带你彻底吃透开源流计算框架之ApacheFlink

超级大佬用4500字带你彻底吃透开源流计算框架之ApacheFlink

作者头像
IT大咖说
发布2024-04-24 16:02:30
1360
发布2024-04-24 16:02:30
举报
文章被收录于专栏:IT大咖说
◆Apache Flink

随着流计算领域的不断发展,关于流计算的理论和模型逐渐清晰和完善。Flink是这些流计算领域最新理论和模型的优秀实践。相比Spark在批处理领域的流行,Apache Flink(简称Flink)可以说是目前流计算领域最耀眼的新贵了。Flink是一个分布式流处理和批处理平台,相比Spark偏向于批处理,Flink的核心是流计算引擎。

◆系统架构

Flink的系统架构如图6-7所示。Flink是一个主从(master/worker)架构的分布式系统。主节点负责调度流计算作业,管理和监控任务执行。当主节点从客户端接收到与作业相关的Jar包和资源后,便对其进行分析和优化,生成执行计划,即需要执行的任务,然后将相关的任务分配给各个从节点,由从节点负责任务的具体执行。

Flink可以部署在诸如YARN、Mesos和Kubernetes等分布式资源管理器上,其整体架构与Storm、Spark Streaming等分布式流计算框架类似。

与这些流计算框架不同的是,Flink明确地把状态管理(尤其是流信息状态管理)纳入其系统架构中了。

图6-7 Flink的系统架构

在Flink节点执行任务的过程中,可以将状态保存到本地,然后通过checkpoint机制,再配合诸如HDFS、S3和NFS这样的分布式文件系统,Flink在不降低性能的同时实现了状态的分布式管理。

◆流的描述

在Flink中,DataStream用来描述数据流。DataStream在Flink中扮演的角色犹如Spark中的RDD。值得一提的是,Flink也支持批处理DataSet的概念,DataSet内部同样由DataStream构成。在Flink中,这种将批处理视为流处理特殊情况的做法与Spar.Streaming中将流处理视为连续批处理的做法截然相反。

Flink的数据输入(Source)、处理(Transformation)和输出(Sink)均与DataStream有关。

·Source:用于描述Flink流数据的输入源,输入的流数据表示为DataStream。Flink的Source可以是消息中间件、数据库、文件系统或其他各种数据源。

·Transformation:将一个或多个DataStream转化为一个新的DataStream,是Flink实施流处理逻辑的地方。目前,Flink提供Map、FlatMap、Filter、KeyBy、Reduce、Fold、Aggregations、Window、Union、Join、Split、Select和Iterate等类型的Trans-formation。

·Sink:Flink将DataStream输出到外部系统的地方,如写入控制台、数据库、文件系统或消息中间件等。

◆流的执行

我们从流的输入、流的处理、流的输出和反向压力4个方面来讨论Flink中流的执行过程。

1.流的输入

Flink使用 StreamExecutionEnvironment.addSource设置流的数据源Source。为了使用方便,Flink在StreamExecutionEnvironment.addSource的基础上提供了一些内置的数据源实现。

StreamExecutionEnvironment提供的输入方式主要包含以下4类。

·基于文件的输入:从文件中读入数据作为流数据源,如readTextFile和readFile等。

·基于套结字的输入:从TCP套接字中读入数据作为流数据源,如socketTextStream等。

·基于集合的输入:用集合作为流数据源,如fromCollection、fromElements、fromParallelCollection和generateSequence等。

·自定义输入: StreamExecutionEnvironment.addSource是通用的流数据源生成方法,用户可以在其基础上开发自己的流数据源。一些第三方数据源,如flink-connector-kafka中的FlinkKafkaConsumer08就是针对Kafka消息中间件开发的流数据源。

Flink将从数据源读出的数据流表示为DataStream。下面的示例演示了从TCP连接中构建文本数据输入流的过程。

final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); DataStream<String> text = env.socketTextStream("localhost", 9999, "\n");

2.流的处理

Flink对流的处理是通过DataStream的各种转化操作完成的。相比Spark中DStream的转化操作混淆了流数据状态管理和流信息状态管理,Flink的设计思路更加清晰,明确地将流信息状态管理从流数据状态管理中分离出去。

DataStream的转换操作只包含两类操作,一类是常规的流式处理操作,如map、filter、reduce、count、transform等。另一类是流数据状态相关的操作,如union、join、cogroup、window等。这两类操作都是针对流本身的处理和管理。从设计模式中单一职责原则的角度来看,Flink关于流的设计显然更胜一筹。

下面是一个对DataStream进行转化操作的例子。 DataStream<WordWithCount> windowCounts = text .flatMap(new FlatMapFunction<String, WordWithCount>() { @Override public void flatMap(String value, Collector<WordWithCount> out) { for (String word : value.split("\\s")) { out.collect(new WordWithCount(word, 1L)); } } }) .keyBy("word") .timeWindow(Time.seconds(5), Time.seconds(1)) .reduce(new ReduceFunction<WordWithCount>() { @Override public WordWithCount reduce(WordWithCount a, WordWithCount b) { return new WordWithCount(a.word, a.count + b.count); } });

在上面的例子中,先将从socket中读出文本流lines,对每行文本分词后,用flatMap转化为单词计数元组流pairs;然后用keyBy对计数元组流pairs从分组第一个元素(即word)开始进行分组,形成分组的计数元组流keyedPairs;最后用timeWindow以5秒为时间窗口对分组后的流进行划分,并在窗口上进行sum聚合计算,最终得到wordCounts,即每5秒各个单词出现的次数。

3.流的输出

Flink使用DataStream.addSink设置数据流的输出方法。另外,Flink在DataStream.addSource的基础上提供了一些内置的数据流输出实现。DataStream提供的输出API主要包含以下4类。

·输出到文件系统:将流数据输出到文件系统,如writeAsText、writeAsCsv和write-UsingOutputFormat。

·输出到控制台:将数据流输出到控制台,如print和printToErr。

·输出到套接字:将数据流输出到TCP套接字,如writeToSocket。

·自定义输出:DataStream.addSink是最通用的流数据输出方法,用户可以在其基础上开发自己的流数据输出方法。例如,flinkconnector-kafka中的FlinkKafkaProducer011就是针对Kafka消息中间件开发的流输出方法。

下面的示例演示了将DataStream表示的流数据输出到控制台的过程。

windowCounts.print().setParallelism(1);

4.反向压力

Flink对反向压力的支持非常好,不仅实现了反向压力功能,而且直接内置了反向压力的监控功能。Flink采用有限容量的分布式阻塞队列来进行数据传递,当下游任务从消费队列读取消息的速度过慢时,上游任务往队列中写入消息的速度就非常自然地减慢了。这种反向压力的实现思路和使用JDK自带的BlockingQueue实现反向压力的方法基本一致。

值得一提的是,与Storm和Spar.Streaming需要明确打开启动开关才能使用反向压力功能不一样的是,Flink的反向压力功能是其数据传送方案自带的,不需特别再去实现,使用时也无须特别打开启动开关。

◆流的状态

Flink是第一个明确地将流信息状态管理从流数据状态管理剥离出来的流计算框架。大多数流计算框架要么没有流信息状态管理,要么实现的流信息状态管理非常有限,要么流信息状态管理混淆在了流数据状态管理中,使用起来并不方便和明晰。

在流数据状态方面,Flink有关流数据状态的管理都集中在DataStream的转化操作上。这是非常合理的,因为流数据状态管理本身属于流转化和管理的一部分。例如,流按窗口分块处理、多流的合并、事件乱序处理等功能的实现虽然也涉及数据缓存和有状态操作,但这些功能原本就应该由流计算引擎来处理。

在DataStream中,与窗口管理相关的API包括Window和WindowAll。其中,Window针对的是KeyedStream,而WindowAll针对的是非KeyedStream。在窗口之内,则提供了一系列窗口聚合计算的方法,如Reduce、Fold、Sum、Min、Max和Apply等。DataStream提供了一系列有关流与流之间计算的操作,如Union、Join、CoGroup和Connect等。

另外,DataStream还提供了非常有特色的KeyedStream。

KeyedStream是指将流按照指定的键值,在逻辑上分成多个独立的流。

在计算时,这些逻辑流的状态彼此独立、互不影响,但是在物理上这些独立的流可能合并在同一条物理的数据流中。因此,在KeyedStream具体实现时,Flink会在处理每个消息前将当前运行时上下文切换到键值所指定流的上下文,就像线程栈的切换那样,这样优雅地避免了不同逻辑流在运算时的相互干扰。

在流信息状态方面,Flink对流信息状态管理的支持,是其相比当前其他流计算框架更显优势的地方。Flink在DataStream之外提供了独立的状态管理接口。可以说,实现流信息状态管理,并将其从流本身的管理中分离出来,是Flink在洞悉流计算本质后的明智之举。因为,如果DataStream是对数据在时间维度的管理,那么状态接口其实是在空间维度对数据的管理。Flink之前的流数据框架对这两个概念的区分可以说并不是非常明确,这也导致它们关于状态的设计不是非常完善,甚至根本没有。

在Flink中,状态接口有两种类型:Keyed State和OperatorState。它们既可以用于流信息状态管理,也可以用于流数据状态管理。

1.Keyed State

Keyed State与KeyedStream相关。KeyedStream是对流按照key值做出的逻辑划分。每个逻辑流都有自己的上下文,就像每个线程都有自己的线程栈一样。当我们需要在逻辑流中记录一些状态信息时,就可以使用Keyed State。例如要实现“统计不同IP上出现的不同设备数”的功能,就可以将流按照IP分成KeyedStream,这样来自不同IP的设备事件会分发到不同IP独有的逻辑流中。然后在逻辑流处理过程中,使用KeyedState来记录不同设备数。如此一来,就非常方便地实现了“统计不同IP上出现的不同设备数”的功能。

2.Operator State

Operator State与算子有关。其实与Keyed State的设计思路非常一致,Keyed State是按键值划分状态空间的,而Operator State是按照算子的并行度划分状态空间的。每个Operator State绑定到算子的一个并行实例上,因而这些并行实例在执行时可以维护各自的状态。

这有点儿像线程局部量,每个线程都维护自己的一个状态对象,在运行时互不影响。例如,当Kafka Consumer在消费同一个主题的不同分区时,可以用Operator State来维护各自消费分区的偏移量。Flink 1.6版本引入了状态生存时间值(state time-to-live),这为实际开发中淘汰过期的状态提供了极大的便利。不过美中不足的是,Flink虽然针对状态存储提供了TTL机制,但是TTL本身实际是一种非常底层的功能。如果Flink能够针对状态管理提供诸如窗口管理这样的功能,那么Flink的流信息状态管理会更加完善和方便。.

◆消息传达可靠性

Flink基于snapshot和checkpoint的故障恢复机制,在内部提供了exactly-once的语义。当然,得到这个保证的前提是,在Flink应用中保存状态时必须使用Flink内部的状态机制,如Keyed State和Operator State。因为这些Flink内部状态的保存和恢复方案都包含在Flink的故障恢复机制内,由系统保证了状态的一致性。如果使用不包含在Flink故障恢复机制内的方案存储状态,如用另外独立的Redis记录PV/UV统计状态,那么就不能获得exactly-once级别的可靠性保证,而只能实现at-least-once级别的可靠性保证。

要想在Flink中实现从数据流输入到输出之间端到端的exactlyonce数据传送,还必须得到Flink connectors配合才行。不同的connectors提供了不同级别的可靠性保证机制。例如,在Source端,Apache Kafka提供了exactly once保证机制,Twitter Streaming API提供了at most once保证机制。在Sink端,HDFS rolling sink提供了exactl.once保证机制,Kafk.producer则只提供了exactly once的保证机制。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-04-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 IT大咖说 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • ◆系统架构
  • ◆流的描述
  • ◆流的执行
  • ◆流的状态
  • ◆消息传达可靠性
相关产品与服务
消息队列 TDMQ
消息队列 TDMQ (Tencent Distributed Message Queue)是腾讯基于 Apache Pulsar 自研的一个云原生消息中间件系列,其中包含兼容Pulsar、RabbitMQ、RocketMQ 等协议的消息队列子产品,得益于其底层计算与存储分离的架构,TDMQ 具备良好的弹性伸缩以及故障恢复能力。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档