欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Flink运行架构

程序员文章站 2022-03-26 15:03:07
1. Flink运行时的组件Flink运行时架构主要包括四个不同的组件,它们会在运行流处理应用程序时协同工作:作业管理器(JobManager)任务管理器(TaskManager)资源管理器(ResourceManager)分发器(Dispatcher)因为Flink是用于Java和Scala实现的,所以所有组件都会运行在Java虚拟机上1.1 JobManager控制一个应用程序执行的主进程,也就是说,每个应用程序都会被一个不同的JobManager所控制执行JobManager会先接...

1. Flink运行时的组件

Flink运行时架构主要包括四个不同的组件,它们会在运行流处理应用程序时协同工作:

作业管理器JobManager

任务管理器TaskManager

资源管理器ResourceManager

分发器Dispatcher

因为Flink是用于Java和Scala实现的,所以所有组件都会运行在Java虚拟机上

1.1 JobManager

  1. 控制一个应用程序执行的主进程,也就是说,每个应用程序都会被一个不同的JobManager所控制执行
  2. JobManager会先接收到要执行的应用程序,这个应用程序包括
    • 作业图(JobGraph)
    • 逻辑数据流图(Logical Dataflow Graph)
    • 打包了所有的类、库
    • 其他资源的JAR包
  3. JobManager会把JobGraph转换成一个物理层面的数据流图,这个图被叫做“执行图”(ExecutionGraph),包含了所有可以并发执行的任务
  4. JobManager会向资源管理器(ResourceManager)请求执行任务必要的资源,也就是任务管理器(TaskManager)上的插槽(slot);一旦它获取到了足够的资源,就会将执行图分发到真正运行它们的TaskManager上;而在运行过程中,JobManager会负责所有需要*协调的操作,如检查点(checkpoints)的协调

1.2 TaskManager

  1. Flink中的工作进程;通常在Flink中会有多个TaskManager运行,每一个TaskManager都包含了一定数量的插槽(slots);插槽的数量限制了TaskManager能够执行的任务数量
  2. 启动之后,TaskManager会向资源管理器注册它的插槽;收到资源管理器的指令后,TaskManager就会将一个或者多个插槽提供给JobManager调用;JobManager就可以向插槽分配任务(tasks)来执行了
    • task的数量由TaskManager内包含的slots的总数量决定,slot的总数量也决定了任务执行的并行度
  3. 在执行过程中,一个TaskManager可以跟其他运行同一应用程序的TaskManager交换数据

1.3 ResourceManager

  1. 主要负责管理任务管理器(TaskManager)的插槽(slot),TaskManager插槽是Flink中定义的处理资源单元
  2. Flink为不同的环境和资源管理工具提供了不同资源管理器,比如YARN、Mesos、K8s以及Standalone部署
  3. 当JobManager申请插槽资源时,ResourceManager会将有空闲插槽的TaskManager分配给JobManager;如果ResourceManager没有足够的插槽来满足JobManager的请求,它还可以向资源提供平台发起会话,以提供启动TaskManager进程的容器
  4. 另外,ResourceManager还负责终止空闲的TaskManager,释放计算资源

1.4 Dispatcher

  1. 可以跨作业运行,它为应用提交提供了REST接口
  2. 当一个应用被提交执行时,分发器就会启动并将应用移交给一个JobManager
  3. Dispatcher也会启动一个Web UI,用来方便地展示和监控作业执行地信息
  4. Dispatcher在架构中可能并不是必需地,这取决于应用提交运行的方式

2. 任务提交流程

Flink的各个组件的交互协作

Flink运行架构

如果部署的集群环境不同(如YARN、Mesos、K8s以及Standalone等),其中一些步骤可以被省略,或是有些组件会运行在同一个JVM进程中

Flink集群部署到YARN上

Flink运行架构

3. 任务调度原理

Flink运行架构

客户端不是运行时和程序执行的一部分,但它用于准备并发送Dataflow(JobGraph)给Master(JobManager),然后,客户端断开连接或者维持连接以等待接收计算结果

当Flink集群启动后,首先会启动一个JobManager和一个或多个的TaskManager;由Client提交任务给JobManager,JobManager再调度任务到各个TaskManager去执行,然后TaskManager将心跳和统计信息汇报给JobManager;TaskManager之间以流的形式进行数据的传输;上述三者均为独立的JVM进程

Client:提交Job的客户端,可以是运行在任何机器上(与JonManager环境连通即可);提交Job后,Client可以结束进程(Streaming的任务),也可以不结束并等待结果返回

JobManager:主要负责调度Job并协调Task做checkpoint,职责上很像Strom的Nimbus;从Client处接收到Job和JAR包等资源后,会生成优化后的执行计划,并以Task的单元调度到各个TaskManager去执行

TaskManager:在启动的时候就设置好了槽位数(Slot),每个slot能启动一个Task,Task为线程;从JobManager处接收需要部署的Task,部署启动后,与自己的上游建立Netty连接,接收数据并处理

3.1 TaskManager与Slots

  1. Flink中每一个worker(TaskManager)都是一个JVM进程,它可能会在独立的线程上执行一个或多个subtask
  2. 为了控制一个worker能接收多少个task,worker通过task slot来进行控制(一个worker至少有一个task slot)
  3. 默认情况下,Flink允许子任务共享slot,集市它们是不同任务的子任务;这样的结果是,一个slot可以保存作业的整个管道
  4. Task Slot是静态的概念,是指TaskManager具有的并发执行能力,可以通过参数taskmanager.numberOfTaskSlots进行配置;

3.2 程序与数据流(DataFlow)

所有的Flink程序都是由三部分组成的:SourceTransformationSink

Source:负责读取数据源

Transformation:利用各种算子进行处理加工

Sink:负责输出

在运行时,Flink上运行的程序会被映射成“逻辑数据流”(dataflows),它包含了这三部分。

每一个dataflow以一个或多个sources开始以一个或多个sinks结束

dataflow类似于任意的有向无环图(DAG)

大部分情况下,程序中的转换运行(transformation)跟dataflow中的算子(operator)是一一对应的关系,但有时候,一个transformation可能对应多个operator

3.3 执行图(ExecutionGraph)

由Flink程序直接映射成的数据流图是StreamGraph,也被称为逻辑流图,因为它们表示的是计算逻辑的高级视图

为了执行一个流处理程序,Flink需要将逻辑流图转换为物理数据流图(也叫执行图)

Flink中的执行图可以分成四层

StreamGraph:根据用户通过Stream API编写的代码生成的最初的图;用来表示程序的拓扑结构

JobGraph:StreamGraph经过优化后生成了JobGraph,提交给JobManager的数据结构;主要的优化为,将多个符合条件的节点链接在一起,这样可以减少数据在节点之间流动所需要的序列化/反序列化/传输消耗

ExecutionGraph:JobManager根据JobGraph生成ExecutionGraph;ExecutionGraph是JobGraph的并行化版本,是调度层最核心的数据结构

物理执行图:JobManager根据ExecutionGraph对Job进行调度后,在各个TaskManager上部署Task后形成的“图”,并不是一个具体的数据结构

3.4 并行度(Parallelism)

Flink程序的执行具有并行、分布式的特性

一个特定算子的子任务(subtask)的个数被称之为其并行度(Parallelism)

一般情况下,一个stream的并行度,可以认为就是其所有算子中最大的并行度

并行度是动态概念,即TaskManager运行程序时实际使用的并发能力,可以通过参数parallelism.default进行配置

Stream在算子之间传输数据的形式可以是one-to-one(forwarding)的模式。也可以是redistributing的模式,具体是哪一种形式,取决于算子的种类

  1. One-to-one:类似于Spark中的窄依赖

    stream(比如在source和map operator之间)维护着分区以及元素的顺序,那意味着map算子的子任务看到的元素的个数以及顺序跟source算子的子任务生产的元素的个数、顺序相同,map、fliter、flatMap等算子都是one-to-one的对应关系

  2. Redistributing:类似于Spark中的宽依赖

    stream(map()跟keyBy/window之间或者keyBy/window跟sink之间)的分区会发生改变;每一个算子的子任务依据所选择的transformation发送数据到不同的目标任务。例如,keyBy()基于hashCode重分区、broadcast和rebalance会随机重新分区,这些算子都会引起redistribute过程,而redistribute过程就类似于Spark中的shuffle过程

3.5 任务链(Operator Chains)

Flink采用了一种称为任务链的优化技术,可以在特定条件下减少本地通信的开销;为了满足任务链的要求,必须将两个或多个算子设为相同的并行度,并通过本地转发(local forward)的方式进行连接

相同并行度的one-to-one操作,Flink这样相连的算子连接在一起形成一个task,原来的算子成为u里面的subtask

并行度相同并且是one-to-one操作,两个条件缺一不可

本文地址:https://blog.csdn.net/weixin_45557389/article/details/108864268

相关标签: Flink 大数据