Flink在1.11版本新增了一种部署模式,目前支持三种:Session 模式、Per job 模式、Application 模式,这三种模式主要在集群管理、资源隔离、用户main方法执行位置几个方面有所不同。
本篇会按照下面几个步骤进行介绍:
1 什么是Session模式
2 什么是Per Job模式
3 从任务解析过程到Application的设计初衷
4 什么是Application模式
5 启动过程源码分析
6 总结与参考资料
Session 模式
Flink支持事先创建好一个集群,然后往这个集群上提交任务。所有的任务都在客户端进行编译,编译成JobGraph后,附加上依赖的库,提交到Flink的集群。集群接收到任务后,会再创建对应的JobMaster进行ExecutionGraph的解析,然后申请资源并执行。如果Flink集群申请的TM内部有很多Slot,那么会按照Slot的粒度进行任务分配,这样就可能在一个TM上运行多个任务。
这样设计的好处是,多个任务可以共用一套集群,方便管理监控。但是带来的缺点也很明显,当某一个任务崩溃高挂了对应的TM,上面其他的任务都会受到影响。其他的任务受影响崩溃不说,如果大面积的任务恢复,也可能导致JM的性能压力。
因此Session模式适用于量多、执行任务时间短、对资源不敏感的场景,比如作为在线(即席)查询引擎。
关于Session模式的部署和使用,也可以参考之前的文章:
Flink Yarn Session模式安装部署指南
Flink Sql-Gateway在Yarn Session模式下的工作原理
Per job 模式
为了进行更好的资源隔离,Flink支持为每个任务单独创建一个集群,该模式目前支持Yarn、K8s等。当任务执行完毕,集群会自动关闭并回收资源。这样就保证了更好的资源隔离,单独的任务失败也不会影响其他的任务。另外,这种模式分摊了JM的压力到每个任务,因此这种模式更适合生产环境部署。
观察下图可以发现,per job模式和session模式,只有提交任务和启动graph不一样,其他后面的流程都是一样的。
因此Per Job模式适用于执行任务长、对资源敏感或者消耗资源大的任务。
从任务解析过程到Application的设计初衷
在Flink 1.11之前仅有上面两种模式,那么新实现的Application模式又是什么呢?在了解Application的由来时,最好先来了解下Flink程序的执行过程。
以DataStream API的程序为例,我们编写的.map().print()属于程序代码,对应上图的program code:
1 当执行env.execute()时,会触发程序代码编译成StreamGraph,StreamGraph主要的作用就是把.map、.partition等翻译成数据流图中的节点和边。
2 接下来任务提交前,会把StreamGraph编译成JobGraph,JobGraph更像是可以执行的图结构,并会对其中的一些节点进行合并优化,也叫做chain。比如输入数据后进行map操作,就可以在一个节点中同时完成读取和map操作。
3 生成JobGraph后,再把需要的依赖资源,如第三方Jar等一起提交到集群。
4 提交到集群后,session和job模式有所不同。session模式已经存在一个集群,此时的提交是直接发送到集群的dispatcher,内部创建对应的JobMaster,编译成ExecutionGraph。如果是per job模式则需要新建一个集群,等服务启动后,把附加过来的jobGraph直接用内部的dispatcher启动。他们的俩的区别简单来说,就是一个是事先创建好的集群,一个是临时启动的集群。
5 说回到ExecutionGraph,它就是常说的执行图,执行图代表了真正物理执行的拓扑图,比如并行的节点有多少;每个节点读取什么数据,从哪里读取;每个节点输出什么数据,输出到哪里;然后JobMaster通过调度器进行任务分配。
6 申请好的TM内部会有很多Slot,每个Slot接收发来的Task进行执行,直到任务结束。
7 任务结束后,Session模式会释放任务申请的资源,并通知内部的ResourceManager组件,方便后续来任务继续执行;Per Job模式会直接释放集群。
可以发现,无论是Session还是Per Job,程序代码都是在客户端编译完成。这里的客户端就是我们执行flink run启动的程序(其实是CliFrontend)。假如现在需要做一个平台给多个用户提交任务,或者任务的量级很大,那么客户端的压力会非常大。因为编译生成StreamGraph和JobGraph需要消耗大量的CPU,下载依赖的Jar包资源、上传JobGraph也需要大量的网络带宽,客户端很容易成为瓶颈。此时,就考虑可不可以把编译图的工作放在集群中完成?就类似于Spark的cluster模式,这就是Appllication模式。
Application 模式
Application的设计跟per job非常像,只不过客户端不在编译图,而是直接把执行的Jar和参数信息发送到yarn的AppMaster,在该进程中,同时完成JM的启动、编译图(用户main方法执行)、任务执行等过程。
这样还带来了其他的好处,比如一些公共的lib可以直接存储在Hdfs,避免多次上传下载浪费流量。
以Yarn部署为例,想要启动application模式,可以使用下面的命令:
代码语言:javascript复制# 基于application模式启动本地jar./bin/flink run-application -t yarn-application
./examples/batch/WordCount.jar
# 附加集群参数配置
./bin/flink run-application -t yarn-application
-Djobmanager.memory.process.size=2048m
-Dtaskmanager.memory.process.size=4096m
./examples/batch/WordCount.jar
# 基于application模式启动远程jar
./bin/flink run-application -t yarn-application
-Dyarn.provided.lib.dirs="hdfs://myhdfs/my-remote-flink-dist-dir"
hdfs://myhdfs/jars/my-application.jar
启动过程源码分析
观察flink脚本,可以看到 exec … org.apache.flink.client.cli.CliFrontend “$@“ 的命令,这就是客户端代码入口。
在run中是正常session和job的启动流程,在runApplication中为application模式启动流程。
在run中通过反射直接运行用户代码的main函数,在用户代码的execute()方法中编译图并提交到yarn。如果是session则直接发送给dispatcher,如果是per job则重新创建集群。
在Application中直接创建远程集群,并附加Application相关参数:
目前提交到集群启动的Master进程大致可以分为下面几种,后续会详细探索下各个Entrypoint中的细节。
总结
在Session模式中,集群的生命周期与任务无关,可以在集群中同时提交多个任务,他们共享集群资源。Per job模式中,每个任务单独维护集群,可以做到更好的资源隔离,集群的生命周期与任务相同。在Application模式中,为每个应用创建一个集群,main方法会运行在集群中,避免客户端过大的压力。
参考
Flink 1.11 官方文档——集群与部署:
https://ci.apache.org/projects/flink/flink-docs-release-1.11/ops/deployment/
Flink 1.11 官方文档——Yarn集群与部署:
https://ci.apache.org/projects/flink/flink-docs-release-1.11/ops/deployment/yarn_setup.html#user-jars--classpath
Flink 1.11 官方文档——CLI客户端命令:
https://ci.apache.org/projects/flink/flink-docs-release-1.11/ops/cli.html
FLIP-85 Application Mode:
https://cwiki.apache.org/confluence/display/FLINK/FLIP-85 Flink Application Mode
关于Application模式的邮件讨论:
http://apache-flink-mailing-list-archive.1008284.n3.nabble.com/DISCUSS-FLIP-85-Delayed-Job-Graph-Generation-td35759.html
[简书]Flink 1.11 中的Application模式:
https://www.jianshu.com/p/85f2b32186cb