本篇文章大概2892字,阅读时间约8分钟
根据Flink官网资料,实操CDH5.16.2上配置Flink on yarn,给出了flink on yarn的集成方式和HA的配置方式
1
文档编写目的
- 记录Flink on yarn的部署流程
- 集群环境:CDH5.16.2
2
Flink如何与YARN交互
上图来自Flink官方
Flink YARN Client需要获取Hadoop的配置访问到集群的YARN Resource Manager和HDFS,可以使用如下方式进行配置:
- 检查一下参数是否配置,只要有一个配置就可以读到集群的配置文件
- YARN_CONF_DIR
- HADOOP_CONF_DIR
- HADOOP_CONF_PATH
- Flink YARN Client使用HADOOP_HOME环境变量,如果设置了HADOOP_HOME,Flink YARN Client会去读取目标路径下的配置$HADOOP_HOME/etc/hadoop(Hadoop 2.X)
整个交互流程
- 启动一个新的Flink YARN会话时,Client会先检查所请求的资源(AM的cpu和内存)是否可用。之后,会上传包含Flink和相关配置的jar包到hdfs上
- 向YARN的RM申请容器,启动AM
- JobManager和AM会运行在同一容器中。成功启动后,AM就会知道JobManager的地址,然后为TaskManager生成一个新的配置文件以连接到JobMananger。新生成的文件也会上传到HDFS上。
- AM容器还会提供Flink的web界面
- YARN分配的端口都是临时端口,因此可以同时并行执行多个Flink YARN Session
- 最后,AM开始为TaskManager分配容器,完成以上步骤,就可以开始运行Flink的Jobs
3
在CDH5上部署Flink
添加HADOOP_CONF_DIR环境变量
代码语言:javascript复制vi /etc/profile
# 配置HADOOP_CONF_DIR
export HADOOP_CONF_DIR=/etc/hadoop/conf
# 刷新环境变量
source /etc/profile
配置HADOOP的CLASSPATH
代码语言:javascript复制vi /etc/profile
# 配置hadoop的classpath
export HADOOP_CLASSPATH=`hadoop classpath`
# 刷新环境变量
source /etc/profile
添加操作HDFS的用户
编辑/bin目录下的yarn-session.sh文件,配置HADOOP_USER_NAME=hdfs
代码语言:javascript复制# 操作hdfs的用户
export HADOOP_USER_NAME=hdfs
启动Flink on yarn集群
基础功能测试
per-job提交模式
直接向yarn上提交一个example包下的wordcount任务, per job方式
代码语言:javascript复制./bin/flink run -m yarn-cluster ./examples/batch/WordCount.jar
yarn-session提交模式
启动yarn-session
代码语言:javascript复制./bin/yarn-session.sh -tm 8192 -s 4
yarn上生成的yarn-session对应的机器是dn2.develop.com:8042
yarn id:application_1589377449274_0645
提交任务到该yarn-session上
代码语言:javascript复制./bin/flink run -m yarn-cluster -yid application_1589377449274_0645 ./examples/batch/WordCount.jar
进入yarn-session的web,发现任务执行完成
Flink YARN Session
利用bin下的yarn-session.sh启动yarn-session
代码语言:javascript复制./bin/yarn-session.sh
命令行参数:
代码语言:javascript复制Usage:
Optional
-at,--applicationType <arg> 设置yarn上应用的自定义程序类型
-D <property=value> 动态参数
-d,--detached 使用分离模式
-h,--help 打出 cli help
-id,--applicationId <arg> 把任务提交到正在运行的yarn session
-j,--jar <arg> flink jar的路径
-jm,--jobManagerMemory <arg> JobMananger内存
-m,--jobmanager <arg> 连接到指定的JobManager
-nl,--nodeLabel <arg> 指定yarn的节点标签
-nm,--name <arg> 指定一个yarn应用的名称
-q,--query 显示可用的yarn资源 cpu 内存
-qu,--queue <arg> 指定yarn队列
-s,--slots <arg> 每个TaskManager的slot
-t,--ship <arg> 文件发送目录
-tm,--taskManagerMemory <arg> 每个TaskManager容器的内存,默认值mb
-yd,--yarndetached 不建议使用
-z,--zookeeperNamespace <arg> 为高可用性模式创建zk的namespace
生产环境上用得比较多的是flink的per job模式。
Flink on YARN HA配置
在YARN HA情况下,Flink集群不需要多个JobManager实例,当JM出现故障的时候,yarn会尝试重启JM。具体的YARN的操作取决于YARN的版本。
配置YARN高可用
最大的Application Master重试次数
配置集群中yarn-site.xml的最大重试次数,集群的配置一般是2次
代码语言:javascript复制<property>
<name>yarn.resourcemanager.am.max-attempts</name>
<value>4</value>
<description>
The maximum number of application master execution attempts.
</description>
</property>
配置flink应用的重试次数 flink-conf.yaml
代码语言:javascript复制yarn.application-attempts: 10
配置高可用的YARN-session
代码语言:javascript复制high-availability: zookeeper
high-availability.storageDir: hdfs:///flink/ha/
high-availability.zookeeper.quorum: localhost:2181
state.checkpoints.dir: hdfs:///flink/flink-checkpoints
进入dn3机器,打印jps
直接kill掉yarnsessionclusterentrypoint, kill -9 117533
看到yarn上的attempt id增加, flink的web ui可以重新进行访问了 flink on yarn ha 测试完成