Spark环境搭建——on yarn集群模式

2021-01-27 10:51:09 浏览数 (1)

本篇博客,Alice为大家带来关于如何搭建Spark的on yarn集群模式的教程。


官方文档:

http://spark.apache.org/docs/latest/running-on-yarn.html

准备工作

  1. 安装启动Hadoop(需要使用HDFS和YARN,已经ok)
  2. 安装单机版Spark(已经ok)

注意:不需要集群,因为把Spark程序提交给YARN运行本质上是把字节码给YARN集群上的JVM运行,但是得有一个东西帮我去把任务提交上个YARN,所以需要一个单机版的Spark,里面的有spark-shell命令,spark-submit命令

  1. 修改配置:

在spark-env.sh ,添加HADOOP_CONF_DIR配置,指明了hadoop的配置文件的位置

vim /export/servers/spark/conf/spark-env.sh

加入下面的声明,把路径改为自己hadoop对应的路径

export HADOOP_CONF_DIR=/export/servers/hadoop/etc/hadoop

cluster模式

  • 说明

在企业生产环境中大部分都是cluster部署模式运行Spark应用

Spark On YARN的Cluster模式 指的是Driver程序运行在YARN集群上

  • 补充Driver是什么:

The process running the main() function of the application and creating the SparkContext

运行应用程序的main()函数并创建SparkContext的进程

  • 图解
  • 注意:

之前我们使用的spark-shell是一个简单的用来测试的交互式窗口,下面的演示命令使用的是spark-submit用来提交打成jar包的任务

代码语言:javascript复制
/export/servers/spark/bin/spark-submit 
--class org.apache.spark.examples.SparkPi 
--master yarn 
--deploy-mode cluster 
--driver-memory 1g 
--executor-memory 1g 
--executor-cores 2 
--queue default 
/export/servers/spark/examples/jars/spark-examples_2.11-2.2.0.jar 
10

具体的参数含义,见下图说明。

  • 查看界面

http://node01:8088/cluster

client模式[了解]

  • 说明

学习测试时使用,开发不用,了解即可

Spark On YARN的Client模式 指的是Driver程序运行在提交任务的客户端

  • 图解
  • 运行示例程序
代码语言:javascript复制
/export/servers/spark/bin/spark-submit 
--class org.apache.spark.examples.SparkPi 
--master yarn 
--deploy-mode client 
--driver-memory 1g 
--executor-memory 1g 
--executor-cores 2 
--queue default 
/export/servers/spark/examples/jars/spark-examples_2.11-2.2.0.jar 
10

具体参数对应的含义请参照cluster模式。

两种模式的区别

Cluster和Client模式最最本质的区别是:Driver程序运行在哪里!

其中,就直接的区别就是:

运行在YARN集群中就是Cluster模式, 运行在客户端就是Client模式

当然,还有由本质区别延伸出来的区别:

  • cluster模式:生产环境中使用该模式

1.Driver程序在YARN集群中 2.应用的运行结果不能在客户端显示 3.该模式下Driver运行ApplicattionMaster这个进程中, 如果出现问题,yarn会重启ApplicattionMaster(Driver)

  • client模式:

1.Driver运行在Client上的SparkSubmit进程中 2.应用程序运行结果会在客户端显示


本次的分享就到这里,受益的小伙伴或对大数据技术感兴趣的朋友记得点赞关注Alice哟(^U^)ノ~YO

0 人点赞