温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。 Fayson的github:https://github.com/fayson/cdhproject 提示:代码块部分可以左右滑动查看噢
1.文档编写目的
在CDH集群外的节点向集群提交Spark作业的方式有多种,前面Fayson介绍了Livy相关的文章主要描述如何在集群外节点通过RESTful API接口向CDH集群提交Spark作业,本篇文章我们借助于oozie-client的API接口向非Kerberos集群提交Spark作业。
Livy相关文章:
《Livy,基于Apache Spark的开源REST服务,加入Cloudera Labs》
《如何编译Livy并在非Kerberos环境的CDH集群中安装》
《如何通过Livy的RESTful API接口向非Kerberos环境的CDH集群提交作业》
《如何在Kerberos环境的CDH集群部署Livy》
《如何通过Livy的RESTful API接口向Kerberos环境的CDH集群提交作业》
- 内容概述
1.环境准备
2.示例代码编写及测试
3.总结
- 测试环境
1.CM和CDH版本为5.13.1
- 前置条件
1.集群未启用Kerberos
2.环境准备及描述
1.我们将作业运行的jar包上传到HDFS目录
代码语言:txt复制sudo -u faysontest hadoop fs -mkdir -p /faysontest/jars
sudo -u faysontest hadoop fs -put /opt/cloudera/parcels/CDH/jars/spark-examples-1.6.0-cdh5.13.1-hadoop2.6.0-cdh5.13.1.jar /faysontest/jars
sudo -u faysontest hadoop fs -ls /faysontest/jars
(可左右滑动)
这里Fayson使用的Spark自带的示例来测试。
2.定义一个Spark Action的workflow.xml文件,内容如下:
代码语言:txt复制<workflow-app name="My Workflow" xmlns="uri:oozie:workflow:0.5">
<start to="spark-989b"/>
<kill name="Kill">
<message>Action failed, error message[${wf:errorMessage(wf:lastErrorNode())}]</message>
</kill>
<action name="spark-989b">
<spark xmlns="uri:oozie:spark-action:0.2">
<job-tracker>${jobTracker}</job-tracker>
<name-node>${nameNode}</name-node>
<master>${master}</master>
<mode>${mode}</mode>
<name>${name}</name>
<class>${class}</class>
<jar>${jar}</jar>
<spark-opts>${sparkOpts}</spark-opts>
<arg>${arg}</arg>
<file>${file}</file>
</spark>
<ok to="End"/>
<error to="Kill"/>
</action>
<end name="End"/>
</workflow-app>
(可左右滑动)
注意:workflow.xml文件中使用的参数配置为动态参数,会在后面的代码中指定该参数的值。
3.将定义好的workflow.xml文件上传至HDFS的
/user/faysontest/oozie/testoozie目录下
代码语言:txt复制[root@ip-172-31-6-148 ~]# sudo -u faysontest hadoop fs -mkdir -p /user/faysontest/oozie/testoozie
[root@ip-172-31-6-148 ~]# ll /opt/workflow.xml
-rwxr-xr-x 1 root root 810 Feb 13 12:23 /opt/workflow.xml
[root@ip-172-31-6-148 ~]# sudo -u hdfs hadoop fs -put /opt/workflow.xml /user/faysontest/oozie/testoozie
[root@ip-172-31-6-148 ~]# sudo -u hdfs hadoop fs -ls /user/faysontest/oozie/testoozie
(可左右滑动)
3.创建Maven示例工程
1.使用Maven创建Java工程
2.工程pom.xml文件内容如下
代码语言:txt复制<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<parent>
<artifactId>cdh-project</artifactId>
<groupId>com.cloudera</groupId>
<version>1.0-SNAPSHOT</version>
</parent>
<modelVersion>4.0.0</modelVersion>
<artifactId>oozie-demo</artifactId>
<packaging>jar</packaging>
<name>oozie-demo</name>
<url>http://maven.apache.org</url>
<properties>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
</properties>
<dependencies>
<dependency>
<groupId>org.apache.httpcomponents</groupId>
<artifactId>httpclient</artifactId>
<version>4.5.4</version>
</dependency>
<dependency>
<groupId>net.sourceforge.spnego</groupId>
<artifactId>spnego</artifactId>
<version>7.0</version>
</dependency>
<dependency>
<groupId>org.apache.oozie</groupId>
<artifactId>oozie-client</artifactId>
<version>4.1.0</version>
</dependency>
</dependencies>
</project>
(可左右滑动)
4.编写Oozie示例代码
1.编写SparkWorkflowDemo.java,示例代码如下
代码语言:txt复制package com.cloudera.nokerberos;
import org.apache.oozie.client.OozieClient;
import org.apache.oozie.client.OozieClientException;
import org.apache.oozie.client.WorkflowAction;
import org.apache.oozie.client.WorkflowJob;
import java.util.List;
import java.util.Properties;
/**
* package: com.cloudera.nokerberos
* describe: 使用Oozie-client的API接口向非Kerberos集群提交Spark作业
* creat_user: Fayson
* email: htechinfo@163.com
* creat_date: 2018/2/13
* creat_time: 下午3:55
* 公众号:Hadoop实操
*/
public class SparkWorkflowDemo {
private static String oozieURL = "http://ip-172-31-6-148.fayson.com:11000/oozie";
public static void main(String[] args) {
System.setProperty("user.name", "faysontest");
OozieClient oozieClient = new OozieClient(oozieURL);
try {
System.out.println(oozieClient.getServerBuildVersion());
Properties properties = oozieClient.createConfiguration();
properties.put("oozie.wf.application.path", "${nameNode}/user/faysontest/oozie/testoozie");
properties.put("name", "MyfirstSpark");
properties.put("nameNode", "hdfs://ip-172-31-10-118.fayson.com:8020");
properties.put("oozie.use.system.libpath", "True");
properties.put("master", "yarn-cluster");
properties.put("mode", "cluster");
properties.put("class", "org.apache.spark.examples.SparkPi");
properties.put("arg", "100");
properties.put("sparkOpts", "--num-executors 4 --driver-memory 2g --driver-cores 1 --executor-memory 2g --executor-cores 1");
properties.put("jar", "${nameNode}/faysontest/jars/spark-examples-1.6.0-cdh5.13.1-hadoop2.6.0-cdh5.13.1.jar");
properties.put("oozie.libpath", "${nameNode}/faysontest/jars");
properties.put("jobTracker", "ip-172-31-6-148.fayson.com:8032");
properties.put("file", "${nameNode}/faysontest/jars");
//运行workflow
String jobid = oozieClient.run(properties);
System.out.println(jobid);
//等待10s
new Thread(){
public void run() {
try {
Thread.sleep(10000l);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}.start();
//根据workflow id获取作业运行情况
WorkflowJob workflowJob = oozieClient.getJobInfo(jobid);
System.out.println(oozieClient.getJobLog(jobid));
//获取workflow中所有ACTION
List<WorkflowAction> list = workflowJob.getActions();
for (WorkflowAction action : list) {
//输出每个Action的 Appid 即Yarn的Application ID
System.out.println(action.getExternalId());
}
} catch (OozieClientException e) {
e.printStackTrace();
}
}
}
(可左右滑动)
5.示例运行及验证
1.运行SparkWorkflowDemo代码,向CDH集群提交Spark作业
2.登录CM进入Yarn服务的“应用程序”菜单查看
3.打开Yarn的8088 Web界面查看
可以看到作业已运行成功,到此已完成了通过OozieAPI接口创建workflow并运行的示例演示。
6.总结
- 通过Oozie API提交作业,需要先定义好workflow.xml文件
- 参数传递通过在代码里面调用oozieClient.createConfiguration()创建一个Properties对象将K,V值存储并传入oozieClient.run(properties)中。
- 在指定HDFS上运行的jar或workflow的路径时需要带上HDFS的路径,否则默认会找到本地的目录
GitHub地址:
https://github.com/fayson/cdhproject/blob/master/ooziedemo/src/main/java/com/cloudera/nokerberos/SparkWorkflowDemo.java
https://github.com/fayson/cdhproject/blob/master/ooziedemo/conf/workflow-spark-template.xml
提示:代码块部分可以左右滑动查看噢 为天地立心,为生民立命,为往圣继绝学,为万世开太平。 温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。
推荐关注Hadoop实操,第一时间,分享更多Hadoop干货,欢迎转发和分享。
原创文章,欢迎转载,转载请注明:转载自微信公众号Hadoop实操