Flink_sql_client1.10源码在IDEA中集成hive并运行

2020-04-18 00:06:47 浏览数 (1)

最近一直在跟进flink_sql,为以后做更深入的了解做准备,这篇主要记录一下运行sql_client源码的过程~~

对于本文涉及到的hadoop,hive等相关环境,可以看上篇 flink_sql_client 1.10 与 hive集成 读取实时数据

【本文大纲】1、IDEA配制2、Maven配制3、导入sql_client源码4、集成hive配制并运行5、遇到的问题

1、IDEA配制

1.1安装scala插件

IntelliJ IDEA -> Preferences -> Plugins

如果上图,可以在Marketplace里搜索scala安装,这样可能会因为网速问题,安装失败。

我们还可以从本地硬盘安装,我的idea是2019.2版本的,提前下载好对应的scala插件:scala-intellij-bin-2019.2.40.zip,如果下图:

安装完重启就好了

1.2 配制maven

修改IDEA的maven为本地安装的maven:

IntelliJ IDEA -> Preferences

如上图,配制的目的,是为了让编译源码时用我们配制好的maven服务

2、Maven配制

有关maven的安装可以看 Hive源码系列(二)hive2.1.1源码编译并编译成eclipse项目 这篇中maven安装的部分

这块主要是修改maven的 settings.xml文件,将maven中央仓库换成阿里源,这样导入IDEA下载依赖包时,速度才能飞起来哦~~

代码语言:javascript复制
 <mirrors>     <mirror>         <id>nexus-aliyun</id>         <mirrorOf>*,!jeecg,!jeecg-snapshots,!mapr-releases</mirrorOf>         <name>Nexus aliyun</name>         <url>http://maven.aliyun.com/nexus/content/groups/public</url>     </mirror>
     <mirror>         <id>mapr-public</id>         <mirrorOf>mapr-releases</mirrorOf>         <name>mapr-releases</name>         <url>https://maven.aliyun.com/repository/mapr-public</url>     </mirror></mirrors>

3、导入sql_client源码

下载1.10源码包:flink-1.10.0-src.tgz

解压后放在自己准备好的目录下,我这边是放在 ~/IdeaProjects,这次主要导入flink-sql-client模块的代码:

File->open,选择flink-sql-client 打开

此时,idea会导入依赖包,稍等一下,在等待的过程中,你可以打开微信,搜索【数据仓库践行者】公众号,关注一波~~

导入完成之后,需要检查一下idea的jdk的设置,是不是自己本地装的jdk(File->Project Structure):

检查完build没有问题,下面我们就可以设置运行了

4、集成hive配制并运行

进行这一步,首先要保证集群的hadoop是正常运行的,hive也是正常可访问的

4.1 启动sql_client

sql_client的入口是SqlClient.java类,我们主要也是运行SqlClient.java的main方法,为该类运行配制一些参数:

Program arguments处只输入embedded,相当于执行 sql-client.sh embedded 命令

Environment variables处需要配制FLINK_CONF_DIR环境变量,指定flink配制文件目录,如果不配制,会因为读不到配制文件报错

运行SqlClient.java:

如上图,没有集成hive时,只有一个default_catalog

4.2 集成hive

主要是Program arguments处:

代码语言:javascript复制

代码语言:javascript复制
embedded -d /opt/soft/flink/conf/sql-client-hive.yaml -l /opt/soft/flink/lib## -d 指定sql-client yaml配制文件## -l 指定要加载的library jar包的路径
代码语言:javascript复制

运行SqlClient.java:

由上图可以看到,可读取hive的库,在hive tmp库里建表test1后,用flink sql也能读到了

5、遇到的问题

5.1 无效的标记

这个原因主要是java版本不一致,解决办法 调出Maven侧边栏,取消勾选java11:

5.2 与hive集成报错
代码语言:javascript复制
代码语言:javascript复制
Exception in thread "main" org.apache.flink.table.client.SqlClientException: Unexpected exception. This is a bug. Please consider filing an issue.  at org.apache.flink.table.client.SqlClient.main(SqlClient.java:190)Caused by: org.apache.flink.table.client.gateway.SqlExecutionException: Could not create execution context.  at org.apache.flink.table.client.gateway.local.ExecutionContext$Builder.build(ExecutionContext.java:753)  at org.apache.flink.table.client.gateway.local.LocalExecutor.openSession(LocalExecutor.java:228)  at org.apache.flink.table.client.SqlClient.start(SqlClient.java:98)  at org.apache.flink.table.client.SqlClient.main(SqlClient.java:178)Caused by: org.apache.flink.table.api.NoMatchingTableFactoryException: Could not find a suitable table factory for 'org.apache.flink.table.factories.CatalogFactory' inthe classpath.
代码语言:javascript复制

这个主要解决办法是在配制Program arguments时,加上 -l /opt/soft/flink/lib 参数,把相关依赖包加载就ok了

0 人点赞