Hive的自定义函数与通过reflect调用java方法

2021-01-22 16:55:59 浏览数 (1)

本篇博客小菌为大家带来的是关于Hive自定义函数的相关内容!

首先先让我们来看下系统自带的函数有哪些!

进入Hive,在命令行输入show functions;

发现hive自带的函数就有近一百个,但我们平时经常用到的可能就那么几个,并且自带的函数功能还十分受限!有时候,为了更好的实现业务需求,可能就需要我们去自定义Hive! 根据用户自定义函数类别分为以下三种:

(1)UDF(User-Defined-Function) 一进一出 (2)UDAF(User-Defined Aggregation Function) 聚集函数,多进一出 类似于:count/max/min (3)UDTF(User-Defined Table-Generating Functions) 一进多出 如lateral view explore()

编程步骤:

(1)继承org.apache.hadoop.hive.ql.UDF (2)需要实现evaluate函数;evaluate函数支持重载;

注意事项:

(1)UDF必须要有返回类型,可以返回null,但是返回类型不能为void; (2)UDF中常用Text/LongWritable等类型,不推荐使用java类型;

简单UDF示例

第一步:创建maven java 工程,导入jar包

代码语言:javascript复制
<repositories>
    <repository>
        <id>cloudera</id>
 <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
    </repository>
</repositories>
<dependencies>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-common</artifactId>
        <version>2.6.0-cdh5.14.0</version>
    </dependency>
    <dependency>
        <groupId>org.apache.hive</groupId>
        <artifactId>hive-exec</artifactId>
        <version>1.1.0-cdh5.14.0</version>
    </dependency>
</dependencies>
<build>
<plugins>
    <plugin>
        <groupId>org.apache.maven.plugins</groupId>
        <artifactId>maven-compiler-plugin</artifactId>
        <version>3.0</version>
        <configuration>
            <source>1.8</source>
            <target>1.8</target>
            <encoding>UTF-8</encoding>
        </configuration>
    </plugin>
     <plugin>
         <groupId>org.apache.maven.plugins</groupId>
         <artifactId>maven-shade-plugin</artifactId>
         <version>2.2</version>
         <executions>
             <execution>
                 <phase>package</phase>
                 <goals>
                     <goal>shade</goal>
                 </goals>
                 <configuration>
                     <filters>
                         <filter>
                             <artifact>*:*</artifact>
                             <excludes>
                                 <exclude>META-INF/*.SF</exclude>
                                 <exclude>META-INF/*.DSA</exclude>
                                 <exclude>META-INF/*/RSA</exclude>
                             </excludes>
                         </filter>
                     </filters>
                 </configuration>
             </execution>
         </executions>
     </plugin>
</plugins>
</build>

第二步:开发java类继承UDF,并重载evaluate 方法

代码语言:javascript复制
public class UDF_01 extends UDF {

    //自定义函数,实现大写转换!

    public Text evaluate(final  Text s){

        if (null == s){

            return null;

        }

        //返回大写字母
        return new Text(s.toString().toUpperCase());

    }

}

第三步:将我们的项目打包,并上传到linux的目录下

这里我们将Hive.jar存放在了/opt/hive的目录下

第四步:将jar包添加到hive 在hive shell 内 add jar 路径 jar包

第五步:创建临时函数(永久的函数将temporary删掉)

第六步:调用验证

通过reflect调用java方法

经历完了上面自定义函数过后,相信大家一定还是觉得过程有点繁琐。不用担心,接下来小菌将为大家带来如何在Hive中调用java方法。

第一步:使用java代码编写业务逻辑,并打包上传

代码语言:javascript复制
public class JAVA_02  {

    public static String addInfo(String info){


        return info "__ I love Hive! __ ";


    }
}

第二步:将jar包添加到hive

第三步:调用

select reflect (‘参数一’,‘参数二’,‘参数三’)

参数一: 包名-类名 参数二: 方法名 参数三:需要计算的数据

本次的分享就到这里了,不知道小伙伴们操作得是否顺利呢?后续小菌还会为大家带来更多Hive的精彩内容,敬请期待!!!

0 人点赞