Hive Metastore作为元数据管理中心,支持多种计算引擎的读取操作,例如Flink、Presto、Spark等。本文讲述通过spark SQL配置连接Hive Metastore,并以3.1.2版本为例。
通过Spark连接Hive Metastore,需要准备如下文件:
- hive-site.xml
- apache-hive-3.1.2-bin
- spark-3.0.3-bin-hadoop3.2
在完成下述操作之前,当然首先需要安装并启动hive standalone metastore,并将hive-site.xml文件拷贝到spark的conf目录下。
然后修改conf/spark-default.conf文件,新增如下配置
代码语言:javascript复制spark.sql.hive.metastore.version 3.1.2
spark.sql.hive.metastore.jars /data/apache-hive-3.1.2-bin/lib/*Copy
接着便可启动spark sql
代码语言:javascript复制bin/spark-sqlCopy
查看databases
代码语言:javascript复制show databases;Copy
查看hive_storage中的所有表
代码语言:javascript复制use hive_storage;
show tables;Copy
查看sample_table_1表中的数据
代码语言:javascript复制select * from sample_table_1;Copy
查看表sample_table_1的详细信息
代码语言:javascript复制describe formatted sample_table_1;Copy
本文为从大数据到人工智能博主「xiaozhch5」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://cloud.tencent.com/developer/article/1936572