主机环境
:
Ubuntu 13.10
Hadoop 1.2.1
Hive 0.12.0
下载解压和转移
:
wget http://mirrors.hust.edu.cn/apache/hive/hive-0.12.0/hive-0.12.0.tar.gz
tar -xzvf hive-0.12.0.tar.gz
mv hive-0.12.0 /opt/
配置系统环境变量
:
sudo vim /etc/profile
source /etc/profile
修改hive配置文档
用户自定义的配置文件:hive-site.xml
默认配置文件:hive-default.xml
用户自定义配置文件会覆盖默认配置文件,Hive也会读入Hadoop的配置,因为Hive是作为Hadoop客户端启动的。
cd conf
cp hive-default.xml.template hive-site.xml
Hive的主要配置项
:
hive.metastore.warehouse.dir 指定Hive的存储目录
hive.exec.scratchdir 指定hive的数据临时文件目录
连接数据库的配置
:
Hive需要将元数据存储在RDBMS中,配置mysql存储Hive元数据
javax.jdo.option.ConnectionURL
jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true
JDBC connect string for a JDBC metastore
javax.jdo.option.ConnectionDriverName
com.mysql.jdbc.Drive
Driver class name for a JDBC metastore
...........................
...........................
javax.jdo.option.ConnectionUserName
root
username to use against metastore database
javax.jdo.option.ConnectionPassword
111111
password to use against metastore database
将JDBC的驱动拷贝到$HIVE_HOME/lib下
cp /home/dat/mysql-connector-java-5.1.24-bin.jar /opt/hive-0.12.0/lib/
安装Mysql和启动mysql略过。。
检查mysql的启动状态:
sudo service mysql.server status
启动Hive
/opt/hive-0.12.0/bin$ hive
报错:
Cannot find hadoop installation: $HADOOP_HOME or $HADOOP_PREFIX must be set or hadoop must be in the path
原因hadoop没有启用,简单处理:source /opt/hadoop-1.2.1/conf/hadoop-env.sh
继续启动,继续报错:
Caused by: org.xml.sax.SAXParseException; systemId: file:/opt/hive-0.12.0/conf/hive-site.xml; lineNumber: 2000; columnNumber: 16; 元素类型 "value" 必须由匹配的结束标记 "" 终止。
原因:xml文件有问题,2000行配对了,修改为vaule
继续重启,OK!
dat@dat-HP:/opt/hive-0.12.0/bin$ hive
Logging initialized using configuration in jar:file:/opt/hive-0.12.0/lib/hive-common-0.12.0.jar!/hive-log4j.properties
hive>
更多详情见请继续阅读下一页的精彩内容
: http://www.linuxidc.com/Linux/2013-11/92525p2.htm