文章目录
- 安装impala的之前
- 集群提前安装好 hadoop,hive。
- 每个节点需要先安装 nc
- 安装impala的节点至少需要12G的剩余空间
- 软件包的上传解压
- 上传安装包
- 解压安装包
- 制作网络资源库(node03是主节点)
- 安装impala
- 修改hive配置文件
- 修改hadoop配置文件
- 复制hadoop、hive的配置文件到impala配置文件
- 修改impala的配置文件
- 修改bigtop配置(三个节点都要执行)
- 重启hadoop、hive集群
- 启动、关闭impala服务
- 进入impala中,查看数据库发现与hive中的数据库不一样
- 在从节点node02、node03执行命令 hdfs dfs -ls / 与主节点node01不一样
安装impala的之前
集群提前安装好 hadoop,hive。
hive安装包scp在所有需要安装impala的节点上,因为impala需要引用hive的依赖包。
每个节点需要先安装 nc
代码语言:javascript复制yum -y install nc
安装impala的节点至少需要12G的剩余空间
软件包的上传解压
上传安装包
因为impala安装包大于4G,所有需要另行上传 登录ip
选择对应的安装包,上传到虚拟机
解压安装包
代码语言:javascript复制cd /export/servers/
tar -zxvf /export/softwares/cdh5.14.0-centos6.tar.gz
解压的安装包
制作网络资源库(node03是主节点)
安装httpd服务,启动httpd服务,并设置开机自启
代码语言:javascript复制yum -y install httpd
service httpd start
chkconfig httpd on
设置软连接
代码语言:javascript复制cd /var/www/html/
ln -s /export/servers/cdh/5.14.0/ cdh
修改配置文件
代码语言:javascript复制cd /etc/yum.repos.d/
mkdir bk
mv *.repo bk
cp bk/CentOS-Media.repo cdh.repo
vim cdh.repo
内容如下
其他两个节点也配置
安装impala
在主节点安装(node03)
代码语言:javascript复制yum install -y impala impala-server impala-state-store impala-catalog impala-shell
在从节点安装的(node01,node02)
代码语言:javascript复制yum install -y impala-server
修改hive配置文件
代码语言:javascript复制vim /export/servers/hive-1.1.0-cdh5.14.0/conf/hive-site.xml
在文件里添加如下配置
代码语言:javascript复制<property>
<name>hive.metastore.uris</name>
<value>thrift://node03:9083</value>
</property>
将配置文件cp给其他两个机器。
代码语言:javascript复制cd /export/servers/hive-1.1.0-cdh5.14.0/conf/
scp hive-site.xml node02:$PWD
scp hive-site.xml node03:$PWD
注意:这里配置的是那个节点,最后启动metastore时,必须在这个节点启动
修改hadoop配置文件
所有节点先创建 hdfs-sockets 文件夹
代码语言:javascript复制mkdir -p /var/run/hdfs-sockets
vim /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop//hdfs-site.xml
在文件里添加如下配置
代码语言:javascript复制 <property>
<name>dfs.client.read.shortcircuit</name>
<value>true</value>
</property>
<property>
<name>dfs.domain.socket.path</name>
<value>/var/run/hdfs-sockets/dn</value>
</property>
<property>
<name>dfs.client.file-block-storage-locations.timeout.millis</name>
<value>10000</value>
</property>
<property>
<name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
<value>true</value>
</property>
把更新hadoop的配置文件,scp给其他机器。
代码语言:javascript复制cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/
scp hdfs-site.xml node02:$PWD
scp hdfs-site.xml node03:$PWD
复制hadoop、hive的配置文件到impala配置文件
代码语言:javascript复制cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml /etc/impala/conf
cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml /etc/impala/conf
cp /export/servers/hive-1.1.0-cdh5.14.0/conf/hive-site.xml /etc/impala/conf
修改impala的配置文件
代码语言:javascript复制vim /etc/default/impala
修改内容如下
代码语言:javascript复制IMPALA_CATALOG_SERVICE_HOST=node03
IMPALA_STATE_STORE_HOST=node03
添加mysql驱动
取消MYSQL_CONNECTOR_JAR前面的注释 创建有效的软连接
代码语言:javascript复制ln -s /export/servers/hive-1.1.0-cdh5.14.0/lib/mysql-connector-java-5.1.38.jar /usr/share/java/mysql-connector-java.jar
修改bigtop配置(三个节点都要执行)
代码语言:javascript复制 vim /etc/default/bigtop-utils
重启hadoop、hive集群
在集群的主节点node01上启动集群
代码语言:javascript复制start-all.sh
在node03启动hive、metastore
代码语言:javascript复制hive --service hiveserver2 &
hive --service metastore &
启动、关闭impala服务
启动: 在impala的主节点node03启动以下三个服务进程
代码语言:javascript复制service impala-state-store start
service impala-catalog start
service impala-server start
在从节点node01、node02上启动以下服务进程
代码语言:javascript复制service impala-server start
关闭: 在impala的主节点node03停止以下三个服务进程
代码语言:javascript复制service impala-state-store stop
service impala-catalog stop
service impala-server stop
在从节点node01、node02上停止以下服务进程
代码语言:javascript复制service impala-server stop
进入impala中,查看数据库发现与hive中的数据库不一样
删除 /usr/bin/hive 就可以了
代码语言:javascript复制rm -rf /usr/bin/hive
在从节点node02、node03执行命令 hdfs dfs -ls / 与主节点node01不一样
删除 /usr/bin/hadoop 就可以了
代码语言:javascript复制rm -rf /usr/bin/hadoop