impala的安装部署

2021-02-05 10:18:54 浏览数 (1)

文章目录

  • 安装impala的之前
    • 集群提前安装好 hadoop,hive。
    • 每个节点需要先安装 nc
    • 安装impala的节点至少需要12G的剩余空间
  • 软件包的上传解压
    • 上传安装包
    • 解压安装包
  • 制作网络资源库(node03是主节点)
  • 安装impala
  • 修改hive配置文件
  • 修改hadoop配置文件
  • 复制hadoop、hive的配置文件到impala配置文件
  • 修改impala的配置文件
  • 修改bigtop配置(三个节点都要执行)
  • 重启hadoop、hive集群
  • 启动、关闭impala服务
  • 进入impala中,查看数据库发现与hive中的数据库不一样
  • 在从节点node02、node03执行命令 hdfs dfs -ls / 与主节点node01不一样

安装impala的之前

集群提前安装好 hadoop,hive。

hive安装包scp在所有需要安装impala的节点上,因为impala需要引用hive的依赖包。

每个节点需要先安装 nc

代码语言:javascript复制
yum -y install nc

安装impala的节点至少需要12G的剩余空间

软件包的上传解压

上传安装包

因为impala安装包大于4G,所有需要另行上传 登录ip

选择对应的安装包,上传到虚拟机

解压安装包

代码语言:javascript复制
cd /export/servers/
tar -zxvf /export/softwares/cdh5.14.0-centos6.tar.gz 

解压的安装包

制作网络资源库(node03是主节点)

安装httpd服务,启动httpd服务,并设置开机自启

代码语言:javascript复制
yum -y install httpd
service httpd start
chkconfig httpd on

设置软连接

代码语言:javascript复制
cd /var/www/html/
ln -s /export/servers/cdh/5.14.0/ cdh

修改配置文件

代码语言:javascript复制
cd /etc/yum.repos.d/
mkdir bk
mv *.repo bk
cp bk/CentOS-Media.repo cdh.repo
vim cdh.repo

内容如下

其他两个节点也配置

安装impala

在主节点安装(node03)

代码语言:javascript复制
yum install -y impala impala-server impala-state-store impala-catalog impala-shell

在从节点安装的(node01,node02)

代码语言:javascript复制
yum install -y impala-server

修改hive配置文件

代码语言:javascript复制
vim /export/servers/hive-1.1.0-cdh5.14.0/conf/hive-site.xml

在文件里添加如下配置

代码语言:javascript复制
<property>     
	<name>hive.metastore.uris</name>
	<value>thrift://node03:9083</value>
</property>

将配置文件cp给其他两个机器。

代码语言:javascript复制
cd /export/servers/hive-1.1.0-cdh5.14.0/conf/
scp hive-site.xml node02:$PWD 
scp hive-site.xml node03:$PWD

注意:这里配置的是那个节点,最后启动metastore时,必须在这个节点启动

修改hadoop配置文件

所有节点先创建 hdfs-sockets 文件夹

代码语言:javascript复制
mkdir -p /var/run/hdfs-sockets
vim /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop//hdfs-site.xml

在文件里添加如下配置

代码语言:javascript复制
	<property>
		<name>dfs.client.read.shortcircuit</name>
		<value>true</value>
	</property>
	<property>
		<name>dfs.domain.socket.path</name>
		<value>/var/run/hdfs-sockets/dn</value>
	</property>
	<property>
		<name>dfs.client.file-block-storage-locations.timeout.millis</name>
		<value>10000</value>
	</property>
	<property>
		<name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
		<value>true</value>
	</property>

把更新hadoop的配置文件,scp给其他机器。

代码语言:javascript复制
cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/
scp hdfs-site.xml node02:$PWD
scp hdfs-site.xml node03:$PWD 

复制hadoop、hive的配置文件到impala配置文件

代码语言:javascript复制
cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml /etc/impala/conf         
cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml /etc/impala/conf
cp /export/servers/hive-1.1.0-cdh5.14.0/conf/hive-site.xml /etc/impala/conf    

修改impala的配置文件

代码语言:javascript复制
vim /etc/default/impala

修改内容如下

代码语言:javascript复制
IMPALA_CATALOG_SERVICE_HOST=node03
IMPALA_STATE_STORE_HOST=node03

添加mysql驱动

取消MYSQL_CONNECTOR_JAR前面的注释 创建有效的软连接

代码语言:javascript复制
ln -s /export/servers/hive-1.1.0-cdh5.14.0/lib/mysql-connector-java-5.1.38.jar /usr/share/java/mysql-connector-java.jar

修改bigtop配置(三个节点都要执行)

代码语言:javascript复制
 vim /etc/default/bigtop-utils 

重启hadoop、hive集群

在集群的主节点node01上启动集群

代码语言:javascript复制
start-all.sh

在node03启动hive、metastore

代码语言:javascript复制
hive --service hiveserver2 &
hive --service metastore &

启动、关闭impala服务

启动: 在impala的主节点node03启动以下三个服务进程

代码语言:javascript复制
service impala-state-store start
service impala-catalog start
service impala-server start

在从节点node01、node02上启动以下服务进程

代码语言:javascript复制
service  impala-server  start

关闭: 在impala的主节点node03停止以下三个服务进程

代码语言:javascript复制
service impala-state-store stop
service impala-catalog stop
service impala-server stop

在从节点node01、node02上停止以下服务进程

代码语言:javascript复制
service  impala-server  stop

进入impala中,查看数据库发现与hive中的数据库不一样

删除 /usr/bin/hive 就可以了

代码语言:javascript复制
rm -rf /usr/bin/hive

在从节点node02、node03执行命令 hdfs dfs -ls / 与主节点node01不一样

删除 /usr/bin/hadoop 就可以了

代码语言:javascript复制
rm -rf /usr/bin/hadoop

0 人点赞