记录docker开发hadoop,解决bug Datanode denied communication with namenode because hostname cannot be

2021-03-22 11:40:47 浏览数 (1)

使用docker快速开发了一个单节点的hadoop 首先去docker hub上搜索hadoop

使用hadoop3.1.3的TAG即可,分别拉去datanode和namenode的镜像到本地

官方提供了修改配置文件的方法:

拉取完成后分别执行如下命令:

代码语言:javascript复制
docker run -d 
--name hadoopmaster 
--hostname hadoopmaster 
-e CLUSTER_NAME=xxx  #该镜像需要填写cluster_name才能创建
-e CORE_CONF_fs_defaultFS=hdfs://hadoopmaster:8020  #修改core-site.xml 的配置项(这里要和datanode对应一样,才能让datanode注册到该namenode上)
-e HDFS_CONF_dfs_namenode_datanode_registration_ip___hostname___check=false  (此添加项改为false,否则会报Datanode denied communication with namenode because hostname cannot xxx 的异常)
-e CORE_CONF_hadoop_tmp_dir=/hadoop/dfs/data -v  
-e HDFS_CONF_dfs_permissions_enabled=false (将权限关闭,否则hbase连接时会报写入权限问题)
/home/xxx/hadoop1/name:/hadoop/dfs/data  
-P -p 8020:8020 你的imageID(namenode)
代码语言:javascript复制
docker run -d --name datanode01 --hostname datanode01 --link hadoopmaster(必须加上才能通信到上面创建的镜像)  -e CORE_CONF_fs_defaultFS=hdfs://hadoopmaster:8020 -e CORE_CONF_hadoop_tmp_dir=/hadoop/dfs/data 
-e HDFS_CONF_dfs_namenode_datanode_registration_ip___hostname___check=false 
-e HDFS_CONF_dfs_permissions_enabled=false (将权限关闭,否则hbase连接时会报写入权限问题) 
-v /home/xxx/hadoop1/data1:/hadoop/dfs/data -P 你的imageID(datanode)

注:最开始启动时会报出域名解析问题(通过docker logs 镜像id查看) 由于配置hadoop没有使用host hostname的配置方式,所以hadoop无法解析DataNode,从而注册出了问题。 解决方法是在hdfs-site.xml中添加,也就是上面的响应-e 修改配置参数

代码语言:javascript复制
<property>
	<name>dfs.namenode.datanode.registration.ip-hostname-check</name>
	<value>false</value>
</property>

这里还要注意一点没有改workers文件是因为直接单启动,不是群起,只要fs_defaultFS一样即可以注册上

0 人点赞