【快速入门大数据】hadoop和它的hdfs、yarn、mapreduce

2021-12-06 14:14:59 浏览数 (1)

文章目录

  • 导学
  • 大数据概述
  • 初识Hadoop
    • 概述
    • 核心组件
      • HDFS分布式文件系统
      • 资源调度系统YARN
    • MapReduce
    • 优势
    • 发展史
    • 生态系统
    • 发行版本选择
    • 企业应用案例
  • 第3章 分布式文件系统HDFS
    • 设计分布式文件系统
    • 架构
    • 副本机制
    • 环境搭建
      • Mac上的仿xshell
      • CDH版-hadoop
      • jdk
      • ssh免密登录
      • 解决ifconfig命令失效
      • 解决ssh报错
      • hadoop
      • hdfs配置伪分布式1个节点
      • 启动hdfs
      • 停止hdfs
    • HDFS 常用shell指令
      • 配置hadoop/bin环境变量
      • 指令帮助
      • 前提环境-启动hdfs
      • 本地上传文件到hdfs
      • HDFS创建递归文件夹-p
      • 递归查看文件夹lsr
      • HDFS文件下载到本地 -get
      • HDFS删除文件,文件夹
      • 通过页面浏览128M的分块
      • 配置Mac本地host映射
    • Java-API操作HDFS文件
      • host映射
      • 开发环境
      • Java-API
      • 解决角色不同,不可写
      • 解决由于hdfs安全模式无法操作
      • HDFS-JavaAPI增删改查
    • HDFS读写流程
      • 写数据
      • 读数据
      • HDFS优缺点
    • 总结
  • 第4章 分布式资源调度YARN - 产生背景 - 概述
    • 架构
    • 执行流程
      • 环境搭建
      • 提交作业mr到yarn
    • 总结
  • 第5章 分布式计算框架MapReduce
    • 概述
    • WorldCount词频统计案例
    • 编程模型
    • map和reduce执行流程
    • 架构
      • 1.x
      • 2.x
    • Java写WordCount
      • JAVA代码
      • 手动删除
      • java自动删除
    • MapReduce编程之Combiner
    • MapReduce之Partitioner
    • MapReduce配置history
      • 解决聚合没有打开 log无法查看
  • 第6章 Hadoop项目实战

导学

开发环境

学做镜像

生态圈

目录

实战

分析客户端登录日志

与spring结合使用

扩展及新技术

大数据概述

场景

足球预判分析人物特性

购物推荐

来源

4v特征

量大、种类多、价值密度低、速度快

技术

采集-存储-分析-可视化

技术架构挑战

量大,无法用结构化数据库,关系型数据库

经典数据库没有考虑数据多类别 比如json

实时性的技术挑战

网络架构、数据中心、运维挑战

其他挑战

数据隐私

如何对大数据存储和分析

谷歌可以支持pc机处理,成本低。但容错要处理特别好。只有技术论文,没有技术实现

hadoop技术实现

mr mr

bigtable hbase

gfs hdfs

学习

官网-英文-实战-社区活动-动手练习-持续

初识Hadoop

概述

名字源于孩子玩具hadoop

官网

http://hadoop.apache.org/

开源、分布式存储 计算、可扩展

核心组件

HDFS分布式文件系统

扩展、容错(副本)、海量存储

128m数据块

文件-分块-备份 (编号)

资源调度系统YARN

Hadoop1.x只支持rm,但Hadoop2.x通过Yarn支持其他(spark)

MapReduce

shuffing重新洗牌,把相同的key分到一个地方

优势

发展史

infoq.com

https://www.infoq.cn/article/hadoop-ten-years-interpretation-and-development-forecast

谷歌

Apache hadoop开源 2006, 900节点1T 209秒 世界最快 2008 商业化公司 首Hadoop发行版 《权威指南》2009

Hbse、Pig、Hive、Zookeep脱离Hadoop成为Apache顶级项目

Spark逐渐代替MR成为Hadoop执行引擎 2014

IBM-基于hadoop数据分析软件

移动-大云 研究hadoop

阿里-云梯 处理电子商务数据

Mapr公司 推出mapr和分布式文件系统

现在Hadoop3.x

生态系统

有hadoop不够,mr只能实现离线批处理,但如果还要实时计算还需要生态系统的其他玩家 spark

39.47

hive: sql->mr 适用离线文件分析

R 统计分析

Mathout深度学习 往spark方向去了,底层mr不更新了

pig脚本->mr 适合离线分析

Oozie 依赖关系工作流

Zookeeper分布式协调管理多组件 (Hbase单点故障问题)

Flume分布式日志收集

Sqoop传统数据库和hadoop数据传输

Hbase结构化可伸缩的存储数据库 实时查询数据 快查(s级别上)

发行版本选择

解决jar包冲突

商业按照

CDH提供cm码,浏览器下一步安装,文档丰富,Spark合作,cm不开源可能有坑

https://archive.cloudera.com/cdh5/cdh/5/

选择尾缀相同的tar.gz cdh

HDP安装和升级,添加和删除节点比较费劲

CDH >HDP > Apache

企业应用案例

预测发货 亚马逊

构建购买人群模型,发邮件 怀孕

啤酒和尿布

第3章 分布式文件系统HDFS

设计分布式文件系统

每个文件128M存入前分块,解决并行处理提升效率,多副本存储负载均衡。

架构

运行在Linux上HDFS由Java编写

副本机制

分块-副本不同节点上

hdfs不支持多并发写。

副本存放策略

先同机架,后不同机架。为了安全应该最少一个机架

副本挂掉之后可以到另一个机架获取

环境搭建

hadoop

java-jdk

mysql

关闭防火墙

代码语言:javascript复制
设置防火墙
查看防火墙状态
systemctl status firewalld.service

停止firewall
systemctl stop firewalld.service

禁止firewall开机启动
systemctl disable firewalld.service

Mac上的仿xshell

https://cloud.tencent.com/developer/article/1757006

CDH版-hadoop

cdh版本的hadoop和其他第三方具有稳定性

https://archive.cloudera.com/cdh5/cdh/5/

hadoop需要配合java环境和ssh使用

java环境

ssh

先搭建伪分布式

jdk

代码语言:javascript复制
// 解压
tar -zxvf 待解压文件
-C 指定目录解压
// 配置
vi /etc/profile
export JAVA_HOME=/root/software/jdk1.8.0_91
export PATH=$JAVA_HOME/bin:$PATH
// 刷新
source /etc/profile
// 验证
java -version
java version "1.8.0_91"
Java(TM) SE Runtime Environment (build 1.8.0_91-b14)
Java HotSpot(TM) 64-Bit Server VM (build 25.91-b14, mixed mode)

tar -zxvf 文件 -C 解压路径

配置环境变量

验证生效

source /etc/pro // 也可以这样

ssh免密登录

如果提示没有可用的软件包,是本机安装的时候就自动安装了

代码语言:javascript复制
sudo yum install ssh
没有可用软件包 ssh。
错误:无须任何处理
代码语言:javascript复制
[root@hadoop01 jdk1.8.0_91]# ssh-keygen -t rsa
// 连续回车
// 存储
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
// 进入存储 .sh查
[root@hadoop01 ~]# ls -al

.开头目录默认隐藏

ls -al // 展示.开头文件进入目录

拷贝文件

代码语言:javascript复制
[root@hadoop01 .ssh]# cp ~/.ssh/id_rsa.pub  ~/.ssh/authorized_keys
[root@hadoop01 .ssh]# cat authorized_keys
ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQDcNTPFpbnrmR3TAp 3Hw8aFpr7uGp88vzCJi3BCn6EIInEIWp0LMgDglDnUx3OJ8/fg2bNKfrukWmcKQUcpLXrXlw0cFsSHM9Jwh1weNgq3JBsS3dfQ8Vu5OdNkOL85PwbL3/K9BdkZcJhtCKEYGuyK20XMgrD 8WHGxtvTXX6G3WstvbuzLU/ex K1zopjb12z9gJ1tpUZyCShllnU/NbSQMeMPSOKyb2Z18YGF ienOf1lfklzE9zj4LGgxG5gQQtgmSWrI85sOrBKqCgzBBVYxA2Rh97XKqbJlD9DdOoc0F4kBBBz6i1pJA4jDg8shEpfz/jD8oKunS7UQLQxEt
root@hadoop01

// 验证登录
[root@hadoop01 .ssh]# ssh localhost
The authenticity of host 'localhost (::1)' can't be established.
ECDSA key fingerprint is 84:7e:3a:83:2a:8e:26:e3:ba:15:72:36:4b:05:45:d6.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'localhost' (ECDSA) to the list of known hosts.
Last login: Thu Oct  1 12:13:45 2020 from 192.168.210.1
[root@hadoop01 ~]# exit
登出

// 解决ssh hadoop01 找不到名称
[root@hadoop01 ~]# ssh hadoop01
The authenticity of host 'hadoop01 (::1)' can't be established.
ECDSA key fingerprint is 84:7e:3a:83:2a:8e:26:e3:ba:15:72:36:4b:05:45:d6.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'hadoop01' (ECDSA) to the list of known hosts.
Last login: Sun Oct  4 02:22:22 2020 from 192.168.210.1
[root@hadoop01 ~]# exit
登出
Connection to hadoop01 closed.
[root@hadoop01 ~]# ssh hadoop01
Last login: Sun Oct  4 02:22:32 2020 from localhost
[root@hadoop01 ~]# exit
登出
Connection to hadoop01 closed.

验证是否配置成功

解决ifconfig命令失效

没有安装ifconfig等命令,运行ifconfig命令就会出错。

解决方法:

yum search ifconfig

yum install net-tools.x86_64

解决ssh报错

Linux-SSH报错:Could not resolve hostname node1: Name or service not know

代码语言:javascript复制
#vi /etc/hosts
127.0.0.1   localhost hadoop01 localhost4 localhost4.localdomain4
::1         localhost hadoop01 localhost6 localhost6.localdomain6
// 重启
reboot

hadoop

bin文件

客户端

删除所有cmd文件,这是windows上使用的

代码语言:javascript复制
[root@hadoop01 hadoop-2.6.0-cdh5.7.0]# cd bin
[root@hadoop01 bin]# ll
总用量 84
-rwxr-xr-x. 1 1106 4001  5509 3月  24 2016 hadoop
-rwxr-xr-x. 1 1106 4001  8298 3月  24 2016 hadoop.cmd
-rwxr-xr-x. 1 1106 4001 12175 3月  24 2016 hdfs
-rwxr-xr-x. 1 1106 4001  6915 3月  24 2016 hdfs.cmd
-rwxr-xr-x. 1 1106 4001  5463 3月  24 2016 mapred
-rwxr-xr-x. 1 1106 4001  5949 3月  24 2016 mapred.cmd
-rwxr-xr-x. 1 1106 4001  1776 3月  24 2016 rcc
-rwxr-xr-x. 1 1106 4001 12176 3月  24 2016 yarn
-rwxr-xr-x. 1 1106 4001 10895 3月  24 2016 yarn.cmd
[root@hadoop01 bin]# rm *.cmd
rm:是否删除普通文件 "hadoop.cmd"?
rm:是否删除普通文件 "hdfs.cmd"?
rm:是否删除普通文件 "mapred.cmd"?
rm:是否删除普通文件 "yarn.cmd"

etc/hadoop

配置文件

sbin

启动集群的

hadoop-2.6.0-cdh5.7.0/share/hadoop/mapreduce

案例使用

hadoop-mapreduce-examples-2.6.0-cdh5.7.0.jar

hadoop配置文件的修改

etc/hadoop

代码语言:javascript复制
// 获取java位置
[root@hadoop01 ~]# echo $JAVA_HOME
/root/software/jdk1.8.0_91
//修改文件
hadoop]# vi hadoop-env.sh

# The java implementation to use.
export JAVA_HOME=/root/software/jdk1.8.0_91

hdfs配置伪分布式1个节点

代码语言:javascript复制
etc/hadoop/core-site.xml:
	// hdfs生成目录
	<property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop01:8020</value>
    </property>
    // 解决:临时目录变指定目录hdfs位置(注意创建目录)
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/root/hadoop/tmp</value>
    </property>
    

etc/hadoop/hdfs-site.xml:
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
// 集群slave,1个nameNode和多个dateNode
有多少个dateNode,直接把hostname写到slaves中
vi slaves
hadoop01
代码语言:javascript复制
[root@hadoop01 ~]# mkdir hadoop
[root@hadoop01 ~]# cd hadoop/
[root@hadoop01 hadoop]# mkdir tmp
[root@hadoop01 hadoop]# cd tmp/
[root@hadoop01 tmp]# ll
总用量 0
[root@hadoop01 tmp]# pwd
/root/hadoop/tmp

启动hdfs

1格式化文件系统

代码语言:javascript复制
// hdfs格式化启动(一次启动,不可多次启动)
$ bin/hdfs namenode -format
// 过时hadoop改用hdfs
DEPRECATED: Use of this script to execute hdfs command is deprecated.
bin]# ./hadoop namenode -format

2启动hdfs

代码语言:javascript复制
Start NameNode daemon and DataNode daemon:

  $ sbin/start-dfs.sh
  sbin]# ./start-dfs.sh
  yes
// 验证1 jps
[root@hadoop01 sbin]# jps
2599 DataNode
2521 NameNode
2778 SecondaryNameNode
2890 Jps
// 假设出现问题追踪日志 out->log 启动时有路径
sbin]# cat /root/software/hadoop-2.6.0-cdh5.7.0/logs/hadoop-root-namenode-hadoop01.log
// 验证2 网页
http://192.168.210.121:50070/

页面可以查看当前活跃节点

存活的节点信息

日志目录输出 data name namesecondary

代码语言:javascript复制
[root@hadoop01 ~]# cd /root/hadoop/tmp/
[root@hadoop01 tmp]# ll
总用量 0
drwxr-xr-x. 5 root root 48 10月  4 06:36 dfs
[root@hadoop01 tmp]# cd dfs/
[root@hadoop01 dfs]# ll
总用量 0
drwx------. 3 root root 38 10月  4 06:36 data
drwxr-xr-x. 3 root root 38 10月  4 06:36 name
drwxr-xr-x. 3 root root 38 10月  4 06:38 namesecondary

停止hdfs

代码语言:javascript复制
[root@hadoop01 sbin]# ./stop-dfs.sh
[root@hadoop01 sbin]# jps
3243 Jps

HDFS 常用shell指令

配置hadoop/bin环境变量

代码语言:javascript复制
vi /etc/profile

export HADOOP_HOME=/root/software/hadoop-2.6.0-cdh5.7.0
export PATH=$HADOOP_HOME/bin:$PATH

source /etc/profile

指令帮助

测试查看指令帮助

代码语言:javascript复制
hdfs
Usage: hdfs [--config confdir] COMMAND
       where COMMAND is one of:
  dfs                  run a filesystem command on the file systems supported in Hadoop.
  namenode -format     format the DFS filesystem
  secondarynamenode    run the DFS secondary namenode
  namenode             run the DFS namenode
  journalnode          run the DFS journalnode
  zkfc                 run the ZK Failover Controller daemon
  datanode             run a DFS datanode
  dfsadmin             run a DFS admin client
  haadmin              run a DFS HA admin client
  fsck                 run a DFS filesystem checking utility
  balancer             run a cluster balancing utility
  jmxget               get JMX exported values from NameNode or DataNode.
  mover                run a utility to move block replicas across
                       storage types
  oiv                  apply the offline fsimage viewer to an fsimage
  oiv_legacy           apply the offline fsimage viewer to an legacy fsimage
  oev                  apply the offline edits viewer to an edits file
  fetchdt              fetch a delegation token from the NameNode
  getconf              get config values from configuration
  groups               get the groups which users belong to
  snapshotDiff         diff two snapshots of a directory or diff the
                       current directory contents with a snapshot
  lsSnapshottableDir   list all snapshottable dirs owned by the current user
						Use -help to see options
  portmap              run a portmap service
  nfs3                 run an NFS version 3 gateway
  cacheadmin           configure the HDFS cache
  crypto               configure HDFS encryption zones
  storagepolicies      list/get/set block storage policies
  version              print the version

提示使用hadoop fs 参数

代码语言:javascript复制
[root@hadoop01 bin]# hdfs dfs
Usage: hadoop fs [generic options]
	[-appendToFile <localsrc> ... <dst>]
	[-cat [-ignoreCrc] <src> ...]
	[-checksum <src> ...]
	[-chgrp [-R] GROUP PATH...]
	[-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
	[-chown [-R] [OWNER][:[GROUP]] PATH...]
	[-copyFromLocal [-f] [-p] [-l] <localsrc> ... <dst>]
	[-copyToLocal [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
	[-count [-q] [-h] [-v] <path> ...]
	[-cp [-f] [-p | -p[topax]] <src> ... <dst>]
	[-createSnapshot <snapshotDir> [<snapshotName>]]
	[-deleteSnapshot <snapshotDir> <snapshotName>]
	[-df [-h] [<path> ...]]
	[-du [-s] [-h] <path> ...]
	[-expunge]
	[-find <path> ... <expression> ...]
	[-get [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
	[-getfacl [-R] <path>]
	[-getfattr [-R] {-n name | -d} [-e en] <path>]
	[-getmerge [-nl] <src> <localdst>]
	[-help [cmd ...]]

前提环境-启动hdfs

代码语言:javascript复制
[root@hadoop01 sbin]# ./start-dfs.sh
[root@hadoop01 sbin]# jps
3665 DataNode
3555 NameNode
3925 Jps
3822 SecondaryNameNode

本地上传文件到hdfs

创建本地文件/root/data

代码语言:javascript复制
[root@hadoop01 ~]# mkdir data
[root@hadoop01 ~]# cd data/
[root@hadoop01 data]# vi hello.txt

hello world
hello hadoop
hello hdfs

上传文件

代码语言:javascript复制
[root@hadoop01 ~]# cd /root/data/
[root@hadoop01 data]# hadoop fs -ls /
20/10/04 07:29:03 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
[root@hadoop01 data]# hadoop fs -put hello.txt /
20/10/04 07:29:13 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
[root@hadoop01 data]# hadoop fs -ls /
20/10/04 07:29:18 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Found 1 items
-rw-r--r--   1 root supergroup         37 2020-10-04 07:29 /hello.txt
[root@hadoop01 data]# hadoop fs -cat /hello.txt
20/10/04 07:30:31 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
hello world
hello hadoop
hello hdfs

法2copy

代码语言:javascript复制
[root@hadoop01 data]# hadoop fs -copyFromLocal hello.txt /hello/a/b/h.txt
20/10/04 07:39:06 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
[root@hadoop01 data]# hadoop fs -lsr /
lsr: DEPRECATED: Please use 'ls -R' instead.
20/10/04 07:39:35 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
drwxr-xr-x   - root supergroup          0 2020-10-04 07:32 /hello
drwxr-xr-x   - root supergroup          0 2020-10-04 07:32 /hello/a
drwxr-xr-x   - root supergroup          0 2020-10-04 07:39 /hello/a/b
-rw-r--r--   1 root supergroup         37 2020-10-04 07:39 /hello/a/b/h.txt
-rw-r--r--   1 root supergroup         37 2020-10-04 07:29 /hello.txt
[root@hadoop01 data]# hadoop fs -cat /hello/a/b/h.txt
20/10/04 07:39:59 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
hello world
hello hadoop
hello hdfs

HDFS创建递归文件夹-p

代码语言:javascript复制
// mkdir -p 递归创建hdfs上的文件夹
[root@hadoop01 data]# hadoop fs -mkdir -p  /hello/a/b
20/10/04 07:32:59 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
[root@hadoop01 data]# hadoop fs -ls /
20/10/04 07:33:07 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Found 2 items
drwxr-xr-x   - root supergroup          0 2020-10-04 07:32 /hello
-rw-r--r--   1 root supergroup         37 2020-10-04 07:29 /hello.txt
[root@hadoop01 data]# hadoop fs -ls /hello
20/10/04 07:34:20 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Found 1 items
drwxr-xr-x   - root supergroup          0 2020-10-04 07:32 /hello/a
[root@hadoop01 data]# hadoop fs -ls /hello/a
20/10/04 07:34:26 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Found 1 items
drwxr-xr-x   - root supergroup          0 2020-10-04 07:32 /hello/a/b

递归查看文件夹lsr

过期建议使用-R

代码语言:javascript复制
[root@hadoop01 data]# hadoop fs -lsr /
lsr: DEPRECATED: Please use 'ls -R' instead.
20/10/04 07:35:28 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
drwxr-xr-x   - root supergroup          0 2020-10-04 07:32 /hello
drwxr-xr-x   - root supergroup          0 2020-10-04 07:32 /hello/a
drwxr-xr-x   - root supergroup          0 2020-10-04 07:32 /hello/a/b
-rw-r--r--   1 root supergroup         37 2020-10-04 07:29 /hello.txt

HDFS文件下载到本地 -get

代码语言:javascript复制
[root@hadoop01 data]# ls
hello.txt
[root@hadoop01 data]# hadoop fs -get /hello/a/b/h.txt
20/10/04 07:41:50 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
[root@hadoop01 data]# ls
hello.txt  h.txt

HDFS删除文件,文件夹

代码语言:javascript复制
// 删除文件rm
[root@hadoop01 data]# hadoop fs -rm /hello
20/10/04 07:43:58 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
rm: `/hello': Is a directory
[root@hadoop01 data]# hadoop fs -rm /hello.txt
20/10/04 07:44:10 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Deleted /hello.txt
[root@hadoop01 data]# hadoop fs -ls -R /
20/10/04 07:44:46 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
drwxr-xr-x   - root supergroup          0 2020-10-04 07:32 /hello
drwxr-xr-x   - root supergroup          0 2020-10-04 07:32 /hello/a
drwxr-xr-x   - root supergroup          0 2020-10-04 07:39 /hello/a/b
-rw-r--r--   1 root supergroup         37 2020-10-04 07:39 /hello/a/b/h.txt

// 删除文件夹必须递归 -R
[root@hadoop01 data]# hadoop fs -rm -R /hello
20/10/04 07:45:57 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Deleted /hello
[root@hadoop01 data]# hadoop fs -ls -R /

通过页面浏览128M的分块

http://192.168.210.121:50070/

上传文件小于128,和大于128的情况

代码语言:javascript复制
// h可以展示暂用空间
[root@hadoop01 software]# ls -lh
总用量 472M
drwxr-xr-x. 15 1106 4001 4.0K 10月  4 06:35 hadoop-2.6.0-cdh5.7.0
-rw-r--r--.  1 root root 298M 10月  1 12:28 hadoop-2.6.0-cdh5.7.0.tar.gz
drwxr-xr-x.  8   10  143 4.0K 4月   1 2016 jdk1.8.0_91
-rw-r--r--.  1 root root 173M 10月  1 12:29 jdk-8u91-linux-x64.tar.gz
-rw-r--r--.  1 root root 961K 10月  1 12:28 mysql-connector-java-5.1.38.jar
[root@hadoop01 software]# hadoop fs -put hadoop-2.6.0-cdh5.7.0.tar.gz /

小于128,1块

大于128,298,分成3块

配置Mac本地host映射

代码语言:javascript复制
 bennyrhys$ sudo vim /etc/hosts
 # 大数据hadoop测试
192.168.210.121 hadoop01
192.168.210.122 hadoop02
192.168.210.123 hadoop03

Java-API操作HDFS文件

host映射

本地映射

代码语言:javascript复制
 bennyrhys$ vim /etc/hosts
# 大数据hadoop测试
192.168.210.121 hadoop01
192.168.210.122 hadoop02
192.168.210.123 hadoop03

centos映射

Centos7和别的版本有点区别

uname -n :查看host对应的域名

1 先在/etc/hostname 配置想要的域名 默认localhost.localdomain修改hadoop101

2 在/etc/hosts 配置ip和域名映射 192.168.31.101 hadoop101

代码语言:javascript复制
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.210.121 hadoop01
192.168.210.122 hadoop02
192.168.210.123 hadoop03

开发环境

创建本地maven项目

代码语言:javascript复制
  <properties>
    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
    <maven.compiler.source>1.7</maven.compiler.source>
    <maven.compiler.target>1.7</maven.compiler.target>
    <hadoop.version>2.7.3</hadoop.version>
  </properties>

  <dependencies>


    <dependency>
      <groupId>org.apache.hadoop</groupId>
      <artifactId>hadoop-client</artifactId>
      <version>${hadoop.version}</version>
    </dependency>

指定cdh的本地仓库和url地址(默认没有cdh的包)

https://repository.cloudera.com/

cdh版本安装

https://repository.cloudera.com/cloudera/webapp/#/home

代码语言:javascript复制
<properties>
    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
    <maven.compiler.source>1.7</maven.compiler.source>
    <maven.compiler.target>1.7</maven.compiler.target>
    <hadoop.version>2.6.0-cdh5.7.0</hadoop.version>
  </properties>

  <repositories>
    <repository>
      <id>cloudera</id>
      <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
    </repository>
  </repositories>

  <dependencies>


    <dependency>
      <groupId>org.apache.hadoop</groupId>
      <artifactId>hadoop-client</artifactId>
      <version>${hadoop.version}</version>
    </dependency>

    <dependency>
      <groupId>junit</groupId>
      <artifactId>junit</artifactId>
      <version>4.11</version>
      <scope>test</scope>
    </dependency>
  </dependencies>

Java-API

注意导入的包

虚拟机配置文件

代码语言:javascript复制
[root@hadoop01 hadoop]# vi core-site.xml
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.210.121:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/root/hadoop/tmp</value>
    </property>
</configuration>

Java代码

代码语言:javascript复制
package com.bennyrhys.hadoop.hdfs;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.junit.After;
import org.junit.Before;
import org.junit.Test;

import java.net.URI;

/**
 * HADDOP HDFS API 操作
 * @Author bennyrhys
 * @Date 2020-10-04 13:34
 */
public class HDFSApp {
    public static final String HDFS_PATH = "hdfs://hadoop01:9000";
    FileSystem fileSystem = null;
    Configuration configuration = null;

    /**
     * 创建目录
     * @throws Exception
     */
    @Test
    public void mkdir() throws Exception{
        /*System.setProperty("HADOOP_USER_NAME","root");
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://hadoop01:9000");
        conf.set("dfs.replication", "1");
        FileSystem fs = FileSystem.get(conf);
        fs.mkdirs(new Path("/hdfsapi1/test"));*/

        fileSystem.mkdirs(new Path("/hdfsapi2/test"));
    }

    @Before
    public void setUp() throws Exception {
        System.out.println("HDFS.setUp");
        configuration = new Configuration();
        fileSystem = FileSystem.get(new URI(HDFS_PATH), configuration, "root");
    }

    @After
    public void tearDown() throws Exception {
        configuration = null;
        fileSystem = null;
        System.out.println("HDFS.tearDown");
    }
}

验证虚拟机生成文件

代码语言:javascript复制
[root@hadoop01 hadoop]# hadoop fs -ls -R /
20/10/04 12:28:34 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
-rw-r--r--   1 root supergroup  311585484 2020-10-04 07:52 /hadoop-2.6.0-cdh5.7.0.tar.gz
drwxr-xr-x   - root supergroup          0 2020-10-04 12:14 /hdfsapi
drwxr-xr-x   - root supergroup          0 2020-10-04 12:14 /hdfsapi/test
-rw-r--r--   1 root supergroup         37 2020-10-04 07:47 /hello.txt

解决角色不同,不可写

fileSystem = FileSystem.get(new URI(HDFS_PATH), configuration, "root");

解决由于hdfs安全模式无法操作

关闭安全模式

代码语言:javascript复制
hdfs dfsadmin -safemode leave

HDFS-JavaAPI增删改查

代码语言:javascript复制
package com.bennyrhys.hadoop.hdfs;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.util.Progressable;
import org.junit.After;
import org.junit.Before;
import org.junit.Test;

import java.io.BufferedInputStream;
import java.io.File;
import java.io.FileInputStream;
import java.io.InputStream;
import java.net.URI;

/**
 * HADDOP HDFS API 操作
 * @Author bennyrhys
 * @Date 2020-10-04 13:34
 */
public class HDFSApp {
    public static final String HDFS_PATH = "hdfs://hadoop01:9000";
    FileSystem fileSystem = null;
    Configuration configuration = null;

    /**
     * 创建目录
     * @throws Exception
     */
    @Test
    public void mkdir() throws Exception{
        /*System.setProperty("HADOOP_USER_NAME","root");
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://hadoop01:9000");
        conf.set("dfs.replication", "1");
        FileSystem fs = FileSystem.get(conf);
        fs.mkdirs(new Path("/hdfsapi1/test"));*/

        fileSystem.mkdirs(new Path("/hdfsapi2/test"));
    }

    /**
     * 创建一个文件
     * @throws Exception
     */
    @Test
    public void create() throws Exception{
        FSDataOutputStream output = fileSystem.create(new Path("/hdfsapi/test/a.txt"));
        output.write("hello world".getBytes());
        output.flush();
        output.close();
    }

    /**
     * 查看文件
     */
    @Test
    public void cat() throws Exception{
        FSDataInputStream in = fileSystem.open(new Path("/hdfsapi/test/a.txt"));
        IOUtils.copyBytes(in, System.out, 1024);
        in.close();

    }

    /**
     * 文件重命名
     */
    @Test
    public void rename() throws Exception{
        Path oldPath = new Path("/hdfsapi/test/a.txt");
        Path newPath = new Path("/hdfsapi/test/b.txt");
        fileSystem.rename(oldPath, newPath);
    }

    /**
     * 本地上传小文件
     */
    @Test
    public void copyFromLocalFile()throws Exception{
        Path localPath = new Path("/Users/bennyrhys/Desktop/hello.txt");
        Path targetPath = new Path("/hdfsapi/test/");
        fileSystem.copyFromLocalFile(localPath,targetPath);
    }
    /**
     * 本地上传大文件
     * io流操作
     */
    @Test
    public void copyFromLocalFileWithProgess()throws Exception{
        /*Path localPath = new Path("/Users/bennyrhys/Desktop/hadoop/hadoop-2.6.0-cdh5.7.0.tar.gz");
        Path targetPath = new Path("/hdfsapi/test/");
        fileSystem.copyFromLocalFile(localPath,targetPath);*/

        //297M ls -lh
        // io 输入
        InputStream in = new BufferedInputStream(
                new FileInputStream(
                new File("/Users/bennyrhys/Desktop/hadoop/hadoop-2.6.0-cdh5.7.0.tar.gz")));
        // 输出 进度显示
        FSDataOutputStream out = fileSystem.create(new Path("/hdfsapi/test/hadoop-2.6.0.tar.gz"),
                new Progressable() {
                    @Override
                    public void progress() {
                        System.out.println("."); // 带进度提醒信息
                    }
                });

        IOUtils.copyBytes(in, out, 4096);

    }

    /**
     * hdfs下载到本地
     * @throws Exception
     */
    @Test
    public void copyToLocalFile() throws Exception{
        Path hdfsPath = new Path("/hdfsapi/test/b.txt");
        Path localPath = new Path("/Users/bennyrhys/Desktop/temp.txt");
        fileSystem.copyToLocalFile(hdfsPath, localPath);
    }

    /**
     * hdfs指定路径的文件信息
     * @throws Exception
     */
    @Test
    public void listStatus() throws Exception {
        FileStatus[] fileStatuses = fileSystem.listStatus(new Path("/hdfsapi/test/"));
        for (FileStatus fileStatus : fileStatuses) {
            String isDir = fileStatus.isDirectory() ? "文件夹" : "文件";
            short replication = fileStatus.getReplication(); // 副本数量(hdfs上传有副本预设1,本地没有预设显示3)
            long len = fileStatus.getLen();
            Path path = fileStatus.getPath();
            System.out.println(isDir   "t"   replication   "t"   len   "t"   path);
        }
    }

    /**
     * 删除目录下的文件
     * @throws Exception
     */
    @Test
    public void delete() throws Exception{
        fileSystem.delete(new Path("/hdfsapi/test/"), true); // 默认递归删除
    }

    @Before
    public void setUp() throws Exception {
        System.out.println("HDFS.setUp");
        configuration = new Configuration();
        fileSystem = FileSystem.get(new URI(HDFS_PATH), configuration, "root");
    }

    @After
    public void tearDown() throws Exception {
        configuration = null;
        fileSystem = null;
        System.out.println("HDFS.tearDown");
    }
}

HDFS读写流程

写数据

NameNode(全局把控,唯一)

DataNode(数据存储,多个)

客户端请求(默认配置128M的块,3个副本)

创建副本(流水线串联副本创建)

客户端 分块12M/块

NameNode 记住每个块,所对应的DataNode存在哪几个副本节点

DataNode 存储并返回NameNode成功存储

读数据

客户端 提供名字

NameNode 提供名字对应的(多个被拆分的块id,及对应的副本DataNode位置)

客户端-DataNode获取最近数据

HDFS优缺点

读写数据有完善的容错机制

流式数据,一次写入多次读取

适合大文件存储

构建在廉价机器上

低延迟数据访问

小文件(会暂用内存,NameNode压力也就变大)

总结

代码语言:javascript复制
HDFS架构

1 Master(NameNode/NN)  带 N个Slaves(DataNode/DN)
HDFS/YARN/HBase

1个文件会被拆分成多个Block
blocksize:128M
130M ==> 2个Block: 128M 和 2M

NN:
1)负责客户端请求的响应
2)负责元数据(文件的名称、副本系数、Block存放的DN)的管理

DN:
1)存储用户的文件对应的数据块(Block)
2)要定期向NN发送心跳信息,汇报本身及其所有的block信息,健康状况

A typical deployment has a dedicated machine that runs only the NameNode software. 
Each of the other machines in the cluster runs one instance of the DataNode software.
The architecture does not preclude running multiple DataNodes on the same machine 
but in a real deployment that is rarely the case.

NameNode   N个DataNode
建议:NN和DN是部署在不同的节点上


replication factor:副本系数、副本因子

All blocks in a file except the last block are the same size







































Hadoop伪分布式安装步骤
1)jdk安装
	解压:tar -zxvf jdk-7u79-linux-x64.tar.gz -C ~/app
	添加到系统环境变量: ~/.bash_profile
		export JAVA_HOME=/home/hadoop/app/jdk1.7.0_79
		export PATH=$JAVA_HOME/bin:$PATH
	使得环境变量生效: source ~/.bash_profile
	验证java是否配置成功: java -v

2)安装ssh
	sudo yum install ssh
	ssh-keygen -t rsa
	cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys	

3)下载并解压hadoop
	下载:直接去cdh网站下载
	解压:tar -zxvf hadoop-2.6.0-cdh5.7.0.tar.gz -C ~/app

4)hadoop配置文件的修改(hadoop_home/etc/hadoop)
	hadoop-env.sh
		export JAVA_HOME=/home/hadoop/app/jdk1.7.0_79

	core-site.xml
		<property>
	        <name>fs.defaultFS</name>
	        <value>hdfs://hadoop000:8020</value>
	    </property>

	    <property>
	        <name>hadoop.tmp.dir</name>
	        <value>/home/hadoop/app/tmp</value>
	    </property>

	hdfs-site.xml
		<property>
	        <name>dfs.replication</name>
	        <value>1</value>
	    </property>

	slaves    

5)启动hdfs
	格式化文件系统(仅第一次执行即可,不要重复执行):hdfs/hadoop namenode -format
	启动hdfs: sbin/start-dfs.sh
	验证是否启动成功:
		jps
			DataNode
			SecondaryNameNode
			NameNode

		浏览器访问方式: http://hadoop000:50070

6)停止hdfs
	sbin/stop-dfs.sh 



Hadoop shell的基本使用
hdfs dfs
hadoop fs



Java API操作HDFS文件
文件	1	311585484	hdfs://hadoop000:8020/hadoop-2.6.0-cdh5.7.0.tar.gz
文件夹	0	0	hdfs://hadoop000:8020/hdfsapi
文件	1	49	hdfs://hadoop000:8020/hello.txt
文件	1	40762	hdfs://hadoop000:8020/install.log

问题:我们已经在hdfs-site.xml中设置了副本系数为1,为什么此时查询文件看到的3呢?
 如果你是通过hdfs shell的方式put的上去的那么,才采用默认的副本系数1
 如果我们是java api上传上去的,在本地我们并没有手工设置副本系数,所以否则采用的是hadoop自己的副本系数

第4章 分布式资源调度YARN

产生背景

概述

架构

执行流程

环境搭建

官网配置

告诉mr是跑在yarn上

https://hadoop.apache.org/

https://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.7.0/

etc/hadoop/mapred-site.xml:

代码语言:javascript复制
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

etc/hadoop/yarn-site.xml:

代码语言:javascript复制
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

启动

$ sbin/start-yarn.sh

检验

http://localhost:8088/

jps

ResourceManager

NodeManager

停止

$ sbin/stop-yarn.sh

提交作业mr到yarn

代码语言:javascript复制
[root@hadoop01 mapreduce]# pwd
/root/software/hadoop-2.6.0-cdh5.7.0/share/hadoop/mapreduce
[root@hadoop01 mapreduce]# ll
总用量 4876
-rw-r--r--. 1 1106 4001  523960 3月  24 2016 hadoop-mapreduce-client-app-2.6.0-cdh5.7.0.jar
-rw-r--r--. 1 1106 4001  753831 3月  24 2016 hadoop-mapreduce-client-common-2.6.0-cdh5.7.0.jar
-rw-r--r--. 1 1106 4001 1542374 3月  24 2016 hadoop-mapreduce-client-core-2.6.0-cdh5.7.0.jar
-rw-r--r--. 1 1106 4001  171256 3月  24 2016 hadoop-mapreduce-client-hs-2.6.0-cdh5.7.0.jar
-rw-r--r--. 1 1106 4001   10467 3月  24 2016 hadoop-mapreduce-client-hs-plugins-2.6.0-cdh5.7.0.jar
-rw-r--r--. 1 1106 4001   43777 3月  24 2016 hadoop-mapreduce-client-jobclient-2.6.0-cdh5.7.0.jar
-rw-r--r--. 1 1106 4001 1499926 3月  24 2016 hadoop-mapreduce-client-jobclient-2.6.0-cdh5.7.0-tests.jar
-rw-r--r--. 1 1106 4001   91087 3月  24 2016 hadoop-mapreduce-client-nativetask-2.6.0-cdh5.7.0.jar
-rw-r--r--. 1 1106 4001   50818 3月  24 2016 hadoop-mapreduce-client-shuffle-2.6.0-cdh5.7.0.jar
-rw-r--r--. 1 1106 4001  276202 3月  24 2016 hadoop-mapreduce-examples-2.6.0-cdh5.7.0.jar
drwxr-xr-x. 2 1106 4001    4096 3月  24 2016 lib
drwxr-xr-x. 2 1106 4001      29 3月  24 2016 lib-examples
drwxr-xr-x. 2 1106 4001    4096 3月  24 2016 sources

[root@hadoop01 mapreduce]# hadoop jar hadoop-mapreduce-examples-2.6.0-cdh5.7.0.jar pi 2 3

hadoop jar 包名.jar 方法 参数

总结

代码语言:javascript复制
Hadoop1.x时:
MapReduce:Master/Slave架构,1个JobTracker带多个TaskTracker

JobTracker: 负责资源管理和作业调度
TaskTracker:
	定期向JT汇报本节点的健康状况、资源使用情况、作业执行情况;
	接收来自JT的命令:启动任务/杀死任务

YARN:不同计算框架可以共享同一个HDFS集群上的数据,享受整体的资源调度

XXX on YARN的好处:
	与其他计算框架共享集群资源,按资源需要分配,进而提高集群资源的利用率
XXX: Spark/MapReduce/Storm/Flink


YARN架构:
1)ResourceManager: RM
	整个集群同一时间提供服务的RM只有一个,负责集群资源的统一管理和调度
	处理客户端的请求: 提交一个作业、杀死一个作业
	监控我们的NM,一旦某个NM挂了,那么该NM上运行的任务需要告诉我们的AM来如何进行处理

2) NodeManager: NM
	整个集群中有多个,负责自己本身节点资源管理和使用
	定时向RM汇报本节点的资源使用情况
	接收并处理来自RM的各种命令:启动Container
	处理来自AM的命令
	单个节点的资源管理

3) ApplicationMaster: AM
	每个应用程序对应一个:MR、Spark,负责应用程序的管理
	为应用程序向RM申请资源(core、memory),分配给内部task
	需要与NM通信:启动/停止task,task是运行在container里面,AM也是运行在container里面

4) Container
	封装了CPU、Memory等资源的一个容器
	是一个任务运行环境的抽象

5) Client
	提交作业
	查询作业的运行进度
	杀死作业






YARN环境搭建
1)mapred-site.xml
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

2)yarn-site.xml
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>

3) 启动YARN相关的进程
sbin/start-yarn.sh

4)验证
	jps
		ResourceManager
		NodeManager
	http://hadoop000:8088

5)停止YARN相关的进程
	sbin/stop-yarn.sh


提交mr作业到YARN上运行:
/home/hadoop/app/hadoop-2.6.0-cdh5.7.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0-cdh5.7.0.jar

hadoop jar 

hadoop jar hadoop-mapreduce-examples-2.6.0-cdh5.7.0.jar pi 2 3 

第5章 分布式计算框架MapReduce

概述

前置条件 haddop的安装并运行(hdfsyarn)

WorldCount词频统计案例

编程模型

map和reduce执行流程

序列化、比较 接口

整个过程就是kv形式,记录偏移量 长度

Format

拆分split,默认和block128M是对应的

记录读取器,读取每一行

架构

1.x

代码语言:javascript复制
MapReduce1.x的架构
1)JobTracker: JT
	作业的管理者      管理的
	将作业分解成一堆的任务:Task(MapTask和ReduceTask)
	将任务分派给TaskTracker运行
	作业的监控、容错处理(task作业挂了,重启task的机制)
	在一定的时间间隔内,JT没有收到TT的心跳信息,TT可能是挂了,TT上运行的任务会被指派到其他TT上去执行

2)TaskTracker: TT
	任务的执行者      干活的
	在TT上执行我们的Task(MapTask和ReduceTask)
	会与JT进行交互:执行/启动/停止作业,发送心跳信息给JT

3)MapTask
	自己开发的map任务交由该Task出来
	解析每条记录的数据,交给自己的map方法处理
	将map的输出结果写到本地磁盘(有些作业只仅有map没有reduce==>HDFS)

4)ReduceTask
	将Map Task输出的数据进行读取
	按照数据进行分组传给我们自己编写的reduce方法处理
	输出结果写到HDFS

2.x

申请Node资源,获取信息,启动指定Node的Container

方便扩充第三方的spark

Java写WordCount

选择新版本的Mapper

JAVA代码

代码语言:javascript复制
package com.bennyrhys.hadoop.mapreduce;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import java.io.IOException;

/**
 * @Author bennyrhys
 * @Date 2020-10-09 23:39
 * 使用MapReduce开发WordCount
 */
public class WordCount {
    /**
     * Map:输入文件
     * Text当成Java中的字符串
     */
    public static class MyMapper extends Mapper<LongWritable, Text, Text, LongWritable> {
        LongWritable one = new LongWritable(1);

        @Override
        protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
            // 接收一行指定数据
            String line = value.toString();
            // 根据指定字符进行分割
            String[] words = line.split(" ");
            for (String word : words) {
                // 通过上下文,将分割的map赋值v=1,处理结果输出
                context.write(new Text(word), one);
            }
        }
    }

    public static class MyReduce extends Reducer<Text, LongWritable, Text, LongWritable> {
        @Override
        protected void reduce(Text key, Iterable<LongWritable> values, Context context) throws IOException, InterruptedException {
            long sum = 0;
            for (LongWritable value : values) {
                // LongWritable -> java类型 .get
                // 求key出现次数的总和
                sum  = value.get();
             }
            // 求最后统计结果的输出
            context.write(key, new LongWritable(sum));
        }
    }

    /**
     * Driver: 封装MapReduce
     */
    public static void main(String[] args) throws Exception {
        // 创建 hadoop 的configuration
        Configuration configuration = new Configuration();
        // 创建 job
        Job job = Job.getInstance(configuration, "wordcount");
        // 设置job的处理类
        job.setJarByClass(WordCount.class);
        // 设置作业处理的输入路径
        FileInputFormat.setInputPaths(job, new Path(args[0]));

        // 设置map参数
        job.setMapperClass(MyMapper.class);
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(LongWritable.class);

        // 设置reduce参数
        job.setReducerClass(MyReduce.class);
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(LongWritable.class);

        // 设置作业处理的输出路径
        FileOutputFormat.setOutputPath(job, new Path(args[1]));

        System.exit(job.waitForCompletion(true) ? 0 : 1);


    }
}

本地打jar包

clean-》package,在target里面找到

本地上传到服务器

代码语言:javascript复制
scp hdfs-api-1.0-SNAPSHOT.jar root@hadoop01:~/lib

确保hello.txt文件在hdfs上

代码语言:javascript复制
[root@hadoop01 data]# hadoop fs -cat /hello.txt
20/10/05 14:54:25 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
hello world
hello hadoop
hello hdfs

启动

代码语言:javascript复制
[root@hadoop01 data]# hadoop jar /root/data/hdfs-api-1.0-SNAPSHOT.jar com.bennyrhys.hadoop.mapreduce.WordCount hdfs://hadoop01:9000/hello.txt hdfs://hadoop01:9000/output/wc

检验输出wc在hdfs上

代码语言:javascript复制
[root@hadoop01 data]# hadoop fs -lsr /output/wc
lsr: DEPRECATED: Please use 'ls -R' instead.
20/10/05 15:00:19 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
-rw-r--r--   1 root supergroup          0 2020-10-05 14:57 /output/wc/_SUCCESS
-rw-r--r--   1 root supergroup         35 2020-10-05 14:57 /output/wc/part-r-00000
[root@hadoop01 data]# hadoop fs -cat /output/wc/part-r-00000
20/10/05 15:00:39 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
	1
hadoop	1
hdfs	1
hello	3
world	1

手动删除

防止重复执行文件,形成重复输出的报错

写脚本,先删除输出文件在执行

代码语言:javascript复制
// 改变执行权限 -rw-r--r--.  变成 -rwxr--r--
chmod u x wc_rm.sh
 ./wc_rm.sh

java自动删除

MapReduce编程之Combiner

场景

代码语言:javascript复制
Combiner
hadoop jar /home/hadoop/lib/hadoop-train-1.0.jar com.imooc.hadoop.mapreduce.CombinerApp hdfs://hadoop000:8020/hello.txt hdfs://hadoop000:8020/output/wc

使用场景:
	求和、次数     
	平均数  X

验证生效

运行的屏幕输出

MapReduce之Partitioner

检验四个partation

MapReduce配置history

重启yarn

启动jobhistory

jps可以验证

hdfs输出文件验证

解决聚合没有打开 log无法查看

yarn开启聚合 修改配置文件

其中包含了生成hdfs的保存的路径

代码语言:javascript复制
wordcount: 统计文件中每个单词出现的次数

需求:求wc
1) 文件内容小:shell
2)文件内容很大: TB GB   ???? 如何解决大数据量的统计分析

==> url TOPN <== wc的延伸 
工作中很多场景的开发都是wc的基础上进行改造的


借助于分布式计算框架来解决了: mapreduce

分而治之




(input) <k1, v1> -> map -> <k2, v2> -> combine -> <k2, v2> -> reduce -> <k3, v3> (output)

核心概念
Split:交由MapReduce作业来处理的数据块,是MapReduce中最小的计算单元
	HDFS:blocksize 是HDFS中最小的存储单元  128M
	默认情况下:他们两是一一对应的,当然我们也可以手工设置他们之间的关系(不建议)


InputFormat:
	将我们的输入数据进行分片(split):  InputSplit[] getSplits(JobConf job, int numSplits) throws IOException;
	TextInputFormat: 处理文本格式的数据

OutputFormat: 输出



















MapReduce1.x的架构
1)JobTracker: JT
	作业的管理者      管理的
	将作业分解成一堆的任务:Task(MapTask和ReduceTask)
	将任务分派给TaskTracker运行
	作业的监控、容错处理(task作业挂了,重启task的机制)
	在一定的时间间隔内,JT没有收到TT的心跳信息,TT可能是挂了,TT上运行的任务会被指派到其他TT上去执行

2)TaskTracker: TT
	任务的执行者      干活的
	在TT上执行我们的Task(MapTask和ReduceTask)
	会与JT进行交互:执行/启动/停止作业,发送心跳信息给JT

3)MapTask
	自己开发的map任务交由该Task出来
	解析每条记录的数据,交给自己的map方法处理
	将map的输出结果写到本地磁盘(有些作业只仅有map没有reduce==>HDFS)

4)ReduceTask
	将Map Task输出的数据进行读取
	按照数据进行分组传给我们自己编写的reduce方法处理
	输出结果写到HDFS





使用IDEA Maven开发wc:
1)开发
2)编译:mvn clean package -DskipTests
3)上传到服务器:scp target/hadoop-train-1.0.jar hadoop@hadoop000:~/lib
4)运行
	hadoop jar /home/hadoop/lib/hadoop-train-1.0.jar com.imooc.hadoop.mapreduce.WordCountApp hdfs://hadoop000:8020/hello.txt hdfs://hadoop000:8020/output/wc

	相同的代码和脚本再次执行,会报错
	security.UserGroupInformation:
	PriviledgedActionException as:hadoop (auth:SIMPLE) cause:
	org.apache.hadoop.mapred.FileAlreadyExistsException: 
	Output directory hdfs://hadoop000:8020/output/wc already exists
	Exception in thread "main" org.apache.hadoop.mapred.FileAlreadyExistsException: 
	Output directory hdfs://hadoop000:8020/output/wc already exists

	在MR中,输出文件是不能事先存在的
	1)先手工通过shell的方式将输出文件夹先删除
		hadoop fs -rm -r /output/wc
	2) 在代码中完成自动删除功能: 推荐大家使用这种方式
	    Path outputPath = new Path(args[1]);
	    FileSystem fileSystem = FileSystem.get(configuration);
	    if(fileSystem.exists(outputPath)){
	        fileSystem.delete(outputPath, true);
	        System.out.println("output file exists, but is has deleted");
	    }



Combiner
hadoop jar /home/hadoop/lib/hadoop-train-1.0.jar com.imooc.hadoop.mapreduce.CombinerApp hdfs://hadoop000:8020/hello.txt hdfs://hadoop000:8020/output/wc

使用场景:
	求和、次数     
	平均数  X



Partitioner
hadoop jar /home/hadoop/lib/hadoop-train-1.0.jar com.imooc.hadoop.mapreduce.ParititonerApp hdfs://hadoop000:8020/partitioner hdfs://hadoop000:8020/output/partitioner

第6章 Hadoop项目实战

【大数据】Hadoop项目实战-用户行为日志

0 人点赞