文章目录- 大数据服务器之CM安装架构及目录
- 大数据服务器之CDH框架安装细节
大数据服务器之CM安装架构及目录
针对整个物流项目来说,1台虚拟机安装部署大数据环境:
基于CM6.2.1安装CDH6.2.1
。 关于CM功能及CM安装,不再过多赘述,项目还是要注重于业务及数据和实现。
提供虚拟机【
node2.itcast.cn
】解压后,导入VMWare 软件中,启动虚拟机即可(选择我已移动该虚拟机)
- 1)、启动之前,设置node2.itcast.cn内存:
4GB
或者6GB
或者8GB
即可 - 2)、第一次启动虚拟机时,很慢很慢很慢,由于启动所有服务(CM安装CDH服务),时间5分钟以上
- 浏览器登录:http://node2.itcast.cn:7180/cmf/,
admin/admin
- 将所有服务关闭:各个框架服务和CMS服务,而且CMS服务永远给关闭
- 浏览器登录:http://node2.itcast.cn:7180/cmf/,
- 3)、测试时,需要什么服务,启动什么服务,不要全部启动(耗内存,耗性能,没有任何意义)
架构原理:CM如何安装CDH框架,原理架构是什么?????
- 1)、CM安装CDH集群时,架构属于主从分布式架构(Master/Slaves)
- 主节点(老大):CMS(ClouderaManagerServer),在一台机器上运行
- 从节点(小弟):安装服务(Cloudera Agent),所有大数据集群机器 此时大数据集群机器,被CM管理,监控到基本信息(磁盘IO、网络IO和CPU与内存使用等等)
- 2)、Cloudera 将所有大数据框架放在某个目录,
打成包:parcel
- 首先parcel包,存储在CMServer主机的目录:
/opt/cloudera/parcel-repo
- 首先parcel包,存储在CMServer主机的目录:
- 3)、CMServer服务,将parcel包,分发给所有大数据集群机器:Cloudera Agent
- 当所有集群机器下载parcel包以后,解压:
/opt/cloudera/parcels
- 当所有集群机器下载parcel包以后,解压:
下图表示使用CM安装CDH架构原理图,多多理解。
大数据服务器之CDH框架安装细节
当使用CM安装CDH集群以后,可以通过CM界面UI,管理整个集群服务和查看监控运行状态。
- 第一、框架用户,实际项目中按照大数据各个框架时,不建议使用root用户,创建普通用户。
使用CM安装CDH集群时,针对每个框架(比如,HDFS、MAPREDUCE、YARN等)创建用户,不可以被用于登录操作系统。
以框架名称创建用户,所有用户名为框架名称。
- 第一点:linux系统:
/etc/passwd
- 第二点:启动服务,所使使用用户
- 第二、服务配置
使用CM安装CDH组件时,配置分为2类:
- 第一类、服务端Server配置,启动服务Server时加载配置文件
- 存储在数据库中,物流项目中配置的是MySQL数据库:
scm
- 存储在数据库中,物流项目中配置的是MySQL数据库:
- 第二类、客户端Client配置,客户端连接服务时配置信息
- 存储在配置文件,在系统目录:
/etc/xx/conf
,其中xx表示框架名称
- 以Kafka框架为例:
- 存储在配置文件,在系统目录:
- 第三、服务日志
使用CM安装CDH组件时,默认启动服务时,日志文件存储目录:
/var/log/xx/
- 第四、切换用户
代码语言:javascript复制由于每个框架都有自己用户,所以有时候对框架进行操作时,需要切换到框架用户,比如在HDFS文件系统上创建目录,使用
hdfs
用户,如下所示切换用户:
# root切换框架用户方式
sudo -u userName
# 举例说明:
[root@node2 ~]# sudo -u hdfs hdfs dfs -mkdir -p /datas
[root@node2 ~]# sudo -u hdfs hdfs dfs -ls