0.需求 随着公司业务的增长,数据量越来越大,原有的数据节点的容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的数据节点。 1.环境准备 (1)在 hadoop104 主机上再克隆一台 hadoop105 主机 (2)修改 IP 地址和主机名称 (3)删除原来 HDFS 文件系统留存的文件(/opt/module/hadoop-2.7.2/data 和 log) (4)source 一下配置文件
[hadoop@hadoop105 hadoop-2.7.2]$ source /etc/profile[hadoop@hadoop105 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start
datanode
[hadoop@hadoop105 hadoop-2.7.2]$ sbin/yarn-daemon.sh start
nodemanager(2)在 hadoop105 上上传文件
[hadoop@hadoop105 hadoop-2.7.2]$ hadoop fs -put
/opt/module/hadoop-2.7.2/LICENSE.txt /(3)如果数据不均衡,可以用命令实现集群的再平衡
[hadoop@hadoop102 sbin]$ ./start-balancer.sh
starting balancer, logging to /opt/module/hadoop-
2.7.2/logs/hadoop-atguigu-balancer-hadoop102.out
Time Stamp Iteration# Bytes Already Moved Bytes
Left To Move Bytes Being Moved