步骤1:准备环境
1.云服务器环境
有三台云服务,系统centOS7.6,为了能够尽可能“分布”一下,所以三台机器都作为计算节点,master机器担任NameNode节点,兼任一个DataNode节点,slave1兼任secondaryNameNode和DataNode节点。
内网IP | 主机名 | 功能 |
|---|---|---|
10.*.*.127 | master | NameNodesecondaryNameNodeDataNode |
10.*.*.118 | slave1 | DataNode |
10.*.*.96 | slave2 | DataNode |
设置主机名称:(三台机器都需要进行操作)
设置主机名称为master,slave1这种名称,不设置不影响使用,但是看起来类似下面这个样子:

在master机器上执行:
hostnamectl set-hostname master执行完成后重新登陆即可看到更新后的主机名
同样在slave1服务器执行:
hostnamectl set-hostname slave1在slave2服务器执行:
hostnamectl set-hostname slave2配置hosts:(三台机器都需要进行操作)
vi /etc/hosts在文件中添加各个服务器内网IP和名称映射:
注意:云服务安装时,一定要使用内网IP,使用外网IPNameNode无法启动!!!
注意:云服务安装时,一定要使用内网IP,使用外网IPNameNode无法启动!!!
注意:云服务安装时,一定要使用内网IP,使用外网IPNameNode无法启动!!!
10.*.*.127 master
10.*.*.118 slave1
10.*.*.96 slave2关闭防火墙(三台机器都需要进行操作)
systemctl status firewalld.service //检查防火墙状态
systemctl stop firewalld.service //关闭防火墙
systemctl disable firewalld.service //禁止开机启动防火墙安装配置 JDK(master操作)
下载jdk包(免费的,注册一个oracle账号即可)
官方地址:https://www.oracle.com/java/technologies/downloads/#license-lightbox
将JDK安装包放到root目录,新建文件夹,并把jdk解压到新文件夹下。
mkdir /usr/java
tar -zxvf jdk-8u361-linux-x64.tar.gz -C /usr/java/
rm -rf jdk-8u361-linux-x64.tar.gz各个主机之间复制 JDK(master操作)
scp -r /usr/java slave1:/usr
scp -r /usr/java slave2:/usr配置各个主机 JDK 环境变量(三台机器都需要进行操作)
vi /etc/profile最下方添加内容
export JAVA_HOME=/usr/java/jdk1.8.0_361
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar保存退出后,更新配置文件
source/etc/profile之后执行下面命令显示Java版本代表安装成功
java -version
配置SSH无秘钥访问
分别在各个主机上生成密钥(三台机器都需要进行操作):
ssh-keygen -t rsaslave1:
cp ~/.ssh/id_rsa.pub ~/.ssh/slave1.id_rsa.pub
scp ~/.ssh/slave1.id_rsa.pub master:~/.sshslave2:
cp ~/.ssh/id_rsa.pub ~/.ssh/slave2.id_rsa.pub
scp ~/.ssh/slave2.id_rsa.pub master:~/.sshmaster:
cd ~/.ssh
cat id_rsa.pub >> authorized_keys
cat slave1.id_rsa.pub >>authorized_keys
cat slave2.id_rsa.pub >>authorized_keys
scp authorized_keys slave1:~/.ssh
scp authorized_keys slave2:~/.ssh
rm -rf slave1.id_rsa.pub
rm -rf slave2.id_rsa.pub步骤2:安装配置 Hadoop
安装包下载地址:https://dlcdn.apache.org/hadoop/common/hadoop-2.10.2/hadoop-2.10.2.tar.gz
先将安装包上传到root目录下,然后进行解压安装
tar -zxvf hadoop-2.10.2.tar.gz -C /usr
rm -rf hadoop-2.10.2.tar.gz
mkdir /usr/hadoop-2.10.2/tmp
mkdir /usr/hadoop-2.10.2/logs
mkdir /usr/hadoop-2.10.2/hdf
mkdir /usr/hadoop-2.10.2/hdf/data
mkdir /usr/hadoop-2.10.2/hdf/name进入配置文件所在的文件夹
cd /usr/hadoop-2.10.2/etc/hadoopa.修改hadoop-env.sh文件,增加JAVA_HOME配置
export JAVA_HOME=/usr/java/jdk1.8.0_361b.修改 yarn-env.sh,增加JAVA_HOME配置
export JAVA_HOME=/usr/java/jdk1.8.0_361c.修改slaves,删除原来的localhost,改为一下内容:
master
slave1
slave2d.修改core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/hadoop-2.10.2/tmp</value>
</property>
</configuration>e.修改hdfs-site.xml
<configuration>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/hadoop-2.10.2/hdf/data</value>
<final>true</final>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/hadoop-2.10.2/hdf/name</value>
<final>true</final>
</property>
</configuration>f.从mapred-site.xml.template复制一个mapred-site.xml文件,然后修改mapred-site.xml
cp mapred-site.xml.template mapred-site.xml<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
</configuration>g.修改yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
</configuration>h.各个主机之间复制 Hadoop
scp -r /usr/hadoop-2.10.2 slave1:/usr
scp -r /usr/hadoop-2.10.2 slave2:/usri.各个主机配置 Hadoop 环境变量(三台服务器执行)
vi /etc/profile在下面添加配置内容
export HADOOP_HOME=/usr/hadoop-2.10.2
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export HADOOP_LOG_DIR=/usr/hadoop-2.10.2/logs
export YARN_LOG_DIR=$HADOOP_LOG_DIR使配置文件生效
source /etc/profile3.启动hadoop(仅master操作)
1.格式化 namenode
cd /usr/hadoop-2.10.2/sbin
hdfs namenode -format2.启动
cd /usr/hadoop-2.10.2/sbin
start-all.sh3.检查进程(三台机器各自执行查看)
master结果:

slave1:

slave2:

4.查看
在浏览器中访问 http://master:50070 可以进入hadoop 查看。(前提在本地配置了master的外网IP映射)或者也可以直接访问http://你的master外网IP:50070 进行访问即可
