Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Hadoop2.5 64bit安装

Hadoop2.5 64bit安装

作者头像
幽鸿
发布于 2020-04-02 07:24:35
发布于 2020-04-02 07:24:35
52200
代码可运行
举报
运行总次数:0
代码可运行

1.系统环境说明

CentOS 7.0 x64 版本

192.168.1.7 master 192.168.1.8 slave 192.168.1.9 slave 192.168.1.10 slave

2.安装前的准备工作

2.1 关闭防火墙

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# systemctl status firewalld.service  --查看防火墙状态
# systemctl stop firewalld.service    --关闭防火墙
# systemctl disable firewalld.service --永久关闭防火墙

2.2 检查ssh安装情况,如果没有则安装ssh

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# systemctl status sshd.service  --查看ssh状态
# yum install openssh-server openssh-clients

2.3 安装vim

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# yum -y install vim

2.4 设置静态ip地址

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# vim /etc/sysconfig/network-scripts/ifcfg-eno16777736

BOOTPROTO="static" ONBOOT="yes" IPADDR0="192.168.1.7" PREFIX0="255.255.255.0" GATEWAY0="192.168.1.1" DNS1="61.147.37.1" DNS2="101.226.4.6"

2.5 修改host名称

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# vim /etc/sysconfig/network

HOSTNAME=master

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# vim /etc/hosts

192.168.1.7   master 192.168.1.8   slave1 192.168.1.9   slave2 192.168.1.10  slave3

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# hostnamectl set-hostname master    (CentOS7 下原有的修改host方法无效了)

2.6 创建hadoop用户

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# useradd hadoop --创建用户名为hadoop的用户# passwd hadoop  --为用户hadoop设置密码

2.7 配置ssh无密钥登录

-----------下面是在master上面的操作

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# su hadoop --切换到hadoop用户$ cd ~      --打开用户文件夹
$ ssh-keygen -t rsa -P '' --生成密码对,/home/hadoop/.ssh/id_rsa和/home/hadoop/.ssh/id_rsa.pub
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys        --把id_rsa.pub追加到授权的key里面去
$ chmod 600 ~/.ssh/authorized_keys        --修改权限
$ su  --切换到root用户# vim /etc/ssh/sshd_config   --修改ssh配置文件
 RSAAuthentication yes #启用RSA认证
 PubkeyAuthentication yes #启用公钥私钥配对认证方式
 AuthorizedKeysFile .ssh/authorized_keys #公钥文件路径
# su hadoop --切换到hadoop用户
$ scp ~/.ssh/id_rsa.pub hadoop@192.168.1.8:~/                --把公钥复制所有的Slave机器上

----------下面是在slave1上面的操作

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
 # su hadoop --切换到hadoop用户
 $ mkdir ~/.ssh
 $ chmod 700 ~/.ssh
 $ cat ~/id_rsa.pub >> ~/.ssh/authorized_keys                --追加到授权文件"authorized_keys"
 $ chmod 600 ~/.ssh/authorized_keys                          --修改权限
 $ su --切换回root用户 # vim /etc/ssh/sshd_config   --修改ssh配置文件
  RSAAuthentication yes #启用RSA认证
  PubkeyAuthentication yes #启用公钥私钥配对认证方式
  AuthorizedKeysFile .ssh/authorized_keys #公钥文件路径

3.安装必须的软件

3.1 安装JDK

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# rpm -ivh jdk-7u67-linux-x64.rpm

Preparing...   ##################################### [100%] 1:jdk   ##################################### [100%] Unpacking JAR files... rt.jar... jsse.jar... charsets.jar... tools.jar... localedata.jar...

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# vim /etc/profile
 export JAVA_HOME=/usr/java/jdk1.7.0_67 
 export PATH=$PATH:$JAVA_HOME/bin
# source profile --修改生效

3.2 安装其他必须软件

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# yum install maven svn ncurses-devel gcc* lzo-devel zlib-devel autoconf automake libtool cmake openssl-devel

3.3 安装ant

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# tar zxvf apache-ant-1.9.4-bin.tar.gz# vim /etc/profile
 export ANT_HOME=/usr/local/apache-ant-1.9.4
 export PATH=$PATH:$ANT_HOME/bin

3.4 安装findbugs

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# tar zxvf findbugs-3.0.0.tar.gz# vim /etc/profile
 export FINDBUGS_HOME=/usr/local/findbugs-3.0.0
 export PATH=$PATH:$FINDBUGS_HOME/bin

3.5 安装protobuf

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# tar zxvf protobuf-2.5.0.tar.gz(必须是2.5.0版本的,不然编译hadoop的时候报错)
# cd protobuf-2.5.0
# ./configure --prefix=/usr/local
# make && make install

4. 编译hadoop源码

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# tar zxvf hadoop-2.5.0-src.tar.gz
# cd hadoop-2.5.0-src
# mvn package -Pdist,native,docs -DskipTests -Dtar

4.1 maven中央仓库的配置(改成oschina,增加访问速度)

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# vim /usr/share/mavem/conf/settings.xml
    
        nexus-osc
        *
        Nexus osc
        http://maven.oschina.net/content/groups/public/
    
    
    jdk17
    
        true
        1.7
    
    
        1.7
        1.7
        1.7
        
        
           
                nexus
                local private nexus
                http://maven.oschina.net/content/groups/public/
                
                    true
                
                
                    false
                
            
         
        
            
                nexus
                local private nexus
                http://maven.oschina.net/content/groups/public/
                
                    true
                
                
                    false

4.2 编译完成之后,目录/usr/hadoop-2.5.0-src/hadoop-dist/target/hadoop-2.5.0

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# ./bin/hadoop versionHadoop 2.5.0Subversion Unknown -r Unknown
Compiled by root on 2014-09-12T00:47Z
Compiled with protoc 2.5.0From source with checksum 423dcd5a752eddd8e45ead6fd5ff9a24
This command was run using /usr/hadoop-2.5.0-src/hadoop-dist/target/hadoop-2.5.0/share/hadoop/common/hadoop-common-2.5.0.jar
# file lib//native/*lib//native/libhadoop.a:        
current ar archivelib//native/libhadooppipes.a:   
current ar archivelib//native/libhadoop.so:       
symbolic link to `libhadoop.so.1.0.0'lib//native/libhadoop.so.1.0.0: ELF 64-bit LSB shared object, x86-64, version 1 (SYSV), dynamically linked, BuildID[sha1]=0x972b31264a1ce87a12cfbcc331c8355e32d0e774, not strippedlib//native/libhadooputils.a:   
current ar archivelib//native/libhdfs.a:          
current ar archivelib//native/libhdfs.so:         
symbolic link to `libhdfs.so.0.0.0'lib//native/libhdfs.so.0.0.0:   ELF 64-bit LSB shared object, x86-64, version 1 (SYSV), dynamically linked, BuildID[sha1]=0x200ccf97f44d838239db3347ad5ade435b472cfa, not stripped

5. 配置hadoop

5.1 基础操作

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# cp -r /usr/hadoop-2.5.0-src/hadoop-dist/target/hadoop-2.5.0 /opt/hadoop-2.5.0
# chown -R hadoop:hadoop /opt/hadoop-2.5.0
# vi /etc/profile
 export HADOOP_HOME=/opt/hadoop-2.5.0
 export PATH=$PATH:$HADOOP_HOME/bin
# su hadoop
$ cd /opt/hadoop-2.5.0
$ mkdir -p dfs/name
$ mkdir -p dfs/data
$ mkdir -p tmp
$ cd etc/hadoop

5.2 配置所有slave节点

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ vim slaves
slave1
slave2
slave3

5.3 修改hadoop-env.sh和yarn-env.sh

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ vim hadoop-env.sh / vim yarn-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_67

5.4 修改core-site.xml

fs.defaultFS hdfs://master:9000 io.file.buffer.size 131702 hadoop.tmp.dir file:/opt/hadoop-2.5.0/tmp hadoop.proxyuser.hadoop.hosts hadoop.proxyuser.hadoop.groups

5.5 修改hdfs-site.xml

dfs.namenode.name.dir /opt/hadoop-2.5.0/dfs/name dfs.datanode.data.dir /opt/hadoop-2.5.0/dfs/data dfs.replication 3 dfs.namenode.secondary.http-address master:9001 dfs.webhdfs.enabled true

5.6 修改mapred-site.xml

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# cp mapred-site.xml.template mapred-site.xml

mapreduce.framework.name yarn mapreduce.jobhistory.address master:10020 mapreduce.jobhistory.webapp.address master:19888

5.7 配置yarn-site.xml

yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.auxservices.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.resourcemanager.address master:8032 yarn.resourcemanager.scheduler.address master:8030 yarn.resourcemanager.resource-tracker.address master:8031 yarn.resourcemanager.admin.address master:8033 yarn.resourcemanager.webapp.address master:8088 yarn.nodemanager.resource.memory-mb 768

5.8 格式化namenode

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ ./bin/hdfs namenode -format

5.9 启动hdfs

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ ./sbin/start-dfs.sh
$ ./sbin/start-yarn.sh

5.10 检查启动情况

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
http://192.168.1.7:8088http://192.168.1.7:50070
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Hadoop 2.6.0集群搭建
yum install autoconfautomake libtool cmake
用户3003813
2018/09/06
2580
Hadoop 2.2.0的安装配置
根据网上的文章搭建了Hadoop 2.2.0的环境,具体内容如下,备用后续自己做参考。
星哥玩云
2022/06/29
3070
深入浅出学大数据(二)Hadoop简介及Apache Hadoop三种搭建方式
此系列主要为我的学弟学妹们所创作,在某些方面可能偏基础。如果读者感觉较为简单,还望见谅!如果文中出现错误,欢迎指正~
不温卜火
2021/09/29
1.9K0
深入浅出学大数据(二)Hadoop简介及Apache Hadoop三种搭建方式
hadoop-2.0.0-cdh4.5.0安装
1、创建Hadoop用户【所有操作都是root,在所有master和slaver上】 1)、创建hadoop用户:adduser hadoop 2)、更换密码:passwd hadoop ==================================================================================== 2、安装jdk【所有操作都是root,在所有master和slaver上】 1)、将jdk.tar.gz解压到/et/local/:tar –zxvf jdk.tar.gz 2)、配置java环境变量,在/etc/profile中添加: export JAVA_HOME=/usr/local/jdk export JRE_HOME=/usr/local/jdk/jre export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$JAVA_HOME/bin 3)、使环境变量有效:source /etc/profile 4)、测试jdk安装是否成功:java -version ==================================================================================== 3、免密码登陆 1)、进入hadoop的家目录:su – hadoop【root】 2)、创建空密码登陆,在家目录的.ssh文件夹下生成id_rsa和id_rsa.pub文件:ssh-keygen –t rsa –P ''【hadoop】 3)、把id_rsa.pub追加到授权key中[特别注意:如果没有修改hostname,将id_rsa.pub中的localhost修改为ip,否则在authorized_keys中全部是localhost]: cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys【hadoop】 4)、[特别注意]修改authorized_keys文件的权限为600:chmod 600 ~/.ssh/authorized_keys【hadoop】 5)、使用root用户修改/etc/ssh/sshd_config文件:【root】 RSAAuthentication yes # 启用 RSA 认证 PubkeyAuthentication yes # 启用公钥私钥配对认证方式 AuthorizedKeysFile .ssh/authorized_keys # 公钥文件路径(和上面生成的文件同) 6)、重启sshd:service sshd restart【root】 7)、验证是否hadoop能无密码登陆,使用hadoop用户:ssh localhost【hadoop,在slave机器上重复1-7】 8)、把master/slave的公钥scp到所有slave/master上:scp id_rsa.pub hadoop@ip:~/ 【hadoop】 9)、将master/slave的公钥追加到slave/master的authorized_keys中:cat id_rsa.pub>>.ssh/authorized_keys【hadoop】 10)、验证无密码登陆:ssh ip【hadoop】 ==================================================================================== 4、安装hadoop【所有操作都是root,在master上】 1)、下载hadoop代码到/usr/local下:wget http://archive.cloudera.com/cdh4/cdh/4/hadoop-2.0.0-cdh4.6.0.tar.gz 2)、解压缩:tar –zxvf hadoop-2.0.0.tar.gz 3)、修改文件夹名称:mv hadoop-2.0.0 hadoop 4)、修改权限:chown -R hadoop:hadoop hadoop ==================================================================================== 5、配置hadoop【在master上】 1)、创建存储临时文件temp、data和name节点数据的目录【hadoop】: mkdir /usr/local/hadoop/temp mkdir /usr/local/hadoop/dfs/data mkdir /usr/local/hadoop/dfs/name 2)、配置/usr/local/hadoop/etc/hadoop/co
星哥玩云
2022/06/30
2600
Hadoop 入门教程(超详细)[通俗易懂]
在 Hadoop 1.x 时代,Hadoop 中的 MapReduce 同时处理业务逻辑运算和资源调度,耦合性较大。 在 Hadoop 2.x 时代,增加了 Yarn。Yarn 只负责资源的调度,MapReduce 只负责运算。
全栈程序员站长
2022/08/12
12.8K0
Hadoop 入门教程(超详细)[通俗易懂]
Hadoop hdfs配置
网络情况:网络为:192.168.80.0,网关为192.168.80.2,掩码为255.255.255.0,域名202.196.32.1。
张哥编程
2024/12/19
1980
Hadoop hdfs配置
记hadoop伪分布式安装
最近在系统性学习大数据相关知识,看了一些教学视频,因为教学视频录的比较早了,中间也踩了一些坑,这里记录一下hadoop3.3.0的整个安装过程。
zhangheng
2020/12/01
5480
Docker下HBase学习,三部曲之二:集群HBase搭建
本文介绍了如何在Docker中搭建集群环境,并使用Hadoop和HBase进行实战演示。包括详细的搭建过程、配置和启动HDFS、HBase、Zookeeper等组件,以及使用Docker Compose一键启动所有服务。同时,还介绍了如何基于Zookeeper进行分布式协调,以及如何使用HBase Shell进行操作。
程序员欣宸
2018/01/04
2.2K0
Docker下HBase学习,三部曲之二:集群HBase搭建
Hadoop 2.8 二进制包安装和配置 原
192.168.8.139 master 192.168.8.131 slave1 192.168.8.132 slave2
阿dai学长
2019/04/03
7550
教你玩转Hadoop分布式集群搭建,进击大数据
终于要开始玩大数据了,之前对haoop生态几乎没有太多的了解,现在赶鸭子上架,需要完全使用它来做数据中心,这是我的haoop第一篇文章,以后估计会写很多大数据相关的文章。 Hadoop的搭建有三种方式,单机版适合开发调试;伪分布式版,适合模拟集群学习;完全分布式,生产使用的模式。这篇文件介绍如何搭建完全分布式的hadoop集群,一个主节点,三个数据节点为例来讲解。 基础环境 环境准备 1、软件版本 四台服务器配置,系统:centos6.5、内存:1G、硬盘:20G 四台服务器分配的IP地址:192.168.
用户1263954
2018/01/30
8810
Hadoop安装教程_分布式集群
选择典型的集群规划,即一台Master,两台Slave的设置。 主机名及局域网IP配置如下:
用户1147754
2019/05/26
4960
Linux巩固记录(3) hadoop 2.7.4 环境搭建
以前只在linux上配置J2EE项目执行环境,无非配置下jdk,部署tomcat,再通过docker或者jenkins自动部署上去
肖哥哥
2018/08/02
4270
HADOOP之3节点集群
1.apache提供的hadoop-2.4.1的安装包是在32位操作系统编译的,因为hadoop一些C++的本地库,所以如果在64位的操作上安装hadoop-2.4.1就需要重新在64操作系统上重新编译
py3study
2020/01/09
1K0
HADOOP之3节点集群
Hadoop分布式集群搭建
Hadoop分布式集群和前面的伪分布式安装方法类似,Hadoop用户创建,ssh配置,java环境安装,Hadoop安装等过程查看前一篇:Hadoop的安装和使用
foochane
2019/05/23
7080
Hadoop分布式集群搭建
环境搭建-hadoop安装
有三台云服务,系统centOS7.6,为了能够尽可能“分布”一下,所以三台机器都作为计算节点,master机器担任NameNode节点,兼任一个DataNode节点,slave1兼任secondaryNameNode和DataNode节点。
数据仓库晨曦
2024/01/08
2830
环境搭建-hadoop安装
hadoop 2.6全分布安装
这一步完成后,最好重启一次系统,以便生效。然后可以用ping master(或slave01、slave02)试下,正常的话,应该能ping通
菩提树下的杨过
2018/09/20
5270
001.hadoop及hbase部署
#下载官方地址:http://www.apache.org/dyn/closer.cgi/hadoop/common/
木二
2019/07/26
9070
001.hadoop及hbase部署
hadoop-3.1.3 cluster setup on linux
and then 4 xml files: core, hdfs, mapreduce, yarn
esse LL
2023/11/04
6270
Hadoop 2.0集群配置详细教程[虚拟机下配置成功]
物理机器总共4台,想配置基于物理机的Hadoop集群中包括4个节点: 1 个 Master, 3个 Salve ,
星哥玩云
2022/06/29
3760
hadoop2.6.0完全分布式手动安装
遇到的问题: 15/05/01 09:56:48 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 下载:http://dl.bintray.com/sequenceiq/sequenceiq-bin/ 覆盖: tar -xvf hadoop-native-64-2.6.0.tar -C /home/cluster/hadoop/lib/native
字母哥博客
2020/09/23
3360
相关推荐
Hadoop 2.6.0集群搭建
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验