欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

用三台虚拟机搭建Hadoop全分布集群

程序员文章站 2022-04-27 20:58:00
用三台虚拟机搭建Hadoop全分布集群 所有的软件都装在/home/software下 虚拟机系统:centos6.5 jdk版本:1.8.0_181 zookeeper版本:3.4.7 hadoop版本:2.7.1 1.安装jdk 准备好免安装压缩包放在/home/software下 配置环境变量 ......

用三台虚拟机搭建hadoop全分布集群

所有的软件都装在/home/software下

虚拟机系统:centos6.5

jdk版本:1.8.0_181

zookeeper版本:3.4.7

hadoop版本:2.7.1

 

1.安装jdk

准备好免安装压缩包放在/home/software下

cd /home/software
tar -xvf jdk-8u181-linux-x64.tar.gz

 

配置环境变量

vim /etc/profile

 

末尾添加

export java_home=/home/software/jdk1.8.0_181
export classpath=$:classpath:$java_home/lib/
export path=$path:$java_home/bin
source /etc/profile

 

检查是否配置成功,查看jdk版本

java –version

 用三台虚拟机搭建Hadoop全分布集群

2.关闭防火墙

service iptables stop
chkconfig iptables off

 

3.配置主机名

vim /etc/sysconfig/network
hostname=qyws

三个节点主机名分别设置为qyws,qyws2,qyws3

source /etc/sysconfig/network

 

4.改hosts文件

vim /etc/hosts
192.168.38.133  qyws
192.168.38.134  qyws2
192.168.38.135  qyws3

 

5.重启

reboot

 

6.配置免密登陆

ssh-keygen
ssh-copy-id root@qyws
ssh-copy-id root@qyws2
ssh-copy-id root@qyws3

 

7.解压zookeeper压缩包

tar –xf zookeeper-3.4.7.tar.gz

 

8.搭建zookeeper集群

cd /home/software/zookeeper-3.4.7/conf
cp zoo_sample.cfg zoo.cfg
vim zoo.cfg

 

14 行

datadir=/home/software/zookeeper-3.4.7/tmp

 

末尾追加

server.1=192.168.38.133:2888:3888
server.2=192.168.38.134:2888:3888
server.3=192.168.38.135:2888:3888

 

9.将配置好的zookeeper拷贝到另两个节点

scp -r zookeeper-3.4.7 root@qyws2:/home/software/
scp -r zookeeper-3.4.7 root@qyws3:/home/software/

 

10.进入zookeeper目录下创建tmp目录,新建myid文件

cd /home/software/zookeeper-3.4.7
mkdir tmp
cd tmp
vim myid

 

三个节点myid分别设置为1,2,3

11.解压hadoop压缩包

tar -xvf hadoop-2.7.1_64bit.tar.gz

 

12.编辑hadoop-env.sh

cd /home/software/hadoop-2.7.1/etc/hadoop
vim hadoop-env.sh

 

25行

export java_home=/home/software/jdk1.8.0_181

 

33行

export hadoop_conf_dir=/home/software/hadoop-2.7.1/etc/hadoop
source hadoop-env.sh

 

13.编辑core-site.xml

    <!--指定hdfs的nameservice,为整个集群起一个别名-->
    <property>
        <name>fs.defaultfs</name>                
        <value>hdfs://ns</value>
    </property>
    <!--指定hadoop数据临时存放目录-->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/software/hadoop-2.7.1/tmp</value>
    </property> 
    <!--指定zookeeper的存放地址-->
    <property>
        <name>ha.zookeeper.quorum</name>
        <value>qyws:2181,qyws2:2181,qyws3:2181</value>
    </property> 

 

14.编辑hdfs-site.xml

    <!--执行hdfs的nameservice为ns,注意要和core-site.xml中的名称保持一致-->
    <property>
        <name>dfs.nameservices</name>
        <value>ns</value>
    </property>
    <!--ns集群下有两个namenode,分别为nn1, nn2-->
    <property>
        <name>dfs.ha.namenodes.ns</name>
        <value>nn1,nn2</value>
    </property>
    <!--nn1的rpc通信-->
    <property>
        <name>dfs.namenode.rpc-address.ns.nn1</name>
        <value>qyws:9000</value>
    </property>
    <!--nn1的http通信-->
    <property>
        <name>dfs.namenode.http-address.ns.nn1</name>
        <value>qyws:50070</value>
    </property>
    <!-- nn2的rpc通信地址 -->
    <property>
        <name>dfs.namenode.rpc-address.ns.nn2</name>
        <value>qyws2:9000</value>
    </property>
    <!-- nn2的http通信地址 -->
    <property>
        <name>dfs.namenode.http-address.ns.nn2</name>
        <value>qyws2:50070</value>
    </property>
    <!--指定namenode的元数据在journalnode上存放的位置,这样,namenode2可以从journalnode集群里的指定位置上获取信息,达到热备效果-->
    <property>
        <name>dfs.namenode.shared.edits.dir</name>
        <value>qjournal://qyws:8485;qyws2:8485;qyws3:8485/ns</value>
    </property>
    <!-- 指定journalnode在本地磁盘存放数据的位置 -->
    <property>
        <name>dfs.journalnode.edits.dir</name>
        <value>/home/software/hadoop-2.7.1/tmp/journal</value>
    </property>
    <!-- 开启namenode故障时自动切换 -->
    <property>
        <name>dfs.ha.automatic-failover.enabled</name>
        <value>true</value>
    </property>
    <!-- 配置失败自动切换实现方式 -->
    <property>
        <name>dfs.client.failover.proxy.provider.ns</name>
        <value>org.apache.hadoop.hdfs.server.namenode.ha.configuredfailoverproxyprovider</value>
    </property>
    <!-- 配置隔离机制 -->
    <property>
        <name>dfs.ha.fencing.methods</name>
        <value>sshfence</value>
    </property>
    <!-- 使用隔离机制时需要ssh免登陆 -->
    <property>
        <name>dfs.ha.fencing.ssh.private-key-files</name>
        <value>/root/.ssh/id_rsa</value>
    </property>
    <!--配置namenode存放元数据的目录,可以不配置,如果不配置则默认放到hadoop.tmp.dir下-->
    <property>    
        <name>dfs.namenode.name.dir</name>    
        <value>file:///home/software/hadoop-2.7.1/tmp/hdfs/name</value>    
    </property>    
    <!--配置datanode存放元数据的目录,可以不配置,如果不配置则默认放到hadoop.tmp.dir下-->
    <property>    
        <name>dfs.datanode.data.dir</name>    
        <value>file:///home/software/hadoop-2.7.1/tmp/hdfs/data</value>    
    </property>
    <!--配置复本数量-->    
    <property>    
        <name>dfs.replication</name>    
        <value>3</value>    
    </property>   
    <!--设置用户的操作权限,false表示关闭权限验证,任何用户都可以操作-->                                                                    
    <property>    
        <name>dfs.permissions</name>    
        <value>false</value>    
    </property>  

 

15.编辑mapred-site.xml

cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
    <property>    
        <name>mapreduce.framework.name</name>    
        <value>yarn</value>    
    </property>

 

16.编辑yarn-site.xml

    <!--配置yarn的高可用-->
    <property>
        <name>yarn.resourcemanager.ha.enabled</name>
        <value>true</value>
    </property>
    <!--指定两个resourcemaneger的名称-->
    <property>
        <name>yarn.resourcemanager.ha.rm-ids</name>
        <value>rm1,rm2</value>
    </property>
    <!--配置rm1的主机-->
    <property>
        <name>yarn.resourcemanager.hostname.rm1</name>
        <value>qyws</value>
    </property>
    <!--配置rm2的主机-->
    <property>
        <name>yarn.resourcemanager.hostname.rm2</name>
        <value>qyws3</value>
    </property>
    <!--开启yarn恢复机制-->
    <property>
        <name>yarn.resourcemanager.recovery.enabled</name>
        <value>true</value>
    </property>
    <!--执行rm恢复机制实现类-->
    <property>
        <name>yarn.resourcemanager.store.class</name>
        <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.zkrmstatestore</value>
    </property>
    <!--配置zookeeper的地址-->
    <property>
        <name>yarn.resourcemanager.zk-address</name>
        <value>qyws:2181,qyws2:2181,qyws3:2181</value>
    </property>
    <!--执行yarn集群的别名-->
    <property>
        <name>yarn.resourcemanager.cluster-id</name>
        <value>ns-yarn</value>
    </property>
    <!-- 指定nodemanager启动时加载server的方式为shuffle server -->
    <property>    
        <name>yarn.nodemanager.aux-services</name>    
        <value>mapreduce_shuffle</value>    
    </property>  
    <!-- 指定resourcemanager地址 -->
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>qyws3</value>
    </property>

 

17.编辑slaves

vim /home/software/hadoop-2.7.1/etc/hadoop/slaves
qyws
qyws2
qyws3

 

18.把配置好的hadoop拷贝到其他节点

scp -r hadoop-2.7.1 root@qyws2:/home/software/
scp -r hadoop-2.7.1 root@qyws3:/home/software/

 

19.配置环境变量

vim /etc/profile

 

末尾添加

export hadoop_home=/home/software/hadoop-2.7.1
export path=$path:$hadoop_home/bin:$hadoop_home/sbin
source /etc/profile

 

20.三个节点启动zookeeper

cd /home/software/zookeeper-3.4.7/bin
sh zkserver.sh start

查看zookeeper状态

sh zkserver.sh status

用三台虚拟机搭建Hadoop全分布集群

 用三台虚拟机搭建Hadoop全分布集群

 用三台虚拟机搭建Hadoop全分布集群

 

21.格式化zookeeper(在第一个节点操作即可):

hdfs zkfc -formatzk

 

22.在每个节点启动journalnode:

hadoop-daemon.sh start journalnode

 

23.在第一个节点上格式化namenode:

hadoop namenode -format

 

24.在第一个节点上启动namenode:

hadoop-daemon.sh start namenode

 

25.在第二个节点上格式化namenode:

hdfs namenode -bootstrapstandby

 

26.在第二个节点上启动namenode:

hadoop-daemon.sh  start namenode

 

27.在三个节点上启动datanode:

hadoop-daemon.sh start datanode

 

28.在第一个节点和第二个节点上启动zkfc(failovercontroller):

hadoop-daemon.sh start zkfc

 

29.在第一个节点上启动yarn:

start-yarn.sh

 

30.在第三个节点上启动resourcemanager:

yarn-daemon.sh start resourcemanager

 

31.查看运行的服务

用三台虚拟机搭建Hadoop全分布集群

用三台虚拟机搭建Hadoop全分布集群

用三台虚拟机搭建Hadoop全分布集群

32.查看第一个节点namenode

浏览器输入

用三台虚拟机搭建Hadoop全分布集群

用三台虚拟机搭建Hadoop全分布集群

查看第二个节点namenode(主备)

浏览器输入

用三台虚拟机搭建Hadoop全分布集群

33.访问管理页面

用三台虚拟机搭建Hadoop全分布集群