欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

hadoop 2.x安装:完全分布式安装

程序员文章站 2022-08-03 15:01:32
1. 安装环境 本文使用三台CentOS6.4虚拟机模拟完全分布式环境。前五个过程和hadoop1.x安装相同 1.1. 安装环境 1.2. 集群环境 集群包含三个节点:1个namenode、2个datanode 在我们的测试机上,我们使用三台虚拟机来模拟linux。我们下文中称之为tiny01、t ......

1. 安装环境

本文使用三台CentOS6.4虚拟机模拟完全分布式环境。
前五个过程和hadoop1.x安装相同

1.1. 安装环境

项目 参数
主操作系统   Windows 10 64 bit,8GB内存
虚拟软件  VMware® Workstation 12 Pro 12.5.2
虚拟机操作系统 CentOS6.5 64位 512MB内存
虚拟机数量 3
jdk版本 java version "1.8.0_131"
安装的hadoop版本 hadoop-2.7.4

1.2. 集群环境

集群包含三个节点:1个namenode、2个datanode

主机名称 主机IP 节点类型 hadoop账号
tiny01 192.168.132.101 namenode grid
tiny02 192.168.132.102 datanode grid
tiny03 192.168.132.103 datanode grid

在我们的测试机上,我们使用三台虚拟机来模拟linux。我们下文中称之为tiny01、tiny02、tiny03

2. 配置hosts文件

我们希望三个主机之间都能够使用主机名称的方式相互访问而不是IP,我们需要在hosts中配置其他主机的host。因此我们在三个主机的/etc/hosts下均进行如下配置:
1. 打开hosts文件

[root@tiny01 ~]# vi /etc/hosts

2. 配置主机host

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.132.101 tiny01
192.168.132.102 tiny02
192.168.132.103 tiny03

3. 将配置发送到其他主机(同时在其他主机上配置)

[root@tiny01 ~]# scp /etc/hosts root@tiny02:/etc/hosts
[root@tiny01 ~]# scp /etc/hosts root@tiny03:/etc/hosts

4. 测试

[root@tiny01 ~]$ ping tiny01
[root@tiny01 ~]$ ping tiny02
[root@tiny01 ~]$ ping tiny03

3.建立hadoop运行账号

我们在所有的主机下均建立一个grid账号用来运行hadoop ,并将其添加至sudoers中
创建grid账号的命令如下

[root@tiny01 ~]# useradd grid
[root@tiny01 ~]# # 通过手动输入修改密码
[root@tiny01 ~]# passwd --stdin grid
更改用户 grid 的密码 。
123456
passwd: 所有的身份验证令牌已经成功更新。

添加grid组到sudo中,在其中添加下面一行:

[root@tiny01 ~]# visudo
%grid   ALL=(ALL)       NOPASSWD:ALL

改行意思为,组:grid内的用户允许免密码使用sudo命令
测试:

[root@tiny01 ~]# su admin
[admin@tiny01 root]$ su grid
密码:
[grid@tiny01 root]$

4. 设置SSH免密码登陆

关于ssh免密码的设置,要求每两台主机之间设置免密码,自己的主机与自己的主机之间也要求设置免密码。 这项操作我们需要在hadoop用户下执行。

[root@tiny01 ~]# su grid
[grid@tiny01 ~]# ssh-keygen -t rsa
[grid@tiny01 ~]# ssh-copy-id tiny01
[grid@tiny01 ~]# ssh-copy-id tiny02
[grid@tiny01 ~]# ssh-copy-id tiny03

我们在每一台主机上执行如上命令。我们的设置结果如下,在每一台主机grid用户中的~/.ssh/authorized_keys文件中,其内容均为:

ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAs5s4u1SHzkeqHHMozFWyqFj/qKwn57Gm8tpvOxSRY+5xqdEonJGvQ71AF+EOvttz/qBgEGB3UX2jp7YVIcKcc9WDoJXrb2NuBKbnP0zywDCsVQj/4KC7rQzG7YF2x8xueuDrW8nSxmNF1cYfENtYKpIITtL3cwAaVBBgwZJFTj9QN8/cMorG5aclMCETeklpUhGkSZ5Ccjc0FfGNKhnQntPqPVMBbDaSrJ31T7eONlIRymBJufAengHWYFGkEm/mnktxeDxDpVgLSEhbvwRUOeQUZzGfRcpdWwGFyQNoPTfCYKPpaQsJT7tCB97VY6aAZiaNqoN0kLEvKVAYLyhaJQ== grid@tiny01

ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAs0uMn5wpUJNqxi++3i2WQu9KSv7Mj2Za4yu/8pXGFDxIEJCNEgREnfSAdrmpftRjp083RV3842zp2fqpbcE335fma7VbIcSqq20cQhWFyB1dZFP+H+f4+RbC5g31Hk5YG+DDY5dEm2B3RLDpLt0FukJcc0smN56ZwQ3JUXxe9ip8slTvtMr2ptvSg86cy+Eu7Gwt+7XHCNYIrxCzv7YQ0WilzvEpHP09wRp/K15HFHh+mTimxN2z4QERNMg77hNYEdEVrOVIhMztgakuhhSkpbyskkQuTeiyvKTLd/QL4iSFjt7dB1nieVFWCRP2yY2AsjD8nbHarBrgYojS/kslCw== grid@tiny02

ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAy4h+XIl/IR8/QxtCxW8xl8QOqqZQWlL+rsI2zlhgTb+6dN4B6CE+u3/SrU8c8tLJSAXuRTg+MohIABrKRpFuu8VCLHw27JZ21c9KXpncAe+wkv3vagbH1lfxyYnBGn5XY6MEhNTx7nyBL7O55GNA92kD+JIEGvVF+NUq8yBJDBqeVFoFPU6FARI3OJi1Hlh47+gjIAIp2SP8QEhvjm+katL4+KtGgyHMkw8OYYzW6t6wjzmqgIRdzkIZI0Q0ChC8wAl8wkhwYXnbdw6m4pgSnVJ0zBhQZ5ovCHF3FR0OsrXpoe/2tpjT4LG04khTpqt2T4PC36No3dhcd/9wAw4+4Q== grid@tiny03

5. 安装jdk

此过程在root下进行

[grid@tiny01 ~]$
[grid@tiny01 ~]$ su root
密码: 

5.1 下载并解压jdk

我们需要先下载并解压jdk,注意jdk的下载地址是经常变动的,因此请不要直接用下面的地址下载,下载时请先查看一下地址。

1. 创建java的安装路径

[root@tiny01 grid]# mkdir /usr/java
[root@tiny01 grid]# cd /usr/java

2. 下载jdk
点击Java SE Development Kit 8 Downloads,点击同意后下载jdk-8u141-linux-x64.tar.gz(不同的版本也可以用相同的方式),复制下来下载链接
然后使用wget 下载链接的方式下载jdk

例如:

[root@tiny01 java]#  wget http://download.oracle.com/otn-pub/java/jdk/8u131-b13/e9e7ea248e2c4826b92b3f075a80e441/jdk-8u131-linux-x64.tar.gz?AuthParam=1488850152_387f1ee536313aeb1ffd212acd203c87

3. 解压jdk解压后删除安装包

[root@tiny01 java]# tar -xzvf jdk-8u131-linux-x64.tar.gz\?AuthParam\=1497245763_bb5c713b336123c5d38ef99896a12489
[root@tiny01 java]# rm -f jdk-8u131-linux-x64.tar.gz\?AuthParam\=1497245763_bb5c713b336123c5d38ef99896a12489

4. 查看jdk的地址

[root@tiny01 java]# cd jdk1.8.0_131/
[root@tiny01 jdk1.8.0_131]# pwd
/usr/java/jdk1.8.0_131

5.配置环境变量
/etc/profile文件中配置JAVA_HOME和PATH

[root@tiny01 jdk1.8.0_131]# vi /etc/profile

添加

export JAVA_HOME=/usr/java/jdk1.8.0_131
export PATH=$PATH:/usr/java/jdk1.8.0_131/bin

6.测试
运行java -version检测配置是否成功

[root@tiny01 jdk1.8.0_131]# java -version
java version "1.8.0"
gij (GNU libgcj) version 4.4.7 20120313 (Red Hat 4.4.7-18)

Copyright (C) 2007 Free Software Foundation, Inc.
This is free software; see the source for copying conditions.  There is NO
warranty; not even for MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.

安装成功

5.2 向其他节点复制jdk

[root@tiny01 ~]# ssh root@tiny02 "mkdir /usr/java"
[root@tiny01 ~]# ssh root@tiny03 "mkdir /usr/java"

[root@tiny01 ~]# scp -r /usr/java/jdk1.8.0_131 root@tiny02:/usr/java/jdk1.8.0_131 
[root@tiny01 ~]# scp -r /usr/java/jdk1.8.0_131 root@tiny03:/usr/java/jdk1.8.0_131

5.3 在各个主机下配置jdk的环境变量

编辑/etc/profile文件

[root@tiny01 ~]# vi /etc/profile

在该文件下添加如下内容

## JAVA_HOME 设置
export JAVA_HOME=/usr/java/jdk1.8.0_131
export PATH=$PATH:/usr/java/jdk1.8.0_131/bin

在每个主机下均进行设置,由于我的电脑上linux都是新安装的,环境变量相同,因此直接复制到了其他主机上。如果不同的主机的环境变量不同,请手动设置

[root@tiny01 hadoop]# scp /etc/profile root@tiny02:/etc/profile
[root@tiny01 hadoop]# scp /etc/profile root@tiny03:/etc/profile

在每个主机上都重新编译一下/etc/profile

[root@tiny01 hadoop]# source /etc/profile

5.4 测试

[root@tiny01 hadoop]# java -version
java version "1.8.0_131"
Java(TM) SE Runtime Environment (build 1.8.0_131-b13)
Java HotSpot(TM) 64-Bit Server VM (build 25.131-b13, mixed mode)

成功

(如果版本不对应,那么说明linux本身已经有了默认的jdk,则需要修改linux默认jdk版本:修改linux默认jdk版本,由于我这里安装的是最小化安装,所以没有默认的jdk)

6. 下载并解压hadoop

在linux控制台下载hadoop并将其解压

1.切换回grid用户

[root@tiny01 jdk1.8.0_131]# su grid

2.创建hadoop目录并进入到该目录中

[grid@tiny01 ~]$ sudo mkdir /opt/hadoop
[grid@tiny01 ~]$ sudo chown grid:grid /opt/hadoop
[grid@tiny01 ~]$ cd /opt/hadoop
[grid@tiny01 hadoop]$ 

3.下载并解压hadoop

[grid@tiny01 hadoop]$ wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.7.4/hadoop-2.7.4.tar.gz
[grid@tiny01 hadoop]$ tar -xzvf hadoop-2.7.4.tar.gz

7. 修改配置文件

hadoop2.x的配置文件和hadoop1.x的配置文件并不相同,因此我们有不同的设置方法。

以上个别文件默认不存在的,可以复制相应的template文件获得。
我们不需要修改master了

注意:在hadoop2.x中配置文件是放在etc下的

7.1. 修改hadooop-env.sh

我们打开该文件:

vi hadoop-2.7.4/etc/hadoop/hadoop-env.sh

修改一下JAVA_HOME

# The java implementation to use.  Required.
export JAVA_HOME=/usr/java/jdk1.8.0_131

7.2 修改yarn-env.sh

打开该文件

 vi hadoop-2.7.4/etc/hadoop/yarn-env.sh

修改JAVA_HOME的路径

# some Java parameters
export JAVA_HOME=/usr/java/jdk1.8.0_131
if [ "$JAVA_HOME" != "" ]; then
  #echo "run java in $JAVA_HOME"
  JAVA_HOME=$JAVA_HOME
fi

if [ "$JAVA_HOME" = "" ]; then
  echo "Error: JAVA_HOME is not set."
  exit 1
fi

7.3 修改slaves文件

打开该文件

vi hadoop-2.7.4/etc/hadoop/slaves

修改为以下内容

tiny02
tiny03

7.4 修改core-site.xml文件

打开该文件

vi hadoop-2.7.4/etc/hadoop/core-site.xml

修改为以下内容(注意主机名和文件路径)

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://tiny01:9000</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/opt/hadoop/hadoop-2.7.4/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>hadoop.proxyuser.hduser.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hduser.groups</name>
<value>*</value>
</property>
</configuration>

7.5 修改hdfs-site.xml文件

打开该文件

vi hadoop-2.7.4/etc/hadoop/hdfs-site.xml

修改为以下内容(注意主机名和文件路径)

<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>tiny01:9001</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/opt/hadoop/hadoop-2.7.4/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/opt/hadoop/hadoop-2.7.4/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>

7.6 复制并修改mapred-site.xml文件

复制并打开该文件

cp hadoop-2.7.4/etc/hadoop/mapred-site.xml.template hadoop-2.7.4/etc/hadoop/mapred-site.xml
vi hadoop-2.7.4/etc/hadoop/mapred-site.xml

修改为以下内容(注意主机名)

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>tiny01:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>tiny01:19888</value>
</property>
</configuration>

7.7 修改yarn-site.xml文件

打开该文件

vi hadoop-2.7.4/etc/hadoop/yarn-site.xml

修改为以下内容(注意主机名)

<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>tiny01:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>tiny1:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>tiny01:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>tiny01:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>tiny01:8088</value>
</property>
</configuration>

8. 创建文件夹

[grid@tiny01 hadoop]$ mkdir hadoop-2.7.4/tmp
[grid@tiny01 hadoop]$ mkdir hadoop-2.7.4/name
[grid@tiny01 hadoop]$ mkdir hadoop-2.7.4/data

9.向各节点复制hadoop

[grid@tiny01 hadoop]$ scp -r /opt/hadoop root@tiny02:/opt/
[grid@tiny01 hadoop]$ ssh root@tiny02 "chown -R grid:grid /opt/hadoop"
[grid@tiny01 hadoop]$ scp -r /opt/hadoop root@tiny03:/opt/
[grid@tiny01 hadoop]$ ssh root@tiny03 "chown -R grid:grid /opt/hadoop"

10. 关闭master的防火墙

在master(tiny01)下,切换为root用户查看防火墙的状态

[root@tiny01 grid]# service iptables status
表格:filter
Chain INPUT (policy ACCEPT)
num  target     prot opt source               destination
1    ACCEPT     all  --  0.0.0.0/0            0.0.0.0/0           state RELATED,ESTABLISHED
2    ACCEPT     icmp --  0.0.0.0/0            0.0.0.0/0
3    ACCEPT     all  --  0.0.0.0/0            0.0.0.0/0
4    ACCEPT     tcp  --  0.0.0.0/0            0.0.0.0/0           state NEW tcp dpt:22
5    REJECT     all  --  0.0.0.0/0            0.0.0.0/0           reject-with icmp-host-prohibited

Chain FORWARD (policy ACCEPT)
num  target     prot opt source               destination
1    REJECT     all  --  0.0.0.0/0            0.0.0.0/0           reject-with icmp-host-prohibited

Chain OUTPUT (policy ACCEPT)
num  target     prot opt source               destination

如果防火墙显示如上面类似,那么说明防火墙处于开启状态,我们需要关闭防火墙(这个命令是暂时关闭防火墙)

[root@tiny01 grid]# service iptables stop
iptables:清除防火墙规则:                                 [确定]
iptables:将链设置为政策 ACCEPT:filter                    [确定]
iptables:正在卸载模块:                                   [确定]
[root@tiny01 grid]# service iptables status
iptables:未运行防火墙。

如果没有关闭防火墙,那么slave(tiny02,tiny03)将无法连接到master

11. 格式化namenode

切换回grid用户

hadoop-2.7.4/bin/hdfs namenode -format

12. 启动hadoop

我们可以使用 ./sbin/start-all.sh启动全部进程 ,在tiny01中:

hadoop-2.7.4/sbin/start-all.sh

13.测试

我们使用java安装目录下的bin/jps检查当前运行的进程
在tiny1中:

[hadoop@tiny1 hadoop]$ jps
2023 Jps
1431 NameNode
1613 SecondaryNameNode
1757 ResourceManager

在tiny2中:

[hadoop@tiny2 ~]$ jps
1296 NodeManager
1236 DataNode
1453 Jps

在tiny3中:

[hadoop@tiny3 ~]$ jps
1427 Jps
1270 NodeManager
1210 DataNode

运行成功!

1. 安装环境

本文使用三台CentOS6.4虚拟机模拟完全分布式环境。
前五个过程和hadoop1.x安装相同

1.1. 安装环境

项目 参数
主操作系统   Windows 10 64 bit,8GB内存
虚拟软件  VMware® Workstation 12 Pro 12.5.2
虚拟机操作系统 CentOS6.5 64位 512MB内存
虚拟机数量 3
jdk版本 java version "1.8.0_131"
安装的hadoop版本 hadoop-2.7.4

1.2. 集群环境

集群包含三个节点:1个namenode、2个datanode

主机名称 主机IP 节点类型 hadoop账号
tiny01 192.168.132.101 namenode grid
tiny02 192.168.132.102 datanode grid
tiny03 192.168.132.103 datanode grid

在我们的测试机上,我们使用三台虚拟机来模拟linux。我们下文中称之为tiny01、tiny02、tiny03

2. 配置hosts文件

我们希望三个主机之间都能够使用主机名称的方式相互访问而不是IP,我们需要在hosts中配置其他主机的host。因此我们在三个主机的/etc/hosts下均进行如下配置:
1. 打开hosts文件

[root@tiny01 ~]# vi /etc/hosts

2. 配置主机host

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.132.101 tiny01
192.168.132.102 tiny02
192.168.132.103 tiny03

3. 将配置发送到其他主机(同时在其他主机上配置)

[root@tiny01 ~]# scp /etc/hosts root@tiny02:/etc/hosts
[root@tiny01 ~]# scp /etc/hosts root@tiny03:/etc/hosts

4. 测试

[root@tiny01 ~]$ ping tiny01
[root@tiny01 ~]$ ping tiny02
[root@tiny01 ~]$ ping tiny03

3.建立hadoop运行账号

我们在所有的主机下均建立一个grid账号用来运行hadoop ,并将其添加至sudoers中
创建grid账号的命令如下

[root@tiny01 ~]# useradd grid
[root@tiny01 ~]# # 通过手动输入修改密码
[root@tiny01 ~]# passwd --stdin grid
更改用户 grid 的密码 。
123456
passwd: 所有的身份验证令牌已经成功更新。

添加grid组到sudo中,在其中添加下面一行:

[root@tiny01 ~]# visudo
%grid   ALL=(ALL)       NOPASSWD:ALL

改行意思为,组:grid内的用户允许免密码使用sudo命令
测试:

[root@tiny01 ~]# su admin
[admin@tiny01 root]$ su grid
密码:
[grid@tiny01 root]$

4. 设置SSH免密码登陆

关于ssh免密码的设置,要求每两台主机之间设置免密码,自己的主机与自己的主机之间也要求设置免密码。 这项操作我们需要在hadoop用户下执行。

[root@tiny01 ~]# su grid
[grid@tiny01 ~]# ssh-keygen -t rsa
[grid@tiny01 ~]# ssh-copy-id tiny01
[grid@tiny01 ~]# ssh-copy-id tiny02
[grid@tiny01 ~]# ssh-copy-id tiny03

我们在每一台主机上执行如上命令。我们的设置结果如下,在每一台主机grid用户中的~/.ssh/authorized_keys文件中,其内容均为:

ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAs5s4u1SHzkeqHHMozFWyqFj/qKwn57Gm8tpvOxSRY+5xqdEonJGvQ71AF+EOvttz/qBgEGB3UX2jp7YVIcKcc9WDoJXrb2NuBKbnP0zywDCsVQj/4KC7rQzG7YF2x8xueuDrW8nSxmNF1cYfENtYKpIITtL3cwAaVBBgwZJFTj9QN8/cMorG5aclMCETeklpUhGkSZ5Ccjc0FfGNKhnQntPqPVMBbDaSrJ31T7eONlIRymBJufAengHWYFGkEm/mnktxeDxDpVgLSEhbvwRUOeQUZzGfRcpdWwGFyQNoPTfCYKPpaQsJT7tCB97VY6aAZiaNqoN0kLEvKVAYLyhaJQ==