hadoop 2.x安装:完全分布式安装
1. 安装环境
本文使用三台CentOS6.4虚拟机模拟完全分布式环境。
前五个过程和hadoop1.x安装相同
1.1. 安装环境
项目 | 参数 |
---|---|
主操作系统 | Windows 10 64 bit,8GB内存 |
虚拟软件 | VMware® Workstation 12 Pro 12.5.2 |
虚拟机操作系统 | CentOS6.5 64位 512MB内存 |
虚拟机数量 | 3 |
jdk版本 | java version "1.8.0_131" |
安装的hadoop版本 | hadoop-2.7.4 |
1.2. 集群环境
集群包含三个节点:1个namenode、2个datanode
主机名称 | 主机IP | 节点类型 | hadoop账号 |
---|---|---|---|
tiny01 | 192.168.132.101 | namenode | grid |
tiny02 | 192.168.132.102 | datanode | grid |
tiny03 | 192.168.132.103 | datanode | grid |
在我们的测试机上,我们使用三台虚拟机来模拟linux。我们下文中称之为tiny01、tiny02、tiny03
2. 配置hosts文件
我们希望三个主机之间都能够使用主机名称的方式相互访问而不是IP,我们需要在hosts中配置其他主机的host。因此我们在三个主机的/etc/hosts下均进行如下配置:
1. 打开hosts文件
[root@tiny01 ~]# vi /etc/hosts
2. 配置主机host
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 192.168.132.101 tiny01 192.168.132.102 tiny02 192.168.132.103 tiny03
3. 将配置发送到其他主机(同时在其他主机上配置)
[root@tiny01 ~]# scp /etc/hosts root@tiny02:/etc/hosts [root@tiny01 ~]# scp /etc/hosts root@tiny03:/etc/hosts
4. 测试
[root@tiny01 ~]$ ping tiny01 [root@tiny01 ~]$ ping tiny02 [root@tiny01 ~]$ ping tiny03
3.建立hadoop运行账号
我们在所有的主机下均建立一个grid账号用来运行hadoop ,并将其添加至sudoers中
创建grid账号的命令如下
[root@tiny01 ~]# useradd grid [root@tiny01 ~]# # 通过手动输入修改密码 [root@tiny01 ~]# passwd --stdin grid 更改用户 grid 的密码 。 123456 passwd: 所有的身份验证令牌已经成功更新。
添加grid组到sudo中,在其中添加下面一行:
[root@tiny01 ~]# visudo %grid ALL=(ALL) NOPASSWD:ALL
改行意思为,组:grid内的用户允许免密码使用sudo命令
测试:
[root@tiny01 ~]# su admin [admin@tiny01 root]$ su grid 密码: [grid@tiny01 root]$
4. 设置SSH免密码登陆
关于ssh免密码的设置,要求每两台主机之间设置免密码,自己的主机与自己的主机之间也要求设置免密码。 这项操作我们需要在hadoop用户下执行。
[root@tiny01 ~]# su grid [grid@tiny01 ~]# ssh-keygen -t rsa [grid@tiny01 ~]# ssh-copy-id tiny01 [grid@tiny01 ~]# ssh-copy-id tiny02 [grid@tiny01 ~]# ssh-copy-id tiny03
我们在每一台主机上执行如上命令。我们的设置结果如下,在每一台主机grid用户中的~/.ssh/authorized_keys
文件中,其内容均为:
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAs5s4u1SHzkeqHHMozFWyqFj/qKwn57Gm8tpvOxSRY+5xqdEonJGvQ71AF+EOvttz/qBgEGB3UX2jp7YVIcKcc9WDoJXrb2NuBKbnP0zywDCsVQj/4KC7rQzG7YF2x8xueuDrW8nSxmNF1cYfENtYKpIITtL3cwAaVBBgwZJFTj9QN8/cMorG5aclMCETeklpUhGkSZ5Ccjc0FfGNKhnQntPqPVMBbDaSrJ31T7eONlIRymBJufAengHWYFGkEm/mnktxeDxDpVgLSEhbvwRUOeQUZzGfRcpdWwGFyQNoPTfCYKPpaQsJT7tCB97VY6aAZiaNqoN0kLEvKVAYLyhaJQ== grid@tiny01 ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAs0uMn5wpUJNqxi++3i2WQu9KSv7Mj2Za4yu/8pXGFDxIEJCNEgREnfSAdrmpftRjp083RV3842zp2fqpbcE335fma7VbIcSqq20cQhWFyB1dZFP+H+f4+RbC5g31Hk5YG+DDY5dEm2B3RLDpLt0FukJcc0smN56ZwQ3JUXxe9ip8slTvtMr2ptvSg86cy+Eu7Gwt+7XHCNYIrxCzv7YQ0WilzvEpHP09wRp/K15HFHh+mTimxN2z4QERNMg77hNYEdEVrOVIhMztgakuhhSkpbyskkQuTeiyvKTLd/QL4iSFjt7dB1nieVFWCRP2yY2AsjD8nbHarBrgYojS/kslCw== grid@tiny02 ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAy4h+XIl/IR8/QxtCxW8xl8QOqqZQWlL+rsI2zlhgTb+6dN4B6CE+u3/SrU8c8tLJSAXuRTg+MohIABrKRpFuu8VCLHw27JZ21c9KXpncAe+wkv3vagbH1lfxyYnBGn5XY6MEhNTx7nyBL7O55GNA92kD+JIEGvVF+NUq8yBJDBqeVFoFPU6FARI3OJi1Hlh47+gjIAIp2SP8QEhvjm+katL4+KtGgyHMkw8OYYzW6t6wjzmqgIRdzkIZI0Q0ChC8wAl8wkhwYXnbdw6m4pgSnVJ0zBhQZ5ovCHF3FR0OsrXpoe/2tpjT4LG04khTpqt2T4PC36No3dhcd/9wAw4+4Q== grid@tiny03
5. 安装jdk
此过程在root下进行
[grid@tiny01 ~]$ [grid@tiny01 ~]$ su root 密码:
5.1 下载并解压jdk
我们需要先下载并解压jdk,注意jdk的下载地址是经常变动的,因此请不要直接用下面的地址下载,下载时请先查看一下地址。
1. 创建java的安装路径
[root@tiny01 grid]# mkdir /usr/java [root@tiny01 grid]# cd /usr/java
2. 下载jdk
点击Java SE Development Kit 8 Downloads,点击同意后下载jdk-8u141-linux-x64.tar.gz
(不同的版本也可以用相同的方式),复制下来下载链接
然后使用wget 下载链接
的方式下载jdk
例如:
[root@tiny01 java]# wget http://download.oracle.com/otn-pub/java/jdk/8u131-b13/e9e7ea248e2c4826b92b3f075a80e441/jdk-8u131-linux-x64.tar.gz?AuthParam=1488850152_387f1ee536313aeb1ffd212acd203c87
3. 解压jdk解压后删除安装包
[root@tiny01 java]# tar -xzvf jdk-8u131-linux-x64.tar.gz\?AuthParam\=1497245763_bb5c713b336123c5d38ef99896a12489 [root@tiny01 java]# rm -f jdk-8u131-linux-x64.tar.gz\?AuthParam\=1497245763_bb5c713b336123c5d38ef99896a12489
4. 查看jdk的地址
[root@tiny01 java]# cd jdk1.8.0_131/ [root@tiny01 jdk1.8.0_131]# pwd /usr/java/jdk1.8.0_131
5.配置环境变量
在/etc/profile
文件中配置JAVA_HOME和PATH
[root@tiny01 jdk1.8.0_131]# vi /etc/profile
添加
export JAVA_HOME=/usr/java/jdk1.8.0_131 export PATH=$PATH:/usr/java/jdk1.8.0_131/bin
6.测试
运行java -version
检测配置是否成功
[root@tiny01 jdk1.8.0_131]# java -version java version "1.8.0" gij (GNU libgcj) version 4.4.7 20120313 (Red Hat 4.4.7-18) Copyright (C) 2007 Free Software Foundation, Inc. This is free software; see the source for copying conditions. There is NO warranty; not even for MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.
安装成功
5.2 向其他节点复制jdk
[root@tiny01 ~]# ssh root@tiny02 "mkdir /usr/java" [root@tiny01 ~]# ssh root@tiny03 "mkdir /usr/java" [root@tiny01 ~]# scp -r /usr/java/jdk1.8.0_131 root@tiny02:/usr/java/jdk1.8.0_131 [root@tiny01 ~]# scp -r /usr/java/jdk1.8.0_131 root@tiny03:/usr/java/jdk1.8.0_131
5.3 在各个主机下配置jdk的环境变量
编辑/etc/profile文件
[root@tiny01 ~]# vi /etc/profile
在该文件下添加如下内容
## JAVA_HOME 设置 export JAVA_HOME=/usr/java/jdk1.8.0_131 export PATH=$PATH:/usr/java/jdk1.8.0_131/bin
在每个主机下均进行设置,由于我的电脑上linux都是新安装的,环境变量相同,因此直接复制到了其他主机上。如果不同的主机的环境变量不同,请手动设置
[root@tiny01 hadoop]# scp /etc/profile root@tiny02:/etc/profile [root@tiny01 hadoop]# scp /etc/profile root@tiny03:/etc/profile
在每个主机上都重新编译一下/etc/profile
[root@tiny01 hadoop]# source /etc/profile
5.4 测试
[root@tiny01 hadoop]# java -version java version "1.8.0_131" Java(TM) SE Runtime Environment (build 1.8.0_131-b13) Java HotSpot(TM) 64-Bit Server VM (build 25.131-b13, mixed mode)
成功
(如果版本不对应,那么说明linux本身已经有了默认的jdk,则需要修改linux默认jdk版本:修改linux默认jdk版本,由于我这里安装的是最小化安装,所以没有默认的jdk)
6. 下载并解压hadoop
在linux控制台下载hadoop并将其解压
1.切换回grid用户
[root@tiny01 jdk1.8.0_131]# su grid
2.创建hadoop目录并进入到该目录中
[grid@tiny01 ~]$ sudo mkdir /opt/hadoop [grid@tiny01 ~]$ sudo chown grid:grid /opt/hadoop [grid@tiny01 ~]$ cd /opt/hadoop [grid@tiny01 hadoop]$
3.下载并解压hadoop
[grid@tiny01 hadoop]$ wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.7.4/hadoop-2.7.4.tar.gz [grid@tiny01 hadoop]$ tar -xzvf hadoop-2.7.4.tar.gz
7. 修改配置文件
hadoop2.x的配置文件和hadoop1.x的配置文件并不相同,因此我们有不同的设置方法。
以上个别文件默认不存在的,可以复制相应的template文件获得。
我们不需要修改master了
注意:在hadoop2.x中配置文件是放在etc下的
7.1. 修改hadooop-env.sh
我们打开该文件:
vi hadoop-2.7.4/etc/hadoop/hadoop-env.sh
修改一下JAVA_HOME
# The java implementation to use. Required. export JAVA_HOME=/usr/java/jdk1.8.0_131
7.2 修改yarn-env.sh
打开该文件
vi hadoop-2.7.4/etc/hadoop/yarn-env.sh
修改JAVA_HOME的路径
# some Java parameters export JAVA_HOME=/usr/java/jdk1.8.0_131 if [ "$JAVA_HOME" != "" ]; then #echo "run java in $JAVA_HOME" JAVA_HOME=$JAVA_HOME fi if [ "$JAVA_HOME" = "" ]; then echo "Error: JAVA_HOME is not set." exit 1 fi
7.3 修改slaves文件
打开该文件
vi hadoop-2.7.4/etc/hadoop/slaves
修改为以下内容
tiny02 tiny03
7.4 修改core-site.xml文件
打开该文件
vi hadoop-2.7.4/etc/hadoop/core-site.xml
修改为以下内容(注意主机名和文件路径)
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://tiny01:9000</value> </property> <property> <name>io.file.buffer.size</name> <value>131072</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/opt/hadoop/hadoop-2.7.4/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>hadoop.proxyuser.hduser.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hduser.groups</name> <value>*</value> </property> </configuration>
7.5 修改hdfs-site.xml文件
打开该文件
vi hadoop-2.7.4/etc/hadoop/hdfs-site.xml
修改为以下内容(注意主机名和文件路径)
<configuration> <property> <name>dfs.namenode.secondary.http-address</name> <value>tiny01:9001</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/opt/hadoop/hadoop-2.7.4/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/opt/hadoop/hadoop-2.7.4/data</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> </configuration>
7.6 复制并修改mapred-site.xml文件
复制并打开该文件
cp hadoop-2.7.4/etc/hadoop/mapred-site.xml.template hadoop-2.7.4/etc/hadoop/mapred-site.xml vi hadoop-2.7.4/etc/hadoop/mapred-site.xml
修改为以下内容(注意主机名)
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>tiny01:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>tiny01:19888</value> </property> </configuration>
7.7 修改yarn-site.xml文件
打开该文件
vi hadoop-2.7.4/etc/hadoop/yarn-site.xml
修改为以下内容(注意主机名)
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>tiny01:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>tiny1:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>tiny01:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>tiny01:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>tiny01:8088</value> </property> </configuration>
8. 创建文件夹
[grid@tiny01 hadoop]$ mkdir hadoop-2.7.4/tmp [grid@tiny01 hadoop]$ mkdir hadoop-2.7.4/name [grid@tiny01 hadoop]$ mkdir hadoop-2.7.4/data
9.向各节点复制hadoop
[grid@tiny01 hadoop]$ scp -r /opt/hadoop root@tiny02:/opt/ [grid@tiny01 hadoop]$ ssh root@tiny02 "chown -R grid:grid /opt/hadoop" [grid@tiny01 hadoop]$ scp -r /opt/hadoop root@tiny03:/opt/ [grid@tiny01 hadoop]$ ssh root@tiny03 "chown -R grid:grid /opt/hadoop"
10. 关闭master的防火墙
在master(tiny01)下,切换为root用户查看防火墙的状态
[root@tiny01 grid]# service iptables status 表格:filter Chain INPUT (policy ACCEPT) num target prot opt source destination 1 ACCEPT all -- 0.0.0.0/0 0.0.0.0/0 state RELATED,ESTABLISHED 2 ACCEPT icmp -- 0.0.0.0/0 0.0.0.0/0 3 ACCEPT all -- 0.0.0.0/0 0.0.0.0/0 4 ACCEPT tcp -- 0.0.0.0/0 0.0.0.0/0 state NEW tcp dpt:22 5 REJECT all -- 0.0.0.0/0 0.0.0.0/0 reject-with icmp-host-prohibited Chain FORWARD (policy ACCEPT) num target prot opt source destination 1 REJECT all -- 0.0.0.0/0 0.0.0.0/0 reject-with icmp-host-prohibited Chain OUTPUT (policy ACCEPT) num target prot opt source destination
如果防火墙显示如上面类似,那么说明防火墙处于开启状态,我们需要关闭防火墙(这个命令是暂时关闭防火墙)
[root@tiny01 grid]# service iptables stop iptables:清除防火墙规则: [确定] iptables:将链设置为政策 ACCEPT:filter [确定] iptables:正在卸载模块: [确定] [root@tiny01 grid]# service iptables status iptables:未运行防火墙。
如果没有关闭防火墙,那么slave(tiny02,tiny03)将无法连接到master
11. 格式化namenode
切换回grid用户
hadoop-2.7.4/bin/hdfs namenode -format
12. 启动hadoop
我们可以使用 ./sbin/start-all.sh启动全部进程 ,在tiny01中:
hadoop-2.7.4/sbin/start-all.sh
13.测试
我们使用java安装目录下的bin/jps检查当前运行的进程
在tiny1中:
[hadoop@tiny1 hadoop]$ jps 2023 Jps 1431 NameNode 1613 SecondaryNameNode 1757 ResourceManager
在tiny2中:
[hadoop@tiny2 ~]$ jps 1296 NodeManager 1236 DataNode 1453 Jps
在tiny3中:
[hadoop@tiny3 ~]$ jps 1427 Jps 1270 NodeManager 1210 DataNode
运行成功!
1. 安装环境
本文使用三台CentOS6.4虚拟机模拟完全分布式环境。
前五个过程和hadoop1.x安装相同
1.1. 安装环境
项目 | 参数 |
---|---|
主操作系统 | Windows 10 64 bit,8GB内存 |
虚拟软件 | VMware® Workstation 12 Pro 12.5.2 |
虚拟机操作系统 | CentOS6.5 64位 512MB内存 |
虚拟机数量 | 3 |
jdk版本 | java version "1.8.0_131" |
安装的hadoop版本 | hadoop-2.7.4 |
1.2. 集群环境
集群包含三个节点:1个namenode、2个datanode
主机名称 | 主机IP | 节点类型 | hadoop账号 |
---|---|---|---|
tiny01 | 192.168.132.101 | namenode | grid |
tiny02 | 192.168.132.102 | datanode | grid |
tiny03 | 192.168.132.103 | datanode | grid |
在我们的测试机上,我们使用三台虚拟机来模拟linux。我们下文中称之为tiny01、tiny02、tiny03
2. 配置hosts文件
我们希望三个主机之间都能够使用主机名称的方式相互访问而不是IP,我们需要在hosts中配置其他主机的host。因此我们在三个主机的/etc/hosts下均进行如下配置:
1. 打开hosts文件
[root@tiny01 ~]# vi /etc/hosts
2. 配置主机host
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 192.168.132.101 tiny01 192.168.132.102 tiny02 192.168.132.103 tiny03
3. 将配置发送到其他主机(同时在其他主机上配置)
[root@tiny01 ~]# scp /etc/hosts root@tiny02:/etc/hosts [root@tiny01 ~]# scp /etc/hosts root@tiny03:/etc/hosts
4. 测试
[root@tiny01 ~]$ ping tiny01 [root@tiny01 ~]$ ping tiny02 [root@tiny01 ~]$ ping tiny03
3.建立hadoop运行账号
我们在所有的主机下均建立一个grid账号用来运行hadoop ,并将其添加至sudoers中
创建grid账号的命令如下
[root@tiny01 ~]# useradd grid [root@tiny01 ~]# # 通过手动输入修改密码 [root@tiny01 ~]# passwd --stdin grid 更改用户 grid 的密码 。 123456 passwd: 所有的身份验证令牌已经成功更新。
添加grid组到sudo中,在其中添加下面一行:
[root@tiny01 ~]# visudo %grid ALL=(ALL) NOPASSWD:ALL
改行意思为,组:grid内的用户允许免密码使用sudo命令
测试:
[root@tiny01 ~]# su admin [admin@tiny01 root]$ su grid 密码: [grid@tiny01 root]$
4. 设置SSH免密码登陆
关于ssh免密码的设置,要求每两台主机之间设置免密码,自己的主机与自己的主机之间也要求设置免密码。 这项操作我们需要在hadoop用户下执行。
[root@tiny01 ~]# su grid [grid@tiny01 ~]# ssh-keygen -t rsa [grid@tiny01 ~]# ssh-copy-id tiny01 [grid@tiny01 ~]# ssh-copy-id tiny02 [grid@tiny01 ~]# ssh-copy-id tiny03
我们在每一台主机上执行如上命令。我们的设置结果如下,在每一台主机grid用户中的~/.ssh/authorized_keys
文件中,其内容均为:
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAs5s4u1SHzkeqHHMozFWyqFj/qKwn57Gm8tpvOxSRY+5xqdEonJGvQ71AF+EOvttz/qBgEGB3UX2jp7YVIcKcc9WDoJXrb2NuBKbnP0zywDCsVQj/4KC7rQzG7YF2x8xueuDrW8nSxmNF1cYfENtYKpIITtL3cwAaVBBgwZJFTj9QN8/cMorG5aclMCETeklpUhGkSZ5Ccjc0FfGNKhnQntPqPVMBbDaSrJ31T7eONlIRymBJufAengHWYFGkEm/mnktxeDxDpVgLSEhbvwRUOeQUZzGfRcpdWwGFyQNoPTfCYKPpaQsJT7tCB97VY6aAZiaNqoN0kLEvKVAYLyhaJQ==