史上最详细的Hadoop环境搭建(转)
转载的文章,请告知侵删。本人只是做个记录,以免以后找不到。
前言
hadoop在大数据技术体系中的地位至关重要,hadoop是大数据技术的基础,对hadoop基础知识的掌握的扎实程度,会决定在大数据技术道路上走多远。
这是一篇入门文章,hadoop的学习方法很多,网上也有很多学习路线图。本文的思路是:以安装部署apache hadoop2.x版本为主线,来介绍hadoop2.x的架构组成、各模块协同工作原理、技术细节。安装不是目的,通过安装认识hadoop才是目的。
本文分为五个部分、十三节、四十九步。
第一部分:linux环境安装
hadoop是运行在linux,虽然借助工具也可以运行在windows上,但是建议还是运行在linux系统上,第一部分介绍linux环境的安装、配置、java jdk安装等。
第二部分:hadoop本地模式安装
hadoop本地模式只是用于本地开发调试,或者快速安装体验hadoop,这部分做简单的介绍。
第三部分:hadoop伪分布式模式安装
学习hadoop一般是在伪分布式模式下进行。这种模式是在一台机器上各个进程上运行hadoop的各个模块,伪分布式的意思是虽然各个模块是在各个进程上分开运行的,但是只是运行在一个操作系统上的,并不是真正的分布式。
第四部分:完全分布式安装
完全分布式模式才是生产环境采用的模式,hadoop运行在服务器集群上,生产环境一般都会做ha,以实现高可用。
第五部分:hadoop ha安装
ha是指高可用,为了解决hadoop单点故障问题,生产环境一般都做ha部署。这部分介绍了如何配置hadoop2.x的高可用,并简单介绍了ha的工作原理。
安装过程中,会穿插简单介绍涉及到的知识。希望能对大家有所帮助。
最后,我真的按这些步骤安装了,然而发现这门槛不一般,需要学习整个生态,所以去淘宝买了个几块钱的视频教程,个人感觉讲的还可以,还有项目什么的,才几块钱,有需要的可以去找找,这里给个我买的链接
第一部分:linux环境安装
第一步、配置vmware nat网络
一、vmware网络模式介绍
参考:
二、nat模式配置
nat是网络地址转换,是在宿主机和虚拟机之间增加一个地址转换服务,负责外部和虚拟机之间的通讯转接和ip转换。
我们部署hadoop集群,这里选择nat模式,各个虚拟机通过nat使用宿主机的ip来访问外网。
我们的要求是集群中的各个虚拟机有固定的ip、可以访问外网,所以进行如下设置:
1、 vmware安装后,默认的nat设置如下:
2、 默认的设置是启动dhcp服务的,nat会自动给虚拟机分配ip,但是我们需要将各个机器的ip固定下来,所以要取消这个默认设置。
3、 为机器设置一个子网网段,默认是192.168.136网段,我们这里设置为100网段,将来各个虚拟机ip就为 192.168.100.*。
4、 点击nat设置按钮,打开对话框,可以修改网关地址和dns地址。这里我们为nat指定dns地址。
5、 网关地址为当前网段里的.2地址,好像是固定的,我们不做修改,先记住网关地址就好了,后面会用到。
第二步、安装linux操作系统
三、vmware上安装linux系统
1、 文件菜单选择新建虚拟机
2、 选择经典类型安装,下一步。
3、 选择稍后安装操作系统,下一步。
4、 选择linux系统,版本选择centos 64位。
5、 命名虚拟机,给虚拟机起个名字,将来显示在vmware左侧。并选择linux系统保存在宿主机的哪个目录下,应该一个虚拟机保存在一个目录下,不能多个虚拟机使用一个目录。
6、 指定磁盘容量,是指定分给linux虚拟机多大的硬盘,默认20g就可以,下一步。
7、 点击自定义硬件,可以查看、修改虚拟机的硬件配置,这里我们不做修改。
8、 点击完成后,就创建了一个虚拟机,但是此时的虚拟机还是一个空壳,没有操作系统,接下来安装操作系统。
9、 点击编辑虚拟机设置,找到dvd,指定操作系统iso文件所在位置。
10、 点击开启此虚拟机,选择第一个回车开始安装操作系统。
11、 设置root密码。
12、 选择desktop,这样就会装一个xwindow。
13、 先不添加普通用户,其他用默认的,就把linux安装完毕了。
四、设置网络
因为vmware的nat设置中关闭了dhcp自动分配ip功能,所以linux还没有ip,需要我们设置网络各个参数。
1、 用root进入xwindow,右击右上角的网络连接图标,选择修改连接。
2、 网络连接里列出了当前linux里所有的网卡,这里只有一个网卡system eth0,点击编辑。
3、 配置ip、子网掩码、网关(和nat设置的一样)、dns等参数,因为nat里设置网段为100.*,所以这台机器可以设置为192.168.100.10网关和nat一致,为192.168.100.2
4、 用ping来检查是否可以连接外网,如下图,已经连接成功。
五、修改hostname
1、 临时修改hostname
[root@localhost desktop]# hostname bigdata-senior01.chybinmy.com
- 1
这种修改方式,系统重启后就会失效。
2、 永久修改hostname
想永久修改,应该修改配置文件 /etc/sysconfig/network。
命令:[root@bigdata-senior01 ~] vim /etc/sysconfig/network
- 1
打开文件后,
-
networking=yes #使用网络
-
hostname=bigdata-senior01.chybinmy.com #设置主机名
- 1
- 2
六、配置host
-
命令:[root
-
添加hosts: 192.168.100.10 bigdata-senior01.chybinmy.com
- 1
- 2
七、关闭防火墙
学习环境可以直接把防火墙关闭掉。
(1) 用root用户登录后,执行查看防火墙状态。
[root@bigdata-senior01 hadoop]# service iptables status
- 1
(2) 用[root@bigdata-senior01 hadoop]# service iptables stop关闭防火墙,这个是临时关闭防火墙。
-
[root
-
iptables: setting chains to policy accept: filter [ ok ]
-
iptables: flushing firewall rules: [ ok ]
-
iptables: unloading modules: [ ok ]
- 1
- 2
- 3
- 4
(3) 如果要永久关闭防火墙用。
[root@bigdata-senior01 hadoop]# chkconfig iptables off
- 1
关闭,这种需要重启才能生效。
八、关闭selinux
selinux是linux一个子安全机制,学习环境可以将它禁用。
[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim /etc/sysconfig/selinux
- 1
-
# this file controls the state of selinux on the system.
-
# selinux= can take one of these three values:
-
# enforcing - selinux security policy is enforced.
-
# permissive - selinux prints warnings instead of enforcing.
-
# disabled - no selinux policy is loaded.
-
selinux=disabled
-
# selinuxtype= can take one of these two values:
-
# targeted - targeted processes are protected,
-
# mls - multi level security protection.
-
selinuxtype=targeted
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
第三步、安装jdk
九、安装java jdk
1、 查看是否已经安装了java jdk。
[root@bigdata-senior01 desktop]# java –version
- 1
注意:hadoop机器上的jdk,最好是oracle的java jdk,不然会有一些问题,比如可能没有jps命令。
如果安装了其他版本的jdk,卸载掉。
2、 安装java jdk
(1) 去下载oracle版本java jdk:jdk-7u67-linux-x64.tar.gz
(2) 将jdk-7u67-linux-x64.tar.gz解压到/opt/modules目录下
[root@bigdata-senior01 /]# tar -zxvf jdk-7u67-linux-x64.tar.gz -c /opt/modules
- 1
(3) 添加环境变量
设置jdk的环境变量 java_home。需要修改配置文件/etc/profile,追加
-
export java_home="/opt/modules/jdk1.7.0_67"
-
export path=$java_home/bin:$path
- 1
- 2
修改完毕后,执行 source /etc/profile
(4)安装后再次执行 java –version,可以看见已经安装完成。
-
[root
-
java version "1.7.0_67"
-
java(tm) se runtime environment (build 1.7.0_67-b01)
-
java hotspot(tm) 64-bit server vm (build 24.65-b04, mixed mode)
- 1
- 2
- 3
- 4
第二部分:hadoop本地模式安装
第四步、hadoop部署模式
hadoop部署模式有:本地模式、伪分布模式、完全分布式模式、ha完全分布式模式。
区分的依据是namenode、datanode、resourcemanager、nodemanager等模块运行在几个jvm进程、几个机器。
模式名称 | 各个模块占用的jvm进程数 | 各个模块运行在几个机器数上 |
---|---|---|
本地模式 | 1个 | 1个 |
伪分布式模式 | n个 | 1个 |
完全分布式模式 | n个 | n个 |
ha完全分布式 | n个 | n个 |
第五步、本地模式部署
十、本地模式介绍
本地模式是最简单的模式,所有模块都运行与一个jvm进程中,使用的本地文件系统,而不是hdfs,本地模式主要是用于本地开发过程中的运行调试用。下载hadoop安装包后不用任何设置,默认的就是本地模式。
十一、解压hadoop后就是直接可以使用
1、 创建一个存放本地模式hadoop的目录
[hadoop@bigdata-senior01 modules]$ mkdir /opt/modules/hadoopstandalone
- 1
2、 解压hadoop文件
[hadoop@bigdata-senior01 modules]$ tar -zxf /opt/sofeware/hadoop-2.5.0.tar.gz -c /opt/modules/hadoopstandalone/
- 1
3、 确保java_home环境变量已经配置好
-
[hadoop
-
/opt/modules/jdk1.7.0_67
- 1
- 2
十二、运行mapreduce程序,验证
我们这里用hadoop自带的wordcount例子来在本地模式下测试跑mapreduce。
1、 准备mapreduce输入文件wc.input
-
[hadoop
-
hadoop mapreduce hive
-
hbase spark storm
-
sqoop hadoop hive
-
spark hadoop
- 1
- 2
- 3
- 4
- 5
2、 运行hadoop自带的mapreduce demo
[hadoop@bigdata-senior01 hadoopstandalone]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /opt/data/wc.input output2
- 1
这里可以看到job id中有local字样,说明是运行在本地模式下的。
3、 查看输出文件
本地模式下,mapreduce的输出是输出到本地。
-
[hadoop
-
total 4
-
-rw-r--r-- 1 hadoop hadoop 60 jul 7 12:50 part-r-00000
-
-rw-r--r-- 1 hadoop hadoop 0 jul 7 12:50 _success
- 1
- 2
- 3
- 4
输出目录中有_success文件说明job运行成功,part-r-00000是输出结果文件。
第三部分:hadoop伪分布式模式安装
第六步、伪分布式hadoop部署过程
十三、hadoop所用的用户设置
1、 创建一个名字为hadoop的普通用户
-
[root
-
[root
- 1
- 2
2、 给hadoop用户sudo权限
[root@bigdata-senior01 ~]# vim /etc/sudoers
- 1
设置权限,学习环境可以将hadoop用户的权限设置的大一些,但是生产环境一定要注意普通用户的权限限制。
-
root all=(all) all
-
hadoop all=(root) nopasswd:all
- 1
- 2
注意:如果root用户无权修改sudoers文件,先手动为root用户添加写权限。
[root@bigdata-senior01 ~]# chmod u+w /etc/sudoers
- 1
3、 切换到hadoop用户
-
[root
-
[hadoop
- 1
- 2
4、 创建存放hadoop文件的目录
[hadoop@bigdata-senior01 ~]$ sudo mkdir /opt/modules
- 1
5、 将hadoop文件夹的所有者指定为hadoop用户
如果存放hadoop的目录的所有者不是hadoop,之后hadoop运行中可能会有权限问题,那么就讲所有者改为hadoop。
[hadoop@bigdata-senior01 ~]# sudo chown -r hadoop:hadoop /opt/modules
- 1
十四、解压hadoop目录文件
1、 复制hadoop-2.5.0.tar.gz到/opt/modules目录下。
2、 解压hadoop-2.5.0.tar.gz
-
[hadoop
-
[hadoop
- 1
- 2
十五、配置hadoop
1、 配置hadoop环境变量
[hadoop@bigdata-senior01 hadoop]# vim /etc/profile
- 1
追加配置:
-
export hadoop_home="/opt/modules/hadoop-2.5.0"
-
export path=$hadoop_home/bin:$hadoop_home/sbin:$path
- 1
- 2
执行:source /etc/profile 使得配置生效
验证hadoop_home参数:
-
[hadoop
-
/opt/modules/hadoop-2.5.0
- 1
- 2
2、 配置 hadoop-env.sh、mapred-env.sh、yarn-env.sh文件的java_home参数
[hadoop@bigdata-senior01 ~]$ sudo vim ${hadoop_home}/etc/hadoop/hadoop-env.sh
- 1
-
修改java_home参数为:
-
export java_home="/opt/modules/jdk1.7.0_67"
- 1
- 2
3、 配置core-site.xml
[hadoop@bigdata-senior01 ~]{hadoop_home}/etc/hadoop/core-site.xml
(1) fs.defaultfs参数配置的是hdfs的地址。
-
<property>
-
<name>fs.defaultfs</name>
-
<value>hdfs://bigdata-senior01.chybinmy.com:8020</value>
-
</property>
- 1
- 2
- 3
- 4
(2) hadoop.tmp.dir
配置的是hadoop临时目录,比如hdfs的namenode数据默认都存放这个目录下,查看*-default.xml
等默认配置文件,就可以看到很多依赖${hadoop.tmp.dir}
的配置。
默认的hadoop.tmp.dir
是/tmp/hadoop-${user.name}
,此时有个问题就是namenode会将hdfs的元数据存储在这个/tmp目录下,如果操作系统重启了,系统会清空/tmp目录下的东西,导致namenode元数据丢失,是个非常严重的问题,所有我们应该修改这个路径。
- 创建临时目录:
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo mkdir -p /opt/data/tmp
- 1
- 将临时目录的所有者修改为hadoop
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo chown –r hadoop:hadoop /opt/data/tmp
- 1
- 修改hadoop.tmp.dir
-
<property>
-
<name>hadoop.tmp.dir</name>
-
<value>/opt/data/tmp</value>
-
</property>
- 1
- 2
- 3
- 4
十六、配置、格式化、启动hdfs
1、 配置hdfs-site.xml
[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim ${hadoop_home}/etc/hadoop/hdfs-site.xml
- 1
-
<property>
-
<name>dfs.replication</name>
-
<value>1</value>
-
</property>
- 1
- 2
- 3
- 4
dfs.replication配置的是hdfs存储时的备份数量,因为这里是伪分布式环境只有一个节点,所以这里设置为1。
2、 格式化hdfs
[hadoop@bigdata-senior01 ~]$ hdfs namenode –format
- 1
格式化是对hdfs这个分布式文件系统中的datanode进行分块,统计所有分块后的初始元数据的存储在namenode中。
格式化后,查看core-site.xml里hadoop.tmp.dir(本例是/opt/data目录)指定的目录下是否有了dfs目录,如果有,说明格式化成功。
注意:
-
格式化时,这里注意hadoop.tmp.dir目录的权限问题,应该hadoop普通用户有读写权限才行,可以将/opt/data的所有者改为hadoop。
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo chown -r hadoop:hadoop /opt/data -
查看namenode格式化后的目录。
[hadoop@bigdata-senior01 ~]$ ll /opt/data/tmp/dfs/name/current
- 1
fsimage是namenode元数据在内存满了后,持久化保存到的文件。
fsimage*.md5
是校验文件,用于校验fsimage的完整性。
seen_txid
是hadoop的版本
vession文件里保存:
-
namespaceid:namenode的唯一id。
-
clusterid:集群id,namenode和datanode的集群id应该一致,表明是一个集群。
-
#mon jul 04 17:25:50 cst 2016
-
namespaceid=2101579007
-
clusterid=cid-205277e6-493b-4601-8e33-c09d1d23ece4
-
ctime=0
-
storagetype=name_node
-
blockpoolid=bp-1641019026-127.0.0.1-1467624350057
-
layoutversion=-57
- 1
- 2
- 3
- 4
- 5
- 6
- 7
3、 启动namenode
-
[hadoop
-
starting namenode, logging to /opt/modules/hadoop-2.5.0/logs/hadoop-hadoop-namenode-bigdata-senior01.chybinmy.com.out
- 1
- 2
4、 启动datanode
-
[hadoop
-
starting datanode, logging to /opt/modules/hadoop-2.5.0/logs/hadoop-hadoop-datanode-bigdata-senior01.chybinmy.com.out
- 1
- 2
5、 启动secondarynamenode
-
[hadoop
-
starting secondarynamenode, logging to /opt/modules/hadoop-2.5.0/logs/hadoop-hadoop-secondarynamenode-bigdata-senior01.chybinmy.com.out
- 1
- 2
6、 jps命令查看是否已经启动成功,有结果就是启动成功了。
-
[hadoop
-
3034 namenode
-
3233 jps
-
3193 secondarynamenode
-
3110 datanode
- 1
- 2
- 3
- 4
- 5
7、 hdfs上测试创建目录、上传、下载文件
hdfs上创建目录
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/bin/hdfs dfs -mkdir /demo1
- 1
上传本地文件到hdfs上
-
[hadoop
-
${hadoop_home}/etc/hadoop/core-site.xml /demo1
- 1
- 2
读取hdfs上的文件内容
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/bin/hdfs dfs -cat /demo1/core-site.xml
- 1
从hdfs上下载文件到本地
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -get /demo1/core-site.xml
- 1
十七、配置、启动yarn
1、 配置mapred-site.xml
默认没有mapred-site.xml文件,但是有个mapred-site.xml.template配置模板文件。复制模板生成mapred-site.xml。
[hadoop@bigdata-senior01 hadoop-2.5.0]# cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
- 1
添加配置如下:
-
<property>
-
<name>mapreduce.framework.name</name>
-
<value>yarn</value>
-
</property>
- 1
- 2
- 3
- 4
指定mapreduce运行在yarn框架上。
2、 配置yarn-site.xml
添加配置如下:
-
<property>
-
<name>yarn.nodemanager.aux-services</name>
-
<value>mapreduce_shuffle</value>
-
</property>
-
<property>
-
<name>yarn.resourcemanager.hostname</name>
-
<value>bigdata-senior01.chybinmy.com</value>
-
</property>
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
-
yarn.nodemanager.aux-services配置了yarn的默认混洗方式,选择为mapreduce的默认混洗算法。
-
yarn.resourcemanager.hostname指定了resourcemanager运行在哪个节点上。
3、 启动resourcemanager
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/sbin/yarn-daemon.sh start resourcemanager
- 1
4、 启动nodemanager
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/sbin/yarn-daemon.sh start nodemanager
- 1
5、 查看是否启动成功
-
[hadoop
-
3034 namenode
-
4439 nodemanager
-
4197 resourcemanager
-
4543 jps
-
3193 secondarynamenode
-
3110 datanode
- 1
- 2
- 3
- 4
- 5
- 6
- 7
可以看到resourcemanager、nodemanager已经启动成功了。
6、 yarn的web页面
yarn的web客户端端口号是8088,通过可以查看。
十八、运行mapreduce job
在hadoop的share目录里,自带了一些jar包,里面带有一些mapreduce实例小例子,位置在share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar,可以运行这些例子体验刚搭建好的hadoop平台,我们这里来运行最经典的wordcount实例。
1、 创建测试用的input文件
创建输入目录:
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -mkdir -p /wordcountdemo/input
- 1
创建原始文件:
在本地/opt/data目录创建一个文件wc.input,内容如下。
将wc.input文件上传到hdfs的/wordcountdemo/input目录中:
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -put /opt/data/wc.input /wordcountdemo/input
- 1
2、 运行wordcount mapreduce job
-
[hadoop
-
2.5.0.jar wordcount /wordcountdemo/input /wordcountdemo/output
- 1
- 2
3、 查看输出结果目录
-
[hadoop
-
-rw-r--r-- 1 hadoop supergroup 0 2016-07-05 05:12 /wordcountdemo/output/_success
-
-rw-r--r-- 1 hadoop supergroup 60 2016-07-05 05:12 /wordcountdemo/output/part-r-00000
- 1
- 2
- 3
-
output目录中有两个文件,_success文件是空文件,有这个文件说明job执行成功。
-
part-r-00000文件是结果文件,其中-r-说明这个文件是reduce阶段产生的结果,mapreduce程序执行时,可以没有reduce阶段,但是肯定会有map阶段,如果没有reduce阶段这个地方有是-m-。
-
一个reduce会产生一个part-r-开头的文件。
-
查看输出文件内容。
-
[hadoop
-
hadoop 3
-
hbase 1
-
hive 2
-
mapreduce 1
-
spark 2
-
sqoop 1
-
storm 1
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
结果是按照键值排好序的。
十九、停止hadoop
-
[hadoop
-
stopping namenode
-
[hadoop
-
stopping datanode
-
[hadoop
-
stopping resourcemanager
-
[hadoop
-
stopping nodemanager
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
二十、 hadoop各个功能模块的理解
1、 hdfs模块
hdfs负责大数据的存储,通过将大文件分块后进行分布式存储方式,突破了服务器硬盘大小的限制,解决了单台机器无法存储大文件的问题,hdfs是个相对独立的模块,可以为yarn提供服务,也可以为hbase等其他模块提供服务。
2、 yarn模块
yarn是一个通用的资源协同和任务调度框架,
上一篇: 一小打幽默情感逗语