欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

史上最详细的Hadoop环境搭建(转)

程序员文章站 2022-11-01 12:34:32
转载的文章,请告知侵删。本人只是做个记录,以免以后找不到。 前言 Hadoop在大数据技术体系中的地位至关重要,Hadoop是大数据技术的基础,对Hadoop基础知识的掌握的扎实程度,会决定在大数据技术道路上走多远。 这是一篇入门文章,Hadoop的学习方法很多,网上也有很多学习路线图。本文的思路是 ......

转载的文章,请告知侵删。本人只是做个记录,以免以后找不到。

前言

hadoop在大数据技术体系中的地位至关重要,hadoop是大数据技术的基础,对hadoop基础知识的掌握的扎实程度,会决定在大数据技术道路上走多远。

这是一篇入门文章,hadoop的学习方法很多,网上也有很多学习路线图。本文的思路是:以安装部署apache hadoop2.x版本为主线,来介绍hadoop2.x的架构组成、各模块协同工作原理、技术细节。安装不是目的,通过安装认识hadoop才是目的。

本文分为五个部分、十三节、四十九步。

第一部分:linux环境安装

hadoop是运行在linux,虽然借助工具也可以运行在windows上,但是建议还是运行在linux系统上,第一部分介绍linux环境的安装、配置、java jdk安装等。

第二部分:hadoop本地模式安装

hadoop本地模式只是用于本地开发调试,或者快速安装体验hadoop,这部分做简单的介绍。

第三部分:hadoop伪分布式模式安装

学习hadoop一般是在伪分布式模式下进行。这种模式是在一台机器上各个进程上运行hadoop的各个模块,伪分布式的意思是虽然各个模块是在各个进程上分开运行的,但是只是运行在一个操作系统上的,并不是真正的分布式。

第四部分:完全分布式安装

完全分布式模式才是生产环境采用的模式,hadoop运行在服务器集群上,生产环境一般都会做ha,以实现高可用。

第五部分:hadoop ha安装

ha是指高可用,为了解决hadoop单点故障问题,生产环境一般都做ha部署。这部分介绍了如何配置hadoop2.x的高可用,并简单介绍了ha的工作原理。 
安装过程中,会穿插简单介绍涉及到的知识。希望能对大家有所帮助。 

最后,我真的按这些步骤安装了,然而发现这门槛不一般,需要学习整个生态,所以去淘宝买了个几块钱的视频教程,个人感觉讲的还可以,还有项目什么的,才几块钱,有需要的可以去找找,这里给个我买的链接

https://item.taobao.com/item.htm?spm=a230r.1.14.186.ec2e52e0ym89zu&id=576782961510&ns=1&abbucket=6#detail ,好了下面开始干吧.

第一部分:linux环境安装

第一步、配置vmware nat网络

一、vmware网络模式介绍

参考:

二、nat模式配置

nat是网络地址转换,是在宿主机和虚拟机之间增加一个地址转换服务,负责外部和虚拟机之间的通讯转接和ip转换。

我们部署hadoop集群,这里选择nat模式,各个虚拟机通过nat使用宿主机的ip来访问外网。

我们的要求是集群中的各个虚拟机有固定的ip、可以访问外网,所以进行如下设置:

1、 vmware安装后,默认的nat设置如下:

史上最详细的Hadoop环境搭建(转)

2、 默认的设置是启动dhcp服务的,nat会自动给虚拟机分配ip,但是我们需要将各个机器的ip固定下来,所以要取消这个默认设置。

3、 为机器设置一个子网网段,默认是192.168.136网段,我们这里设置为100网段,将来各个虚拟机ip就为 192.168.100.*。

4、 点击nat设置按钮,打开对话框,可以修改网关地址和dns地址。这里我们为nat指定dns地址。

史上最详细的Hadoop环境搭建(转)

5、 网关地址为当前网段里的.2地址,好像是固定的,我们不做修改,先记住网关地址就好了,后面会用到。

第二步、安装linux操作系统

三、vmware上安装linux系统

1、 文件菜单选择新建虚拟机

2、 选择经典类型安装,下一步。

3、 选择稍后安装操作系统,下一步。

4、 选择linux系统,版本选择centos 64位。

史上最详细的Hadoop环境搭建(转)

5、 命名虚拟机,给虚拟机起个名字,将来显示在vmware左侧。并选择linux系统保存在宿主机的哪个目录下,应该一个虚拟机保存在一个目录下,不能多个虚拟机使用一个目录。

史上最详细的Hadoop环境搭建(转)

6、 指定磁盘容量,是指定分给linux虚拟机多大的硬盘,默认20g就可以,下一步。

7、 点击自定义硬件,可以查看、修改虚拟机的硬件配置,这里我们不做修改。

8、 点击完成后,就创建了一个虚拟机,但是此时的虚拟机还是一个空壳,没有操作系统,接下来安装操作系统。

9、 点击编辑虚拟机设置,找到dvd,指定操作系统iso文件所在位置。

史上最详细的Hadoop环境搭建(转)

10、 点击开启此虚拟机,选择第一个回车开始安装操作系统。

史上最详细的Hadoop环境搭建(转)

11、 设置root密码。

史上最详细的Hadoop环境搭建(转)

12、 选择desktop,这样就会装一个xwindow。

史上最详细的Hadoop环境搭建(转)

13、 先不添加普通用户,其他用默认的,就把linux安装完毕了。

四、设置网络

因为vmware的nat设置中关闭了dhcp自动分配ip功能,所以linux还没有ip,需要我们设置网络各个参数。

1、 用root进入xwindow,右击右上角的网络连接图标,选择修改连接。

史上最详细的Hadoop环境搭建(转)

2、 网络连接里列出了当前linux里所有的网卡,这里只有一个网卡system eth0,点击编辑。

史上最详细的Hadoop环境搭建(转)

3、 配置ip、子网掩码、网关(和nat设置的一样)、dns等参数,因为nat里设置网段为100.*,所以这台机器可以设置为192.168.100.10网关和nat一致,为192.168.100.2

史上最详细的Hadoop环境搭建(转)

4、 用ping来检查是否可以连接外网,如下图,已经连接成功。

史上最详细的Hadoop环境搭建(转)

五、修改hostname

1、 临时修改hostname

[root@localhost desktop]# hostname bigdata-senior01.chybinmy.com
  • 1

这种修改方式,系统重启后就会失效。

2、 永久修改hostname

想永久修改,应该修改配置文件 /etc/sysconfig/network。

命令:[root@bigdata-senior01 ~] vim /etc/sysconfig/network
  • 1

打开文件后,

  1.  
    networking=yes #使用网络
  2.  
    hostname=bigdata-senior01.chybinmy.com #设置主机名
  • 1
  • 2

六、配置host

  1.  
    命令:[root@bigdata-senior01 ~] vim /etc/hosts
  2.  
    添加hosts: 192.168.100.10 bigdata-senior01.chybinmy.com
  • 1
  • 2

七、关闭防火墙

学习环境可以直接把防火墙关闭掉。

(1) 用root用户登录后,执行查看防火墙状态。

[root@bigdata-senior01 hadoop]# service iptables status
  • 1

(2) 用[root@bigdata-senior01 hadoop]# service iptables stop关闭防火墙,这个是临时关闭防火墙。

  1.  
    [root@bigdata-senior01 hadoop-2.5.0]# service iptables stop
  2.  
    iptables: setting chains to policy accept: filter [ ok ]
  3.  
    iptables: flushing firewall rules: [ ok ]
  4.  
    iptables: unloading modules: [ ok ]
  • 1
  • 2
  • 3
  • 4

(3) 如果要永久关闭防火墙用。

[root@bigdata-senior01 hadoop]# chkconfig iptables off
  • 1

关闭,这种需要重启才能生效。

八、关闭selinux

selinux是linux一个子安全机制,学习环境可以将它禁用。

[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim /etc/sysconfig/selinux
  • 1
  1.  
    # this file controls the state of selinux on the system.
  2.  
    # selinux= can take one of these three values:
  3.  
    # enforcing - selinux security policy is enforced.
  4.  
    # permissive - selinux prints warnings instead of enforcing.
  5.  
    # disabled - no selinux policy is loaded.
  6.  
    selinux=disabled
  7.  
    # selinuxtype= can take one of these two values:
  8.  
    # targeted - targeted processes are protected,
  9.  
    # mls - multi level security protection.
  10.  
    selinuxtype=targeted
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

史上最详细的Hadoop环境搭建(转)

第三步、安装jdk

九、安装java jdk

1、 查看是否已经安装了java jdk。

[root@bigdata-senior01 desktop]# java –version
  • 1

注意:hadoop机器上的jdk,最好是oracle的java jdk,不然会有一些问题,比如可能没有jps命令。 
如果安装了其他版本的jdk,卸载掉。

2、 安装java jdk

(1) 去下载oracle版本java jdk:jdk-7u67-linux-x64.tar.gz

(2) 将jdk-7u67-linux-x64.tar.gz解压到/opt/modules目录下

[root@bigdata-senior01 /]# tar -zxvf jdk-7u67-linux-x64.tar.gz -c /opt/modules
  • 1

(3) 添加环境变量

设置jdk的环境变量 java_home。需要修改配置文件/etc/profile,追加

  1.  
    export java_home="/opt/modules/jdk1.7.0_67"
  2.  
    export path=$java_home/bin:$path
  • 1
  • 2

修改完毕后,执行 source /etc/profile

(4)安装后再次执行 java –version,可以看见已经安装完成。

  1.  
    [root@bigdata-senior01 /]# java -version
  2.  
    java version "1.7.0_67"
  3.  
    java(tm) se runtime environment (build 1.7.0_67-b01)
  4.  
    java hotspot(tm) 64-bit server vm (build 24.65-b04, mixed mode)
  • 1
  • 2
  • 3
  • 4

第二部分:hadoop本地模式安装

第四步、hadoop部署模式

hadoop部署模式有:本地模式、伪分布模式、完全分布式模式、ha完全分布式模式。

区分的依据是namenode、datanode、resourcemanager、nodemanager等模块运行在几个jvm进程、几个机器。

模式名称 各个模块占用的jvm进程数 各个模块运行在几个机器数上
本地模式 1个 1个
伪分布式模式 n个 1个
完全分布式模式 n个 n个
ha完全分布式 n个 n个

第五步、本地模式部署

十、本地模式介绍

本地模式是最简单的模式,所有模块都运行与一个jvm进程中,使用的本地文件系统,而不是hdfs,本地模式主要是用于本地开发过程中的运行调试用。下载hadoop安装包后不用任何设置,默认的就是本地模式。

十一、解压hadoop后就是直接可以使用

1、 创建一个存放本地模式hadoop的目录

[hadoop@bigdata-senior01 modules]$ mkdir /opt/modules/hadoopstandalone
  • 1

2、 解压hadoop文件

[hadoop@bigdata-senior01 modules]$ tar -zxf /opt/sofeware/hadoop-2.5.0.tar.gz  -c /opt/modules/hadoopstandalone/
  • 1

3、 确保java_home环境变量已经配置好

  1.  
    [hadoop@bigdata-senior01 modules]$ echo ${java_home}
  2.  
    /opt/modules/jdk1.7.0_67
  • 1
  • 2

十二、运行mapreduce程序,验证

我们这里用hadoop自带的wordcount例子来在本地模式下测试跑mapreduce。

1、 准备mapreduce输入文件wc.input

  1.  
    [hadoop@bigdata-senior01 modules]$ cat /opt/data/wc.input
  2.  
    hadoop mapreduce hive
  3.  
    hbase spark storm
  4.  
    sqoop hadoop hive
  5.  
    spark hadoop
  • 1
  • 2
  • 3
  • 4
  • 5

2、 运行hadoop自带的mapreduce demo

[hadoop@bigdata-senior01 hadoopstandalone]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /opt/data/wc.input output2
  • 1

史上最详细的Hadoop环境搭建(转)

这里可以看到job id中有local字样,说明是运行在本地模式下的。

3、 查看输出文件

本地模式下,mapreduce的输出是输出到本地。

  1.  
    [hadoop@bigdata-senior01 hadoopstandalone]$ ll output2
  2.  
    total 4
  3.  
    -rw-r--r-- 1 hadoop hadoop 60 jul 7 12:50 part-r-00000
  4.  
    -rw-r--r-- 1 hadoop hadoop 0 jul 7 12:50 _success
  • 1
  • 2
  • 3
  • 4

输出目录中有_success文件说明job运行成功,part-r-00000是输出结果文件。 

第三部分:hadoop伪分布式模式安装

第六步、伪分布式hadoop部署过程

十三、hadoop所用的用户设置

1、 创建一个名字为hadoop的普通用户

  1.  
    [root@bigdata-senior01 ~]# useradd hadoop
  2.  
    [root@bigdata-senior01 ~]# passwd hadoop
  • 1
  • 2

2、 给hadoop用户sudo权限

[root@bigdata-senior01 ~]# vim /etc/sudoers
  • 1

设置权限,学习环境可以将hadoop用户的权限设置的大一些,但是生产环境一定要注意普通用户的权限限制。

  1.  
    root all=(all) all
  2.  
    hadoop all=(root) nopasswd:all
  • 1
  • 2

注意:如果root用户无权修改sudoers文件,先手动为root用户添加写权限。

[root@bigdata-senior01 ~]# chmod u+w /etc/sudoers
  • 1

3、 切换到hadoop用户

  1.  
    [root@bigdata-senior01 ~]# su - hadoop
  2.  
    [hadoop@bigdata-senior01 ~]$
  • 1
  • 2

4、 创建存放hadoop文件的目录

[hadoop@bigdata-senior01 ~]$ sudo mkdir /opt/modules
  • 1

5、 将hadoop文件夹的所有者指定为hadoop用户

如果存放hadoop的目录的所有者不是hadoop,之后hadoop运行中可能会有权限问题,那么就讲所有者改为hadoop。

[hadoop@bigdata-senior01 ~]# sudo chown -r hadoop:hadoop /opt/modules
  • 1

十四、解压hadoop目录文件

1、 复制hadoop-2.5.0.tar.gz到/opt/modules目录下。

2、 解压hadoop-2.5.0.tar.gz

  1.  
    [hadoop@bigdata-senior01 ~]# cd /opt/modules
  2.  
    [hadoop@bigdata-senior01 hadoop]# tar -zxvf hadoop-2.5.0.tar.gz
  • 1
  • 2

十五、配置hadoop

1、 配置hadoop环境变量

[hadoop@bigdata-senior01 hadoop]# vim /etc/profile
  • 1

追加配置:

  1.  
    export hadoop_home="/opt/modules/hadoop-2.5.0"
  2.  
    export path=$hadoop_home/bin:$hadoop_home/sbin:$path
  • 1
  • 2

执行:source /etc/profile 使得配置生效

验证hadoop_home参数:

  1.  
    [hadoop@bigdata-senior01 /]$ echo $hadoop_home
  2.  
    /opt/modules/hadoop-2.5.0
  • 1
  • 2

2、 配置 hadoop-env.sh、mapred-env.sh、yarn-env.sh文件的java_home参数

[hadoop@bigdata-senior01 ~]$ sudo vim  ${hadoop_home}/etc/hadoop/hadoop-env.sh
  • 1
  1.  
    修改java_home参数为:
  2.  
    export java_home="/opt/modules/jdk1.7.0_67"
  • 1
  • 2

3、 配置core-site.xml

史上最详细的Hadoop环境搭建(转)

[hadoop@bigdata-senior01 ~]{hadoop_home}/etc/hadoop/core-site.xml

(1) fs.defaultfs参数配置的是hdfs的地址。

  1.  
    <property>
  2.  
    <name>fs.defaultfs</name>
  3.  
    <value>hdfs://bigdata-senior01.chybinmy.com:8020</value>
  4.  
    </property>
  • 1
  • 2
  • 3
  • 4

(2) hadoop.tmp.dir配置的是hadoop临时目录,比如hdfs的namenode数据默认都存放这个目录下,查看*-default.xml等默认配置文件,就可以看到很多依赖${hadoop.tmp.dir}的配置。

默认的hadoop.tmp.dir/tmp/hadoop-${user.name},此时有个问题就是namenode会将hdfs的元数据存储在这个/tmp目录下,如果操作系统重启了,系统会清空/tmp目录下的东西,导致namenode元数据丢失,是个非常严重的问题,所有我们应该修改这个路径。

  • 创建临时目录:
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo mkdir -p /opt/data/tmp
  • 1
  • 将临时目录的所有者修改为hadoop
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo chown –r hadoop:hadoop /opt/data/tmp
  • 1
  • 修改hadoop.tmp.dir
  1.  
    <property>
  2.  
    <name>hadoop.tmp.dir</name>
  3.  
    <value>/opt/data/tmp</value>
  4.  
    </property>
  • 1
  • 2
  • 3
  • 4

十六、配置、格式化、启动hdfs

1、 配置hdfs-site.xml

史上最详细的Hadoop环境搭建(转)

[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim ${hadoop_home}/etc/hadoop/hdfs-site.xml
  • 1
  1.  
    <property>
  2.  
    <name>dfs.replication</name>
  3.  
    <value>1</value>
  4.  
    </property>
  • 1
  • 2
  • 3
  • 4

dfs.replication配置的是hdfs存储时的备份数量,因为这里是伪分布式环境只有一个节点,所以这里设置为1。

2、 格式化hdfs

史上最详细的Hadoop环境搭建(转)

[hadoop@bigdata-senior01 ~]$ hdfs namenode –format
  • 1

格式化是对hdfs这个分布式文件系统中的datanode进行分块,统计所有分块后的初始元数据的存储在namenode中。

格式化后,查看core-site.xml里hadoop.tmp.dir(本例是/opt/data目录)指定的目录下是否有了dfs目录,如果有,说明格式化成功。

注意:

  1. 格式化时,这里注意hadoop.tmp.dir目录的权限问题,应该hadoop普通用户有读写权限才行,可以将/opt/data的所有者改为hadoop。 
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo chown -r hadoop:hadoop /opt/data

  2. 查看namenode格式化后的目录。

   [hadoop@bigdata-senior01 ~]$ ll /opt/data/tmp/dfs/name/current
  • 1

史上最详细的Hadoop环境搭建(转)

fsimage是namenode元数据在内存满了后,持久化保存到的文件。

fsimage*.md5 是校验文件,用于校验fsimage的完整性。

seen_txid 是hadoop的版本

vession文件里保存:

  • namespaceid:namenode的唯一id。

  • clusterid:集群id,namenode和datanode的集群id应该一致,表明是一个集群。

  1.  
    #mon jul 04 17:25:50 cst 2016
  2.  
    namespaceid=2101579007
  3.  
    clusterid=cid-205277e6-493b-4601-8e33-c09d1d23ece4
  4.  
    ctime=0
  5.  
    storagetype=name_node
  6.  
    blockpoolid=bp-1641019026-127.0.0.1-1467624350057
  7.  
    layoutversion=-57
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

3、 启动namenode

  1.  
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/sbin/hadoop-daemon.sh start namenode
  2.  
    starting namenode, logging to /opt/modules/hadoop-2.5.0/logs/hadoop-hadoop-namenode-bigdata-senior01.chybinmy.com.out
  • 1
  • 2

史上最详细的Hadoop环境搭建(转)

4、 启动datanode

  1.  
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/sbin/hadoop-daemon.sh start datanode
  2.  
    starting datanode, logging to /opt/modules/hadoop-2.5.0/logs/hadoop-hadoop-datanode-bigdata-senior01.chybinmy.com.out
  • 1
  • 2

史上最详细的Hadoop环境搭建(转)

5、 启动secondarynamenode

  1.  
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/sbin/hadoop-daemon.sh start secondarynamenode
  2.  
    starting secondarynamenode, logging to /opt/modules/hadoop-2.5.0/logs/hadoop-hadoop-secondarynamenode-bigdata-senior01.chybinmy.com.out
  • 1
  • 2

史上最详细的Hadoop环境搭建(转)

6、 jps命令查看是否已经启动成功,有结果就是启动成功了。

  1.  
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ jps
  2.  
    3034 namenode
  3.  
    3233 jps
  4.  
    3193 secondarynamenode
  5.  
    3110 datanode
  • 1
  • 2
  • 3
  • 4
  • 5

史上最详细的Hadoop环境搭建(转)

7、 hdfs上测试创建目录、上传、下载文件

hdfs上创建目录

[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/bin/hdfs dfs -mkdir /demo1
  • 1

上传本地文件到hdfs上

  1.  
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/bin/hdfs dfs -put
  2.  
    ${hadoop_home}/etc/hadoop/core-site.xml /demo1
  • 1
  • 2

读取hdfs上的文件内容

[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/bin/hdfs dfs -cat /demo1/core-site.xml
  • 1

史上最详细的Hadoop环境搭建(转)

从hdfs上下载文件到本地

[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -get /demo1/core-site.xml
  • 1

史上最详细的Hadoop环境搭建(转)

十七、配置、启动yarn

1、 配置mapred-site.xml

默认没有mapred-site.xml文件,但是有个mapred-site.xml.template配置模板文件。复制模板生成mapred-site.xml。

[hadoop@bigdata-senior01 hadoop-2.5.0]# cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
  • 1

添加配置如下:

  1.  
    <property>
  2.  
    <name>mapreduce.framework.name</name>
  3.  
    <value>yarn</value>
  4.  
    </property>
  • 1
  • 2
  • 3
  • 4

指定mapreduce运行在yarn框架上。

史上最详细的Hadoop环境搭建(转)

2、 配置yarn-site.xml

添加配置如下:

  1.  
    <property>
  2.  
    <name>yarn.nodemanager.aux-services</name>
  3.  
    <value>mapreduce_shuffle</value>
  4.  
    </property>
  5.  
    <property>
  6.  
    <name>yarn.resourcemanager.hostname</name>
  7.  
    <value>bigdata-senior01.chybinmy.com</value>
  8.  
    </property>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • yarn.nodemanager.aux-services配置了yarn的默认混洗方式,选择为mapreduce的默认混洗算法。

  • yarn.resourcemanager.hostname指定了resourcemanager运行在哪个节点上。

    史上最详细的Hadoop环境搭建(转)

3、 启动resourcemanager

[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/sbin/yarn-daemon.sh start resourcemanager
  • 1

史上最详细的Hadoop环境搭建(转)

4、 启动nodemanager

[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${hadoop_home}/sbin/yarn-daemon.sh start nodemanager
  • 1

史上最详细的Hadoop环境搭建(转)

5、 查看是否启动成功

  1.  
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ jps
  2.  
    3034 namenode
  3.  
    4439 nodemanager
  4.  
    4197 resourcemanager
  5.  
    4543 jps
  6.  
    3193 secondarynamenode
  7.  
    3110 datanode
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

可以看到resourcemanager、nodemanager已经启动成功了。

史上最详细的Hadoop环境搭建(转)

6、 yarn的web页面

yarn的web客户端端口号是8088,通过可以查看。

史上最详细的Hadoop环境搭建(转)

十八、运行mapreduce job

在hadoop的share目录里,自带了一些jar包,里面带有一些mapreduce实例小例子,位置在share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar,可以运行这些例子体验刚搭建好的hadoop平台,我们这里来运行最经典的wordcount实例。

1、 创建测试用的input文件

创建输入目录:

[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -mkdir -p /wordcountdemo/input
  • 1

创建原始文件:

在本地/opt/data目录创建一个文件wc.input,内容如下。

史上最详细的Hadoop环境搭建(转)

将wc.input文件上传到hdfs的/wordcountdemo/input目录中:

[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -put /opt/data/wc.input /wordcountdemo/input
  • 1

史上最详细的Hadoop环境搭建(转)

2、 运行wordcount mapreduce job

  1.  
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-
  2.  
    2.5.0.jar wordcount /wordcountdemo/input /wordcountdemo/output
  • 1
  • 2

史上最详细的Hadoop环境搭建(转)

3、 查看输出结果目录

  1.  
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -ls /wordcountdemo/output
  2.  
    -rw-r--r-- 1 hadoop supergroup 0 2016-07-05 05:12 /wordcountdemo/output/_success
  3.  
    -rw-r--r-- 1 hadoop supergroup 60 2016-07-05 05:12 /wordcountdemo/output/part-r-00000
  • 1
  • 2
  • 3

史上最详细的Hadoop环境搭建(转)

  • output目录中有两个文件,_success文件是空文件,有这个文件说明job执行成功。

  • part-r-00000文件是结果文件,其中-r-说明这个文件是reduce阶段产生的结果,mapreduce程序执行时,可以没有reduce阶段,但是肯定会有map阶段,如果没有reduce阶段这个地方有是-m-。

  • 一个reduce会产生一个part-r-开头的文件。

  • 查看输出文件内容。

  1.  
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -cat /wordcountdemo/output/part-r-00000
  2.  
    hadoop 3
  3.  
    hbase 1
  4.  
    hive 2
  5.  
    mapreduce 1
  6.  
    spark 2
  7.  
    sqoop 1
  8.  
    storm 1
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

结果是按照键值排好序的。

十九、停止hadoop

  1.  
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/hadoop-daemon.sh stop namenode
  2.  
    stopping namenode
  3.  
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/hadoop-daemon.sh stop datanode
  4.  
    stopping datanode
  5.  
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/yarn-daemon.sh stop resourcemanager
  6.  
    stopping resourcemanager
  7.  
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/yarn-daemon.sh stop nodemanager
  8.  
    stopping nodemanager
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

史上最详细的Hadoop环境搭建(转)

二十、 hadoop各个功能模块的理解

1、 hdfs模块

hdfs负责大数据的存储,通过将大文件分块后进行分布式存储方式,突破了服务器硬盘大小的限制,解决了单台机器无法存储大文件的问题,hdfs是个相对独立的模块,可以为yarn提供服务,也可以为hbase等其他模块提供服务。

2、 yarn模块

yarn是一个通用的资源协同和任务调度框架,