Hadoop的HDFS和MapReduce的安装(三台伪分布式集群)
一、创建虚拟机
1、从网上下载一个centos6.x的镜像(http://vault.centos.org/)
2、安装一台虚拟机配置如下:cpu1个、内存1g、磁盘分配20g(看个人配置和需求,本人配置有点低所以参数有点低)
3、虚拟机安装建议去挑战minidesktop,分区自己创建有/boot(300)、swap(300)、/(分配全部空间)。
二、集群环境配置
1.准备linux环境
设置一个ip地址,先将虚拟机的网络模式选为nat模式,对应vmnet1和vmnet8,保证能ping通vmnet8和网络 例:www.baidu.com
修改主机名
#vi /etc/sysconfig/network networking=yes hostname= hadoop01
修改ip
两种方式:
第一种:通过linux图形界面进行修改
进入linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击edit connections -> 选中当前网络system eth0 -> 点击edit按钮 -> 选择ipv4 -> method选择为manual -> 点击add按钮 -> 添加ip:192.168.35.100 子网掩码:255.255.255.0 (网关:192.168.1.1) -> apply
第二种:修改配置文件方式
#vim /etc/sysconfig/network-scripts/ifcfg-eth0 device="eth0" bootproto="static" onboot="yes" type="ethernet" ipaddr="192.168.35.100" netmask="255.255.255.0"
修改主机名和ip的映射关系
#vim /etc/hosts 192.168.35.100 hadoop01 192.168.35.101 hadoop02
关闭linux的防火墙
#查看防火墙状态 service iptables status #关闭防火墙 service iptables stop #查看防火墙开机启动状态 chkconfig iptables --list #关闭防火墙开机启动 开启防火墙 on chkconfig iptables off
关闭window的防火墙
进入到windows的控制面板-> 找到window防火墙 -> 点击关闭windwos防火墙,全部关闭
开启或关闭linux服务器的图形界面:
vi /etc/inittab
重启linux : reboot
2.安装jdk
上传jdk (上传工具 wincp ,securecrt ,vmtools)
解压jdk
tar -zxvf jdk-7u80-linux-x64.tar.gz -c /usr/local (一般在linux里放公共的系统使用的文件)
将java添加到环境变量中
vim /etc/profile #在文件最后添加 export java_home=/usr/local/jdk1.7.0_80 export path=$path:$java_home/bin #刷新配置 source /etc/profile
java -sersion验证一下
三、hadoop环境搭建(在这里我将hdfs和yarn的配置信息放在了一起)
1、安装hadoop2.8.5
创建一个目录mkdir /bigdata,先上传hadoop的安装包到服务器上去/bigdata,解压hadoop工具到/bigdata文件中,tar -zxvf hadoop-2.6.4.tar.gz -c /bigdata
注意:hadoop2.x的配置文件$hadoop_home/etc/hadoop
伪分布式需要修改5个配置文件
2、配置hadoop核心文件
1 <!--第一个:hadoop-env.sh-> 2 vim hadoop-env.sh 3 #第27行 4 export java_home=/usr/local/jdk1.7.0_80 5 <!--第二个:core-site.xml-> 6 <!-- 指定hadoop所使用的文件系统schema(uri),hdfs的老大(namenode)的地址 --> 7 <property> 8 <name>fs.defaultfs</name> 9 <value>hdfs://hadoop01:9000</value> 10 <!--必须配置了hosts,要不然就是ip-? 11 </property> 12 <!-- 指定hadoop运行时产生文件的存储目录 --> 13 <property> 14 <name>hadoop.tmp.dir</name> 15 <value>/bigdata/hadoop-2.6.4/data</value> 16 </property> 17 <!--第三个:hdfs-site.xml-> 18 <!-- 指定hdfs副本的数量 --> 19 <property> 20 <name>dfs.replication</name> 21 <value>1</value> 3 22 </property> 23 <!--第四个:mapred-site.xml 系统没有直接提供,需要修改模板文件 mv mapred-site.xml.template mapred-site.xml vim mapred-site.xml -> 24 <!-- 指定mr运行在yarn上 --> 25 <property> 26 <name>mapreduce.framework.name</name> 27 <value>yarn</value> 28 </property> 29 <!-- 第五个:yarn-site.xml-> 30 <!-- 指定yarn的老大(resourcemanager)的地址 --> 31 <property> 32 <name>yarn.resourcemanager.hostname</name> 33 <value>hadoop01</value> 34 </property> 35 <!-- reducer获取数据的方式 --> 36 <property> 37 <name>yarn.nodemanager.aux-services</name> 38 <value>mapreduce_shuffle</value> 39 </property>
将hadoop添加到环境变量
1 vim /etc/proflie 2 export java_home=/usr/local/jdk1.7.0_80 3 export hadoop_home=/bigdata/hadoop-2.6.4 4 export path=$path:$java_home/bin:$hadoop_home/bin
刷新配置文件
source /etc/profile
格式化namenode(是对namenode进行初始化) 格式化文件系统
hdfs namenode -format(历史命令 hadoop namenode -format)
启动hadoop
先启动hdfs
sbin/start-dfs.sh
再启动yarn
sbin/start-yarn.sh
验证是否启动成功
使用jps命令验证
27408 namenode
28218 jps
27643 secondarynamenode
28066 nodemanager
27803 resourcemanager
27512 datanode
通过网页验证
http://192.168.35.100:50070 (hdfs管理界面)
http://192.168.35.100:8088 (mr管理界面)
3、配置ssh免登陆
#生成ssh免登陆密钥
#进入到我的home目录
cd ~/.ssh
ssh-keygen -t rsa (四个回车)
执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
将公钥拷贝到要免密登陆的目标机器上
ssh-copy-id localhost
到此hdfs和mapreduce搭建完成,有任何出错或疑问可以私信留言也可以关注微信公众号;关于hadoop的后续还会陆续给大家一一讲解,谢谢阅读。
上一篇: 自定义view 波浪效果