Hadoop分布式集群搭建
1、前期准备条件,三台主机:master,slave1,slave2
2、三台机器在集群中所担任的角色:
master:namenode,datanode,nodemanager,historyserver
slave1:resoucemanaer,datanode,nodemanager
slave2:secondaryname,datanode,nodemanager
3、指定Java的安装路径,配置*-env.sh文件(hadoop-env.sh/mapred-env.sh/yarn-env.sh)
export JAVA_HOME=/opt/java/jdk1.7.0_80
4、配置core-site.xml
5、配置hdfs-site.xml
6、配置yarn-site.xml
7、配置mapred-site.xml
8、配置slaves
master.cdh.com
slave1.cdh.com
slave2.cdh.com
9、分发到各个节点
scp -r /opt/cdh5.14.2/hadoop-2.6.0/ slave1.cdh.com:/opt/cdh5.14.2/
10、格式化namenode
在主节点执行就可以:# bin/hdfs namenode -format
11、在master主机上启动:sbin/start-dfs.sh sbin/start-yarn.sh
发现唯独配置在slave1上的resourcemanager没有启动。
搜索后发现如下解释:
修改yarn-site.xml:
12、在master主机上启动:sbin/start-dfs.sh sbin/start-yarn.sh
master:
slave1:
slave2:
在浏览器分别打开:http://master.cdh.com:50070 http://master.cdh.com:8088
页面如下:
下一篇: 推荐阅读Google算法更新大全
推荐阅读
-
redis/分布式文件存储系统/数据库 存储session,解决负载均衡集群中session不一致问题,redissession_PHP教程
-
搭建高可用的redis集群,避免standalone模式带给你的苦难
-
Zookeeper集群搭建
-
搭建高可用的redis集群,避免standalone模式带给你的苦难
-
影响Hadoop集群稳定性后续
-
Kafka单节点伪分布式集群搭建实现过程详解
-
搭建Spark高可用集群
-
hadoop-1.0.3集群安装
-
hadoop集群DataNode起不来:“DiskChecker$DiskErrorExceptio
-
分布式系统概述(Hadoop与HBase的前生今世)