Hadoop集群管理
1.简介
hadoop是大数据通用处理平台,提供了分布式文件存储以及分布式离线并行计算,由于hadoop的高拓展性,在使用hadoop时通常以集群的方式运行,集群中的节点可达上千个,能够处理pb级的数据。
hadoop各个模块剖析:
2.hadoop集群架构图
3.hadoop集群搭建
3.1 修改配置
1.配置ssh以及hosts文件
由于在启动hdfs、yarn时都需要对用户的身份进行验证,且集群中namenode、resourcemanager在启动时会通过ssh的形式通知其他节点,使其启动相应的进程,因此需要相互配置ssh设置免密码登录并且关闭防火墙或开启白名单。
//生成秘钥 ssh-keygen -t rsa //复制秘钥到本机和其他受信任的主机中,那么在本机可以直接通过ssh免密码登录到受信任的主机中. ssh-copy-id 192.168.1.80 ssh-copy-id 192.168.1.81 ssh-copy-id 192.168.1.82
编辑/etc/hosts文件,添加集群中主机名与ip的映射关系。
2.配置hadoop公共属性(core-site.xml)
<configuration> <!-- hadoop工作目录,用于存放hadoop运行时namenode、datanode产生的数据 --> <property> <name>hadoop.tmp.dir</name> <value>/usr/hadoop/hadoop-2.9.0/data</value> </property> <!-- 默认namenode --> <property> <name>fs.defaultfs</name> <value>hdfs://192.168.1.80</value> </property> <!-- 开启hadoop的回收站机制,当删除hdfs中的文件时,文件将会被移动到回收站(/usr/<username>/.trash),在指定的时间过后再对其进行删除,此机制可以防止文件被误删除 --> <property> <name>fs.trash.interval</name> <!-- 单位是分钟 --> <value>1440</value> </property> </configuration>
*fs.defaultfs配置项用于指定hdfs集群中默认使用的namenode。
3.配置hdfs(hdfs-site.xml)
<configuration> <!-- 文件在hdfs中的备份数(小于等于namenode) --> <property> <name>dfs.replication</name> <value>3</value> </property> <!-- 关闭hdfs的访问权限 --> <property> <name>dfs.permissions.enabled</name> <value>false</value> </property> <!-- 设置namenode的web监控页面地址(主机地址需要与core-site.xml中fs.defaultfs配置的一致) --> <property> <name>dfs.namenode.http-address</name> <value>192.168.1.80:50070</value> </property> <!-- 设置secondarynamenode的http访问地址 --> <property> <name>dfs.namenode.secondary.http-address</name> <value>192.168.1.80:50090</value> </property> </configuration>
4.配置yarn(yarn-site.xml)
<configuration> <!-- 配置reduce取数据的方式是shuffle(随机) --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <!-- 设置resourcemanager的地址 --> <property> <name>yarn.resourcemanager.hostname</name> <value>192.168.1.80</value> </property> <!-- web application proxy安全任务 --> <property> <name>yarn.web-proxy.address</name> <value>192.168.1.80:8089</value> </property> <!-- 开启日志 --> <property> <name>yarn.log-aggregation-enable</name> <value>true</value> </property> <!-- 设置日志的删除时间 -1:禁用,单位为秒 --> <property> <name>yarn.log-aggregation。retain-seconds</name> <value>864000</value> </property> <!-- 设置yarn的内存大小,单位是mb --> <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>8192</value> </property> <!-- 设置yarn的cpu核数 --> <property> <name>yarn.nodemanager.resource.cpu-vcores</name> <value>8</value> </property> </configuration>
*yarn.resourcemanager.hostname配置项用于指定yarn集群中默认使用的resourcemanager。
5.配置mapreduce(mapred-site.xml)
<configuration> <!-- 让mapreduce任务使用yarn进行调度 --> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <!-- 设置jobhistory的服务地址 --> <property> <name>mapreduce.jobhistory.address</name> <value>192.168.1.80:10020</value> </property> <!-- 指定jobhistory的web访问地址 --> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>192.168.1.80:19888</value> </property> <!-- 开启uber运行模式 --> <property> <name>mapreduce.job.ubertask.enable</name> <value>true</value> </property> </configuration>
*hadoop的jobhistory记录了已运行完的mapreduce任务信息并存放在指定的hdfs目录下,默认未开启。
*uber运行模式对小作业进行优化,不会给每个任务分别申请分配container资源,这些小任务将统一在一个container中按照先执行map任务后执行reduce任务的顺序串行执行。
6.配置slave文件
#配置要运行datanode、nodemanager的节点,值可以是主机名或ip地址。 192.168.1.80 192.168.1.81 192.168.1.82
*slave文件可以只在namenode以及resourcemanager所在的节点中配置。
*在服务器中各种配置尽量使用主机名来代替ip。
3.2 启动集群
启动hdfs集群
1.分别格式化namenode
2.在任意一台hadoop节点中启动hdfs,那么整个hdfs集群将会一起启动。
分别通过jps命令查看当前启动的进程
*当hdfs集群启动完毕后,由于namenode部署在hadoop1机器上,因此可以访问进入hdfs的可视化管理界面,可以查看到当前hdfs集群中有3个存活的datanode节点。
启动yarn集群
1.在yarn.resourcemanager.hostname配置项指定的节点中启动yarn集群。
分别通过jps命令查看当前启动的进程
*当yarn集群启动完毕后,由于resourcemanager部署在hadoop1机器上,因此可以访问进入yarn的可视化管理界面,可以查看到当前yarn集群中有3个存活的nodemanager节点。
2.在mapreduce.jobhistory.address配置项指定的节点中启动jobhistory。
*当启动jobhistory后,可以访问mapreduce.jobhistory.address配置项指定的地址进入jobhistory,默认是。
4.hadoop集群管理
4.1 动态添加节点
1.修改各个节点的hosts文件,添加新节点的主机名与ip映射关系。
2.相互配置ssh,使可以通过ssh进行免密码登录。
3.修改namenode和resourcemanager所在节点的slave文件,添加新节点的主机名或ip地址。
4.单独在新节点中启动datanode和nodemanager。
*进入hdfs管理页面,可以查看到当前hdfs集群中有4个存活的datanode节点。
*进入yarn管理页面,可以查看到当前yarn集群中有4个存活的nodemanager节点。
4.2 动态卸载节点
1.修改namenode所在节点上的hdfs-site.xml配置文件。
<!-- 指定一个配置文件,使namenode过滤配置文件中指定的host --> <property> <name>dfs.hosts.exclude</name> <value>/usr/hadoop/hadoop-2.9.0/etc/hadoop/hdfs.exclude</value> </property>
2.修改resourcemanager所在节点上的yarn-site.xml配置文件。
<!-- 指定一个配置文件,使resourcemanager过滤配置文件中指定的host --> <property> <name>yarn.resourcemanager.nodes.exclude-path</name> <value>/usr/hadoop/hadoop-2.9.0/etc/hadoop/yarn.exclude</value> </property>
3.分别刷新hdfs和yarn集群
查看hdfs管理页面,可见hadoop4的datanode已被动态的剔除。
查看yarn管理页面,可见hadoop4的nodemanager已被动态的剔除。
使用jps命令查看hadoop4中hadoop进程,可以发现nodemanager进程已经被kill掉,只剩下datanode进程,因此yarn集群在通过配置文件的形式动态过滤节点时,一旦节点被过滤,则nodemanager进程直接被杀死,不能动态的进行恢复,必须重启进程并在exclude.host文件中剔除,而hdfs集群在通过配置文件的形式动态过滤节点时可以动态的进行卸载和恢复。
*若第一次使用该配置则需要重启hdfs和yarn集群,使其重新读取配置文件,往后一旦修改过exclude.host配置文件则直接刷新集群即可。
上一篇: 把小妹妹逗喷血的N条小笑话
下一篇: 来“大姨妈”就感冒?补气血是关键