Hadoop运行环境搭建(五)
程序员文章站
2024-02-11 15:13:10
...
一、配置历史服务器
为了查看程序的历史运行情况,需要配置一下历史服务器。具体配置步骤如下:
[[email protected] ~]$ vim /opt/module/hadoop-3.1.3/etc/hadoop/mapred-site.xml
在该文件里面增加如下配置。
<!-- 历史服务器端地址 -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>hadoop102:10020</value>
</property>
<!-- 历史服务器web端地址 -->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hadoop102:19888</value>
</property>
2)分发配置
[[email protected] hadoop]$ xsync $HADOOP_HOME/etc/hadoop/mapred-site.xml
3)在hadoop102启动历史服务器(先开启集群)
[[email protected] hadoop]$ mapred --daemon start historyserver
4)查看历史服务器是否启动
[[email protected] hadoop]$ jps
5)查看JobHistory
http://hadoop102:19888/jobhistory
二、配置日志的聚集
日志聚集概念:应用运行完成以后,将程序运行日志信息上传到HDFS系统上。
日志聚集功能好处:可以方便的查看到程序运行详情,方便开发调试。
注意:开启日志聚集功能,需要重新启动NodeManager 、ResourceManager和HistoryServer。
开启日志聚集功能具体步骤如下:
1)配置yarn-site.xml
[[email protected] ~]$ vim /opt/module/hadoop-3.1.3/etc/hadoop/yarn-site.xml
在该文件里面增加如下配置。
<!-- 开启日志聚集功能 -->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!-- 设置日志聚集服务器地址 -->
<property>
<name>yarn.log.server.url</name>
<value>http://hadoop102:19888/jobhistory/logs</value>
</property>
<!-- 设置日志保留时间为7天 -->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
2)分发配置
[[email protected] hadoop]$ xsync $HADOOP_HOME/etc/hadoop/yarn-site.xml
3)关闭NodeManager 、ResourceManager和HistoryServer
[[email protected] ~]$ stop-yarn.sh
[[email protected] ~]$ mapred --daemon stop historyserver
4)启动NodeManager 、ResourceManage和HistoryServer
[[email protected] ~]$ start-yarn.sh
[[email protected] ~]$ mapred --daemon start historyserver
5)删除HDFS上已经存在的输出文件(如果进行过测试)
[[email protected] ~]$ hadoop fs -rm -r /output
6)执行WordCount程序
[[email protected] ~]$ hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output
7)查看日志,
http://hadoop102:19888/jobhistory
三、编写hadoop集群常用脚本
1)查看三台服务器java进程脚本:jpsall
[[email protected] ~]$ cd /home/fang/bin
[[email protected] bin]$ vim jpsall
然后输入
#!/bin/bash
for host in hadoop102 hadoop103 hadoop104
do
echo =============== $host ===============
ssh $host jps [email protected] | grep -v Jps
done
保存后退出,然后赋予脚本执行权限
[[email protected] bin]$ chmod +x jpsall
2)hadoop集群启停脚本(包含hdfs,yarn,historyserver):myhadoop.sh
[[email protected] ~]$ cd /home/fang/bin
[[email protected] bin]$ vim myhadoop.sh
然后输入
#!/bin/bash
if [ $# -lt 1 ]
then
echo "No Args Input..."
exit ;
fi
case $1 in
"start")
echo " =================== 启动 hadoop集群 ==================="
echo " --------------- 启动 hdfs ---------------"
ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/start-dfs.sh"
echo " --------------- 启动 yarn ---------------"
ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/start-yarn.sh"
echo " --------------- 启动 historyserver ---------------"
ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon start historyserver"
;;
"stop")
echo " =================== 关闭 hadoop集群 ==================="
echo " --------------- 关闭 historyserver ---------------"
ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon stop historyserver"
echo " --------------- 关闭 yarn ---------------"
ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/stop-yarn.sh"
echo " --------------- 关闭 hdfs ---------------"
ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/stop-dfs.sh"
;;
*)
echo "Input Args Error..."
;;
esac
保存后退出,然后赋予脚本执行权限
[[email protected] bin]$ chmod +x myhadoop.sh
3)分发/home/fang/bin目录,保证自定义脚本在三台机器上都可以使用
[[email protected] ~]$ xsync /home/fang/bin/
下一篇: php实现ping_PHP