欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

Hadoop维护心得 博客分类: hadoop  

程序员文章站 2024-03-15 10:23:05
...

2012-09-04

 

1. mapper与reducer数量

每个子任务是开启一个新的进程来进行的。因此如果不限制mapper或reducer的数量(一般reducer数量少),jobtracker会像个恶毒的老板一样,让某些节点工作到死。

 

2. include文件与exclude文件

最好配置include文件与exclude文件,使得在新插入节点与撤销节点时,能做更少的工作。

 

3. 唤醒节点

如果某些节点死掉了。登录到该节点,用hadoop-daemon start jobtracker与hadoop-daemon start datanode可以唤醒该节点。

 

4. hadoop dfsadmin命令集

除了hadoop fs命令集以外,hadoop dfsadmin命令集也是我们的好基友。

 

5. 配置一致性

hadoop在各个节点中的目录结构是要一致的。可以通过实验来验证。而且使用的配置文件也是基于namenode的配置文件。当目录结构不一致的情况下,不一致的datanode会无法启动。同时,这也代表各节点使用的JVM是应该一致的。

 

6. 安全互信

如果namenode和datanode之间的ssh登录不互信的话,启动和关闭系统的过程会相当的头痛。输密码输到不能自已。

 

7. 本地日志

各个节点的运行状况应当参考节点本机的日志信息。

  

8.hosts文件

确保所有节点的hosts文件正确。否则有可能出现这样的错误。

WARN org.apache.hadoop.mapred.ReduceTask: java.net.UnknownHostException: xx.xxx.xxxx.xxx

这是因为节点间是以服务器名来进行互相通信。没有正确的hosts文件会造成任务被卡死在某个节点上:它会不停的在文件系统里找文件块,并且四处碰壁。