欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  数据库

Hadoop集群中引入新DataNode节点

程序员文章站 2022-06-07 18:42:19
...

例如新增的节点ip为192.168.1.xxx 在所有nn和dn节点上增加192.168.1.xxx datanode-xxx的hosts 在xxx上新建用户 useradd hadoop -s /bin/bash -m 并将其他dn上的.ssh中的所有文件拷贝到xxx上的/home/ hadoop /.ssh路径下 安装jdk apt-get install sun-java6-j

例如新增的节点ip为192.168.1.xxx
在所有nn和dn节点上增加192.168.1.xxx datanode-xxx的hosts

在xxx上新建用户
useradd hadoop -s /bin/bash -m
并将其他dn上的.ssh中的所有文件拷贝到xxx上的/home/hadoop/.ssh路径下

安装jdk
apt-get install sun-java6-jdk
hadoop文件拷贝到/home/hadoop下

修改slaves文件
增加 datanode-xxx
并同步到各个集群节点中

切换到hadoop用户下
启动数据节点
bin/hadoop-daemon.sh start datanode
bin/hadoop-daemon.sh start tasktracker

完成以后,进行数据同步
bin/start-balancer.sh -threshold 3

对于新增的节点:
需要重新设置hostname,hostname设置为与slaves配置文件中相同的内容。
hostname datanode-xxx(重启后失效)
修改/etc/hostname,然后执行/etc/init.d/hostname.sh start(重启后不失效)

然后就可以通过
http://namenodeip:50070 来查看新增节点是否可以正常引入到集群。