docker 搭建hadoop以及hbase集群详解
要用docker搭建集群,首先需要构造集群所需的docker镜像。构建镜像的一种方式是,利用一个已有的镜像比如简单的linux系统,运行一个容器,在容器中手动的安装集群所需要的软件并进行配置,然后commit容器到新的镜像。另一种方式是,使用dockerfile来自动化的构造镜像。
下面采用第二种.
1. 创建带ssh服务的ubuntu14.04系统镜像
使用ubuntu14系统来安装hadoop和hbase,由于hadoop集群机器之间通过ssh通信,所以需要在ubuntu14系统中安装ssh服务。
编写dockerfile如下:
############################################ # version : debugman007/ssh:v1 # desc : ubuntu14.04 上安装的ssh ############################################ # 设置继承自ubuntu14.04官方镜像 from ubuntu:14.04 # 下面是一些创建者的基本信息 maintainer debugman007 (skc361@163.com) run rm -vf /var/lib/apt/lists/* run apt-get update run apt-get install -y openssh-server openssh-client vim wget curl sudo #添加用户 test,设置密码为 test, 赋予sudo权限 run useradd -m test run echo "test:test" | chpasswd run cd /etc/sudoers.d && touch nopasswdsudo && echo "test all=(all) all" >> nopasswdsudo #把test用户的shell改成bash,否则ssh登录ubuntu服务器,命令行不显示用户名和目录 run usermod -s /bin/bash test run echo "root:root" | chpasswd #配置ssh run mkdir /var/run/sshd run sed -i 's/permitrootlogin prohibit-password/permitrootlogin yes/' /etc/ssh/sshd_config run sed 's@session\s*required\s*pam_loginuid.so@session optional pam_loginuid.so@g' -i /etc/pam.d/sshd env notvisible "in users profile" run echo "export visible=now" >> /etc/profile expose 22 user test run ssh-keygen -t rsa -p '' -f ~/.ssh/id_rsa run cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys user root run ssh-keygen -t rsa -p '' -f ~/.ssh/id_rsa run cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
创建好的系统镜像位于:
dockerfile 位于:https://github.com/gtarcoder/dockerfiles/blob/master/ubt14-ssh/dockerfile
2. 创建hadoop和hbase基本镜像
编写dockerfile如下:
############################################ # version : debugman007/ubt14-hadoop-hbase:v1 # desc : ubuntu上安装的ssh,java, hadoop ############################################ from debugman007/ubt14-ssh:v1 # 下面是一些创建者的基本信息 maintainer debugman007 (skc361@163.com) #为hadoop集群提供dns服务 run sudo apt-get -y install dnsmasq #安装和配置java环境 #run yum -y install java-1.7.0-openjdk* add http://mirrors.linuxeye.com/jdk/jdk-7u80-linux-x64.tar.gz /usr/local/ run cd /usr/local && tar -zxvf jdk-7u80-linux-x64.tar.gz && rm -f jdk-7u80-linux-x64.tar.gz env java_home /usr/local/jdk1.7.0_80 env classpath ${java_home}/lib/dt.jar:$java_home/lib/tools.jar env path $path:${java_home}/bin #安装和配置 hadoop run groupadd hadoop run useradd -m hadoop -g hadoop run echo "hadoop:hadoop" | chpasswd add http://www-eu.apache.org/dist/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz /usr/local/ run cd /usr/local && tar -zxvf hadoop-2.7.3.tar.gz && rm -f hadoop-2.7.3.tar.gz run chown -r hadoop:hadoop /usr/local/hadoop-2.7.3 run cd /usr/local && ln -s ./hadoop-2.7.3 hadoop env hadoop_prefix /usr/local/hadoop env hadoop_home /usr/local/hadoop env hadoop_common_home /usr/local/hadoop env hadoop_hdfs_home /usr/local/hadoop env hadoop_mapred_home /usr/local/hadoop env hadoop_yarn_home /usr/local/hadoop env hadoop_conf_dir /usr/local/hadoop/etc/hadoop env path ${hadoop_home}/bin:$path add http://www-eu.apache.org/dist/hbase/1.2.4/hbase-1.2.4-bin.tar.gz /usr/local/ run cd /usr/local && tar -zxvf hbase-1.2.4-bin.tar.gz && rm -f hbase-1.2.4-bin.tar.gz run chown -r hadoop:hadoop /usr/local/hbase-1.2.4 run cd /usr/local && ln -s ./hbase-1.2.4 hbase env hbase_home /usr/local/hbase env path ${hbase_home}/bin:$path run echo "hadoop all= nopasswd: all" >> /etc/sudoers user hadoop run ssh-keygen -t rsa -p '' -f ~/.ssh/id_rsa run cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
创建好的镜像位于:
dockerfile 位于:https://github.com/gtarcoder/dockerfiles/blob/master/ubt14-hadoop-hbase/dockerfile
3. 给hadoop,hbase镜像进行配置
dockerfile 如下:
############################################ # version : debugman007/ubt14-hadoop-hbase:master # desc : ubuntu上安装的ssh,java, hadoop, hbase ############################################ from debugman007/ubt14-hadoop-hbase:base # 下面是一些创建者的基本信息 maintainer debugman007 (skc361@163.com) add hadoop-env.sh $hadoop_home/etc/hadoop/ add mapred-env.sh $hadoop_home/etc/hadoop/ add yarn-env.sh $hadoop_home/etc/hadoop/ add core-site.xml $hadoop_home/etc/hadoop/ add hdfs-site.xml $hadoop_home/etc/hadoop/ add mapred-site.xml $hadoop_home/etc/hadoop/ add yarn-site.xml $hadoop_home/etc/hadoop/ add slaves $hadoop_home/etc/hadoop/ add hbase-env.sh $hbase_home/conf/ add hbase-site.xml $hbase_home/conf/ add regionservers $hbase_home/conf/ user hadoop run sudo mkdir -p /opt/hadoop/data/zookeeper run sudo chown -r hadoop:hadoop $hadoop_home/etc/hadoop run sudo chown -r hadoop:hadoop $hbase_home/conf run sudo chown -r hadoop:hadoop /opt/hadoop run sudo chown -r hadoop:hadoop /home/hadoop copy bootstrap.sh /home/hadoop/ run chmod 766 /home/hadoop/bootstrap.sh entrypoint ["/home/hadoop/bootstrap.sh"] cmd ["/bin/bash"]
除了dockerfile文件,还需要hadoop和hbase的一些配置文件,包括 core-site.xml, hadoop-env.sh, hbase-env.sh, hbase-site.xml, hdfs-site.xml, mapred-env.sh, regionservers, slaves, yarn-env.sh, yarn-site.xml等。
创建好的镜像位于:
dockerfile以及配置文件位于:
4. 启动
(1)启动一个容器作为hadoop master节点:
docker run -it --name hadoop-master -h hadoop-master -d -p -p 50070:50070 -p 8088:8088 debugman007/ubt14-hadoop-hbase:v1
(2)启动三个容器作为hadop slave节点
docker run -it --name hadoop-slave1 -h hadoop-slave1 debugman007/ubt14-hadoop-hbase:v1
三个容器名和容器内的主机名分别设为 hadoop-slave1, hadoop-slave2, hadoop-slave3.
(3)设置各个节点的/etc/hosts文件
编辑一个run_hosts.sh 脚本文件,用来设置各个节点的名称解析。假设hadoop-master容器内的ip地址为10.0.1.2, hadoop-slave1/2/3 的ip地址分别为10.0.1.3/4/5.
#!/bin/bash echo 10.0.1.2 hadoop-master >> /etc/hosts echo 10.0.1.3 hadoop-slave1 >> /etc/hosts echo 10.0.1.4 hadoop-slave2 >> /etc/hosts echo 10.0.1.5 hadoop-slave3 >> /etc/hosts echo 10.0.1.3 regionserver1 >> /etc/hosts #hbase的regionserver服务器 echo 10.0.1.4 regionserver2 >> /etc/hosts
在hadoop-master和hadoop-salve1/2/3容器中都执行该脚本。
(4)进入hadoop-master容器
docker exec -it hadoop-master bash
然后在容器内 /usr/local/hadoop/sbin 目录下执行:
hdfs namenode -format ./start-dfs.sh ./start-yarn.sh
启动hadoop服务。
在容器内执行 start-hbase.sh 启动hbase服务。
(5)在 hadoop-master 节点和hadoop-slave节点内查看服务是否正常启动
在各个节点容器内都执行 jps 查看,发现在mster节点中出现
jps, resourcemanager, namenode, secondarynamenode, hmaster等服务;
在slave节点中出现 jps, datanode, nodemanager, hregionserver等服务。
出现以上服务,说明集群正常启动。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
上一篇: nginx实现请求转发
下一篇: php继承的一个应用
推荐阅读
-
详解从 0 开始使用 Docker 快速搭建 Hadoop 集群环境
-
详解使用docker搭建hadoop分布式集群
-
详解基于docker-swarm搭建持续集成集群服务
-
详解搭建ubuntu版hadoop集群
-
详解VMware12使用三台虚拟机Ubuntu16.04系统搭建hadoop-2.7.1+hbase-1.2.4(完全分布式)
-
史上最全面最完整的大数据学习第八章 Hbase完结篇 Hbase 集群搭建以及相关操作
-
docker 搭建hadoop以及hbase集群详解
-
hadoop docker集群搭建
-
Docker微服务的ETCD集群搭建教程详解
-
Docker Consul概述以及集群环境搭建步骤(图文详解)