欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

阿里云端口开放无效(阿里云服务器80端口开启方法)

程序员文章站 2023-11-24 15:52:28
吐血整理,搭建了两遍,亲测可用!!!我买的是阿里云2c4g的服务器,使用的是centos 7.7版本。在搭建过程中踩了不少坑,本篇文章希望对大家有用centos 7.7安装docker查看内核版本(使...

吐血整理,搭建了两遍,亲测可用!!!
我买的是阿里云2c4g的服务器,使用的是centos 7.7版本。在搭建过程中踩了不少坑,本篇文章希望对大家有用

centos 7.7安装docker

查看内核版本(使用root用户登陆)

uname -a

把yum包更新到最新

yum update

安装需要的软件包

yum install -y yum-utils device-mapper-persistent-data lvm2

设置yum源

sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo

创建目录

cd /mnt
mkdir docker 
cd docker

可以查看所有仓库中所有docker版本,并选择特定版本安装

yum list docker-ce --showduplicates | sort -r

安装docker,命令:yum install docker-ce-版本号

yum install docker-ce-18.06.3.ce

启动并加入开机启动

systemctl start docker
systemctl enable docker

验证安装是否成功(有client和service两部分表示docker安装启动都成功了)

docker version

ubuntu 18.04 安装docker

创建目录

cd /mnt
mkdir docker 
cd docker

下载

wget https://mirrors.aliyun.com/docker-ce/linux/ubuntu/dists/bionic/pool/stable/amd64/containerd.io_1.2.6-3_amd64.deb
wget https://mirrors.aliyun.com/docker-ce/linux/ubuntu/dists/bionic/pool/stable/amd64/docker-ce-cli_19.03.9~3-0~ubuntu-bionic_amd64.deb
wget https://mirrors.aliyun.com/docker-ce/linux/ubuntu/dists/bionic/pool/stable/amd64/docker-ce_19.03.9~3-0~ubuntu-bionic_amd64.deb

安装

sudo dpkg -i *.deb

启动

service docker start

生成服务器、hadoop镜像

获取centos7镜像

docker pull centos

查看镜像列表

docker images

安装ssh

cd /mnt/docker
mkdir ssh
cd ssh
vi dockerfile

内容

from centos
maintainer dys

run yum install -y openssh-server sudo
run sed -i 's/usepam yes/usepam no/g' /etc/ssh/sshd_config
run yum  install -y openssh-clients

run echo "root:1234" | chpasswd
run echo "root   all=(all)       all" >> /etc/sudoers
run ssh-keygen -t dsa -f /etc/ssh/ssh_host_dsa_key
run ssh-keygen -t rsa -f /etc/ssh/ssh_host_rsa_key

run mkdir /var/run/sshd
expose 22
cmd ["/usr/sbin/sshd", "-d"]

保存并退出

执行构建镜像的命令,新镜像命名为 centos7-ssh

docker build -t="centos7-ssh" .

基于 centos7-ssh 这个镜像启动三个容器

docker run -d --name=centos7.ssh centos7-ssh
docker run -d --name=centos7.ssh2 centos7-ssh
docker run -d --name=centos7.ssh3 centos7-ssh

构建hadoop镜像

创建目录

cd /mnt/docker
mkdir hadoop
cd hadoop

下载jar包

//下载hadoop,构建镜像时使用
wget https://mirrors.bfsu.edu.cn/apache/hadoop/common/hadoop-2.9.2/hadoop-2.9.2.tar.gz
//下载jdk,构建镜像时使用
wget --no-cookies --no-check-certificate --header "cookie: gpw_e24=http%3a%2f%2fwww.oracle.com%2f; oraclelicense=accept-securebackup-cookie" "http://download.oracle.com/otn-pub/java/jdk/8u141-b15/336fa29ff2bb4ef291e347e091f7f4a7/jdk-8u141-linux-x64.tar.gz"

编辑dockerfile

vi dockerfile

内容

from centos7-ssh
add jdk-8u141-linux-x64.tar.gz /usr/local/
run mv /usr/local/jdk1.8.0_141 /usr/local/jdk1.8
env java_home /usr/local/jdk1.8
env path $java_home/bin:$path

add hadoop-2.9.2.tar.gz /usr/local
run mv /usr/local/hadoop-2.9.2 /usr/local/hadoop
env hadoop_home /usr/local/hadoop
env path $hadoop_home/bin:$path

run yum install -y which sudo

保存并退出

执行构建命令

docker build -t="hadoop" .

运行容器

docker run --name hadoop0 --hostname hadoop0 -d -p -p 50070:50070 -p 8088:8088 hadoop
docker run --name hadoop1 --hostname hadoop1 -d -p hadoop
docker run --name hadoop2 --hostname hadoop2 -d -p hadoop

hadoop 集群搭建

配置ll命令

vim ~/.bashrc

内容

增加下面的配置

alias ll='ls -l'

保存退出

重新加载

source ~/.bashrc

安装vim、net-tools

yum install net-tools
yum install vim

修改每台服务器的 /etc/hosts

使用ifconfig命令查看自己的ip,改为自己服务器的ip

172.18.0.5 hadoop0
172.18.0.6 hadoop1
172.18.0.7 hadoop2

修改时区

rm -rf /etc/localtime
ln -s /usr/share/zoneinfo/asia/shanghai /etc/localtime

ssh无密码登陆

在每台服务器上都执行以下命令,执行后会有多个输入提示,不用输入任何内容,全部直接回车即可

ssh-keygen 

输入下面命令时,需要用到上面设置的密码1234

ssh-copy-id -i /root/.ssh/id_rsa -p 22 root@hadoop0 
ssh-copy-id -i /root/.ssh/id_rsa -p 22 root@hadoop1
ssh-copy-id -i /root/.ssh/id_rsa -p 22 root@hadoop2

安装配置 hadoop

在 master 中执行

cd /usr/local/hadoop
mkdir tmp hdfs
mkdir hdfs/data hdfs/name

配置core-site.xml

vim /usr/local/hadoop/etc/hadoop/core-site.xml

在 块儿中添加:

<property>
    <name>fs.defaultfs</name>
    <value>hdfs://hadoop0:9000</value>
</property>
<property>
   <name>hadoop.tmp.dir</name>
   <value>file:/usr/local/hadoop/tmp</value>
</property>
<property>
   <name>io.file.buffer.size</name>
   <value>131702</value>
</property>

配置hdfs-site.xml

vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml

在 块儿中添加:

    <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/usr/local/hadoop/hdfs/name</value>
</property>
<property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/usr/local/hadoop/hdfs/data</value>
</property>
<property>
    <name>dfs.replication</name>
    <value>2</value>
</property>
<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>hadoop0:9001</value>
</property>
<property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
</property>

配置mapred-site.xml

这个文件默认不存在,需要从 mapred-site.xml.template 复制过来

cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml

编辑文件

vim /usr/local/hadoop/etc/hadoop/mapred-site.xml

在 块儿中添加:

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
<property>
    <name>mapreduce.jobhistory.address</name>
    <value>hadoop0:10020</value>
</property>
<property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>hadoop0:19888</value>
</property>

配置yarn-site.xml

vim /usr/local/hadoop/etc/hadoop/yarn-site.xml

在 块儿中添加:

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.shufflehandler</value>
</property>
<property>
    <name>yarn.resourcemanager.address</name>
    <value>hadoop0:8032</value>
</property>
<property>
    <name>yarn.resourcemanager.scheduler.address</name>
    <value>hadoop0:8030</value>
</property>
<property>
    <name>yarn.resourcemanager.resource-tracker.address</name>
    <value>hadoop0:8031</value>
</property>
<property>
    <name>yarn.resourcemanager.admin.address</name>
    <value>hadoop0:8033</value>
</property>
<property>
    <name>yarn.resourcemanager.webapp.address</name>
    <value>hadoop0:8088</value>
</property>

配置slaves

vim /usr/local/hadoop/etc/hadoop/slaves

删除已有内容,添加:

hadoop1
hadoop2

配置hadoop-env.sh

vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh


找到 export java_home=${java_home},改为自己java_home的绝对路径

export java_home=/usr/local/jdk1.8

复制文件到 hadoop1,hadoop2

scp -r /usr/local/hadoop hadoop1:/usr/local
scp -r /usr/local/hadoop hadoop2:/usr/local

设置 hadoop 环境变量

在每台服务器上都执行:

vim ~/.bashrc

增加内容

export path=$path:/usr/local/hadoop/bin:/usr/local/hadoop/sbin

保存退出,重新加载资源

source ~/.bashrc

启动 hadoop

在master启动hadoop,从节点会自动启动

初始化

hdfs namenode -format

启动

hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode
start-dfs.sh
start-yarn.sh
mr-jobhistory-daemon.sh start historyserver

测试

如果您使用的也是阿里云服务器,那需要在阿里云客户端调整安全组,阿里云默认只开放22端口,所以需要把50070、8088都开通

阿里云端口开放无效(阿里云服务器80端口开启方法)

端口号.png

浏览器中访问:

http://服务器ip:50070/

阿里云端口开放无效(阿里云服务器80端口开启方法)

图片1.png

http://服务器ip:8088/

hdfs 操作

hdfs dfs -mkdir -p /usr/local/hadoop/input
hdfs dfs -put /usr/local/hadoop/etc/hadoop/kms*.xml /usr/local/hadoop/input

http://服务器ip:50070/,在文件浏览页面查看

阿里云端口开放无效(阿里云服务器80端口开启方法)

验证hdfs.png

mapreduce 操作

hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar grep /usr/local/hadoop/input /usr/local/hadoop/output 'dfs[a-z.]+'

阿里云端口开放无效(阿里云服务器80端口开启方法)

验证mapreduce.png