欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

hadoop 安装

程序员文章站 2022-05-15 14:55:25
hadoop 开源软件,可靠的、分布式、可伸缩的框架。 分布在不同主机上的进程协同在一起构成的应用。 大数据解决了两个问题 1T = 1024G1P = 1024T1E = 1024P1Z = 1024E1Y = 1024Z1N = 1024Y 1.存储 分布式存储 2.计算 分布式计算分布式 由分 ......

hadoop 开源软件,可靠的、分布式、可伸缩的框架。

分布在不同主机上的进程协同在一起构成的应用。

大数据解决了两个问题
----------------------

1t = 1024g
1p = 1024t
1e = 1024p
1z = 1024e
1y = 1024z
1n = 1024y


1.存储
  分布式存储
2.计算
  分布式计算
分布式
----------------------
由分布在不同主机上的进程协同在一起,才能构成整个应用。

b/s
-----------
  browser / http server:瘦客户端.

failure over //容灾
fault over    //容错

大数据的四个v特征
-----------------
1.volume //体量大
2.variety //样式多.
3.velocity //速度快
4.valueless //价值密度低

hadoop四个模块
-------------------
1.common
2.hdfs
3.hadoop yarn
4.hadooop mapreduce(mr)

1.安装jdk 大同小异 
a)下载jdk-8u65-linux-x64.tar.gz
b)tar开
$>su centos ; cd ~
$>mkdir downloads
$>cp /mnt/hdfs/downloads/bigdata/jdk-8u65-linux-x64.tar.gz ~/downlooads
$>tar -xzvf jdk-8u65-linux-x64.tar.gz
c)创建/soft文件夹
$>sudo mkdir /soft
$>sudo chown centos:centos /soft
d)移动tar开的文件到/soft下
$>mv ~/downloads/jdk-1.8.0_65 /soft/
e)创建符号连接
$>ln -s /soft/jdk-1.8.0_65 /soft/jdk
f)验证jdk安装是否成功
$>cd /soft/jdk/bin
$>./java -version

centos配置环境变量
------------------------
1.编辑/etc/profile
$>sudo nano /etc/profile
...
export java_home=/soft/jdk
exprot path=$path:$java_home/bin
2.使环境变量即刻生效
$>source /etc/profile

3.进入任意目录下,测试是否ok
$>cd ~
$>java -version

 

安装hadoop

下载 

1.安装hadoop
a)下载hadoop-2.7.3.tar.gz
b)tar开
$>su centos ; cd ~
$>cp /mnt/hdfs/downloads/bigdata/hadoop-2.7.3.tar.gz ~/downloads
$>tar -xzvf hadoop-2.7.3.tar.gz
c)无
d)移动tar开的文件到/soft下
$>mv ~/downloads/hadoop-2.7.3 /soft/
e)创建符号连接
$>ln -s /soft/hadoop-2.7.3 /soft/hadoop
f)验证jdk安装是否成功
$>cd /soft/hadoop/bin
$>./hadoop version

hadoop 查看版本没有 '-'  只需要 ./hadoop version

2.配置hadoop环境变量
$>sudo nano /etc/profile
...
export java_home=/soft/jdk
exprot path=$path:$java_home/bin

export hadoop_home=/soft/hadoop
export path=$path:$hadoop_home/bin:$hadoop_home/sbin

3.生效
$>source /etc/profile

配置hadoop 本人本地是客户端也是服务端在一台机器上 配置免密登录时可体现

独立模式下

1.standalone(local)
nothing !
不需要启用单独的hadoop进程。

/usr/local/hadoop/hadoop-2.7.3/bin  hdfs dfs -ls /

 

伪分布模式。

2.pseudodistributed mode

a)进入${hadoop_home}/etc/hadoop目录
b)编辑core-site.xml
<?xml version="1.0"?>
<configuration>
<property>
<name>fs.defaultfs</name>
<value>hdfs://localhost/</value>
</property>
</configuration>
c)编辑hdfs-site.xml
<?xml version="1.0"?>
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
d)编辑mapred-site.xml
注意:cp mapred-site.xml.template mapred-site.xml
<?xml version="1.0"?>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
e)编辑yarn-site.xml
<?xml version="1.0"?>
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>localhost</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

 

f)配置ssh
1)检查是否安装了ssh相关软件包(openssh-server + openssh-clients + openssh)
$yum list installed | grep ssh

2)检查是否启动了sshd进程
$>ps -af | grep sshd

3)在client侧生成公私秘钥对。
$>ssh-keygen -t rsa -p '' -f ~/.ssh/id_rsa

4)生成~/.ssh文件夹,里面有id_rsa(私钥) + id_rsa.pub(公钥)

5)追加公钥到~/.ssh/authorized_keys文件中(文件名、位置固定)
$>cd ~/.ssh
$>cat id_rsa.pub >> authorized_keys

 

如果有.ssh可删除 重新生成

hadoop 安装

 

 

 hadoop 安装

 

6)测试
$>ssh localhost
注意:第一次需要输入密码  再次登陆如果登陆不进去 修改目录权限 为644
7)修改authorized_keys的权限为644.
$>chmod 644 authorized_keys

hadoop 安装