欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Hadoop2学习路程-HDFS

程序员文章站 2022-03-03 22:57:19
什么是Hadoop HDFS? Hadoop 分布式文件系统是世界上最可靠的文件系统。HDFS可以再大量硬件组成的集群中存储大文件。 它的设计原则是趋向于存储少量的大文件,而不是存储大量的小文件。 即使在硬件发生故障的时候,HDFS也能体现出它对数据存储的可靠性。它支持高吞吐量的平行访问方式。 HD ......

什么是hadoop hdfs?

hadoop 分布式文件系统是世界上最可靠的文件系统。hdfs可以再大量硬件组成的集群中存储大文件。
它的设计原则是趋向于存储少量的大文件,而不是存储大量的小文件。
即使在硬件发生故障的时候,hdfs也能体现出它对数据存储的可靠性。它支持高吞吐量的平行访问方式。

hdfs的介绍

源自于google的gfs论文 发表于2003年10月 hdfs是gfs克隆版 ,hdfs的全称是hadoop distributed file system易于扩展的分布式文件系统,运行在大量普通廉价机器上,提供容错机制,为大量用户提供性能不错的文件存取服务 。

hdfs设计目标

1. 自动快速检测应对硬件错误
2. 流式访问数据
3. 移动计算比移动数据本身更划算
4. 简单一致性模型
5. 异构平台可移植
{
对于设计目标的详细解释:

i. 硬件故障(自动快速检测应对硬件错误)
  硬件故障已经不再是异常了,它变成了一个常规现象。hdfs实例由成千上万的服务机器组成,这些机器中的任何一个都存储着文件系统的部分数据。这里元件的数量是庞大的,而且极可能导致硬件故障。这就意味着总是有一些组件不工作。所以,核心结构的目标是快速的自动的进行错误检测和恢复。
ii. 流数据访问(流式访问数据)
  hdfs 应用需要依赖流去访问它的数据集。hadoop hdfs的设计方向主要面向于批处理而不是用户交互。着力点在于重视数据访问的高吞吐率而不是数据访问的低延迟性。它注重于如何在分析日志的同时尽肯能快速的获得数据。
iii. 巨大的数据集
  hdfs通常需要工作在大数据集上。标准的实践中是,hdfs系统中存在的文件大小范围是gb到tb。hdfs架构的设计就是如果最好的存储和获得大量的数据。hdfs也提供高聚合数据的带宽。它同样应该具备在单一集群中可以扩展上百个节点的能力。与此同时,它也应该具备在一个单元实例中处理处理数千万个文件的能力。
iv. 简单的一致性模型(简单一致性模型)
  它工作在一次性写入多次的读取的理论上。一旦数据被创建、写入和关闭,该文件是不能被修改的。这种方式解决数据一致性的问题同时也实现了高吞吐量访问数据的需求。基于mapreduce的应用和或者网络爬虫的应用在这种模型中拥有很高的适应性。和每一apache笔记一样,未来计划增加追加写入文件这一功能。
v. 转移计算量比转移数据更合理(移动计算比移动数据本身更划算)
  如果一个应用在它操作的数据附近进行计算,总会比在离它远的地方做计算更高效。这个现象在处理大的数据集时,往往提现的更明显。这样做主要的优势体现在增加系统的总吞吐量上。它同时也最小化了网路阻塞。其理念是,将计算移动到离数据更近的位置,来代替将数据转移到离计算更近的位置。
vi. 便捷的访问有不同软件和硬件组成的平台(异构平台可移植)
  hdfs 被设计成便捷的在平台之间切换。这让hdfs系统能够因为其适应性而广泛传播。这是在处理大数据集数据的最好的平台。

}

hdfs的特点
优点:
  1. 高可靠性:hadoop按位存储和处理数据的能力值得人们信赖;
  2. 高扩展性:hadoop是在可用的计算机集簇间分配数据并完成计算任务的,这些集簇可以方便地扩展到数以千计的节点中。
  3. 高效性:    hadoop能够在节点之间动态地移动数据,并保证各个节点的动态平衡,因此处理速度非常快。
  4. 高容错性:hadoop能够自动保存数据的多个副本,并且能够自动将失败的任务重新分配。
缺点:
  1. 不适合低延迟数据访问。
  2. 无法高效存储大量小文件。
  3. 不支持多用户写入及任意修改文件。

hdfs核心设计思想及作用
  - 分而治之:将大文件、大批量文件,分布式存放在大量服务器上,以便于采取分而治之的方式对海量数据进行运算分析;
  - 为各类分布式运算框架(如:mapreduce,spark,tez,……)提供数据存储服务
  - hdfs描述
    首先,它是一个文件系统,用于存储文件,通过统一的命名空间——目录树来定位文件
    其次,它是分布式的,由很多服务器联合起来实现其功能,集群中的服务器有各自的角色

重要特性如下:
  - hdfs中的文件在物理上是分块存储(block),块的大小可以通过配置参数( dfs.blocksize)来规定,默认大小在hadoop2.x版本中是128m,老版本中是64m。
  - hdfs文件系统会给客户端提供一个统一的抽象目录树,客户端通过路径来访问文件,形如:hdfs://namenode:port/dir-a/dir-b/dir-c/file.data。
  - 目录结构及文件分块信息(元数据)的管理由namenode节点承担——namenode是hdfs集群主节点,负责维护整个hdfs文件系统的目录树,以及每一个路径(文件)所对应的block块信息(block的id,及所在的datanode服务器)。
  - 文件的各个block的存储管理由datanode节点承担--- datanode是hdfs集群从节点,每一个block都可以在多个datanode上存储多个副本(副本数量也可以通过参数设置dfs.replication)。
  - hdfs是设计成适应一次写入,多次读出的场景,且不支持文件的修改

namenode.secondarynamenode.standbynamenode,blocks
  no.1 namenode的功能
  namenode在hdfs架构中也被成为主节点。hdfs namenode存储元数据,比如,数据块的数量,副本的数量和其它的一些细节。这些元数据被存放在主节点的内存中,为了达到最快速度的获取数据。namenode 负责维护和管理从节点并且给从节点分配任务。它是整个hdfs的中心环节,所以应该将其部署在可靠性高的机器上。

namenode的任务:
· 管理文件系统命名空间
· 规定客户端访问文件规则
· 对文件执行命名,关闭,打开文件或打开路径等 操作
· 所有的数据节点发送心跳给namenode, namenode需要确保datanode是否在线。一个数据块报告包含所有这个数据点上的所有block的情况。
· namenode也负责管理复制因子的数量。
文件呈现在namenode的元数据表示和管理:

fsimage :元数据镜像文件 (保存文件系统的目录树) -
- 内存中保存一份最新的
- 内存中镜像= fsimage + edits
- fsimage在namenode中是一个“镜像文件”。它将全部的文件系统的命名空间保存为一个文件存储在namenode的本地文件系统中,这个文件中还包含所有的文件序列化路径和在文件系统中的文件inodes,每个inode都是文件或者目录元数据的内部表示。
edits :元数据操作日志 (针对目录树的修改操作) -
- 日志文件包含所有在镜像文件上对系统的最新修改。当namenode从客户端收到一个创建/更新/删除请求时,这条请求会先被记录到日志文件中。
- 定期合并fsimage与edits(- edits文件过大将导致namenode重启速度慢, secondary namenode负责定期合并他们)

no.2 namenode 启动过程
Hadoop2学习路程-HDFS


- namenode启动的时候首先将fsimage(镜像)载入内存,并执行(replay)编辑日志edits的的各项操作
- 一旦在内存中建立文件系统元数据映射,则创建一个新的fsimage文件(这个过程不需secondarynamenode) 和一个空的edits
- 在安全模式下,各个datanode会向namenode发送块列表的最新情况
- 此刻namenode运行在安全模式。即namenode的文件系统对于客户端来说是只读的。(显示目录,显示文件内容等。写、删除、重命名都会失败)
- namenode开始监听rpc和http请求
解释rpc:rpc(remote procedure call protocol)——远程过程通过协议,它是一种通过网络从远程计算机程序上请求服务,而不需要了解底层网络技术的协议
- 系统中数据块的位置并不是由namenode维护的,而是以块列表形式存储在datanode中
- 在系统的正常操作期间,namenode会在内存中保留所有块信息的映射信息

no.3 secondarynamenode 合并fsimage和edits 生成fsimage的过程

Hadoop2学习路程-HDFS

Hadoop2学习路程-HDFS

 

- secondary nn通知namenode切换edits。
- secondary nn从namenode 获得fsimage和editlog(通过http方式)。
- secondary nn将fsimage载入内存,然后开始合并edits。
- secondary nn 将新的fsimage发回给namenode namenode 用新的fsimage替换旧的fsimage。
note: secondarynamenode 在hdfs中起到一个常规检查点的作用。

Hadoop2学习路程-HDFS
检查节点是一个定期在命名空间创建检查点的节点。在hadoop中的检查点先从活动的namenode中下载fsimage文件和日志文件,它在本地将两个文件进行融合,然后上传新的镜像给活动namenode。它存储最后的检查点的结构,所以它的路径结构应该跟namenode的路径结构一样。读取检查点镜像的权限,如果有必要应该一直为namenode开放。

no.4 standbynamenode
- 备份节点也提供和检查节点一样的检查功能。
- 在hadoop中,backup节点保留内存中最新文件系统命名空间的副本。
- 它和namenode的状态总是同步的。
- 在hdfs架构中的备份节点不需要从活动的namenode中下载fsimage和它日志文件去创建检查点。
- 它在内存中已经拥有了最新的命名空间状态。
- 备份节点的检查点流程比起检查节点的检查流程效率更高,因为它只需要保存命名空间到本地镜像文件和重置日志文件就够了。
- namenode一次只支持一个备份节点。

no.5 blocks
- hdfs将巨大的文件分割成小的文件块,这种文件块就叫blocks. 这些blocks是文件系统中最小的数据单元。
- 客户端或者管理员,不需要控制这些blocks的存储位置,由namenode决定类似的事情。
- 默认的hdfs block大小为128mb,当然这值可以根据不同需求而改变。一个文件除了最后一个block其他block的大小都是相同的,最后一个文件的大小可以是128mb,也可以更小。
- 如果数据的大小比block默认值小的话,block大小就会等于数据的大小。
例如一个数据的大小为129mb,则系统会为这个数据创建两个block一个大小为128mb,另一个大小只为1mb. 存储成这样的好处是,既可以节省空间,有可以节省查询时间。

no.6 复制管理
- block复制支持容错机制。如果一个副本不能被访问或者损坏,我们可以从其他的副本中读取数据。
- 在hdfs架构中一个文件的副本数量叫做复制因子。默认的复制因子为3,可以通过修改配置文件修改复制因子。当复制因子为3的时候每个block会被存放在3个不同的datanode中。
- 如果一个文件是128mb,根据默认配置它将占用384mb的系统空间存储。
- namenode通过从datanode定期接收数据块上报去维护复制因子,当一个数据块过多复制或者复制不足,则namenode负责根据需要增加或删除副本。

no.7 机架感知
- 在大型的hadoop集群中,为了提高读、写hdfs文件的效率,namenode都是按就近原则选择数据节点的,一般的都是选择相同机架的datanode或者是邻近机架的datanode去读、写数据。namenode通过为维护每个数据节点的机架id来获取机架信息。机架感知在hadoop中是一个有机架信息来获取数据节点的概念。
- 在hdfs架构中, namenode必须确保所有的副本不存放在相同机架或者单一机架中,并遵循机架感知算法来减少延迟和提高容错。详情查看后边: 数据存储位置与复制详解...
- 机架感知对于提升一下方面有着重要作用:
  · 数据高可用性和可靠性
  · 集群的表现
  · 提升网络带宽


 

hdfs工作机制详解
no.1 hdfs概述

Hadoop2学习路程-HDFS

 

- hdfs集群分为两大角色:namenode、datanode
- namenode负责管理整个文件系统的元数据
- datanode 负责管理用户的文件数据块block
- 文件会按照固定的大小(blocksize)切成若干块后分布式存储在若干台datanode上
- 每一个文件块可以有多个副本,并存放在不同的datanode上
- datanode会定期向namenode汇报自身所保存的文件block信息,而namenode则会负责保持文件的副本数量
- hdfs的内部工作机制对客户端保持透明,客户端请求访问hdfs都是通过向namenode申请来进行
- 集群中主机分别放置在不同的机架(rack)中

no.2 写入过程分析
客户端要向hdfs写数据,首先要跟namenode通信以确认“可以写文件”并获得接收文件block的datanode,
然后,客户端按顺序将文件逐个block传递给相应datanode,并由接收到block的datanode负责向其他datanode复制block的副本 。
Hadoop2学习路程-HDFS

 

 

 

no.3 数据存储位置与复制详解

Hadoop2学习路程-HDFS

 

- 同一节点上的存储数据
- 同一机架上不同节点上的存储数据
- 同一数据中心不同机架上的存储数据
- 不同数据中心的节点
hdfs 数据存放策略就是采用同节点与同机架并行的存储方式。在运行客户端的当前节点上存放第一个副本,第二个副本存放在于第一个副本不同的机架上的节点,第三个副本放置的位置与第二个副本在同一个机架上而非同一个节点。



no.4 宏观的代码实现

Hadoop2学习路程-HDFS

Hadoop2学习路程-HDFS

1. client 通过调用 filesystem 的 create()方法来请求创建文件

2. filesystem 通过对 namenode 发出远程请求,在 namenode 里面创建一个新的文件,但此时并不关联任何的块。 namenode 进行很多检查来保证不存在要创建的文件已经存在于文件系统中,同时检查是否有相应的权限来创建文件。如果这些检查都完成了,那么namenode 将记录下来这个新文件的信息。 filesystem 返回一个 fsdataoutputstream 给客户端用来写入数据。和读的情形一样, fsdataoutputstream 将包装一个 dfsoutputstream 用于和 datanode 及 namenode 通信。而一旦文件创建失败,客户端会收到一个 ioexpection,标示文件创建失败,停止后续任务。

3. 客户端开始写数据。 fsdataoutputstream 把要写入的数据分成包的形式,将其写入到中间队列中。其中的数据由 datastreamer 来读取。 datastreamer 的职责是让 namenode分配新的块——通过找出合适的 datanode——来存储作为备份而复制的数据。这些datanode 组成一个流水线,我们假设这个流水线是个三级流水线,那么里面将含有三个节点。此时, datastreamer 将数据首先写入到流水线中的第一个节点。此后由第一个节点将数据包传送并写入到第二个节点,然后第二个将数据包传送并写入到第三个节点。

4. fsdataoutputstream 维护了一个内部关于 packets 的队列,里面存放等待被datanode 确认无误的 packets 的信息。这个队列称为等待队列。一个 packet 的信息被移出本队列当且仅当 packet 被流水线中的所有节点都确认无误

5. 当完成数据写入之后客户端调用流的 close 方法,在通知 namenode 完成写入之前,这个方法将 flush 残留的 packets,并等待确认信息( acknowledgement)。 namenode 已经知道文件由哪些块组成(通过 datastream 询问数据块的分配),所以它在返回成功前只需要等待数据块进行最小值复制。

 

no.5 安全模式
安全模式下,集群属于只读状态。但是严格来说,只是保证hdfs元数据信息的访问,而不保证文件的访问,因为文件的组成block信息此时namenode还不一定已经知道了。所以只有namenode已了解了block信息的文件才能读到。而安全模式下任何对hdfs有更新的操作都会失败。
- 对于全新创建的hdfs集群,namenode启动后不会进入安全模式,因为没有block信息。
安全模式相关命令
- 查询当前是否安全模式 hadoop dfsadmin -safemode get safe mode is on
- 等待safemode关闭,以便后续操作 hadoop dfsadmin -safemode wait
- 退出安全模式 hadoop dfsadmin -safemode leave
- 设置启用safemode hadoop dfsadmin -safemode enter

(注: 文档有参考 ----> https://www.jianshu.com/p/86a70ac1f5f9 )