hadoop体系架构
1.1 hadoop
概念:hadoop是一个由apache基金会所开发的分布式系统基础架构。是根据google发表的gfs(google file system)论文产生过来的。
优点:
1. 它是一个能够对大量数据进行分布式处理的软件框架。以一种可靠、高效、可伸缩的方式进行数据处理。
2. 高可靠性,因为它假设计算元素和存储会失败,因此它维护多个工作数据副本,确保能够针对失败的节点重新分布处理。
3. 高效性,因为它以并行的方式工作,通过并行处理加快处理速度。
4. 可伸缩的,能够处理 pb 级数据。此外,hadoop 依赖于社区服务,因此它的成本比较低,任何人都可以使用。
hadoop是一个能够让用户轻松架构和使用的分布式计算平台。用户可以轻松地在hadoop上开发和运行处理海量数据的应用程序。它主要有以下几个优点:
1.高可靠性。hadoop按位存储和处理数据的能力值得人们信赖。
2.高扩展性。hadoop是在可用的计算机集簇间分配数据并完成计算任务的,这些集簇可以方便地扩展到数以千计的节点中。
3.高效性。hadoop能够在节点之间动态地移动数据,并保证各个节点的动态平衡,因此处理速度非常快。
4.高容错性。hadoop能够自动保存数据的多个副本,并且能够自动将失败的任务重新分配。
5.低成本。与一体机、商用数据仓库以及qlikview、yonghong z-suite等数据集市相比,hadoop是开源的,项目的软件成本因此会大大降低。
hadoop组成:主要由两部分组成,一个是hdfs,一个是mapreduce。
1) 什么是hdfs(分布式文件系统)?
hdfs 即 hadoop distributed file system。首先他是一个开源系统,同时他是一个能够面向大规模数据使用的,可进行扩展的文件存储与传递系统。是一种允许文件通过网络在多台主机上分享的文件系统,可让多机器上的多用户分享文件和存储空间。让实际上是通过网络来访问文件的动作,由程序与用户看来,就像是访问本地的磁盘一般。即使系统中有某些节点脱机,整体来说系统仍然可以持续运作而不会有数据损失。
它分为两个部分:name node和date node,name node相当于一个领导,它管理集群内的data node,当客户发送请求过来后,name node会根据情况指定存储到哪些 data node上,而其本身自己并不存储真实的数据。那name node怎么知道集群内data node的信息呢?data node发送心跳信息给name node。(一会详见原理图)
2) hdfs 设计基础与目标
hdfs是基于流数据模式访问和处理超大文件的需求而开发的,可以运行与廉价的商业服务器上。
特点:
1. 通过流式数据访问;
2. 程序采用“数据就近”原则分配节点执行;
3. 对文件采用一次性写多次读的逻辑设计--文件一经写入、关闭,就再也不能修改;
4. 数据以快形式分布式存储在集群中不同的物理机中。
1.2 hdfs体系结构
1) 存储块
块(block):操作系统中的文件块。文件是以块的形式存储在磁盘中,块的大小代表系统读、写可操作的最小文件大小。也就是说,文件系统每次只能操作磁盘块大小的整数倍数据。通常来说,一个文件系统块大小为几千字节,而磁盘块大小为512 字节。
hdfs中的块是一个抽象的概念,比操作系统中的块要大得多。在配置hadoop系统时会看到,它的默认大小是128mb。hdfs使用抽象的块的好处:可以存储任意大的文件而又不会受到网络中任一单个节点磁盘大小的限制;
使用抽象块作为操作的单元可以简化存储子系统。
2) 模块任务
1. name node功能:
1) 承担master 管理集群中的执行调度;
2) 管理文件系统的命名空间,维护整个文件系统目录树以及这些文件的索引目录;
3) 不永久保存文件快信息,在系统启动时重加块信息;
4) 命名空间镜像(namespace)和编辑日志(edit log)
2. data node 功能:承担worker具体任务的执行节点
3) 集群管理
hdfs采用master/slave架构对文件系统进行管理。一个hdfs集群是由一个name node和一定数目的data node组成的。name node是一个中心服务器,负责管理文件系统的命名空间(namespace)以及客户端对文件的访问。集群的date node一般是由一个节点运行一个data node进程,负责管理它所在节点上的存储。
从内部看,一个文件其实被分成了一个或多个数据块,这些块存储在一组data node上。name node执行文件系统的名字空间操作,比如打开,关闭,重命名文件或目录。它负责确定数据块到具体data node节点的映射。data node 负责处理文件系统客户端的读/写请求。在name node的统一调度下进行数据块的创建,删除和复制。
4) 读取策略
1)副本存放和读取策略
副本的存放是hdfs可靠性和性能的关键,优化的副本存放策略也正是hdfs区分于其他大部分分布式文件系统的重要特征。hdfs采用一种称为机架感知(rack-aware)的策略来改进数据的可靠性,可用性和网络带宽的利用率上。在读取数据时,为了减少整体带宽消耗和降低整体的带宽延时,hdfs会尽量让读取程序读取离客户端最近的副本。
2)安全模式
name node启动后会进入一个称为安全模式的状态。处于安全模式的name node不会进行数据块的复制。name node从所有的data node接收心跳信号和块状态报告。
3)文件安全
hadoop采用了两种方法来确保文件安全。第一种方法:将name node中的元数据转储到远程的nfs文件系统上;第二种方法:系统中同步运行一个secondary name node。
这个节点的主要作用是周期性的合并日志中的命名空间镜像,以避免编辑日志过大。
hdfs安全模式有三种:
1. hdfs dfsadmin -safemode enter--进入安全模式
2. hdfs dfsadmin -safemode leave --离开安全模式
3. start-balancer.sh--负载均衡模式
注意:hdfs版本不同,命名有区别
5) 基础架构
6) 工作原理
7) 实例架构
8) hdfs读操作
1. 客户端(client)用file system的open()函数打开文件。
2. distributed file system(dfs)用rpc调用元数据节点,得到文件的数据块信息。对于每一个数据块,元数据节点返回保存数据块的数据节点的地址。
3. distributed file system返回dfs data input stream给客户端,用来读取数据。
4. 客户端调用stream的read()函数开始读取数据。dfs input stream连接保存此文件第一个数据块的最近的数据节点。
5. data从数据节点读到客户端(client)。当此数据块读取完毕时,dfs input stream关闭和此数据节点的连接,然后连接此文件下一个数据块的最近的数据节点。
6. 当客户端读取完毕数据的时候,调用fs data input stream的 close函数。在读取数据的过程中,如果客户端在与数据节点通信出现错误,则尝试连接包含此数据块的下一个数据节点。失败的数据节点将被记录,以后不再连接。
1) hdfs写操作
1. 客户端调用create()来创建文件。
2. distributed file system用rpc调用元数据节点,在文件系统的命名空间中创建一个新的文件。元数据节点首先确定文件原来不存在,并且客户端有创建文件的权限,然后创建新文件。
3. distributed file system返回dfs output stream,客户端用于写数据。
4. 客户端开始写入数据,dfs output stream将数据分成块,写入data queue。
data queue由data streamer读取,并通知元数据节点分配数据节点,用来存储数据块(每块默认复制3块)。分配的数据节点放在一个pipeline里。data streamer将数据块写入pipeline中的第一个数据节点。第一个数据节点将据块发送给第二个数据节点。第二个数据节点将数据发送给第三个数据节点。
5. dfs output stream为发出去的数据块保存了ack queue,等待pipeline中的数据节点告知数据已经写入成功。
十、 hdfs shell命令
http://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/hadoopcommon/filesystemshell.html
http://hadoop.apache.org/docs/r2.6.2/hadoop-project-dist/hadoopcommon/filesystemshell.html
1.1.1 map reduce(分布式计算模型)
1) 什么事mapreduce?
map reduce理解为,把一堆杂乱无章的数据按照某种特征归纳起来,然后处理并得到最后的结果。map面对的是杂乱无章的互不相关的数据,它解析每个数据,从中提取出key和value,也就是提取了数据的特征。经过map reduce的shuffle阶段之后,在reduce阶段看到的都是已经归纳好的数据了,在此基础上我们可以做进一步的处理以便得到结果
map(映射)-->reduce(简化)
代码分区:mapper区、reduce区、driver区
2) mapreduce特点
1) 为海量数据提供计算;
2) 屏蔽了分布式计算框架细节,抽象成map和reduce;
3) map-对数据集上的独立元素进行制定操作,生成键值对应形式的中间结果;
4) reduce-对中间结果中的相同“键”的所有“值”进行规约,以得到最终结果.
3) mapreduce主要功数据
mapreduce主要功数据划分和计算任务调度:
系统自动将一个作业(job)待处理的大数据划分为很多个数据块,每个数据块对应于一个计算任务(task),并自动调度计算节点来处理相应的数据块。作业和任务调度功能主要负责分配和调度计算节点(map节点或reduce节点),同时负责监控这些节点的执行状态,并负责map节点执行的同步控制。
数据/代码互定位:
为了减少数据通信,一个基本原则是本地化数据处理,即一个计算节点尽可能处理其本地磁盘上所分布存储的数据--实现了代码向数据的迁移;当无法进行这种本地化数据处理时,再寻找其他可用节点并将数据从网络上传送给该节点--(数据向代码迁移),但将尽可能从数据所在的本地机架上寻找可用节点以减少通信延迟。
系统优化:
为了减少数据通信开销,中间结果数据进入reduce节点前会进行一定的合并处理;一个reduce节点所处理的数据可能会来自多个 map节点,为了避免reduce计算阶段发生数据相关性,map节点输出的中间结果需使用一定的策略进行适当的划分处理,保证相关性数据发送到同一个 reduce节点;此外,系统还进行一些计算性能优化处理,如对最慢的计算任务采用多备份执行、选最快完成者作为结果。
出错检测和恢复:
以低端商用服务器构成的大规模map reduce计算集群中,节点硬件(主机、磁盘、内存等)出错和软件出错是常态,因此 map reduce需要能检测并隔离出错节点,并调度分配新的节点接管出错节点的计算任务。同时,系统还将维护数据存储的可靠性,用多备份冗余存储机制提 高数据存储的可靠性,并能及时检测和恢复出错的数据。
4) 数据执行流
任务执行过程
5) hadoop-ha
hadoop集群分为:hadoop伪分布式集群和hadoop分布式集群。
1) 常用命令
单进程启动
sbin/start-dfs.sh
sbin/start-yarn.sh
格式化集群: hadoop namenode –formate --初次启动集群使用
hdfs常见命令:
hadoop fs -ls / 以全路径的方式展示当前目录下及当前目录下所有子目录的全部文件,与linux系统下tree命令类似
hadoop fs -lsr / 显示目录下所有子目录或文件占用空间(逻辑空间)
hadoop fs -du / 显示该目录所占用的实际空间
hadoop fs -count -q /
hadoop fs -mv
hadoop fs -cp
hadoop fs -rm
hadoop fs -rm -skiptrash 不进入回收站直接删除
hadoop fs -rmr / 递归删除文件夹所有文件
hadoop fs -expunge 清空回收站
hadoop fs -put 被上传文件 /上传文件