Hadoop学习之路(8)Yarn资源调度系统详解
文章目录
1、yarn介绍
apache hadoop yarn 是 apache software foundation hadoop的子项目,为分离hadoop2.0资源管理和计算组件而引入。yarn的诞生缘于存储于hdfs的数据需要更多的交互模式,不单单是mapreduce模式。hadoop2.0 的yarn 架构提供了更多的处理框架,比如spark框架,不再强迫使用mapreduce框架。
从hadoop2.0 的架构图可以看出,yarn承担着原本由mapreduce承担的资源管理的功能,同时将这部分的功能打包使得他们可以被新的数据处理引擎使用。这也同时简化了mapreduce的流程,使得mapreduce专注的将数据处理做到最好。使用yarn,可以用共同的资源管理,在hadoop上跑很多应用程序。目前,很多机构已经开发基于yarn的应用程序。
2、yarn架构
yarn的架构还是经典的主从(master/slave)结构,如下图所示。大体上看,yarn服务由一个resourcemanager(rm)和多个nodemanager(nm)构成,resourcemanager为主节点(master),nodemanager为从节点(slave)
在yarn体系结构中,全局resourcemanager作为主守护程序运行,该仲裁程序在各种竞争应用程序之间仲裁可用的群集资源。resourcemanager跟踪群集上可用的活动节点和资源的数量,并协调用户提交的应用程序应获取这些资源的时间和时间。resourcemanager是具有此信息的单个进程,因此它可以以共享,安全和多租户的方式进行分配(或者更确切地说,调度)决策(例如,根据应用程序优先级,队列容量,acl,数据位置等)。
当用户提交应用程序时,将启动名为applicationmaster的轻量级进程实例,以协调应用程序中所有任务的执行。这包括监视任务,重新启动失败的任务,推测性地运行慢速任务以及计算应用程序计数器的总值。这些职责先前已分配给所有工作的单个jobtracker。applicationmaster和属于其应用程序的任务在nodemanagers控制的资源容器中运行。
applicationmaster可以在容器内运行任何类型的任务。例如,mapreduce applicationmaster请求容器启动map或reduce任务,而giraph applicationmaster请求容器运行giraph任务。您还可以实现运行特定任务的自定义applicationmaster,并以此方式创建一个闪亮的新分布式应用程序框架,该框架可以更改大数据世界。我鼓励您阅读apache twill,它旨在简化编写位于yarn之上的分布式应用程序。
一个可以运行任何分布式应用程序的集群 resourcemanager,nodemanager和容器不关心应用程序或任务的类型。所有特定于应用程序框架的代码都被简单地移动到其applicationmaster,以便yarn可以支持任何分布式框架,只要有人为它实现适当的applicationmaster。由于这种通用方法,运行许多不同工作负载的hadoop yarn集群的梦想成真。想象一下:数据中心内的单个hadoop集群可以运行mapreduce,giraph,storm,spark,tez / impala,mpi等。
核心组件:
组件名 | 作用 |
---|---|
resourcemanager | 相当于这个application的监护人和管理者,负责监控、管理这个application的所有attempt在cluster中各个节点上的具体运行,同时负责向yarnresourcemanager申请资源、返还资源等; |
applicationmaster | 相当于这个application的监护人和管理者,负责监控、管理这个application的所有attempt在cluster中各个节点上的具体运行,同时负责向yarnresourcemanager申请资源、返还资源等; |
nodemanager | 是slave上一个独立运行的进程,负责上报节点的状态(磁盘,内存,cpu等使用信息); |
container | 是yarn中分配资源的一个单位,包涵内存、cpu等等资源,yarn以container为单位分配资源; |
2.1 、resourcemanager
rm是一个全局的资源管理器,集群只有一个,负责整个系统的资源管理和分配,包括处理客户端请求、启动/监控applicationmaster、监控 nodemanager、资源的分配与调度。它主要由两个组件构成:调度器(scheduler)和应用程序管理器(applications manager,asm)。
(1)调度器
调度器根据容量、队列等限制条件(如每个队列分配一定的资源,最多执行一定数量的作业等),将系统中的资源分配给各个正在运行的应用程序。需要注意的是,该调度器是一个“纯调度器”,它从事任何与具体应用程序相关的工作,比如不负责监控或者跟踪应用的执行状态等,也不负责重新启动因应用执行失败或者硬件故障而产生的失败任务,这些均交由应用程序相关的applicationmaster完成。
调度器仅根据各个应用程序的资源需求进行资源分配,而资源分配单位用一个抽象概念“资源容器”(resourcecontainer,简称container)表示,container是一个动态资源分配单位,它将内存、cpu、磁盘、网络等资源封装在一起,从而限定每个任务使用的资源量。
(2)应用程序管理器
应用程序管理器主要负责管理整个系统中所有应用程序,接收job的提交请求,为应用分配第一个 container 来运
行 applicationmaster,包括应用程序提交、与调度器协商资源以启动 applicationmaster、监控
applicationmaster 运行状态并在失败时重新启动它等。
2.2 、applicationmaster
管理 yarn 内运行的一个应用程序的每个实例。关于 job 或应用的管理都是由 applicationmaster 进程负责的,yarn 允许我们以为自己的应用开发 applicationmaster。
功能:
(1)数据切分;
(2)为应用程序申请资源并进一步分配给内部任务(task);
(3)任务监控与容错;
负责协调来自resourcemanager的资源,并通过nodemanager监视容易的执行和资源使用情况。yarn 的动态性,就是来源于多个application 的applicationmaster 动态地和 resourcemanager 进行沟通,不断地申请、释放、再申请、再释放资源的过程。
2.3 、nodemanager
nodemanager 整个集群有多个,负责每个节点上的资源和使用。
nodemanager 是一个 slave 服务:它负责接收 resourcemanager 的资源分配请求,分配具体的 container 给应用。同时,它还负责监控并报告 container 使用信息给 resourcemanager。通过和resourcemanager 配合,nodemanager 负责整个 hadoop 集群中的资源分配工作。
功能:本节点上的资源使用情况和各个 container 的运行状态(cpu和内存等资源)
(1)接收及处理来自 resourcemanager 的命令请求,分配 container 给应用的某个任务;
(2)定时地向rm汇报以确保整个集群平稳运行,rm 通过收集每个 nodemanager 的报告信息来追踪整个集群健康状态的,而 nodemanager 负责监控自身的健康状态;
(3)处理来自 applicationmaster 的请求;
(4)管理着所在节点每个 container 的生命周期;
(5)管理每个节点上的日志;
(6)执行 yarn 上面应用的一些额外的服务,比如 mapreduce 的 shuffle 过程;
当一个节点启动时,它会向 resourcemanager 进行注册并告知 resourcemanager 自己有多少资源可用。在运行期,通过 nodemanager 和 resourcemanager 协同工作,这些信息会不断被更新并保障整个集群发挥出最佳状态。nodemanager 只负责管理自身的 container,它并不知道运行在它上面应用的信息。负责管理应用信息的组件是applicationmaster
2.4 、container
container 是 yarn 中的资源抽象,它封装了某个节点上的多维度资源,如内存、cpu、磁盘、网络等,当 am 向rm 申请资源时,rm 为 am 返回的资源便是用 container 表示的。yarn 会为每个任务分配一个 container,且任务只能使用该 container 中描述的资源。
container 和集群节点的关系是:一个节点会运行多个 container,但一个 container 不会跨节点。任何一个 job或 application 必须运行在一个或多个 container 中,在 yarn 框架中,resourcemanager 只负责告诉applicationmaster 哪些 containers 可以用,applicationmaster 还需要去找 nodemanager 请求分配具体的container。
需要注意的是,container 是一个动态资源划分单位,是根据应用程序的需求动态生成的。目前为止,yarn 仅支持 cpu 和内存两种资源,且使用了轻量级资源隔离机制 cgroups 进行资源隔离。
2.5 、resource request 及 container
yarn的设计目标就是允许我们的各种应用以共享、安全、多租户的形式使用整个集群。并且,为了保证集群资源调度和数据访问的高效性,yarn还必须能够感知整个集群拓扑结构。
为了实现这些目标,resourcemanager的调度器scheduler为应用程序的资源请求定义了一些灵活的协议,通过它就可以对运行在集群中的各个应用做更好的调度,因此,这就诞生了resource request和container。一个应用先向applicationmaster发送一个满足自己需求的资源请求,然后applicationmaster把这个资源请求以
resource-request的形式发送给resourcemanager的scheduler,scheduler再在这个原始的resource-request中返回分配到的资源描述container。每个resourcerequest可看做一个可序列化java对象,包含的字段信息如下:
<!-- - resource-name:资源名称,现阶段指的是资源所在的host和rack,后期可能还会支持虚拟机或者更复杂的网络结构 - priority:资源的优先级 - resource-requirement:资源的具体需求,现阶段指内存和cpu需求的数量 - number-of-containers:满足需求的container的集合 --> <resource-name, priority, resource-requirement, number-of-containers>
2.6 、jobhistoryserver
作业历史服务,记录在yarn中调度的作业历史运行情况情况 , 通过mr-jobhistory-daemon.sh start historyserver命令在集群中的数据节点机器上不需要做任何配置,单独使用命令启动直接启动即可, 启动成功后会出现jobhistoryserver进程(使用jps命令查看,下面会有介绍) , 并且可以从19888端口进行查看日志详细信息
打开如下图界面,在下图中点击history,页面会进行一次跳转
点击history之后 跳转后的页面如下图,是空白的,这时因为我们没有启动jobhistoryserver所导致的。 在三台机器上执行mr-jobhistory-daemon.sh start historyserver命令依次启动jobhistoryserver。在node1节点启动
此时我们在三个节点把jobhistoryserver启动后,在此运行wordcount程序(记得启动前把输出目录删除掉)
点击history连接会跳转一个赞新的页面,在页面下方会看到tasktype中列举的map和reduce,total表示此次运行的mapreduce程序执行所需要的map和reduce的任务数据.
2.7、timeline server
用来写日志服务数据 , 一般来写与第三方结合的日志服务数据(比如spark等),从官网的介绍看,它是对jobhistoryserver功能的有效补充,jobhistoryserver只能对mapreduce类型的作业信息进行记录,除了jobhistoryserver能够进行对作业运行过程中信息进行记录之外还有更细粒度的信息记录,比如任务在哪个队列中运行,运行任务时设置的用户是哪个用户。根据官网的解释jobhistoryserver只能记录mapreduce应用程序的记录,timelineserver功能更强大,但不是替代jobhistory两者是功能间的互补关系。
3、yarn应用运行原理
yarn 是如何工作的? yarn的基本理念是将jobtracker/tasktracker 两大职能分割为以下几个实体:
1.一个全局的资源管理resourcemanager
2. 每个应用程序一个applicationmaster
3. 每个从节点一个nodemanager
4. 每个应用程序一个运行在nodemanager上的container
resoucemanager 和 nodemanager 组成了一个新的、通用的、用分布式管理应用程序的系统。resourcemanager 对系统中的应用程序资源有终极仲裁的权限。applicationmaster 是一个特定于框架的实体,它的责任是同resourcemanager 谈判资源 ,同时为nodemanager(s)执行和监控组件任务。ressourcemanager有一个调度器,根据不同的约束条件,例如队列容量、用户限制等,将资源进行分配给各类运行着的应用程序。调度器执行调度功能是基于应用程序的资源申请。nodemanager 负责发布应用程序容器,监控资源的使用并向resourcemanager进行汇报。每个applicationmaster都有职责从调度器那谈判得到适当的资源容器,追踪它们的状态,并监控他们的进程。从系统的视图看,applicationmaster 作为一个普通的容器运行着。
3.1、yarn应用提交过程
application在yarn中的执行过程,整个执行过程可以总结为三步:
(1)应用程序提交
(2)启动应用的applicationmaster实例
(3)applicationmaster 实例管理应用程序的执行
具体过程:
(1)客户端程序向 resourcemanager 提交应用并请求一个 applicationmaster 实例;
(2)resourcemanager 找到一个可以运行一个 container 的 nodemanager,并在这个 container 中启动applicationmaster 实例;
(3)applicationmaster 向 resourcemanager 进行注册,注册之后客户端就可以查询 resourcemanager 获得自己 applicationmaster 的详细信息,以后就可以和自己的 applicationmaster 直接交互了(这个时候,客户端主动和 applicationmaster 交流,应用先向 applicationmaster 发送一个满足自己需求的资源请求);
(4)在平常的操作过程中,applicationmaster 根据 resource-request协议 向 resourcemanager 发送 resource-request请求;
(5)当 container 被成功分配后,applicationmaster 通过向 nodemanager 发送 container-launch-specification信息 来启动container,container-launch-specification信息包含了能够让container 和applicationmaster 交流所需要的资料;
(6)应用程序的代码以 task 形式在启动的 container 中运行,并把运行的进度、状态等信息通过 application-specific协议 发送给applicationmaster;
(7)在应用程序运行期间,提交应用的客户端主动和 applicationmaster 交流获得应用的运行状态、进度更新等信息,交流协议也是 application-specific协议;
(8)一旦应用程序执行完成并且所有相关工作也已经完成,applicationmaster 向 resourcemanager 取消注册然后关闭,用到所有的 container 也归还给系统。
3.2、mapreduce on yarn
(1)客户端提交hadoop jar
(2)找到main()方法中的job.waitforcompletition生成job对象,运行job对象的runjob()方法,与resourcemanager通信,
返回resourcemanager分配一个id号(applicationid),需不需要输出,如果需要输出,判断输出是否存在,如果不存在问题,在看输入,根据hdfs得到输入得到分片信息,根据分片信息得到map个数,将这些信息回传给客户端job
(3)把job所需要的资源,例如jar包,配置文件,split分片信息,上传到hdfs中去
(4)job对象告知与resourcemanager提交应用
(5)resourcemanager寻找合适的节点开启container容器(本质上是一个jvm虚拟机)
(6)在container中启动一个applicationmaster,初始化job,生成一个薄记对象(就是一个记事本),记录map、reduce的状态。把job所有资源上传到hdfs中,包括jar包,配置文件,split信息
(7)applicationmaster向resourcemanager申请资源,返回资源信息(包括node节点地址,cpu信息,内存占比,io信息)
(8)applicationmaster收到信息之后,和nodemanager通信,传递资源信息
(9)开启yarnchild进程,从hdfs中获得job详细信息(包括jar包,配置文件信息)
(一)job初始化:1、当resourcemanager收到了submitapplication()方法的调用通知后,scheduler开始分配container,随之resoucemanager发送applicationmaster进程,告知每个nodemanager管理器。 2、由applicationmaster决定如何运行tasks,如果job数据量比较小,applicationmaster便选择将tasks运行在一个jvm中。那么如何判别这个job是大是小呢?当一个job的mappers数量小于10个,只有一个reducer或者读取的文件大小要小于一个hdfs block时,(可通过修改配置项mapreduce.job.ubertask.maxmaps,mapreduce.job.ubertask.maxreduces以及mapreduce.job.ubertask.maxbytes 进行调整) 3、在运行tasks之前,applicationmaster将会调用setupjob()方法,随之创建output的输出路径(这就能够解释,不管你的mapreduce一开始是否报错,输出路径都会创建)。
(二)task 任务分配:1、接下来applicationmaster向resourcemanager请求containers用于执行map与reduce的tasks(step 8),这里map task的优先级要高于reduce task,当所有的map tasks结束后,随之进行sort(这里是shuffle过程后面再说),最后进行reduce task的开始。(这里有一点,当map tasks执行了百分之5%的时候,将会请求reduce,具体下面再总结) 2、运行tasks的是需要消耗内存与cpu资源的,默认情况下,map和reduce的task资源分配为1024mb与一个核,(可修改运行的最小与最大参数配置,mapreduce.map.memory.mb,mapreduce.reduce.memory.mb,mapreduce.map.cpu.vcores,mapreduce.reduce.reduce.cpu.vcores.)
(三)运行进度与状态更新 1、mapreduce是一个较长运行时间的批处理过程,可以是一小时、
几小时甚至几天,那么job的运行状态监控就非常重要。每个job以及每个task都有一个包含
job(running,successfully completed,failed)的状态,以及value的计数器,状态信息及描述信息(描述信息一般都是在代码中加的打印信息),那么,这些信息是如何与客户端进行通信的呢? 2、当一个task开始执行,它将会保持运行记录,记录task完成的比例,对于map的任务,将会记录其运行的百分比,对于reduce来说可能复杂点,但系统依旧会估计reduce的完成比例。当一个map或reduce任务执行时,子进程会持续每三秒钟与applicationmaster进行交互。
4、 yarn使用
4.1 、配置文件
<!-- $hadoop_home/etc/hadoop/mapred-site.xml --> <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> <!-- $hadoop_home/etc/hadoop/yarn-site.xml --> <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
4.2、 yarn启动停止
启动 resourcemanager 和 nodemanager (以下分别简称rm、nm)
#主节点运行命令 $hadoop_home/sbin/start-yarn.sh #主节点运行命令 $hadoop_home/sbin/stop-yarn.sh 若rm没有启动起来,可以单独启动
若rm没有启动起来,可以单独启动
#若rm没有启动,在主节点运行命令 $hadoop_home/sbin/yarn-daemon.sh start resouremanager #相反,可单独关闭 $hadoop_home/sbin/yarn-daemon.sh stop resouremanager
若nm没有启动起来,可以单独启动
#若nm没有启动,在相应节点运行命令 $hadoop_home/sbin/yarn-daemon.sh start nodemanager #相反,可单独关闭 $hadoop_home/sbin/yarn-daemon.sh stop nodemanager
4.3、 yarn常用命令
#1.查看正在运行的任务 yarn application -list #2.杀掉正在运行任务 yarn application -kill 任务id #3.查看节点列表 yarn node -list #4.查看节点状况 todo yarn node -status node3:40652 #5.查看yarn依赖jar的环境变量 yarn classpath
5、yarn调度器
在yarn中有三种调度器可以选择:fifo scheduler ,capacity scheduler,fairs cheduler
5.1、 fifo scheduler
fifo scheduler把应用按提交的顺序排成一个队列,这是一个先进先出队列,在进行资源分配的时候,先给队列中最头上的应用进行分配资源,待最头上的应用需求满足后再给下一个分配,以此类推。fifo scheduler是最简单也是最容易理解的调度器,也不需要任何配置,但它并不适用于共享集群。大的应用可能会占用所有集群资源,这就导致其它应用被阻塞。在共享集群中,更适合采用capacity scheduler或fairscheduler,这两个调度器都允许大任务和小任务在提交的同时获得一定的系统资源。下面“yarn调度器对比图”展示了这几个调度器的区别,从图中可以看出,在fifo 调度器中
5.2、 capacity scheduler
而对于capacity调度器,有一个专门的队列用来运行小任务,但是为小任务专门设置一个队列会预先占用一定的集
群资源,这就导致大任务的执行时间会落后于使用fifo调度器时的时间。
如何配置容量调度器
队列层级结构如下:
root
├── prod
└── dev
├── spark
└── hdp
hadoop_home/etc/hadoop/中建立一个新的capacity-scheduler.xml;内容如下:
<?xml version="1.0" encoding="utf-8"?> <configuration> <property> <name>yarn.scheduler.capacity.root.queues</name> <value>prod,dev</value> </property> <property> <name>yarn.scheduler.capacity.root.dev.queues</name> <value>hdp,spark</value> </property> <property> <name>yarn.scheduler.capacity.root.prod.capacity</name> <value>40</value> </property> <property> <name>yarn.scheduler.capacity.root.dev.capacity</name> <value>60</value> </property> <property> <name>yarn.scheduler.capacity.root.dev.maximum-capacity</name> <value>75</value> </property> <property> <name>yarn.scheduler.capacity.root.dev.hdp.capacity</name> <value>50</value> </property> <property> <name>yarn.scheduler.capacity.root.dev.spark.capacity</name> <value>50</value> </property> </configuration>
将应用放置在哪个队列中,取决于应用本身。
例如mr,可以通过设置属性mapreduce.job.queuename指定相应队列。以wordcount为例,如下,如果指定的队列不存在,则发生错误。如果不指定,默认使用"default"队列,如下图
5.3、 fair scheduler
在fair调度器中,我们不需要预先占用一定的系统资源,fair调度器会为所有运行的job动态的调整系统资源。当第一个大job提交时,只有这一个job在运行,此时它获得了所有集群资源;当第二个小任务提交后,fair调度器会分配一半资源给这个小任务,让这两个任务公平的共享集群资源。需要注意的是,在下图fair调度器中,从第二个任务提交到获得资源会有一定的延迟,因为它需要等待第一个任务释放占用的container。小任务执行完成之后也会释放自己占用的资源,大任务又获得了全部的系统资源。最终的效果就是fair调度器即得到了高的资源利用率又能保证小任务及时完成.
上一篇: “流浪者”网易
下一篇: 百万外卖大军的机会与无奈,收割与被收割