【原创】Linux RCU原理剖析(二)-渐入佳境
背景
-
read the fucking source code!
--by 鲁迅 -
a picture is worth a thousand words.
--by 高尔基
说明:
- kernel版本:4.14
- arm64处理器,contex-a53,双核
- 使用工具:source insight 3.5, visio
1. 概述
我会假设你已经看过了《linux rcu原理剖析(一)-初窥门径》
本文将进一步去探索下rcu
背后的机制。
2. 基础概念
2.1 grace period
继续贴出《linux rcu原理剖析(一)-初窥门径》
中的图片:
- 中间的黄色部分代表的就是
grace period
,中文叫做宽限期,从removal
到reclamation
,中间就隔了一个宽限期; - 只有当宽限期结束后,才会触发回收的工作,宽限期的结束代表着reader都已经退出了临界区,因此回收工作也就是安全的操作了;
- 宽限期是否结束,与处理器的执行状态检测有关,也就是检测静止状态
quiescent status
; - rcu的性能与可扩展性依赖于它是否能有效的检测出静止状态(
quiescent status
),并且判断宽限期是否结束。
来一张图:
2.2 quiescent status
quiescent status
,用于描述处理器的执行状态。当某个cpu正在访问rcu保护的临界区时,认为是活动的状态,而当它离开了临界区后,则认为它是静止的状态。当所有的cpu都至少经历过一次qs后,宽限期将结束并触发回收工作。
- 在时钟tick中检测cpu处于
用户模式
或者idle模式
,则表明cpu离开了临界区; - 在不支持抢占的rcu实现中,检测到cpu有context切换,就能表明cpu离开了临界区;
3. 数据结构
- rcu实际是一个大型的状态机,它的数据结构维护着状态,可以让rcu读者快速执行,同时也可以高效和灵活的处理rcu写者请求的宽限期。
- rcu的性能和可扩展性依赖于采用什么机制来探测宽限期的结束;
- rcu使用位图
cpumask
去记录cpu经历静止状态,在经典rcu(classic rcu
)实现中,由于使用了全局的cpumask
位图,当cpu数量很大时锁争用会带来很大开销(gp开始时设置对应位,gp结束时清除对应位),因此也促成了tree rcu
的诞生; -
tree rcu
以树形分层来组织cpu,将cpu分组,本小组的cpu争用同一个锁,当本小组的某个cpu经历了一个静止状态qs后,将其对应的位从位图清除,如果该小组最后一个cpu经历完静止状态qs后,表明该小组全部经历了cpu的qs状态,那么将上一层对应该组的位从位图清除; - rcu有几个关键的数据结构:
struct rcu_state
,struct rcu_node
,struct rcu_data
;
图来了:
-
struct rcu_state
:用于描述rcu的全局状态,它负责组织树状层级结构,系统中支持不同类型的rcu状态:rcu_sched_state
,rcu_bh_state
,rcu_preempt_state
; -
struct rcu_node
:tree rcu
中的组织节点; -
struct rcu_data
:用于描述处理器的rcu状态,每个cpu都维护一个数据,它归属于某一个struct rcu_node
,struct rcu_data
检测静止状态并进行处理,对应的cpu进行rcu回调,__percpu
的定义也减少了同步的开销;
看到这种描述,如果还是在懵逼的状态,那么再来一张拓扑图,让真相更白一点:
- 层状树形结构由
struct rcu_node
来组成,这些节点在struct rcu_state
结构中是放置在数组中的,由于struct rcu_node
结构有父节点指针,因此可以构造树形; - cpu分组后,对锁的争用就会大大减少,比如
cpu0/cpu1
就不需要和cpu6/cpu7
去争用锁了,逐级以淘汰赛的形式向上;
关键点来了:tree rcu使用rcu_node节点来构造层级结构,进而管理静止状态quiescent state和宽限期grace period,静止状态信息qs是从每个cpu的rcu_data往上传递到根节点的,而宽限期gp信息是通过根节点从上往下传递的,当每个cpu经历过一次qs状态后,宽限期结束
关键字段还是有必要介绍一下的,否则岂不是耍流氓?
struct rcu_state { struct rcu_node node[num_rcu_nodes]; // rcu_node节点数组,组织成层级树状 struct rcu_node *level[rcu_num_lvls + 1]; //指向每层的首个rcu_node节点,数组加1是为了消除编译告警 struct rcu_data __percpu *rda; //指向每个cpu的rcu_data实例 call_rcu_func_t call; //指向特定rcu类型的call_rcu函数:call_rcu_sched, call_rcu_bh等 int ncpus; // 处理器数量 unsigned long gpnum; //当前宽限期编号,gpnum > completed,表明正处在宽限期内 unsigned long completed; //上一个结束的宽限期编号,如果与gpnum相等,表明rcu空闲 ... unsigned long gp_max; //最长的宽限期时间,jiffies ... } /* * definition for node within the rcu grace-period-detection hierarchy. */ struct rcu_node { raw_spinlock_t __private lock; //保护本节点的自旋锁 unsigned long gpnum; //本节点宽限期编号,等于或小于根节点的gpnum unsigned long completed; //本节点上一个结束的宽限期编号,等于或小于根节点的completed unsigned long qsmask; //qs状态位图,某位为1,代表对应的成员没有经历qs状态 unsigned long qsmaskinit; //正常宽限期开始时,qs状态的初始值 ... int grplo; //该分组的cpu最小编号 int grphi; //该分组的cpu最大编号 u8 grpnum; //该分组在上一层分组里的编号 u8 level; //在树中的层级,root为0 ... struct rcu_node *parent; //指向父节点 } /* per-cpu data for read-copy update. */ struct rcu_data { unsigned long completed; //本cpu看到的已结束的宽限期编号 unsigned long gpnum; //本cpu看到的最高宽限期编号 union rcu_noqs cpu_no_qs; //记录本cpu是否经历qs状态 bool core_need_qs; //rcu需要本cpu上报qs状态 unsigned long grpmask; //本cpu在分组的位图中的掩码 struct rcu_segcblist; //回调函数链表,用于存放call_rcu注册的延后执行的回调函数 ... }
4. rcu更新接口
从《linux rcu原理剖析(一)-初窥门径》的示例中,我们看到了rcu的写端调用了synchronize_rcu/call_rcu
两种类型的接口,事实上linux内核提供了三种不同类型的rcu,因此也对应了相应形式的接口。
来张图:
-
rcu
写者,可以通过两种方式来等待宽限期的结束,一种是调用同步接口等待宽限期结束,一种是异步接口等待宽限期结束后再进行回调处理,分别如上图的左右两侧所示; - 从图中的接口调用来看,同步接口中实际会去调用异步接口,只是同步接口中增加了一个
wait_for_completion
睡眠等待操作,并且会将wakeme_after_rcu
回调函数传递给异步接口,当宽限期结束后,在异步接口中回调了wakeme_after_rcu
进行唤醒处理; - 目前内核中提供了三种rcu:
- 可抢占rcu:
rcu_read_lock/rcu_read_unlock
来界定区域,在读端临界区可以被其他进程抢占; - 不可抢占rcu
(rcu-sched)
:rcu_read_lock_sched/rcu_read_unlock_sched
来界定区域,在读端临界区不允许其他进程抢占; - 关下半部rcu
(rcu-bh)
:rcu_read_lock_bh/rcu_read_unlock_bh
来界定区域,在读端临界区禁止软中断;
- 可抢占rcu:
- 从图中可以看出来,不管是同步还是异步接口,最终都是调到
__call_rcu
接口,它是接口实现的关键,所以接下来分析下这个函数了;
5. __call_rcu
函数的调用流程如下:
-
__call_rcu
函数,第一个功能是注册回调函数,而回调的函数的维护是在rcu_data
结构中的struct rcu_segcblist cblist
字段中; -
rcu_accelerate_cbs/rcu_advance_cbs
,实现中都是通过操作struct rcu_segcblist
结构,来完成回调函数的移动处理等; -
__call_rcu
函数第二个功能是判断是否需要开启新的宽限期gp;
链表的维护关系如下图所示:
- 实际的设计比较巧妙,通过一个链表来链接所有的回调函数节点,同时维护一个二级指针数组,用于将该链表进行分段,分别维护不同阶段的回调函数,回调函数的移动方向如图所示,关于回调函数节点的处理都围绕着这个图来展开;
那么通过__call_rcu
注册的这些回调函数在哪里调用呢?答案是在rcu_softirq
软中断中:
- 当
invoke_rcu_core
时,在该函数中调用raise_softirq
接口,从而触发软中断回调函数rcu_process_callbacks
的执行; - 涉及到与宽限期gp相关的操作,在
rcu_process_callbacks
中会调用rcu_gp_kthread_wake
唤醒内核线程,最终会在rcu_gp_kthread
线程中执行; - 涉及到rcu注册的回调函数执行的操作,都在
rcu_do_batch
函数中执行,其中有两种执行方式:1)如果不支持优先级继承的话,直接调用即可;2)支持优先级继承,在把回调的工作放置在rcu_cpu_kthread
内核线程中,其中内核为每个cpu都创建了一个rcu_cpu_kthread
内核线程;
6. 宽限期开始与结束
既然涉及到宽限期gp的操作,都放到了rcu_gp_kthread
内核线程中了,那么来看看这个内核线程的逻辑操作吧:
- 内核分别为
rcu_preempt_state, rcu_bh_state, rcu_sched_state
创建了内核线程rcu_gp_kthread
; -
rcu_gp_kthread
内核线程主要完成三个工作:1)创建新的宽限期gp;2)等待强制静止状态,设置超时,提前唤醒说明所有处理器经过了静止状态;3)宽限期结束处理。其中,前边两个操作都是通过睡眠等待在某个条件上。
7. 静止状态检测及报告
很显然,对这种状态的检测通常都是周期性的进行,放置在时钟中断处理中就是情理之中了:
-
rcu_sched/rcu_bh
类型的rcu中,当检测cpu处于用户模式或处于idle
线程中,说明当前cpu已经离开了临界区,经历了一个qs静止状态,对于rcu_bh
的rcu,如果没有出去softirq
上下文中,也表明cpu经历了qs静止状态; - 在
rcu_pending
满足条件的情况下,触发软中断的执行,rcu_process_callbacks
将会被调用; - 在
rcu_process_callbacks
回调函数中,对宽限期进行判断,并对静止状态逐级上报,如果整个树状结构都经历了静止状态,那就表明了宽限期的结束,从而唤醒内核线程去处理; - 顺便提一句,在
rcu_pending
函数中,rcu_pending->__rcu_pending->check_cpu_stall->print_cpu_stall
的流程中,会去判断是否有cpu stall的问题,这个在内核中有文档专门来描述,不再分析了;
8. 状态机变换
如果要观察整个状态机的变化,跟踪一下trace_rcu_grace_period
接口的记录就能发现:
/* * tracepoint for grace-period events. takes a string identifying the * rcu flavor, the grace-period number, and a string identifying the * grace-period-related event as follows: * * "accreadycb": cpu acclerates new callbacks to rcu_next_ready_tail. * "accwaitcb": cpu accelerates new callbacks to rcu_wait_tail. * "newreq": request a new grace period. * "start": start a grace period. * "cpustart": cpu first notices a grace-period start. * "cpuqs": cpu passes through a quiescent state. * "cpuonl": cpu comes online. * "cpuofl": cpu goes offline. * "reqwait": gp kthread sleeps waiting for grace-period request. * "reqwaitsig": gp kthread awakened by signal from reqwait state. * "fqswait": gp kthread waiting until time to force quiescent states. * "fqsstart": gp kthread starts forcing quiescent states. * "fqsend": gp kthread done forcing quiescent states. * "fqswaitsig": gp kthread awakened by signal from fqswait state. * "end": end a grace period. * "cpuend": cpu first notices a grace-period end. */
大体流程如下:
9. 总结
- 本文提纲挈领的捋了一下rcu的大体流程,主要涉及到rcu状态机的轮转,从开启宽限期gp,到宽限期gp的初始化、静止状态qs的检测、宽限期结束、回调函数的调用等,而这部分主要涉及到软中断
rcu_softirq
和内核线程rcu_gp_kthread
的动态运行及交互等; - 内部的状态组织是通过
rcu_state, rcu_node, rcu_data
组织成树状结构来维护,此外回调函数是通过rcu_data
中的分段链表来批处理,至于这些结构中相关字段的处理(比如gpnum, completed
字段的设置来判断宽限期阶段等),以及链表的节点移动等,都没有进一步去分析跟进了; - rcu的实现机制很复杂,很多其他内容都还未涉及到,比如srcu(可睡眠rcu)、可抢占rcu,中断/nmi对rcu的处理等,只能说是蜻蜓点水了;
- 在阅读代码过程中,经常会发现一些巧妙的设计,有时会有顿悟的感觉,这也是其中的乐趣之一了;
渐入佳境篇
就此打住,是否还会有登堂入室篇
呢?想啥呢,歇歇吧。
参考
verification of the tree-based hierarchical read-copy update in the linux kernel
documentation/rcu
what is rcu, fundamentally?
what is rcu? part 2: usage
rcu part 3: the rcu api
introduction to rcu
欢迎关注公众号:
上一篇: 自学的Python找工作的难度多大?