iOS核心动画高级技巧 - 6
11. 基于定时器的动画
基于定时器的动画
我可以指导你,但是你必须按照我说的做。 -- 骇客帝国
在第10章“缓冲”中,我们研究了camediatimingfunction
,它是一个通过控制动画缓冲来模拟物理效果例如加速或者减速来增强现实感的东西,那么如果想更加真实地模拟物理交互或者实时根据用户输入修改动画改怎么办呢?在这一章中,我们将继续探索一种能够允许我们精确地控制一帧一帧展示的基于定时器的动画。
11.1 定时帧
定时帧
动画看起来是用来显示一段连续的运动过程,但实际上当在固定位置上展示像素的时候并不能做到这一点。一般来说这种显示都无法做到连续的移动,能做的仅仅是足够快地展示一系列静态图片,只是看起来像是做了运动。
我们之前提到过ios按照每秒60次刷新屏幕,然后caanimation
计算出需要展示的新的帧,然后在每次屏幕更新的时候同步绘制上去,caanimation
最机智的地方在于每次刷新需要展示的时候去计算插值和缓冲。
一个开发者,有一个学习的氛围跟一个交流圈子特别重要,这是一个我的ios交流群:1012951431, 分享bat,阿里面试题、面试经验,讨论技术, 大家一起交流学习成长!希望帮助开发者少走弯路。
在第10章中,我们解决了如何自定义缓冲函数,然后根据需要展示的帧的数组来告诉cakeyframeanimation
的实例如何去绘制。所有的core animation实际上都是按照一定的序列来显示这些帧,那么我们可以自己做到这些么?
nstimer
实际上,我们在第三章“图层几何学”中已经做过类似的东西,就是时钟那个例子,我们用了nstimer
来对钟表的指针做定时动画,一秒钟更新一次,但是如果我们把频率调整成一秒钟更新60次的话,原理是完全相同的。
我们来试着用nstimer
来修改第十章中弹性球的例子。由于现在我们在定时器启动之后连续计算动画帧,我们需要在类中添加一些额外的属性来存储动画的fromvalue
,tovalue
,duration
和当前的timeoffset
(见清单11.1)。
清单11.1 使用nstimer
实现弹性球动画
@interface viewcontroller () @property (nonatomic, weak) iboutlet uiview *containerview; @property (nonatomic, strong) uiimageview *ballview; @property (nonatomic, strong) nstimer *timer; @property (nonatomic, assign) nstimeinterval duration; @property (nonatomic, assign) nstimeinterval timeoffset; @property (nonatomic, strong) id fromvalue; @property (nonatomic, strong) id tovalue; @end @implementation viewcontroller - (void)viewdidload { [super viewdidload]; //add ball image view uiimage *ballimage = [uiimage imagenamed:@"ball.png"]; self.ballview = [[uiimageview alloc] initwithimage:ballimage]; [self.containerview addsubview:self.ballview]; //animate [self animate]; } - (void)touchesbegan:(nsset *)touches withevent:(uievent *)event { //replay animation on tap [self animate]; } float interpolate(float from, float to, float time) { return (to - from) * time + from; } - (id)interpolatefromvalue:(id)fromvalue tovalue:(id)tovalue time:(float)time { if ([fromvalue iskindofclass:[nsvalue class]]) { //get type const char *type = [(nsvalue *)fromvalue objctype]; if (strcmp(type, @encode(cgpoint)) == 0) { cgpoint from = [fromvalue cgpointvalue]; cgpoint to = [tovalue cgpointvalue]; cgpoint result = cgpointmake(interpolate(from.x, to.x, time), interpolate(from.y, to.y, time)); return [nsvalue valuewithcgpoint:result]; } } //provide safe default implementation return (time < 0.5)? fromvalue: tovalue; } float bounceeaseout(float t) { if (t < 4/11.0) { return (121 * t * t)/16.0; } else if (t < 8/11.0) { return (363/40.0 * t * t) - (99/10.0 * t) + 17/5.0; } else if (t < 9/10.0) { return (4356/361.0 * t * t) - (35442/1805.0 * t) + 16061/1805.0; } return (54/5.0 * t * t) - (513/25.0 * t) + 268/25.0; } - (void)animate { //reset ball to top of screen self.ballview.center = cgpointmake(150, 32); //configure the animation self.duration = 1.0; self.timeoffset = 0.0; self.fromvalue = [nsvalue valuewithcgpoint:cgpointmake(150, 32)]; self.tovalue = [nsvalue valuewithcgpoint:cgpointmake(150, 268)]; //stop the timer if it's already running [self.timer invalidate]; //start the timer self.timer = [nstimer scheduledtimerwithtimeinterval:1/60.0 target:self selector:@selector(step:) userinfo:nil repeats:yes]; } - (void)step:(nstimer *)step { //update time offset self.timeoffset = min(self.timeoffset + 1/60.0, self.duration); //get normalized time offset (in range 0 - 1) float time = self.timeoffset / self.duration; //apply easing time = bounceeaseout(time); //interpolate position id position = [self interpolatefromvalue:self.fromvalue tovalue:self.tovalue time:time]; //move ball view to new position self.ballview.center = [position cgpointvalue]; //stop the timer if we've reached the end of the animation if (self.timeoffset >= self.duration) { [self.timer invalidate]; self.timer = nil; } } @end
很赞,而且和基于关键帧例子的代码一样很多,但是如果想一次性在屏幕上对很多东西做动画,很明显就会有很多问题。
nstimer
并不是最佳方案,为了理解这点,我们需要确切地知道nstimer是如何工作的。ios上的每个线程都管理了一个nsrunloop,字面上看就是通过一个循环来完成一些任务列表。但是对主线程,这些任务包含如下几项:
-
处理触摸事件
-
发送和接受网络数据包
-
执行使用gcd的代码
-
处理计时器行为
-
屏幕重绘
当你设置一个nstimer
,他会被插入到当前任务列表中,然后直到指定时间过去之后才会被执行。但是何时启动定时器并没有一个时间上限,而且它只会在列表中上一个任务完成之后开始执行。这通常会导致有几毫秒的延迟,但是如果上一个任务过了很久才完成就会导致延迟很长一段时间。
屏幕重绘的频率是一秒钟六十次,但是和定时器行为一样,如果列表中上一个执行了很长时间,它也会延迟。这些延迟都是一个随机值,于是就不能保证定时器精准地一秒钟执行六十次。有时候发生在屏幕重绘之后,这就会使得更新屏幕会有个延迟,看起来就是动画卡壳了。有时候定时器会在屏幕更新的时候执行两次,于是动画看起来就跳动了。
我们可以通过一些途径来优化:
-
我们可以用
cadisplaylink
让更新频率严格控制在每次屏幕刷新之后。 -
基于真实帧的持续时间而不是假设的更新频率来做动画。
-
调整动画计时器的
run loop
模式,这样就不会被别的事件干扰。
cadisplaylink
cadisplaylink
是coreanimation提供的另一个类似于nstimer
的类,它总是在屏幕完成一次更新之前启动,它的接口设计的和nstimer
很类似,所以它实际上就是一个内置实现的替代,但是和timeinterval
以秒为单位不同,cadisplaylink
有一个整型的frameinterval
属性,指定了间隔多少帧之后才执行。默认值是1,意味着每次屏幕更新之前都会执行一次。但是如果动画的代码执行起来超过了六十分之一秒,你可以指定frameinterval
为2,就是说动画每隔一帧执行一次(一秒钟30帧)或者3,也就是一秒钟20次,等等。
用cadisplaylink
而不是nstimer
,会保证帧率足够连续,使得动画看起来更加平滑,但即使cadisplaylink
也不能保证每一帧都按计划执行,一些失去控制的离散的任务或者事件(例如资源紧张的后台程序)可能会导致动画偶尔地丢帧。当使用nstimer
的时候,一旦有机会计时器就会开启,但是cadisplaylink
却不一样:如果它丢失了帧,就会直接忽略它们,然后在下一次更新的时候接着运行。
计算帧的持续时间
无论是使用nstimer
还是cadisplaylink
,我们仍然需要处理一帧的时间超出了预期的六十分之一秒。由于我们不能够计算出一帧真实的持续时间,所以需要手动测量。我们可以在每帧开始刷新的时候用cacurrentmediatime()
记录当前时间,然后和上一帧记录的时间去比较。
通过比较这些时间,我们就可以得到真实的每帧持续的时间,然后代替硬编码的六十分之一秒。我们来更新一下上个例子(见清单11.2)。
清单11.2 通过测量没帧持续的时间来使得动画更加平滑
@interface viewcontroller () @property (nonatomic, weak) iboutlet uiview *containerview; @property (nonatomic, strong) uiimageview *ballview; @property (nonatomic, strong) cadisplaylink *timer; @property (nonatomic, assign) cftimeinterval duration; @property (nonatomic, assign) cftimeinterval timeoffset; @property (nonatomic, assign) cftimeinterval laststep; @property (nonatomic, strong) id fromvalue; @property (nonatomic, strong) id tovalue; @end @implementation viewcontroller ... - (void)animate { //reset ball to top of screen self.ballview.center = cgpointmake(150, 32); //configure the animation self.duration = 1.0; self.timeoffset = 0.0; self.fromvalue = [nsvalue valuewithcgpoint:cgpointmake(150, 32)]; self.tovalue = [nsvalue valuewithcgpoint:cgpointmake(150, 268)]; //stop the timer if it's already running [self.timer invalidate]; //start the timer self.laststep = cacurrentmediatime(); self.timer = [cadisplaylink displaylinkwithtarget:self selector:@selector(step:)]; [self.timer addtorunloop:[nsrunloop mainrunloop] formode:nsdefaultrunloopmode]; } - (void)step:(cadisplaylink *)timer { //calculate time delta cftimeinterval thisstep = cacurrentmediatime(); cftimeinterval stepduration = thisstep - self.laststep; self.laststep = thisstep; //update time offset self.timeoffset = min(self.timeoffset + stepduration, self.duration); //get normalized time offset (in range 0 - 1) float time = self.timeoffset / self.duration; //apply easing time = bounceeaseout(time); //interpolate position id position = [self interpolatefromvalue:self.fromvalue tovalue:self.tovalue time:time]; //move ball view to new position self.ballview.center = [position cgpointvalue]; //stop the timer if we've reached the end of the animation if (self.timeoffset >= self.duration) { [self.timer invalidate]; self.timer = nil; } } @end
run loop 模式
注意到当创建cadisplaylink
的时候,我们需要指定一个run loop
和run loop mode
,对于run loop来说,我们就使用了主线程的run loop,因为任何用户界面的更新都需要在主线程执行,但是模式的选择就并不那么清楚了,每个添加到run loop的任务都有一个指定了优先级的模式,为了保证用户界面保持平滑,ios会提供和用户界面相关任务的优先级,而且当ui很活跃的时候的确会暂停一些别的任务。
一个典型的例子就是当是用uiscrollview
滑动的时候,重绘滚动视图的内容会比别的任务优先级更高,所以标准的nstimer
和网络请求就不会启动,一些常见的run loop模式如下:
-
nsdefaultrunloopmode
- 标准优先级 -
nsrunloopcommonmodes
- 高优先级 -
uitrackingrunloopmode
- 用于uiscrollview和别的控件的动画
在我们的例子中,我们是用了nsdefaultrunloopmode
,但是不能保证动画平滑的运行,所以就可以用nsrunloopcommonmodes
来替代。但是要小心,因为如果动画在一个高帧率情况下运行,你会发现一些别的类似于定时器的任务或者类似于滑动的其他ios动画会暂停,直到动画结束。
同样可以同时对cadisplaylink
指定多个run loop模式,于是我们可以同时加入nsdefaultrunloopmode
和uitrackingrunloopmode
来保证它不会被滑动打断,也不会被其他uikit控件动画影响性能,像这样:
self.timer = [cadisplaylink displaylinkwithtarget:self selector:@selector(step:)]; [self.timer addtorunloop:[nsrunloop mainrunloop] formode:nsdefaultrunloopmode]; [self.timer addtorunloop:[nsrunloop mainrunloop] formode:uitrackingrunloopmode];
和cadisplaylink
类似,nstimer
同样也可以使用不同的run loop模式配置,通过别的函数,而不是+scheduledtimerwithtimeinterval:
构造器
self.timer = [nstimer timerwithtimeinterval:1/60.0 target:self selector:@selector(step:) userinfo:nil repeats:yes]; [[nsrunloop mainrunloop] addtimer:self.timer formode:nsrunloopcommonmodes];
11.2 物理模拟
物理模拟
即使使用了基于定时器的动画来复制第10章中关键帧的行为,但还是会有一些本质上的区别:在关键帧的实现中,我们提前计算了所有帧,但是在新的解决方案中,我们实际上实在按需要在计算。意义在于我们可以根据用户输入实时修改动画的逻辑,或者和别的实时动画系统例如物理引擎进行整合。
chipmunk
我们来基于物理学创建一个真实的重力模拟效果来取代当前基于缓冲的弹性动画,但即使模拟2d的物理效果就已近极其复杂了,所以就不要尝试去实现它了,直接用开源的物理引擎库好了。
我们将要使用的物理引擎叫做chipmunk。另外的2d物理引擎也同样可以(例如box2d),但是chipmunk使用纯c写的,而不是c++,好处在于更容易和objective-c项目整合。chipmunk有很多版本,包括一个和objective-c绑定的“indie”版本。c语言的版本是免费的,所以我们就用它好了。在本书写作的时候6.1.4是最新的版本;你可以从http://chipmunk-physics.net下载它。
chipmunk完整的物理引擎相当巨大复杂,但是我们只会使用如下几个类:
-
cpspace
- 这是所有的物理结构体的容器。它有一个大小和一个可选的重力矢量 -
cpbody
- 它是一个固态无弹力的刚体。它有一个坐标,以及其他物理属性,例如质量,运动和摩擦系数等等。 -
cpshape
- 它是一个抽象的几何形状,用来检测碰撞。可以给结构体添加一个多边形,而且cpshape
有各种子类来代表不同形状的类型。
在例子中,我们来对一个木箱建模,然后在重力的影响下下落。我们来创建一个crate
类,包含屏幕上的可视效果(一个uiimageview
)和一个物理模型(一个cpbody
和一个cppolyshape
,一个cpshape
的多边形子类来代表矩形木箱)。
用c版本的chipmunk
会带来一些挑战,因为它现在并不支持objective-c的引用计数模型,所以我们需要准确的创建和释放对象。为了简化,我们把cpshape
和cpbody
的生命周期和crate
类进行绑定,然后在木箱的-init
方法中创建,在-dealloc
中释放。木箱物理属性的配置很复杂,所以阅读了chipmunk
文档会很有意义。
视图控制器用来管理cpspace
,还有和之前一样的计时器逻辑。在每一步中,我们更新cpspace
(用来进行物理计算和所有结构体的重新摆放)然后迭代对象,然后再更新我们的木箱视图的位置来匹配木箱的模型(在这里,实际上只有一个结构体,但是之后我们将要添加更多)。
chipmunk使用了一个和uikit颠倒的坐标系(y轴向上为正方向)。为了使得物理模型和视图之间的同步更简单,我们需要通过使用geometryflipped
属性翻转容器视图的集合坐标(第3章中有提到),于是模型和视图都共享一个相同的坐标系。
具体的代码见清单11.3。注意到我们并没有在任何地方释放cpspace
对象。在这个例子中,内存空间将会在整个app的生命周期中一直存在,所以这没有问题。但是在现实世界的场景中,我们需要像创建木箱结构体和形状一样去管理我们的空间,封装在标准的cocoa对象中,然后来管理chipmunk对象的生命周期。图11.1展示了掉落的木箱。
清单11.3 使用物理学来对掉落的木箱建模
#import "viewcontroller.h" #import #import "chipmunk.h" @interface crate : uiimageview @property (nonatomic, assign) cpbody *body; @property (nonatomic, assign) cpshape *shape; @end @implementation crate #define mass 100 - (id)initwithframe:(cgrect)frame { if ((self = [super initwithframe:frame])) { //set image self.image = [uiimage imagenamed:@"crate.png"]; self.contentmode = uiviewcontentmodescaleaspectfill; //create the body self.body = cpbodynew(mass, cpmomentforbox(mass, frame.size.width, frame.size.height)); //create the shape cpvect corners[] = { cpv(0, 0), cpv(0, frame.size.height), cpv(frame.size.width, frame.size.height), cpv(frame.size.width, 0), }; self.shape = cppolyshapenew(self.body, 4, corners, cpv(-frame.size.width/2, -frame.size.height/2)); //set shape friction & elasticity cpshapesetfriction(self.shape, 0.5); cpshapesetelasticity(self.shape, 0.8); //link the crate to the shape //so we can refer to crate from callback later on self.shape->data = (__bridge void *)self; //set the body position to match view cpbodysetpos(self.body, cpv(frame.origin.x + frame.size.width/2, 300 - frame.origin.y - frame.size.height/2)); } return self; } - (void)dealloc { //release shape and body cpshapefree(_shape); cpbodyfree(_body); } @end @interface viewcontroller () @property (nonatomic, weak) iboutlet uiview *containerview; @property (nonatomic, assign) cpspace *space; @property (nonatomic, strong) cadisplaylink *timer; @property (nonatomic, assign) cftimeinterval laststep; @end @implementation viewcontroller #define gravity 1000 - (void)viewdidload { //invert view coordinate system to match physics self.containerview.layer.geometryflipped = yes; //set up physics space self.space = cpspacenew(); cpspacesetgravity(self.space, cpv(0, -gravity)); //add a crate crate *crate = [[crate alloc] initwithframe:cgrectmake(100, 0, 100, 100)]; [self.containerview addsubview:crate]; cpspaceaddbody(self.space, crate.body); cpspaceaddshape(self.space, crate.shape); //start the timer self.laststep = cacurrentmediatime(); self.timer = [cadisplaylink displaylinkwithtarget:self selector:@selector(step:)]; [self.timer addtorunloop:[nsrunloop mainrunloop] formode:nsdefaultrunloopmode]; } void updateshape(cpshape *shape, void *unused) { //get the crate object associated with the shape crate *crate = (__bridge crate *)shape->data; //update crate view position and angle to match physics shape cpbody *body = shape->body; crate.center = cpbodygetpos(body); crate.transform = cgaffinetransformmakerotation(cpbodygetangle(body)); } - (void)step:(cadisplaylink *)timer { //calculate step duration cftimeinterval thisstep = cacurrentmediatime(); cftimeinterval stepduration = thisstep - self.laststep; self.laststep = thisstep; //update physics cpspacestep(self.space, stepduration); //update all the shapes cpspaceeachshape(self.space, &updateshape, null); } @end
图11.1 真实引力场下的木箱交互
模拟时间以及固定的时间步长
对于实现动画的缓冲效果来说,计算每帧持续的时间是一个很好的解决方案,但是对模拟物理效果并不理想。通过一个可变的时间步长来实现有着两个弊端:
-
如果时间步长不是固定的,精确的值,物理效果的模拟也就随之不确定。这意味着即使是传入相同的输入值,也可能在不同场合下有着不同的效果。有时候没多大影响,但是在基于物理引擎的游戏下,玩家就会由于相同的操作行为导致不同的结果而感到困惑。同样也会让测试变得麻烦。
-
由于性能故常造成的丢帧或者像电话呼入的中断都可能会造成不正确的结果。考虑一个像子弹那样快速移动物体,每一帧的更新都需要移动子弹,检测碰撞。如果两帧之间的时间加长了,子弹就会在这一步移动更远的距离,穿过围墙或者是别的障碍,这样就丢失了碰撞。
我们想得到的理想的效果就是通过固定的时间步长来计算物理效果,但是在屏幕发生重绘的时候仍然能够同步更新视图(可能会由于在我们控制范围之外造成不可预知的效果)。
幸运的是,由于我们的模型(在这个例子中就是chipmunk的cpspace
中的cpbody
)被视图(就是屏幕上代表木箱的uiview
对象)分离,于是就很简单了。我们只需要根据屏幕刷新的时间跟踪时间步长,然后根据每帧去计算一个或者多个模拟出来的效果。
我们可以通过一个简单的循环来实现。通过每次cadisplaylink
的启动来通知屏幕将要刷新,然后记录下当前的cacurrentmediatime()
。我们需要在一个小增量中提前重复物理模拟(这里用120分之一秒)直到赶上显示的时间。然后更新我们的视图,在屏幕刷新的时候匹配当前物理结构体的显示位置。
清单11.5展示了固定时间步长版本的代码
清单11.5 固定时间步长的木箱模拟
#define simulation_step (1/120.0) - (void)step:(cadisplaylink *)timer { //calculate frame step duration cftimeinterval frametime = cacurrentmediatime(); //update simulation while (self.laststep < frametime) { cpspacestep(self.space, simulation_step); self.laststep += simulation_step; }  //update all the shapes cpspaceeachshape(self.space, &updateshape, null); }
避免死亡螺旋
当使用固定的模拟时间步长时候,有一件事情一定要注意,就是用来计算物理效果的现实世界的时间并不会加速模拟时间步长。在我们的例子中,我们随意选择了120分之一秒来模拟物理效果。chipmunk很快,我们的例子也很简单,所以cpspacestep()
会完成的很好,不会延迟帧的更新。
但是如果场景很复杂,比如有上百个物体之间的交互,物理计算就会很复杂,cpspacestep()
的计算也可能会超出1/120秒。我们没有测量出物理步长的时间,因为我们假设了相对于帧刷新来说并不重要,但是如果模拟步长更久的话,就会延迟帧率。
如果帧刷新的时间延迟的话会变得很糟糕,我们的模拟需要执行更多的次数来同步真实的时间。这些额外的步骤就会继续延迟帧的更新,等等。这就是所谓的死亡螺旋,因为最后的结果就是帧率变得越来越慢,直到最后应用程序卡死了。
我们可以通过添加一些代码在设备上来对物理步骤计算真实世界的时间,然后自动调整固定时间步长,但是实际上它不可行。其实只要保证你给容错留下足够的边长,然后在期望支持的最慢的设备上进行测试就可以了。如果物理计算超过了模拟时间的50%,就需要考虑增加模拟时间步长(或者简化场景)。如果模拟时间步长增加到超过1/60秒(一个完整的屏幕更新时间),你就需要减少动画帧率到一秒30帧或者增加cadisplaylink
的frameinterval
来保证不会随机丢帧,不然你的动画将会看起来不平滑。
物理模拟
12. 性能调优
性能调优
代码应该运行的尽量快,而不是更快 - 理查德
在第一和第二部分,我们了解了core animation提供的关于绘制和动画的一些特性。core animation功能和性能都非常强大,但如果你对背后的原理不清楚的话也会降低效率。让它达到最优的状态是一门艺术。在这章中,我们将探究一些动画运行慢的原因,以及如何去修复这些问题。
12.1. cpu vs gpu
cpu vs gpu
关于绘图和动画有两种处理的方式:cpu(*处理器)和gpu(图形处理器)。在现代ios设备中,都有可以运行不同软件的可编程芯片,但是由于历史原因,我们可以说cpu所做的工作都在软件层面,而gpu在硬件层面。
总的来说,我们可以用软件(使用cpu)做任何事情,但是对于图像处理,通常用硬件会更快,因为gpu使用图像对高度并行浮点运算做了优化。由于某些原因,我们想尽可能把屏幕渲染的工作交给硬件去处理。问题在于gpu并没有无限制处理性能,而且一旦资源用完的话,性能就会开始下降了(即使cpu并没有完全占用)
大多数动画性能优化都是关于智能利用gpu和cpu,使得它们都不会超出负荷。于是我们首先需要知道core animation是如何在这两个处理器之间分配工作的。
动画的舞台
core animation处在ios的核心地位:应用内和应用间都会用到它。一个简单的动画可能同步显示多个app的内容,例如当在ipad上多个程序之间使用手势切换,会使得多个程序同时显示在屏幕上。在一个特定的应用中用代码实现它是没有意义的,因为在ios中不可能实现这种效果(app都是被沙箱管理,不能访问别的视图)。
动画和屏幕上组合的图层实际上被一个单独的进程管理,而不是你的应用程序。这个进程就是所谓的渲染服务。在ios5和之前的版本是springboard进程(同时管理着ios的主屏)。在ios6之后的版本中叫做backboard
。
当运行一段动画时候,这个过程会被四个分离的阶段被打破:
-
布局 - 这是准备你的视图/图层的层级关系,以及设置图层属性(位置,背景色,边框等等)的阶段。
-
显示 - 这是图层的寄宿图片被绘制的阶段。绘制有可能涉及你的
-drawrect:
和-drawlayer:incontext:
方法的调用路径。 -
准备 - 这是core animation准备发送动画数据到渲染服务的阶段。这同时也是core animation将要执行一些别的事务例如解码动画过程中将要显示的图片的时间点。
-
提交 - 这是最后的阶段,core animation打包所有图层和动画属性,然后通过ipc(内部处理通信)发送到渲染服务进行显示。
但是这些仅仅阶段仅仅发生在你的应用程序之内,在动画在屏幕上显示之前仍然有更多的工作。一旦打包的图层和动画到达渲染服务进程,他们会被反序列化来形成另一个叫做渲染树的图层树(在第一章“图层树”中提到过)。使用这个树状结构,渲染服务对动画的每一帧做出如下工作:
-
对所有的图层属性计算中间值,设置opengl几何形状(纹理化的三角形)来执行渲染
-
在屏幕上渲染可见的三角形
所以一共有六个阶段;最后两个阶段在动画过程中不停地重复。前五个阶段都在软件层面处理(通过cpu),只有最后一个被gpu执行。而且,你真正只能控制前两个阶段:布局和显示。core animation框架在内部处理剩下的事务,你也控制不了它。
这并不是个问题,因为在布局和显示阶段,你可以决定哪些由cpu执行,哪些交给gpu去做。那么改如何判断呢?
gpu相关的操作
gpu为一个具体的任务做了优化:它用来采集图片和形状(三角形),运行变换,应用纹理和混合然后把它们输送到屏幕上。现代ios设备上可编程的gpu在这些操作的执行上又很大的灵活性,但是core animation并没有暴露出直接的接口。除非你想绕开core animation并编写你自己的opengl着色器,从根本上解决硬件加速的问题,那么剩下的所有都还是需要在cpu的软件层面上完成。
宽泛的说,大多数calayer
的属性都是用gpu来绘制。比如如果你设置图层背景或者边框的颜色,那么这些可以通过着色的三角板实时绘制出来。如果对一个contents
属性设置一张图片,然后裁剪它 - 它就会被纹理的三角形绘制出来,而不需要软件层面做任何绘制。
但是有一些事情会降低(基于gpu)图层绘制,比如:
-
太多的几何结构 - 这发生在需要太多的三角板来做变换,以应对处理器的栅格化的时候。现代ios设备的图形芯片可以处理几百万个三角板,所以在core animation中几何结构并不是gpu的瓶颈所在。但由于图层在显示之前通过ipc发送到渲染服务器的时候(图层实际上是由很多小物体组成的特别重量级的对象),太多的图层就会引起cpu的瓶颈。这就限制了一次展示的图层个数(见本章后续“cpu相关操作”)。
-
重绘 - 主要由重叠的半透明图层引起。gpu的填充比率(用颜色填充像素的比率)是有限的,所以需要避免重绘(每一帧用相同的像素填充多次)的发生。在现代ios设备上,gpu都会应对重绘;即使是iphone 3gs都可以处理高达2.5的重绘比率,并任然保持60帧率的渲染(这意味着你可以绘制一个半的整屏的冗余信息,而不影响性能),并且新设备可以处理更多。
-
离屏绘制 - 这发生在当不能直接在屏幕上绘制,并且必须绘制到离屏图片的上下文中的时候。离屏绘制发生在基于cpu或者是gpu的渲染,或者是为离屏图片分配额外内存,以及切换绘制上下文,这些都会降低gpu性能。对于特定图层效果的使用,比如圆角,图层遮罩,阴影或者是图层光栅化都会强制core animation提前渲染图层的离屏绘制。但这不意味着你需要避免使用这些效果,只是要明白这会带来性能的负面影响。
-
过大的图片 - 如果视图绘制超出gpu支持的2048x2048或者4096x4096尺寸的纹理,就必须要用cpu在图层每次显示之前对图片预处理,同样也会降低性能。
cpu相关的操作
大多数工作在core animation的cpu都发生在动画开始之前。这意味着它不会影响到帧率,所以很好,但是他会延迟动画开始的时间,让你的界面看起来会比较迟钝。
以下cpu的操作都会延迟动画的开始时间:
-
布局计算 - 如果你的视图层级过于复杂,当视图呈现或者修改的时候,计算图层帧率就会消耗一部分时间。特别是使用ios6的自动布局机制尤为明显,它应该是比老版的自动调整逻辑加强了cpu的工作。
-
视图懒加载 - ios只会当视图控制器的视图显示到屏幕上时才会加载它。这对内存使用和程序启动时间很有好处,但是当呈现到屏幕上之前,按下按钮导致的许多工作都会不能被及时响应。比如控制器从数据库中获取数据,或者视图从一个nib文件中加载,或者涉及io的图片显示(见后续“io相关操作”),都会比cpu正常操作慢得多。
-
core graphics绘制 - 如果对视图实现了
-drawrect:
方法,或者calayerdelegate
的-drawlayer:incontext:
方法,那么在绘制任何东西之前都会产生一个巨大的性能开销。为了支持对图层内容的任意绘制,core animation必须创建一个内存中等大小的寄宿图片。然后一旦绘制结束之后,必须把图片数据通过ipc传到渲染服务器。在此基础上,core graphics绘制就会变得十分缓慢,所以在一个对性能十分挑剔的场景下这样做十分不好。 -
解压图片 - png或者jpeg压缩之后的图片文件会比同质量的位图小得多。但是在图片绘制到屏幕上之前,必须把它扩展成完整的未解压的尺寸(通常等同于图片宽 x 长 x 4个字节)。为了节省内存,ios通常直到真正绘制的时候才去解码图片(14章“图片io”会更详细讨论)。根据你加载图片的方式,第一次对图层内容赋值的时候(直接或者间接使用
uiimageview
)或者把它绘制到core graphics中,都需要对它解压,这样的话,对于一个较大的图片,都会占用一定的时间。
当图层被成功打包,发送到渲染服务器之后,cpu仍然要做如下工作:为了显示屏幕上的图层,core animation必须对渲染树种的每个可见图层通过opengl循环转换成纹理三角板。由于gpu并不知晓core animation图层的任何结构,所以必须要由cpu做这些事情。这里cpu涉及的工作和图层个数成正比,所以如果在你的层级关系中有太多的图层,就会导致cpu没一帧的渲染,即使这些事情不是你的应用程序可控的。
io相关操作
还有一项没涉及的就是io相关工作。上下文中的io(输入/输出)指的是例如闪存或者网络接口的硬件访问。一些动画可能需要从山村(甚至是远程url)来加载。一个典型的例子就是两个视图控制器之间的过渡效果,这就需要从一个nib文件或者是它的内容中懒加载,或者一个旋转的图片,可能在内存中尺寸太大,需要动态滚动来加载。
io比内存访问更慢,所以如果动画涉及到io,就是一个大问题。总的来说,这就需要使用聪敏但尴尬的技术,也就是多线程,缓存和投机加载(提前加载当前不需要的资源,但是之后可能需要用到)。这些技术将会在第14章中讨论。
12.2 测量,而不是猜测
测量,而不是猜测
于是现在你知道有哪些点可能会影响动画性能,那该如何修复呢?好吧,其实不需要。有很多种诡计来优化动画,但如果盲目使用的话,可能会造成更多性能上的问题,而不是修复。
如何正确的测量而不是猜测这点很重要。根据性能相关的知识写出代码不同于仓促的优化。前者很好,后者实际上就是在浪费时间。
那该如何测量呢?第一步就是确保在真实环境下测试你的程序。
真机测试,而不是模拟器
当你开始做一些性能方面的工作时,一定要在真机上测试,而不是模拟器。模拟器虽然是加快开发效率的一把利器,但它不能提供准确的真机性能参数。
模拟器运行在你的mac上,然而mac上的cpu往往比ios设备要快。相反,mac上的gpu和ios设备的完全不一样,模拟器不得已要在软件层面(cpu)模拟设备的gpu,这意味着gpu相关的操作在模拟器上运行的更慢,尤其是使用caeagllayer
来写一些opengl的代码时候。
这就是说在模拟器上的测试出的性能会高度失真。如果动画在模拟器上运行流畅,可能在真机上十分糟糕。如果在模拟器上运行的很卡,也可能在真机上很平滑。你无法确定。
另一件重要的事情就是性能测试一定要用发布配置,而不是调试模式。因为当用发布环境打包的时候,编译器会引入一系列提高性能的优化,例如去掉调试符号或者移除并重新组织代码。你也可以自己做到这些,例如在发布环境禁用nslog语句。你只关心发布性能,那才是你需要测试的点。
最后,最好在你支持的设备中性能最差的设备上测试:如果基于ios6开发,这意味着最好在iphone 3gs或者ipad2上测试。如果可能的话,测试不同的设备和ios版本,因为苹果在不同的ios版本和设备中做了一些改变,这也可能影响到一些性能。例如ipad3明显要在动画渲染上比ipad2慢很多,因为渲染4倍多的像素点(为了支持视网膜显示)。
保持一致的帧率
为了做到动画的平滑,你需要以60fps(帧每秒)的速度运行,以同步屏幕刷新速率。通过基于nstimer
或者cadisplaylink
的动画你可以降低到30fps,而且效果还不错,但是没办法通过core animation做到这点。如果不保持60fps的速率,就可能随机丢帧,影响到体验。
你可以在使用的过程中明显感到有没有丢帧,但没办法通过肉眼来得到具体的数据,也没法知道你的做法有没有真的提高性能。你需要的是一系列精确的数据。
你可以在程序中用cadisplaylink
来测量帧率(就像11章“基于定时器的动画”中那样),然后在屏幕上显示出来,但应用内的fps显示并不能够完全真实测量出core animation性能,因为它仅仅测出应用内的帧率。我们知道很多动画都在应用之外发生(在渲染服务器进程中处理),但同时应用内fps计数的确可以对某些性能问题提供参考,一旦找出一个问题的地方,你就需要得到更多精确详细的数据来定位到问题所在。苹果提供了一个强大的instruments工具集来帮我们做到这些。
12.4 总结
总结
在这章中,我们学习了core animation是如何渲染,以及我们可能出现的瓶颈所在。你同样学习了如何使用instruments来检测和修复性能问题。
在下三章中,我们将对每个普通程序的性能陷阱进行详细讨论,然后学习如何修复。