Android深入浅出之Binder机制
android深入浅出之binder机制
一 说明
android系统最常见也是初学者最难搞明白的就是binder了,很多很多的service就是通过binder机制来和客户端通讯交互的。所以搞明白binder的话,在很大程度上就能理解程序运行的流程。
我们这里将以mediaservice的例子来分析binder的使用:
servicemanager,这是android os的整个服务的管理程序
mediaservice,这个程序里边注册了提供媒体播放的服务程序mediaplayerservice,我们最后只分析这个
mediaplayerclient,这个是与mediaplayerservice交互的客户端程序
下面先讲讲mediaservice应用程序。
二 mediaservice的诞生
mediaservice是一个应用程序,虽然android搞了七七八八的java之类的东西,但是在本质上,它还是一个完整的linux操作系统,也还没有牛到什么应用程序都是java写。所以,ms(mediaservice)就是一个和普通的c++应用程序一样的东西。
mediaservice的源码文件在:framework\base\media\mediaserver\main_mediaserver.cpp中。让我们看看到底是个什么玩意儿!
int main(int argc, char** argv) { //ft,就这么简单?? //获得一个processstate实例 sp<processstate> proc(processstate::self()); //得到一个servicemanager对象 sp<iservicemanager> sm = defaultservicemanager(); mediaplayerservice::instantiate();//初始化mediaplayerservice服务 processstate::self()->startthreadpool();//看名字,启动process的线程池? ipcthreadstate::self()->jointhreadpool();//将自己加入到刚才的线程池? }
其中,我们只分析mediaplayerservice。
这么多疑问,看来我们只有一个个函数深入分析了。不过,这里先简单介绍下sp这个东西。
sp,究竟是smart pointer还是strong pointer呢?其实我后来发现不用太关注这个,就把它当做一个普通的指针看待,即sp<iservicemanager>======》iservicemanager*吧。sp是google搞出来的为了方便c/c++程序员管理指针的分配和释放的一套方法,类似java的什么weakreference之类的。我个人觉得,要是自己写程序的话,不用这个东西也成。
好了,以后的分析中,sp<xxx>就看成是xxx*就可以了。
2.1 processstate
第一个调用的函数是processstate::self(),然后赋值给了proc变量,程序运行完,proc会自动delete内部的内容,所以就自动释放了先前分配的资源。
processstate位置在framework\base\libs\binder\processstate.cpp
sp<processstate> processstate::self() { if (gprocess != null) return gprocess;---->第一次进来肯定不走这儿 automutex _l(gprocessmutex);--->锁保护 if (gprocess == null) gprocess = new processstate;--->创建一个processstate对象 return gprocess;--->看见没,这里返回的是指针,但是函数返回的是sp<xxx>,所以 //把sp<xxx>看成是xxx*是可以的 } 再来看看processstate构造函数 //这个构造函数看来很重要 processstate::processstate() : mdriverfd(open_driver())----->android很多代码都是这么写的,稍不留神就没看见这里调用了一个很重要的函数 , mvmstart(map_failed)//映射内存的起始地址 , mmanagescontexts(false) , mbindercontextcheckfunc(null) , mbindercontextuserdata(null) , mthreadpoolstarted(false) , mthreadpoolseq(1) { if (mdriverfd >= 0) { //bidner_vm_size定义为(1*1024*1024) - (4096 *2) 1m-8k mvmstart = mmap(0, binder_vm_size, prot_read, map_private | map_noreserve, mdriverfd, 0);//这个需要你自己去man mmap的用法了,不过大概意思就是 //将fd映射为内存,这样内存的memcpy等操作就相当于write/read(fd)了 } ... } //最讨厌这种在构造list中添加函数的写法了,常常疏忽某个变量的初始化是一个函数调用的结果。 //open_driver,就是打开/dev/binder这个设备,这个是android在内核中搞的一个专门用于完成 //进程间通讯而设置的一个虚拟的设备。btw,说白了就是内核的提供的一个机制,这个和我们用socket加net_link方式和内核通讯是一个道理。 static int open_driver() { int fd = open("/dev/binder", o_rdwr);//打开/dev/binder if (fd >= 0) { .... size_t maxthreads = 15; //通过ioctl方式告诉内核,这个fd支持最大线程数是15个。 result = ioctl(fd, binder_set_max_threads, &maxthreads); } return fd;
好了,到这里process::self就分析完了,到底干什么了呢?
l 打开/dev/binder设备,这样的话就相当于和内核binder机制有了交互的通道
l 映射fd到内存,设备的fd传进去后,估计这块内存是和binder设备共享的
接下来,就到调用defaultservicemanager()地方了。
2.2 defaultservicemanager
defaultservicemanager位置在framework\base\libs\binder\iservicemanager.cpp中
sp<iservicemanager> defaultservicemanager() { if (gdefaultservicemanager != null) return gdefaultservicemanager; //又是一个单例,设计模式中叫 singleton。 { automutex _l(gdefaultservicemanagerlock); if (gdefaultservicemanager == null) { //真正的gdefaultservicemanager是在这里创建的喔 gdefaultservicemanager = interface_cast<iservicemanager>( processstate::self()->getcontextobject(null)); } } return gdefaultservicemanager; } -----》 gdefaultservicemanager = interface_cast<iservicemanager>( processstate::self()->getcontextobject(null)); processstate::self,肯定返回的是刚才创建的gprocess,然后调用它的getcontextobject,注意,传进去的是null,即0 //回到processstate类, sp<ibinder> processstate::getcontextobject(const sp<ibinder>& caller) { if (supportsprocesses()) {//该函数根据打开设备是否成功来判断是否支持process, //在真机上肯定走这个 return getstrongproxyforhandle(0);//注意,这里传入0 } } ----》进入到getstrongproxyforhandle,函数名字怪怪的,经常严重阻碍大脑运转 //注意这个参数的命名,handle。搞过windows的应该比较熟悉这个名字,这是对 //资源的一种标示,其实说白了就是某个数据结构,保存在数组中,然后handle是它在这个数组中的索引。--->就是这么一个玩意儿 sp<ibinder> processstate::getstrongproxyforhandle(int32_t handle) { sp<ibinder> result; automutex _l(mlock); handle_entry* e = lookuphandlelocked(handle);--》哈哈,果然,从数组中查找对应 索引的资源,lookuphandlelocked这个就不说了,内部会返回一个handle_entry 下面是 handle_entry 的结构 /* struct handle_entry { ibinder* binder;--->binder refbase::weakref_type* refs;-->不知道是什么,不影响. }; */ if (e != null) { ibinder* b = e->binder; -->第一次进来,肯定为空 if (b == null || !e->refs->attemptincweak(this)) { b = new bpbinder(handle); --->看见了吧,创建了一个新的bpbinder e->binder = b; result = b; }.... } return result; 返回刚才创建的bpbinder。 } //到这里,是不是有点乱了?对,当人脑分析的函数调用太深的时候,就容易忘记。 //我们是从 gdefaultservicemanager = interface_cast<iservicemanager>( processstate::self()->getcontextobject(null)); //开始搞的,现在,这个函数调用将变成 gdefaultservicemanager = interface_cast<iservicemanager>(new bpbinder(0));
bpbinder又是个什么玩意儿?android名字起得太眼花缭乱了。
因为还没介绍binder机制的大架构,所以这里介绍bpbinder不合适,但是又讲到bpbinder了,不介绍binder架构似乎又说不清楚....,sigh!
恩,还是继续把层层深入的函数调用栈化繁为简吧,至少大脑还可以工作。先看看bpbinder的构造函数把。
2.3 bpbinder
bpbinder位置在framework\base\libs\binder\bpbinder.cpp中。
bpbinder::bpbinder(int32_t handle) : mhandle(handle) //注意,接上述内容,这里调用的时候传入的是0 , malive(1) , mobitssent(0) , mobituaries(null) { ipcthreadstate::self()->incweakhandle(handle);//ft,竟然到ipcthreadstate::self() } 这里一块说说吧,ipcthreadstate::self估计怎么着又是一个singleton吧? //该文件位置在framework\base\libs\binder\ipcthreadstate.cpp ipcthreadstate* ipcthreadstate::self() { if (ghavetls) {//第一次进来为false restart: const pthread_key_t k = gtls; //tls是thread local storage的意思,不懂得自己去google下它的作用吧。这里只需要 //知道这种空间每个线程有一个,而且线程间不共享这些空间,好处是?我就不用去搞什么 //同步了。在这个线程,我就用这个线程的东西,反正别的线程获取不到其他线程tls中的数据。===》这句话有漏洞,钻牛角尖的明白大概意思就可以了。 //从线程本地存储空间中获得保存在其中的ipcthreadstate对象 //这段代码写法很晦涩,看见没,只有pthread_getspecific,那么肯定有地方调用 // pthread_setspecific。 ipcthreadstate* st = (ipcthreadstate*)pthread_getspecific(k); if (st) return st; return new ipcthreadstate;//new一个对象, } if (gshutdown) return null; pthread_mutex_lock(>lsmutex); if (!ghavetls) { if (pthread_key_create(>ls, threaddestructor) != 0) { pthread_mutex_unlock(>lsmutex); return null; } ghavetls = true; } pthread_mutex_unlock(>lsmutex); goto restart; //我ft,其实goto没有我们说得那样卑鄙,汇编代码很多跳转语句的。 //关键是要用好。 } //这里是构造函数,在构造函数里边pthread_setspecific ipcthreadstate::ipcthreadstate() : mprocess(processstate::self()), mmythreadid(androidgettid()) { pthread_setspecific(gtls, this); clearcaller(); min.setdatacapacity(256); //min,mout是两个parcel,干嘛用的啊?把它看成是命令的buffer吧。再深入解释,又会大脑停摆的。 mout.setdatacapacity(256); }
出来了,终于出来了....,恩,回到bpbinder那。
bpbinder::bpbinder(int32_t handle) : mhandle(handle) //注意,接上述内容,这里调用的时候传入的是0 , malive(1) , mobitssent(0) , mobituaries(null) { ...... ipcthreadstate::self()->incweakhandle(handle); 什么incweakhandle,不讲了.. }
喔,new bpbinder就算完了。到这里,我们创建了些什么呢?
l processstate有了。
l ipcthreadstate有了,而且是主线程的。
l bpbinder有了,内部handle值为0
gdefaultservicemanager = interface_cast<iservicemanager>(new bpbinder(0));
终于回到原点了,大家是不是快疯掉了?
interface_cast,我第一次接触的时候,把它看做类似的static_cast一样的东西,然后死活也搞不明白 bpbinder*指针怎么能强转为iservicemanager*,花了n多时间查看bpbinder是否和iservicemanager继承还是咋的....。
终于,我用ctrl+鼠标(source insight)跟踪进入了interface_cast
iinterface.h位于framework/base/include/binder/iinterface.h
template<typename interface> inline sp<interface> interface_cast(const sp<ibinder>& obj) { return interface::asinterface(obj); } 所以,上面等价于: inline sp<iservicemanager> interface_cast(const sp<ibinder>& obj) { return iservicemanager::asinterface(obj); } 看来,只能跟到iservicemanager了。 iservicemanager.h---》framework/base/include/binder/iservicemanager.h 看看它是如何定义的:
2.4 iservicemanager
class iservicemanager : public iinterface { //servicemanager,字面上理解就是service管理类,管理什么?增加服务,查询服务等 //这里仅列出增加服务addservice函数 public: declare_meta_interface(servicemanager); virtual status_t addservice( const string16& name, const sp<ibinder>& service) = 0; }; declare_meta_interface(servicemanager)?? 怎么和mfc这么类似?微软的影响很大啊!知道mfc的,有delcare肯定有implement 果然,这两个宏declare_meta_interface和implement_meta_interface(interface, name)都在 刚才的iinterface.h中定义。我们先看看declare_meta_interface这个宏往iservicemanager加了什么? 下面是declare宏 #define declare_meta_interface(interface) \ static const android::string16 descriptor; \ static android::sp<i##interface> asinterface( \ const android::sp<android::ibinder>& obj); \ virtual const android::string16& getinterfacedescriptor() const; \ i##interface(); \ virtual ~i##interface(); 我们把它兑现到iservicemanager就是: static const android::string16 descriptor; -->喔,增加一个描述字符串 static android::sp< iservicemanager > asinterface(const android::sp<android::ibinder>& obj) ---》增加一个asinterface函数 virtual const android::string16& getinterfacedescriptor() const; ---》增加一个get函数 估计其返回值就是descriptor这个字符串 iservicemanager (); \ virtual ~iservicemanager();增加构造和虚析购函数...
那implement宏在哪定义的呢?
见iservicemanager.cpp。位于framework/base/libs/binder/iservicemanager.cpp
implement_meta_interface(servicemanager, "android.os.iservicemanager"); 下面是这个宏的定义 #define implement_meta_interface(interface, name) \ const android::string16 i##interface::descriptor(name); \ const android::string16& \ i##interface::getinterfacedescriptor() const { \ return i##interface::descriptor; \ } \ android::sp<i##interface> i##interface::asinterface( \ const android::sp<android::ibinder>& obj) \ { \ android::sp<i##interface> intr; \ if (obj != null) { \ intr = static_cast<i##interface*>( \ obj->querylocalinterface( \ i##interface::descriptor).get()); \ if (intr == null) { \ intr = new bp##interface(obj); \ } \ } \ return intr; \ } \ i##interface::i##interface() { } \ i##interface::~i##interface() { } \ 很麻烦吧?尤其是宏看着头疼。赶紧兑现下吧。 const android::string16 iservicemanager::descriptor(“android.os.iservicemanager”); const android::string16& iservicemanager::getinterfacedescriptor() const { return iservicemanager::descriptor;//返回上面那个android.os.iservicemanager } android::sp<iservicemanager> iservicemanager::asinterface( const android::sp<android::ibinder>& obj) { android::sp<iservicemanager> intr; if (obj != null) { intr = static_cast<iservicemanager *>( obj->querylocalinterface(iservicemanager::descriptor).get()); if (intr == null) { intr = new bpservicemanager(obj); } } return intr; } iservicemanager::iservicemanager () { } iservicemanager::~ iservicemanager() { } 哇塞,asinterface是这么搞的啊,赶紧分析下吧,还是不知道interface_cast怎么把bpbinder*转成了iservicemanager 我们刚才解析过的interface_cast<iservicemanager>(new bpbinder(0)), 原来就是调用asinterface(new bpbinder(0)) android::sp<iservicemanager> iservicemanager::asinterface( const android::sp<android::ibinder>& obj) { android::sp<iservicemanager> intr; if (obj != null) { .... intr = new bpservicemanager(obj); //神呐,终于看到和iservicemanager相关的东西了,看来 //实际返回的是bpservicemanager(new bpbinder(0)); } } return intr; }
bpservicemanager是个什么玩意儿?p是什么个意思?
2.5 bpservicemanager
终于可以讲解点架构上的东西了。p是proxy即代理的意思,bp就是binderproxy,bpservicemanager,就是sm的binder代理。既然是代理,那肯定希望对用户是透明的,那就是说头文件里边不会有这个bp的定义。是吗?
果然,bpservicemanager就在刚才的iservicemanager.cpp中定义。
class bpservicemanager : public bpinterface<iservicemanager> //这种继承方式,表示同时继承bpinterface和iservicemanager,这样iservicemanger的 addservice必然在这个类中实现 { public: //注意构造函数参数的命名 impl,难道这里使用了bridge模式?真正完成操作的是impl对象? //这里传入的impl就是new bpbinder(0) bpservicemanager(const sp<ibinder>& impl) : bpinterface<iservicemanager>(impl) { } virtual status_t addservice(const string16& name, const sp<ibinder>& service) { 待会再说.. } 基类bpinterface的构造函数(经过兑现后) //这里的参数又叫remote,唉,真是害人不浅啊。 inline bpinterface< iservicemanager >::bpinterface(const sp<ibinder>& remote) : bprefbase(remote) { } bprefbase::bprefbase(const sp<ibinder>& o) : mremote(o.get()), mrefs(null), mstate(0) //o.get(),这个是sp类的获取实际数据指针的一个方法,你只要知道 //它返回的是sp<xxxx>中xxx* 指针就行 { //mremote就是刚才的bpbinder(0) ... }
好了,到这里,我们知道了:
sp<iservicemanager> sm = defaultservicemanager(); 返回的实际是bpservicemanager,它的remote对象是bpbinder,传入的那个handle参数是0。
现在重新回到mediaservice。
int main(int argc, char** argv) { sp<processstate> proc(processstate::self()); sp<iservicemanager> sm = defaultservicemanager(); //上面的讲解已经完了 mediaplayerservice::instantiate();//实例化mediaplayerservice //看来这里有名堂! processstate::self()->startthreadpool(); ipcthreadstate::self()->jointhreadpool(); }
到这里,我们把binder设备打开了,得到一个bpservicemanager对象,这表明我们可以和sm打交道了,但是好像没干什么有意义的事情吧?
2.6 mediaplayerservice
那下面我们看看后续又干了什么?以mediaplayerservice为例。
它位于framework\base\media\libmediaplayerservice\libmediaplayerservice.cpp
void mediaplayerservice::instantiate() { defaultservicemanager()->addservice( //传进去服务的名字,传进去new出来的对象 string16("media.player"), new mediaplayerservice()); } mediaplayerservice::mediaplayerservice() { logv("mediaplayerservice created");//太简单了 mnextconnid = 1; } defaultservicemanager返回的是刚才创建的bpservicemanager 调用它的addservice函数。
mediaplayerservice从bnmediaplayerservice派生
class mediaplayerservice : public bnmediaplayerservice
ft,mediaplayerservice从bnmediaplayerservice派生,bnxxx,bpxxx,快晕了。
bn 是binder native的含义,是和bp相对的,bp的p是proxy代理的意思,那么另一端一定有一个和代理打交道的东西,这个就是bn。
讲到这里会有点乱喔。先分析下,到目前为止都构造出来了什么。
l bpservicemanager
l bnmediaplayerservice
这两个东西不是相对的两端,从bnxxx就可以判断,bpservicemanager对应的应该是bnservicemanager,bnmediaplayerservice对应的应该是bpmediaplayerservice。
我们现在在哪里?对了,我们现在是创建了bnmediaplayerservice,想把它加入到系统的中去。
喔,明白了。我创建一个新的service—bnmediaplayerservice,想把它告诉servicemanager。
那我怎么和servicemanager通讯呢?恩,利用bpservicemanager。所以嘛,我调用了bpservicemanager的addservice函数!
为什么要搞个servicemanager来呢?这个和android机制有关系。所有service都需要加入到servicemanager来管理。同时也方便了client来查询系统存在哪些service,没看见我们传入了字符串吗?这样就可以通过human readable的字符串来查找service了。
---》感觉没说清楚...饶恕我吧。
2.7 addservice
addservice是调用的bpservicemanager的函数。前面略去没讲,现在我们看看。
virtual status_t addservice(const string16& name, const sp<ibinder>& service) { parcel data, reply; //data是发送到bnservicemanager的命令包 //看见没?先把interface名字写进去,也就是什么android.os.iservicemanager data.writeinterfacetoken(iservicemanager::getinterfacedescriptor()); //再把新service的名字写进去 叫media.player data.writestring16(name); //把新服务service—>就是mediaplayerservice写到命令中 data.writestrongbinder(service); //调用remote的transact函数 status_t err = remote()->transact(add_service_transaction, data, &reply); return err == no_error ? reply.readint32() : err; }
我的天,remote()返回的是什么?
remote(){ return mremote; }-->啊?找不到对应的实际对象了???
还记得我们刚才初始化时候说的:
“这里的参数又叫remote,唉,真是害人不浅啊“
原来,这里的mremote就是最初创建的bpbinder..
好吧,到那里去看看:
bpbinder的位置在framework\base\libs\binder\bpbinder.cpp status_t bpbinder::transact( uint32_t code, const parcel& data, parcel* reply, uint32_t flags) { //又绕回去了,调用ipcthreadstate的transact。 //注意啊,这里的mhandle为0,code是add_service_transaction,data是命令包 //reply是回复包,flags=0 status_t status = ipcthreadstate::self()->transact( mhandle, code, data, reply, flags); if (status == dead_object) malive = 0; return status; } ... } 再看看ipcthreadstate的transact函数把 status_t ipcthreadstate::transact(int32_t handle, uint32_t code, const parcel& data, parcel* reply, uint32_t flags) { status_t err = data.errorcheck(); flags |= tf_accept_fds; if (err == no_error) { //调用writetransactiondata 发送数据 err = writetransactiondata(bc_transaction, flags, handle, code, data, null); } if ((flags & tf_one_way) == 0) { if (reply) { err = waitforresponse(reply); } else { parcel fakereply; err = waitforresponse(&fakereply); } ....等回复 err = waitforresponse(null, null); .... return err; } 再进一步,瞧瞧这个... status_t ipcthreadstate::writetransactiondata(int32_t cmd, uint32_t binderflags, int32_t handle, uint32_t code, const parcel& data, status_t* statusbuffer) { binder_transaction_data tr; tr.target.handle = handle; tr.code = code; tr.flags = binderflags; const status_t err = data.errorcheck(); if (err == no_error) { tr.data_size = data.ipcdatasize(); tr.data.ptr.buffer = data.ipcdata(); tr.offsets_size = data.ipcobjectscount()*sizeof(size_t); tr.data.ptr.offsets = data.ipcobjects(); } .... 上面把命令数据封装成binder_transaction_data,然后 写到mout中,mout是命令的缓冲区,也是一个parcel mout.writeint32(cmd); mout.write(&tr, sizeof(tr)); //仅仅写到了parcel中,parcel好像没和/dev/binder设备有什么关联啊? 恩,那只能在另外一个地方写到binder设备中去了。难道是在? return no_error; } //说对了,就是在waitforresponse中 status_t ipcthreadstate::waitforresponse(parcel *reply, status_t *acquireresult) { int32_t cmd; int32_t err; while (1) { //talkwithdriver,哈哈,应该是这里了 if ((err=talkwithdriver()) < no_error) break; err = min.errorcheck(); if (err < no_error) break; if (min.dataavail() == 0) continue; //看见没?这里开始操作min了,看来talkwithdriver中 //把mout发出去,然后从driver中读到数据放到min中了。 cmd = min.readint32(); switch (cmd) { case br_transaction_complete: if (!reply && !acquireresult) goto finish; break; ..... return err; } status_t ipcthreadstate::talkwithdriver(bool doreceive) { binder_write_read bwr; //中间东西太复杂了,不就是把mout数据和min接收数据的处理后赋值给bwr吗? status_t err; do { //用ioctl来读写 if (ioctl(mprocess->mdriverfd, binder_write_read, &bwr) >= 0) err = no_error; else err = -errno; } while (err == -eintr); //到这里,回复数据就在bwr中了,bmr接收回复数据的buffer就是min提供的 if (bwr.read_consumed > 0) { min.setdatasize(bwr.read_consumed); min.setdataposition(0); } return no_error; }
好了,到这里,我们发送addservice的流程就彻底走完了。
bpservicemanager发送了一个addservice命令到bnservicemanager,然后收到回复。
先继续我们的main函数。
int main(int argc, char** argv) { sp<processstate> proc(processstate::self()); sp<iservicemanager> sm = defaultservicemanager(); mediaplayerservice::instantiate(); ---》该函数内部调用addservice,把mediaplayerservice信息 add到servicemanager中 processstate::self()->startthreadpool(); ipcthreadstate::self()->jointhreadpool(); }
这里有个容易搞晕的地方:
mediaplayerservice是一个bnmediaplayerservice,那么它是不是应该等着
bpmediaplayerservice来和他交互呢?但是我们没看见mediaplayerservice有打开binder设备的操作啊!
这个嘛,到底是继续addservice操作的另一端bnservicemanager还是先说
bnmediaplayerservice呢?
还是先说bnservicemanager吧。顺便把系统的binder架构说说。
2.8 bnservicemanager
上面说了,defaultservicemanager返回的是一个bpservicemanager,通过它可以把命令请求发送到binder设备,而且handle的值为0。那么,系统的另外一端肯定有个接收命令的,那又是谁呢?
很可惜啊,bnservicemanager不存在,但确实有一个程序完成了bnservicemanager的工作,那就是service.exe(如果在windows上一定有exe后缀,叫service的名字太多了,这里加exe就表明它是一个程序)
位置在framework/base/cmds/servicemanger.c中。
int main(int argc, char **argv) { struct binder_state *bs; void *svcmgr = binder_service_manager; bs = binder_open(128*1024);//应该是打开binder设备吧? binder_become_context_manager(bs) //成为manager svcmgr_handle = svcmgr; binder_loop(bs, svcmgr_handler);//处理bpservicemanager发过来的命令 } 看看binder_open是不是和我们猜得一样? struct binder_state *binder_open(unsigned mapsize) { struct binder_state *bs; bs = malloc(sizeof(*bs)); .... bs->fd = open("/dev/binder", o_rdwr);//果然如此 .... bs->mapsize = mapsize; bs->mapped = mmap(null, mapsize, prot_read, map_private, bs->fd, 0); } 再看看binder_become_context_manager int binder_become_context_manager(struct binder_state *bs) { return ioctl(bs->fd, binder_set_context_mgr, 0);//把自己设为manager } binder_loop 肯定是从binder设备中读请求,写回复的这么一个循环吧? void binder_loop(struct binder_state *bs, binder_handler func) { int res; struct binder_write_read bwr; readbuf[0] = bc_enter_looper; binder_write(bs, readbuf, sizeof(unsigned)); for (;;) {//果然是循环 bwr.read_size = sizeof(readbuf); bwr.read_consumed = 0; bwr.read_buffer = (unsigned) readbuf; res = ioctl(bs->fd, binder_write_read, &bwr); //哈哈,收到请求了,解析命令 res = binder_parse(bs, 0, readbuf, bwr.read_consumed, func); } 这个...后面还要说吗?? 恩,最后有一个类似handlemessage的地方处理各种各样的命令。这个就是 svcmgr_handler,就在servicemanager.c中 int svcmgr_handler(struct binder_state *bs, struct binder_txn *txn, struct binder_io *msg, struct binder_io *reply) { struct svcinfo *si; uint16_t *s; unsigned len; void *ptr; s = bio_get_string16(msg, &len); switch(txn->code) { case svc_mgr_add_service: s = bio_get_string16(msg, &len); ptr = bio_get_ref(msg); if (do_add_service(bs, s, len, ptr, txn->sender_euid)) return -1; break; ... 其中,do_add_service真正添加bnmediaservice信息 int do_add_service(struct binder_state *bs, uint16_t *s, unsigned len, void *ptr, unsigned uid) { struct svcinfo *si; si = find_svc(s, len);s是一个list si = malloc(sizeof(*si) + (len + 1) * sizeof(uint16_t)); si->ptr = ptr; si->len = len; memcpy(si->name, s, (len + 1) * sizeof(uint16_t)); si->name[len] = '\0'; si->death.func = svcinfo_death; si->death.ptr = si; si->next = svclist; svclist = si; //看见没,这个svclist是一个列表,保存了当前注册到servicemanager 中的信息 } binder_acquire(bs, ptr);//这个吗。当这个service退出后,我希望系统通知我一下,好释放上面malloc出来的资源。大概就是干这个事情的。 binder_link_to_death(bs, ptr, &si->death); return 0; }
喔,对于addservice来说,看来servicemanager把信息加入到自己维护的一个服务列表中了。
2.9 servicemanager存在的意义
为何需要一个这样的东西呢?
原来,android系统中service信息都是先add到servicemanager中,由servicemanager来集中管理,这样就可以查询当前系统有哪些服务。而且,android系统中某个服务例如mediaplayerservice的客户端想要和mediaplayerservice通讯的话,必须先向servicemanager查询mediaplayerservice的信息,然后通过servicemanager返回的东西再来和mediaplayerservice交互。
毕竟,要是mediaplayerservice身体不好,老是挂掉的话,客户的代码就麻烦了,就不知道后续新生的mediaplayerservice的信息了,所以只能这样:
l mediaplayerservice向sm注册
l mediaplayerclient查询当前注册在sm中的mediaplayerservice的信息
l 根据这个信息,mediaplayerclient和mediaplayerservice交互
另外,servicemanager的handle标示是0,所以只要往handle是0的服务发送消息了,最终都会被传递到servicemanager中去。
三 mediaservice的运行
上一节的知识,我们知道了:
l defaultservicemanager得到了bpservicemanager,然后mediaplayerservice 实例化后,调用bpservicemanager的addservice函数
l 这个过程中,是service_manager收到addservice的请求,然后把对应信息放到自己保存的一个服务list中
到这儿,我们可看到,service_manager有一个binder_looper函数,专门等着从binder中接收请求。虽然service_manager没有从bnservicemanager中派生,但是它肯定完成了bnservicemanager的功能。
同样,我们创建了mediaplayerservice即bnmediaplayerservice,那它也应该:
l 打开binder设备
l 也搞一个looper循环,然后坐等请求
service,service,这个和网络编程中的监听socket的工作很像嘛!
好吧,既然mediaplayerservice的构造函数没有看到显示的打开binder设备,那么我们看看它的父类即bnxxx又到底干了些什么呢?
3.1 mediaplayerservice打开binder
class mediaplayerservice : public bnmediaplayerservice // mediaplayerservice从bnmediaplayerservice派生 //而bnmediaplayerservice从bninterface和imediaplayerservice同时派生 class bnmediaplayerservice: public bninterface<imediaplayerservice> { public: virtual status_t ontransact( uint32_t code, const parcel& data, parcel* reply, uint32_t flags = 0); }; 看起来,bninterface似乎更加和打开设备相关啊。 template<typename interface> class bninterface : public interface, public bbinder { public: virtual sp<iinterface> querylocalinterface(const string16& _descriptor); virtual const string16& getinterfacedescriptor() const; protected: virtual ibinder* onasbinder(); }; 兑现后变成 class bninterface : public imediaplayerservice, public bbinder bbinder?bpbinder?是不是和bnxxx以及bpxxx对应的呢?如果是,为什么又叫bbinder呢? bbinder::bbinder() : mextras(null) { //没有打开设备的地方啊? }
完了?难道我们走错方向了吗?难道不是每个service都有对应的binder设备fd吗?
.......
回想下,我们的main_mediaservice程序,有哪里打开过binder吗?
int main(int argc, char** argv) { //对啊,我在processstate中不是打开过binder了吗? sp<processstate> proc(processstate::self()); sp<iservicemanager> sm = defaultservicemanager(); mediaplayerservice::instantiate(); ......
3.2 looper
啊?原来打开binder设备的地方是和进程相关的啊?一个进程打开一个就可以了。那么,我在哪里进行类似的消息循环looper操作呢?
... //难道是下面两个? processstate::self()->startthreadpool(); ipcthreadstate::self()->jointhreadpool(); 看看startthreadpool吧 void processstate::startthreadpool() { ... spawnpooledthread(true); } void processstate::spawnpooledthread(bool ismain) { sp<thread> t = new poolthread(ismain);ismain是true //创建线程池,然后run起来,和java的thread何其像也。 t->run(buf); } poolthread从thread类中派生,那么此时会产生一个线程吗?看看poolthread和thread的构造吧 poolthread::poolthread(bool ismain) : mismain(ismain) { } thread::thread(bool cancalljava)//cancalljava默认值是true : mcancalljava(cancalljava), mthread(thread_id_t(-1)), mlock("thread::mlock"), mstatus(no_error), mexitpending(false), mrunning(false) { } 喔,这个时候还没有创建线程呢。然后调用poolthread::run,实际调用了基类的run。 status_t thread::run(const char* name, int32_t priority, size_t stack) { bool res; if (mcancalljava) { res = createthreadetc(_threadloop,//线程函数是_threadloop this, name, priority, stack, &mthread); } //终于,在run函数中,创建线程了。从此 主线程执行 ipcthreadstate::self()->jointhreadpool(); 新开的线程执行_threadloop 我们先看看_threadloop int thread::_threadloop(void* user) { thread* const self = static_cast<thread*>(user); sp<thread> strong(self->mholdself); wp<thread> weak(strong); self->mholdself.clear(); do { ... if (result && !self->mexitpending) { result = self->threadloop();哇塞,调用自己的threadloop } } 我们是poolthread对象,所以调用poolthread的threadloop函数 virtual bool poolthread ::threadloop() { //mismain为true。 //而且注意,这是一个新的线程,所以必然会创建一个 新的ipcthreadstate对象(记得线程本地存储吗?tls),然后 ipcthreadstate::self()->jointhreadpool(mismain); return false; } 主线程和工作线程都调用了jointhreadpool,看看这个干嘛了! void ipcthreadstate::jointhreadpool(bool ismain) { mout.writeint32(ismain ? bc_enter_looper : bc_register_looper); status_t result; do { int32_t cmd; result = talkwithdriver(); result = executecommand(cmd); } } while (result != -econnrefused && result != -ebadf); mout.writeint32(bc_exit_looper); talkwithdriver(false); } 看到没?有loop了,但是好像是有两个线程都执行了这个啊!这里有两个消息循环? 下面看看executecommand status_t ipcthreadstate::executecommand(int32_t cmd) { bbinder* obj; refbase::weakref_type* refs; status_t result = no_error; case br_transaction: { binder_transaction_data tr; result = min.read(&tr, sizeof(tr)); //来了一个命令,解析成br_transaction,然后读取后续的信息 parcel reply; if (tr.target.ptr) { //这里用的是bbinder。 sp<bbinder> b((bbinder*)tr.cookie); const status_t error = b->transact(tr.code, buffer, &reply, 0); } 让我们看看bbinder的transact函数干嘛了 status_t bbinder::transact( uint32_t code, const parcel& data, parcel* reply, uint32_t flags) { 就是调用自己的ontransact函数嘛 err = ontransact(code, data, reply, flags); return err; }
bnmediaplayerservice从bbinder派生,所以会调用到它的ontransact函数
终于水落石出了,让我们看看bnmediaplayerservcice的ontransact函数。
status_t bnmediaplayerservice::ontransact( uint32_t code, const parcel& data, parcel* reply, uint32_t flags) { // bnmediaplayerservice从bbinder和imediaplayerservice派生,所有imediaplayerservice //看到下面的switch没?所有imediaplayerservice提供的函数都通过命令类型来区分 // switch(code) { case create_url: { check_interface(imediaplayerservice, data, reply); create是一个虚函数,由mediaplayerservice来实现!! sp<imediaplayer> player = create( pid, client, url, numheaders > 0 ? &headers : null); reply->writestrongbinder(player->asbinder()); return no_error; } break;
其实,到这里,我们就明白了。bnxxx的ontransact函数收取命令,然后派发到派生类的函数,由他们完成实际的工作。
说明:
这里有点特殊,startthreadpool和jointhreadpool完后确实有两个线程,主线程和工作线程,而且都在做消息循环。为什么要这么做呢?他们参数ismain都是true。不知道google搞什么。难道是怕一个线程工作量太多,所以搞两个线程来工作?这种解释应该也是合理的。
网上有人测试过把最后一句屏蔽掉,也能正常工作。但是难道主线程提出了,程序还能不退出吗?这个...管它的,反正知道有两个线程在那处理就行了。
四 mediaplayerclient
这节讲讲mediaplayerclient怎么和mediaplayerservice交互。
使用mediaplayerservice的时候,先要创建它的bpmediaplayerservice。我们看看一个例子
imediadeathnotifier::getmediaplayerservice() { sp<iservicemanager> sm = defaultservicemanager(); sp<ibinder> binder; do { //向sm查询对应服务的信息,返回binder binder = sm->getservice(string16("media.player")); if (binder != 0) { break; } usleep(500000); // 0.5 s } while(true); //通过interface_cast,将这个binder转化成bpmediaplayerservice //注意,这个binder只是用来和binder设备通讯用的,实际 //上和imediaplayerservice的功能一点关系都没有。 //还记得我说的bridge模式吗?bpmediaplayerservice用这个binder和bnmediaplayerservice //通讯。 smediaplayerservice = interface_cast<imediaplayerservice>(binder); } return smediaplayerservice; }
为什么反复强调这个bridge?其实也不一定是bridge模式,但是我真正想说明的是:
binder其实就是一个和binder设备打交道的接口,而上层imediaplayerservice只不过把它当做一个类似socket使用罢了。我以前经常把binder和上层类imediaplayerservice的功能混到一起去。
当然,你们不一定会犯这个错误。但是有一点请注意:
4.1 native层
刚才那个getmediaplayerservice代码是c++层的,但是整个使用的例子确实java->jni层的调用。如果我要写一个纯c++的程序该怎么办?
int main() { getmediaplayerservice();直接调用这个函数能获得bpmediaplayerservice吗? 不能,为什么?因为我还没打开binder驱动呐!但是你在java应用程序里边却有google已经替你 封装好了。 所以,纯native层的代码,必须也得像下面这样处理: sp<processstate> proc(processstate::self());//这个其实不是必须的,因为 //好多地方都需要这个,所以自动也会创建. getmediaplayerservice(); 还得起消息循环呐,否则如果bn那边有消息通知你,你怎么接受得到呢? processstate::self()->startthreadpool(); //至于主线程是否也需要调用消息循环,就看个人而定了。不过一般是等着接收其他来源的消息,例如socket发来的命令,然后控制mediaplayerservice就可以了。 }
五 实现自己的service
好了,我们学习了这么多binder的东西,那么想要实现一个自己的service该咋办呢?
如果是纯c++程序的话,肯定得类似main_mediaservice那样干了。
int main() { sp<processstate> proc(processstate::self()); sp<iservicemanager> sm = defaultservicemanager(); sm->addservice(“service.name”,new xxxservice()); processstate::self()->startthreadpool(); ipcthreadstate::self()->jointhreadpool(); } 看看xxxservice怎么定义呢? 我们需要一个bn,需要一个bp,而且bp不用暴露出来。那么就在bnxxx.cpp中一起实现好了。 另外,xxxservice提供自己的功能,例如getxxx调用
5.1 定义xxx接口
xxx接口是和xxx服务相关的,例如提供getxxx,setxxx函数,和应用逻辑相关。
需要从iinterface派生
class ixxx: public iinterface { public: declare_meta_interface(xxx);申明宏 virtual getxxx() = 0; virtual setxxx() = 0; }这是一个接口。
5.2 定义bnxxx和bpxxx
为了把ixxx加入到binder结构,需要定义bnxxx和对客户端透明的bpxxx。
其中bnxxx是需要有头文件的。bnxxx只不过是把ixxx接口加入到binder架构中来,而不参与实际的getxxx和setxxx应用层逻辑。
这个bnxxx定义可以和上面的ixxx定义放在一块。分开也行。
class bnxxx: public bninterface<ixxx> { public: virtual status_t ontransact( uint32_t code, const parcel& data, parcel* reply, uint32_t flags = 0); //由于ixxx是个纯虚类,而bnxxx只实现了ontransact函数,所以bnxxx依然是 一个纯虚类 };
有了declare,那我们在某个cpp中implemnt它吧。那就在ixxx.cpp中吧。
implement_meta_interface(xxx, "android.xxx.ixxx");//implement宏 status_t bnxxx::ontransact( uint32_t code, const parcel& data, parcel* reply, uint32_t flags) { switch(code) { case get_xxx: { check_interface(ixxx, data, reply); 读请求参数 调用虚函数getxxx() return no_error; } break; //set_xxx类似
bpxxx也在这里实现吧。
class bpxxx: public bpinterface<ixxx> { public: bpxxx (const sp<ibinder>& impl) : bpinterface< ixxx >(impl) { } vitural getxxx() { parcel data, reply; data.writeinterfacetoken(ixxx::getinterfacedescriptor()); data.writeint32(pid); remote()->transact(get_xxx, data, &reply); return; } //setxxx类似
至此,binder就算分析完了,大家看完后,应该能做到以下几点:
l 如果需要写自己的service的话,总得知道系统是怎么个调用你的函数,恩。对。有2个线程在那不停得从binder设备中收取命令,然后调用你的函数呢。恩,这是个多线程问题。
l 如果需要跟踪bug的话,得知道从client端调用的函数,是怎么最终传到到远端的service。这样,对于一些函数调用,client端跟踪完了,我就知道转到service去看对应函数调用了。反正是同步方式。也就是client一个函数调用会一直等待到service返回为止。
以上就是对 android binder机制的详细介绍,后续继续补充相关资料,谢谢大家对本站的支持!