欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  移动技术

Android深入浅出之Binder机制

程序员文章站 2024-03-07 18:56:39
android深入浅出之binder机制 一 说明  android系统最常见也是初学者最难搞明白的就是binder了,很多很多的service就是通过bin...

android深入浅出之binder机制

一 说明

 android系统最常见也是初学者最难搞明白的就是binder了,很多很多的service就是通过binder机制来和客户端通讯交互的。所以搞明白binder的话,在很大程度上就能理解程序运行的流程。

我们这里将以mediaservice的例子来分析binder的使用:

         servicemanager,这是android os的整个服务的管理程序

        mediaservice,这个程序里边注册了提供媒体播放的服务程序mediaplayerservice,我们最后只分析这个

        mediaplayerclient,这个是与mediaplayerservice交互的客户端程序

下面先讲讲mediaservice应用程序。

二 mediaservice的诞生

mediaservice是一个应用程序,虽然android搞了七七八八的java之类的东西,但是在本质上,它还是一个完整的linux操作系统,也还没有牛到什么应用程序都是java写。所以,ms(mediaservice)就是一个和普通的c++应用程序一样的东西。

mediaservice的源码文件在:framework\base\media\mediaserver\main_mediaserver.cpp中。让我们看看到底是个什么玩意儿!

int main(int argc, char** argv)

{

//ft,就这么简单??

//获得一个processstate实例

sp<processstate> proc(processstate::self());

//得到一个servicemanager对象

  sp<iservicemanager> sm = defaultservicemanager();

  mediaplayerservice::instantiate();//初始化mediaplayerservice服务

  processstate::self()->startthreadpool();//看名字,启动process的线程池?

  ipcthreadstate::self()->jointhreadpool();//将自己加入到刚才的线程池?

}

其中,我们只分析mediaplayerservice。

这么多疑问,看来我们只有一个个函数深入分析了。不过,这里先简单介绍下sp这个东西。

sp,究竟是smart pointer还是strong pointer呢?其实我后来发现不用太关注这个,就把它当做一个普通的指针看待,即sp<iservicemanager>======》iservicemanager*吧。sp是google搞出来的为了方便c/c++程序员管理指针的分配和释放的一套方法,类似java的什么weakreference之类的。我个人觉得,要是自己写程序的话,不用这个东西也成。

好了,以后的分析中,sp<xxx>就看成是xxx*就可以了。

2.1 processstate

第一个调用的函数是processstate::self(),然后赋值给了proc变量,程序运行完,proc会自动delete内部的内容,所以就自动释放了先前分配的资源。

processstate位置在framework\base\libs\binder\processstate.cpp

sp<processstate> processstate::self()

{

  if (gprocess != null) return gprocess;---->第一次进来肯定不走这儿

  automutex _l(gprocessmutex);--->锁保护

  if (gprocess == null) gprocess = new processstate;--->创建一个processstate对象

return gprocess;--->看见没,这里返回的是指针,但是函数返回的是sp<xxx>,所以

//把sp<xxx>看成是xxx*是可以的

}

再来看看processstate构造函数

//这个构造函数看来很重要

processstate::processstate()

  : mdriverfd(open_driver())----->android很多代码都是这么写的,稍不留神就没看见这里调用了一个很重要的函数

  , mvmstart(map_failed)//映射内存的起始地址

  , mmanagescontexts(false)

  , mbindercontextcheckfunc(null)

  , mbindercontextuserdata(null)

  , mthreadpoolstarted(false)

  , mthreadpoolseq(1)

{

if (mdriverfd >= 0) {

//bidner_vm_size定义为(1*1024*1024) - (4096 *2) 1m-8k

    mvmstart = mmap(0, binder_vm_size, prot_read, map_private | map_noreserve,

 mdriverfd, 0);//这个需要你自己去man mmap的用法了,不过大概意思就是

//将fd映射为内存,这样内存的memcpy等操作就相当于write/read(fd)了

  }

  ...

}

 
//最讨厌这种在构造list中添加函数的写法了,常常疏忽某个变量的初始化是一个函数调用的结果。

//open_driver,就是打开/dev/binder这个设备,这个是android在内核中搞的一个专门用于完成

//进程间通讯而设置的一个虚拟的设备。btw,说白了就是内核的提供的一个机制,这个和我们用socket加net_link方式和内核通讯是一个道理。

static int open_driver()

{

  int fd = open("/dev/binder", o_rdwr);//打开/dev/binder

  if (fd >= 0) {

   ....

    size_t maxthreads = 15;

    //通过ioctl方式告诉内核,这个fd支持最大线程数是15个。

    result = ioctl(fd, binder_set_max_threads, &maxthreads);  }

return fd;

好了,到这里process::self就分析完了,到底干什么了呢?

l         打开/dev/binder设备,这样的话就相当于和内核binder机制有了交互的通道

l         映射fd到内存,设备的fd传进去后,估计这块内存是和binder设备共享的

 

接下来,就到调用defaultservicemanager()地方了。

2.2 defaultservicemanager

defaultservicemanager位置在framework\base\libs\binder\iservicemanager.cpp中

sp<iservicemanager> defaultservicemanager()

{

  if (gdefaultservicemanager != null) return gdefaultservicemanager;

  //又是一个单例,设计模式中叫 singleton。

  {

    automutex _l(gdefaultservicemanagerlock);

    if (gdefaultservicemanager == null) {

//真正的gdefaultservicemanager是在这里创建的喔

      gdefaultservicemanager = interface_cast<iservicemanager>(

        processstate::self()->getcontextobject(null));

    }

  }

  return gdefaultservicemanager;

}

-----》

gdefaultservicemanager = interface_cast<iservicemanager>(

        processstate::self()->getcontextobject(null));

processstate::self,肯定返回的是刚才创建的gprocess,然后调用它的getcontextobject,注意,传进去的是null,即0

//回到processstate类,

sp<ibinder> processstate::getcontextobject(const sp<ibinder>& caller)

{

if (supportsprocesses()) {//该函数根据打开设备是否成功来判断是否支持process,

//在真机上肯定走这个

    return getstrongproxyforhandle(0);//注意,这里传入0

  }

}

----》进入到getstrongproxyforhandle,函数名字怪怪的,经常严重阻碍大脑运转

//注意这个参数的命名,handle。搞过windows的应该比较熟悉这个名字,这是对

//资源的一种标示,其实说白了就是某个数据结构,保存在数组中,然后handle是它在这个数组中的索引。--->就是这么一个玩意儿

sp<ibinder> processstate::getstrongproxyforhandle(int32_t handle)

{

  sp<ibinder> result;

  automutex _l(mlock);

handle_entry* e = lookuphandlelocked(handle);--》哈哈,果然,从数组中查找对应

索引的资源,lookuphandlelocked这个就不说了,内部会返回一个handle_entry

 下面是 handle_entry 的结构

/*

struct handle_entry {

        ibinder* binder;--->binder

        refbase::weakref_type* refs;-->不知道是什么,不影响.

      };

*/

  if (e != null) {

    ibinder* b = e->binder; -->第一次进来,肯定为空

    if (b == null || !e->refs->attemptincweak(this)) {

      b = new bpbinder(handle); --->看见了吧,创建了一个新的bpbinder

      e->binder = b;

      result = b;

    }....

  }

  return result; 返回刚才创建的bpbinder。

}

//到这里,是不是有点乱了?对,当人脑分析的函数调用太深的时候,就容易忘记。

//我们是从
gdefaultservicemanager = interface_cast<iservicemanager>(

        processstate::self()->getcontextobject(null));

//开始搞的,现在,这个函数调用将变成

gdefaultservicemanager = interface_cast<iservicemanager>(new bpbinder(0));

bpbinder又是个什么玩意儿?android名字起得太眼花缭乱了。

因为还没介绍binder机制的大架构,所以这里介绍bpbinder不合适,但是又讲到bpbinder了,不介绍binder架构似乎又说不清楚....,sigh!

恩,还是继续把层层深入的函数调用栈化繁为简吧,至少大脑还可以工作。先看看bpbinder的构造函数把。

2.3 bpbinder

bpbinder位置在framework\base\libs\binder\bpbinder.cpp中。

bpbinder::bpbinder(int32_t handle)

  : mhandle(handle) //注意,接上述内容,这里调用的时候传入的是0

  , malive(1)

  , mobitssent(0)

  , mobituaries(null)

{

  ipcthreadstate::self()->incweakhandle(handle);//ft,竟然到ipcthreadstate::self()

}

这里一块说说吧,ipcthreadstate::self估计怎么着又是一个singleton吧?

//该文件位置在framework\base\libs\binder\ipcthreadstate.cpp

ipcthreadstate* ipcthreadstate::self()

{

  if (ghavetls) {//第一次进来为false

restart:

    const pthread_key_t k = gtls;

//tls是thread local storage的意思,不懂得自己去google下它的作用吧。这里只需要

//知道这种空间每个线程有一个,而且线程间不共享这些空间,好处是?我就不用去搞什么

//同步了。在这个线程,我就用这个线程的东西,反正别的线程获取不到其他线程tls中的数据。===》这句话有漏洞,钻牛角尖的明白大概意思就可以了。

//从线程本地存储空间中获得保存在其中的ipcthreadstate对象

//这段代码写法很晦涩,看见没,只有pthread_getspecific,那么肯定有地方调用

// pthread_setspecific。

    ipcthreadstate* st = (ipcthreadstate*)pthread_getspecific(k);

    if (st) return st;

    return new ipcthreadstate;//new一个对象,

  }

  

  if (gshutdown) return null;

  

  pthread_mutex_lock(&gtlsmutex);

  if (!ghavetls) {

    if (pthread_key_create(&gtls, threaddestructor) != 0) {

      pthread_mutex_unlock(&gtlsmutex);

      return null;

    }

    ghavetls = true;

  }

  pthread_mutex_unlock(&gtlsmutex);

goto restart; //我ft,其实goto没有我们说得那样卑鄙,汇编代码很多跳转语句的。

//关键是要用好。

}

//这里是构造函数,在构造函数里边pthread_setspecific

ipcthreadstate::ipcthreadstate()

  : mprocess(processstate::self()), mmythreadid(androidgettid())

{

  pthread_setspecific(gtls, this);

  clearcaller();

min.setdatacapacity(256);

//min,mout是两个parcel,干嘛用的啊?把它看成是命令的buffer吧。再深入解释,又会大脑停摆的。

  mout.setdatacapacity(256);

}

出来了,终于出来了....,恩,回到bpbinder那。

bpbinder::bpbinder(int32_t handle)

  : mhandle(handle) //注意,接上述内容,这里调用的时候传入的是0

  , malive(1)

  , mobitssent(0)

  , mobituaries(null)

{

......

ipcthreadstate::self()->incweakhandle(handle);

什么incweakhandle,不讲了..

}

喔,new bpbinder就算完了。到这里,我们创建了些什么呢?

l         processstate有了。

l         ipcthreadstate有了,而且是主线程的。

l         bpbinder有了,内部handle值为0

gdefaultservicemanager = interface_cast<iservicemanager>(new bpbinder(0));

终于回到原点了,大家是不是快疯掉了?

interface_cast,我第一次接触的时候,把它看做类似的static_cast一样的东西,然后死活也搞不明白 bpbinder*指针怎么能强转为iservicemanager*,花了n多时间查看bpbinder是否和iservicemanager继承还是咋的....。

终于,我用ctrl+鼠标(source insight)跟踪进入了interface_cast

iinterface.h位于framework/base/include/binder/iinterface.h

template<typename interface>

inline sp<interface> interface_cast(const sp<ibinder>& obj)

{

  return interface::asinterface(obj);

}

所以,上面等价于:

inline sp<iservicemanager> interface_cast(const sp<ibinder>& obj)

{

  return iservicemanager::asinterface(obj);

}

看来,只能跟到iservicemanager了。

iservicemanager.h---》framework/base/include/binder/iservicemanager.h

看看它是如何定义的:

2.4 iservicemanager

class iservicemanager : public iinterface

{

//servicemanager,字面上理解就是service管理类,管理什么?增加服务,查询服务等

//这里仅列出增加服务addservice函数

public:

  declare_meta_interface(servicemanager);

   virtual status_t  addservice( const string16& name,

                      const sp<ibinder>& service) = 0;

};

declare_meta_interface(servicemanager)??

怎么和mfc这么类似?微软的影响很大啊!知道mfc的,有delcare肯定有implement

果然,这两个宏declare_meta_interface和implement_meta_interface(interface, name)都在

刚才的iinterface.h中定义。我们先看看declare_meta_interface这个宏往iservicemanager加了什么?

下面是declare宏

#define declare_meta_interface(interface)                \

  static const android::string16 descriptor;             \

  static android::sp<i##interface> asinterface(            \

      const android::sp<android::ibinder>& obj);         \

  virtual const android::string16& getinterfacedescriptor() const;  \

  i##interface();                           \

  virtual ~i##interface();  

我们把它兑现到iservicemanager就是:

static const android::string16 descriptor; -->喔,增加一个描述字符串

static android::sp< iservicemanager > asinterface(const android::sp<android::ibinder>&

obj) ---》增加一个asinterface函数

virtual const android::string16& getinterfacedescriptor() const; ---》增加一个get函数

估计其返回值就是descriptor这个字符串

iservicemanager ();                           \

virtual ~iservicemanager();增加构造和虚析购函数...

那implement宏在哪定义的呢?

见iservicemanager.cpp。位于framework/base/libs/binder/iservicemanager.cpp

implement_meta_interface(servicemanager, "android.os.iservicemanager");

下面是这个宏的定义

#define implement_meta_interface(interface, name)            \

  const android::string16 i##interface::descriptor(name);       \

  const android::string16&                      \

      i##interface::getinterfacedescriptor() const {       \

    return i##interface::descriptor;                \

  }                                  \

  android::sp<i##interface> i##interface::asinterface(        \

      const android::sp<android::ibinder>& obj)          \

  {                                  \

    android::sp<i##interface> intr;                 \

    if (obj != null) {                       \

      intr = static_cast<i##interface*>(             \

        obj->querylocalinterface(                \

            i##interface::descriptor).get());        \

      if (intr == null) {                     \

        intr = new bp##interface(obj);             \

      }                              \

    }                                \

    return intr;                          \

  }                                  \

  i##interface::i##interface() { }                  \

i##interface::~i##interface() { }                  \

很麻烦吧?尤其是宏看着头疼。赶紧兑现下吧。

const

android::string16 iservicemanager::descriptor(“android.os.iservicemanager”);

const android::string16& iservicemanager::getinterfacedescriptor() const

 { return iservicemanager::descriptor;//返回上面那个android.os.iservicemanager

  }                                   android::sp<iservicemanager> iservicemanager::asinterface(

      const android::sp<android::ibinder>& obj)

  {

    android::sp<iservicemanager> intr;

    if (obj != null) {                       

      intr = static_cast<iservicemanager *>(             

        obj->querylocalinterface(iservicemanager::descriptor).get());       

      if (intr == null) {                     

        intr = new bpservicemanager(obj);             

      }                             

    }                                

    return intr;                          

  }                                 

  iservicemanager::iservicemanager () { }                  

  iservicemanager::~ iservicemanager() { }

 哇塞,asinterface是这么搞的啊,赶紧分析下吧,还是不知道interface_cast怎么把bpbinder*转成了iservicemanager

我们刚才解析过的interface_cast<iservicemanager>(new bpbinder(0)),

原来就是调用asinterface(new bpbinder(0))

android::sp<iservicemanager> iservicemanager::asinterface(

      const android::sp<android::ibinder>& obj)

  {

    android::sp<iservicemanager> intr;

    if (obj != null) {                       

      ....                   

        intr = new bpservicemanager(obj);

//神呐,终于看到和iservicemanager相关的东西了,看来

//实际返回的是bpservicemanager(new bpbinder(0));             

      }                             

    }                               

    return intr;                          

}       
                

bpservicemanager是个什么玩意儿?p是什么个意思?

2.5 bpservicemanager

终于可以讲解点架构上的东西了。p是proxy即代理的意思,bp就是binderproxy,bpservicemanager,就是sm的binder代理。既然是代理,那肯定希望对用户是透明的,那就是说头文件里边不会有这个bp的定义。是吗?

果然,bpservicemanager就在刚才的iservicemanager.cpp中定义。

class bpservicemanager : public bpinterface<iservicemanager>

//这种继承方式,表示同时继承bpinterface和iservicemanager,这样iservicemanger的

addservice必然在这个类中实现

{

public:

//注意构造函数参数的命名 impl,难道这里使用了bridge模式?真正完成操作的是impl对象?

//这里传入的impl就是new bpbinder(0)

  bpservicemanager(const sp<ibinder>& impl)

    : bpinterface<iservicemanager>(impl)

  {

  }

   virtual status_t addservice(const string16& name, const sp<ibinder>& service)

  {

    待会再说..

}

基类bpinterface的构造函数(经过兑现后)

//这里的参数又叫remote,唉,真是害人不浅啊。

inline bpinterface< iservicemanager >::bpinterface(const sp<ibinder>& remote)

  : bprefbase(remote)

{

}

bprefbase::bprefbase(const sp<ibinder>& o)

  : mremote(o.get()), mrefs(null), mstate(0)

//o.get(),这个是sp类的获取实际数据指针的一个方法,你只要知道

//它返回的是sp<xxxx>中xxx* 指针就行

{

//mremote就是刚才的bpbinder(0)

  ...

}

好了,到这里,我们知道了:

sp<iservicemanager> sm = defaultservicemanager(); 返回的实际是bpservicemanager,它的remote对象是bpbinder,传入的那个handle参数是0。

现在重新回到mediaservice。

int main(int argc, char** argv)

{

  sp<processstate> proc(processstate::self());

sp<iservicemanager> sm = defaultservicemanager();

//上面的讲解已经完了

mediaplayerservice::instantiate();//实例化mediaplayerservice

//看来这里有名堂!

 

  processstate::self()->startthreadpool();

  ipcthreadstate::self()->jointhreadpool();

}

到这里,我们把binder设备打开了,得到一个bpservicemanager对象,这表明我们可以和sm打交道了,但是好像没干什么有意义的事情吧?

2.6 mediaplayerservice

那下面我们看看后续又干了什么?以mediaplayerservice为例。

它位于framework\base\media\libmediaplayerservice\libmediaplayerservice.cpp

void mediaplayerservice::instantiate() {

defaultservicemanager()->addservice(

//传进去服务的名字,传进去new出来的对象

      string16("media.player"), new mediaplayerservice());

}

mediaplayerservice::mediaplayerservice()

{

  logv("mediaplayerservice created");//太简单了

  mnextconnid = 1;

}

defaultservicemanager返回的是刚才创建的bpservicemanager

调用它的addservice函数。

mediaplayerservice从bnmediaplayerservice派生

class mediaplayerservice : public bnmediaplayerservice

ft,mediaplayerservice从bnmediaplayerservice派生,bnxxx,bpxxx,快晕了。

bn 是binder native的含义,是和bp相对的,bp的p是proxy代理的意思,那么另一端一定有一个和代理打交道的东西,这个就是bn。

讲到这里会有点乱喔。先分析下,到目前为止都构造出来了什么。

l         bpservicemanager

l         bnmediaplayerservice

这两个东西不是相对的两端,从bnxxx就可以判断,bpservicemanager对应的应该是bnservicemanager,bnmediaplayerservice对应的应该是bpmediaplayerservice。

我们现在在哪里?对了,我们现在是创建了bnmediaplayerservice,想把它加入到系统的中去。

喔,明白了。我创建一个新的service—bnmediaplayerservice,想把它告诉servicemanager。

那我怎么和servicemanager通讯呢?恩,利用bpservicemanager。所以嘛,我调用了bpservicemanager的addservice函数!

为什么要搞个servicemanager来呢?这个和android机制有关系。所有service都需要加入到servicemanager来管理。同时也方便了client来查询系统存在哪些service,没看见我们传入了字符串吗?这样就可以通过human readable的字符串来查找service了。

---》感觉没说清楚...饶恕我吧。

2.7 addservice

addservice是调用的bpservicemanager的函数。前面略去没讲,现在我们看看。

virtual status_t addservice(const string16& name, const sp<ibinder>& service)

  {

    parcel data, reply;

//data是发送到bnservicemanager的命令包

//看见没?先把interface名字写进去,也就是什么android.os.iservicemanager

    data.writeinterfacetoken(iservicemanager::getinterfacedescriptor());

//再把新service的名字写进去 叫media.player

    data.writestring16(name);

//把新服务service—>就是mediaplayerservice写到命令中

    data.writestrongbinder(service);

//调用remote的transact函数

    status_t err = remote()->transact(add_service_transaction, data, &reply);

    return err == no_error ? reply.readint32() : err;

}

我的天,remote()返回的是什么?

remote(){ return mremote; }-->啊?找不到对应的实际对象了???

还记得我们刚才初始化时候说的:

“这里的参数又叫remote,唉,真是害人不浅啊“

原来,这里的mremote就是最初创建的bpbinder..

好吧,到那里去看看:

bpbinder的位置在framework\base\libs\binder\bpbinder.cpp

status_t bpbinder::transact(

  uint32_t code, const parcel& data, parcel* reply, uint32_t flags)

{

//又绕回去了,调用ipcthreadstate的transact。

//注意啊,这里的mhandle为0,code是add_service_transaction,data是命令包

//reply是回复包,flags=0

    status_t status = ipcthreadstate::self()->transact(

      mhandle, code, data, reply, flags);

    if (status == dead_object) malive = 0;

    return status;

  }

...

}

再看看ipcthreadstate的transact函数把

status_t ipcthreadstate::transact(int32_t handle,

                 uint32_t code, const parcel& data,

                 parcel* reply, uint32_t flags)

{

  status_t err = data.errorcheck();

 

  flags |= tf_accept_fds;

  

  if (err == no_error) {

    //调用writetransactiondata 发送数据

err = writetransactiondata(bc_transaction, flags, handle, code, data, null);

  }

  

   if ((flags & tf_one_way) == 0) {

    if (reply) {

      err = waitforresponse(reply);

    } else {

      parcel fakereply;

      err = waitforresponse(&fakereply);

    }

   ....等回复

    err = waitforresponse(null, null);

  ....  

  return err;

}

再进一步,瞧瞧这个...

status_t ipcthreadstate::writetransactiondata(int32_t cmd, uint32_t binderflags,

  int32_t handle, uint32_t code, const parcel& data, status_t* statusbuffer)

{

  binder_transaction_data tr;

 

  tr.target.handle = handle;

  tr.code = code;

  tr.flags = binderflags;

  

  const status_t err = data.errorcheck();

  if (err == no_error) {

    tr.data_size = data.ipcdatasize();

    tr.data.ptr.buffer = data.ipcdata();

    tr.offsets_size = data.ipcobjectscount()*sizeof(size_t);

    tr.data.ptr.offsets = data.ipcobjects();

  }

....

上面把命令数据封装成binder_transaction_data,然后

写到mout中,mout是命令的缓冲区,也是一个parcel

  mout.writeint32(cmd);

  mout.write(&tr, sizeof(tr));

//仅仅写到了parcel中,parcel好像没和/dev/binder设备有什么关联啊?

恩,那只能在另外一个地方写到binder设备中去了。难道是在?

  return no_error;

}

//说对了,就是在waitforresponse中

status_t ipcthreadstate::waitforresponse(parcel *reply, status_t *acquireresult)

{

  int32_t cmd;

  int32_t err;

 

while (1) {

//talkwithdriver,哈哈,应该是这里了

    if ((err=talkwithdriver()) < no_error) break;

    err = min.errorcheck();

    if (err < no_error) break;

    if (min.dataavail() == 0) continue;

    //看见没?这里开始操作min了,看来talkwithdriver中

//把mout发出去,然后从driver中读到数据放到min中了。

    cmd = min.readint32();

 

    switch (cmd) {

    case br_transaction_complete:

      if (!reply && !acquireresult) goto finish;

      break;

  .....

  return err;

}

status_t ipcthreadstate::talkwithdriver(bool doreceive)

{

binder_write_read bwr;

  //中间东西太复杂了,不就是把mout数据和min接收数据的处理后赋值给bwr吗?

  status_t err;

  do {

//用ioctl来读写

    if (ioctl(mprocess->mdriverfd, binder_write_read, &bwr) >= 0)

      err = no_error;

    else

      err = -errno;

 } while (err == -eintr);

//到这里,回复数据就在bwr中了,bmr接收回复数据的buffer就是min提供的

    if (bwr.read_consumed > 0) {

      min.setdatasize(bwr.read_consumed);

      min.setdataposition(0);

    }

return no_error;

}

好了,到这里,我们发送addservice的流程就彻底走完了。

bpservicemanager发送了一个addservice命令到bnservicemanager,然后收到回复。

先继续我们的main函数。

int main(int argc, char** argv)

{

  sp<processstate> proc(processstate::self());

  sp<iservicemanager> sm = defaultservicemanager();  

mediaplayerservice::instantiate();

---》该函数内部调用addservice,把mediaplayerservice信息 add到servicemanager中

  processstate::self()->startthreadpool();

  ipcthreadstate::self()->jointhreadpool();

}

这里有个容易搞晕的地方:

mediaplayerservice是一个bnmediaplayerservice,那么它是不是应该等着

bpmediaplayerservice来和他交互呢?但是我们没看见mediaplayerservice有打开binder设备的操作啊!

这个嘛,到底是继续addservice操作的另一端bnservicemanager还是先说

bnmediaplayerservice呢?

还是先说bnservicemanager吧。顺便把系统的binder架构说说。

2.8 bnservicemanager

上面说了,defaultservicemanager返回的是一个bpservicemanager,通过它可以把命令请求发送到binder设备,而且handle的值为0。那么,系统的另外一端肯定有个接收命令的,那又是谁呢?

很可惜啊,bnservicemanager不存在,但确实有一个程序完成了bnservicemanager的工作,那就是service.exe(如果在windows上一定有exe后缀,叫service的名字太多了,这里加exe就表明它是一个程序)

           位置在framework/base/cmds/servicemanger.c中。

int main(int argc, char **argv)

{

  struct binder_state *bs;

  void *svcmgr = binder_service_manager;

  bs = binder_open(128*1024);//应该是打开binder设备吧?

  binder_become_context_manager(bs) //成为manager

  svcmgr_handle = svcmgr;

  binder_loop(bs, svcmgr_handler);//处理bpservicemanager发过来的命令

}

看看binder_open是不是和我们猜得一样?

struct binder_state *binder_open(unsigned mapsize)

{

  struct binder_state *bs;

  bs = malloc(sizeof(*bs));

  ....

  bs->fd = open("/dev/binder", o_rdwr);//果然如此

 ....

  bs->mapsize = mapsize;

  bs->mapped = mmap(null, mapsize, prot_read, map_private, bs->fd, 0);

 }

再看看binder_become_context_manager

int binder_become_context_manager(struct binder_state *bs)

{

  return ioctl(bs->fd, binder_set_context_mgr, 0);//把自己设为manager

}

binder_loop 肯定是从binder设备中读请求,写回复的这么一个循环吧?

void binder_loop(struct binder_state *bs, binder_handler func)

{

  int res;

  struct binder_write_read bwr;

  readbuf[0] = bc_enter_looper;

  binder_write(bs, readbuf, sizeof(unsigned));

  for (;;) {//果然是循环

    bwr.read_size = sizeof(readbuf);

    bwr.read_consumed = 0;

    bwr.read_buffer = (unsigned) readbuf;

 

    res = ioctl(bs->fd, binder_write_read, &bwr);

   //哈哈,收到请求了,解析命令

    res = binder_parse(bs, 0, readbuf, bwr.read_consumed, func);

 }

 
这个...后面还要说吗??

恩,最后有一个类似handlemessage的地方处理各种各样的命令。这个就是

svcmgr_handler,就在servicemanager.c中

int svcmgr_handler(struct binder_state *bs,

          struct binder_txn *txn,

          struct binder_io *msg,

          struct binder_io *reply)

{

  struct svcinfo *si;

  uint16_t *s;

  unsigned len;

  void *ptr;

 

  s = bio_get_string16(msg, &len);

  switch(txn->code) {

  case svc_mgr_add_service:

    s = bio_get_string16(msg, &len);

    ptr = bio_get_ref(msg);

    if (do_add_service(bs, s, len, ptr, txn->sender_euid))

      return -1;

    break;

...

其中,do_add_service真正添加bnmediaservice信息

int do_add_service(struct binder_state *bs,

          uint16_t *s, unsigned len,

          void *ptr, unsigned uid)

{

  struct svcinfo *si;

  si = find_svc(s, len);s是一个list

   si = malloc(sizeof(*si) + (len + 1) * sizeof(uint16_t));

    si->ptr = ptr;

    si->len = len;

    memcpy(si->name, s, (len + 1) * sizeof(uint16_t));

    si->name[len] = '\0';

    si->death.func = svcinfo_death;

    si->death.ptr = si;

    si->next = svclist;

    svclist = si; //看见没,这个svclist是一个列表,保存了当前注册到servicemanager

中的信息

  }

  binder_acquire(bs, ptr);//这个吗。当这个service退出后,我希望系统通知我一下,好释放上面malloc出来的资源。大概就是干这个事情的。

  binder_link_to_death(bs, ptr, &si->death);

  return 0;

}

         喔,对于addservice来说,看来servicemanager把信息加入到自己维护的一个服务列表中了。

       2.9 servicemanager存在的意义

        为何需要一个这样的东西呢?

        原来,android系统中service信息都是先add到servicemanager中,由servicemanager来集中管理,这样就可以查询当前系统有哪些服务。而且,android系统中某个服务例如mediaplayerservice的客户端想要和mediaplayerservice通讯的话,必须先向servicemanager查询mediaplayerservice的信息,然后通过servicemanager返回的东西再来和mediaplayerservice交互。

         毕竟,要是mediaplayerservice身体不好,老是挂掉的话,客户的代码就麻烦了,就不知道后续新生的mediaplayerservice的信息了,所以只能这样:

l         mediaplayerservice向sm注册

l         mediaplayerclient查询当前注册在sm中的mediaplayerservice的信息

l         根据这个信息,mediaplayerclient和mediaplayerservice交互

另外,servicemanager的handle标示是0,所以只要往handle是0的服务发送消息了,最终都会被传递到servicemanager中去。

三 mediaservice的运行

上一节的知识,我们知道了:

l         defaultservicemanager得到了bpservicemanager,然后mediaplayerservice 实例化后,调用bpservicemanager的addservice函数

l         这个过程中,是service_manager收到addservice的请求,然后把对应信息放到自己保存的一个服务list中

到这儿,我们可看到,service_manager有一个binder_looper函数,专门等着从binder中接收请求。虽然service_manager没有从bnservicemanager中派生,但是它肯定完成了bnservicemanager的功能。

同样,我们创建了mediaplayerservice即bnmediaplayerservice,那它也应该:

l         打开binder设备

l         也搞一个looper循环,然后坐等请求

service,service,这个和网络编程中的监听socket的工作很像嘛!

好吧,既然mediaplayerservice的构造函数没有看到显示的打开binder设备,那么我们看看它的父类即bnxxx又到底干了些什么呢?

          3.1 mediaplayerservice打开binder

class mediaplayerservice : public bnmediaplayerservice

// mediaplayerservice从bnmediaplayerservice派生

//而bnmediaplayerservice从bninterface和imediaplayerservice同时派生

class bnmediaplayerservice: public bninterface<imediaplayerservice>

{

public:

  virtual status_t  ontransact( uint32_t code,

                  const parcel& data,

                  parcel* reply,

                  uint32_t flags = 0);

};

看起来,bninterface似乎更加和打开设备相关啊。

template<typename interface>

class bninterface : public interface, public bbinder

{

public:

  virtual sp<iinterface>   querylocalinterface(const string16& _descriptor);

  virtual const string16&   getinterfacedescriptor() const;

 

protected:

  virtual ibinder*      onasbinder();

};

兑现后变成

class bninterface : public imediaplayerservice, public bbinder

bbinder?bpbinder?是不是和bnxxx以及bpxxx对应的呢?如果是,为什么又叫bbinder呢?

bbinder::bbinder()

  : mextras(null)

{

//没有打开设备的地方啊?

}

完了?难道我们走错方向了吗?难道不是每个service都有对应的binder设备fd吗?

.......

回想下,我们的main_mediaservice程序,有哪里打开过binder吗?

int main(int argc, char** argv)

{

//对啊,我在processstate中不是打开过binder了吗?

 

  sp<processstate> proc(processstate::self());

  sp<iservicemanager> sm = defaultservicemanager();

mediaplayerservice::instantiate();  

 ......

3.2 looper 

啊?原来打开binder设备的地方是和进程相关的啊?一个进程打开一个就可以了。那么,我在哪里进行类似的消息循环looper操作呢?

...

//难道是下面两个?

processstate::self()->startthreadpool();

ipcthreadstate::self()->jointhreadpool();

看看startthreadpool吧

void processstate::startthreadpool()

{

 ...

  spawnpooledthread(true);

}

void processstate::spawnpooledthread(bool ismain)

{

  sp<thread> t = new poolthread(ismain);ismain是true

//创建线程池,然后run起来,和java的thread何其像也。

  t->run(buf);

 }

poolthread从thread类中派生,那么此时会产生一个线程吗?看看poolthread和thread的构造吧

poolthread::poolthread(bool ismain)

    : mismain(ismain)

  {

  }

thread::thread(bool cancalljava)//cancalljava默认值是true

  :  mcancalljava(cancalljava),

    mthread(thread_id_t(-1)),

    mlock("thread::mlock"),

    mstatus(no_error),

    mexitpending(false), mrunning(false)

{

}

 
喔,这个时候还没有创建线程呢。然后调用poolthread::run,实际调用了基类的run。

status_t thread::run(const char* name, int32_t priority, size_t stack)

{

 bool res;

  if (mcancalljava) {

    res = createthreadetc(_threadloop,//线程函数是_threadloop

        this, name, priority, stack, &mthread);

  }

//终于,在run函数中,创建线程了。从此

主线程执行

ipcthreadstate::self()->jointhreadpool();

新开的线程执行_threadloop

我们先看看_threadloop

int thread::_threadloop(void* user)

{

  thread* const self = static_cast<thread*>(user);

  sp<thread> strong(self->mholdself);

  wp<thread> weak(strong);

  self->mholdself.clear();

 

  do {

 ...

    if (result && !self->mexitpending) {

        result = self->threadloop();哇塞,调用自己的threadloop

      }

    }

我们是poolthread对象,所以调用poolthread的threadloop函数

virtual bool poolthread ::threadloop()

  {

//mismain为true。

//而且注意,这是一个新的线程,所以必然会创建一个

新的ipcthreadstate对象(记得线程本地存储吗?tls),然后   

ipcthreadstate::self()->jointhreadpool(mismain);

    return false;

  }

主线程和工作线程都调用了jointhreadpool,看看这个干嘛了!

void ipcthreadstate::jointhreadpool(bool ismain)

{

   mout.writeint32(ismain ? bc_enter_looper : bc_register_looper);

   status_t result;

  do {

    int32_t cmd;

     result = talkwithdriver();

     result = executecommand(cmd);

    }

    } while (result != -econnrefused && result != -ebadf);

 

  mout.writeint32(bc_exit_looper);

  talkwithdriver(false);

}

看到没?有loop了,但是好像是有两个线程都执行了这个啊!这里有两个消息循环?

下面看看executecommand

status_t ipcthreadstate::executecommand(int32_t cmd)

{

bbinder* obj;

  refbase::weakref_type* refs;

  status_t result = no_error;

case br_transaction:

    {

      binder_transaction_data tr;

      result = min.read(&tr, sizeof(tr));

//来了一个命令,解析成br_transaction,然后读取后续的信息

    parcel reply;

       if (tr.target.ptr) {

//这里用的是bbinder。

        sp<bbinder> b((bbinder*)tr.cookie);

        const status_t error = b->transact(tr.code, buffer, &reply, 0);

}

让我们看看bbinder的transact函数干嘛了

status_t bbinder::transact(

  uint32_t code, const parcel& data, parcel* reply, uint32_t flags)

{

就是调用自己的ontransact函数嘛   

err = ontransact(code, data, reply, flags);

  return err;

}

bnmediaplayerservice从bbinder派生,所以会调用到它的ontransact函数

终于水落石出了,让我们看看bnmediaplayerservcice的ontransact函数。

status_t bnmediaplayerservice::ontransact(

  uint32_t code, const parcel& data, parcel* reply, uint32_t flags)

{

// bnmediaplayerservice从bbinder和imediaplayerservice派生,所有imediaplayerservice

//看到下面的switch没?所有imediaplayerservice提供的函数都通过命令类型来区分

//

  switch(code) {

    case create_url: {

      check_interface(imediaplayerservice, data, reply);

      create是一个虚函数,由mediaplayerservice来实现!!

sp<imediaplayer> player = create(

          pid, client, url, numheaders > 0 ? &headers : null);

 

      reply->writestrongbinder(player->asbinder());

      return no_error;

    } break;

其实,到这里,我们就明白了。bnxxx的ontransact函数收取命令,然后派发到派生类的函数,由他们完成实际的工作。

说明:

这里有点特殊,startthreadpool和jointhreadpool完后确实有两个线程,主线程和工作线程,而且都在做消息循环。为什么要这么做呢?他们参数ismain都是true。不知道google搞什么。难道是怕一个线程工作量太多,所以搞两个线程来工作?这种解释应该也是合理的。

网上有人测试过把最后一句屏蔽掉,也能正常工作。但是难道主线程提出了,程序还能不退出吗?这个...管它的,反正知道有两个线程在那处理就行了。

四 mediaplayerclient

这节讲讲mediaplayerclient怎么和mediaplayerservice交互。

使用mediaplayerservice的时候,先要创建它的bpmediaplayerservice。我们看看一个例子

imediadeathnotifier::getmediaplayerservice()

{

    sp<iservicemanager> sm = defaultservicemanager();

    sp<ibinder> binder;

    do {

//向sm查询对应服务的信息,返回binder      

binder = sm->getservice(string16("media.player"));

      if (binder != 0) {

        break;

       }

       usleep(500000); // 0.5 s

    } while(true);

 

//通过interface_cast,将这个binder转化成bpmediaplayerservice

//注意,这个binder只是用来和binder设备通讯用的,实际

//上和imediaplayerservice的功能一点关系都没有。

//还记得我说的bridge模式吗?bpmediaplayerservice用这个binder和bnmediaplayerservice

//通讯。

  smediaplayerservice = interface_cast<imediaplayerservice>(binder);

  }

  return smediaplayerservice;

}

为什么反复强调这个bridge?其实也不一定是bridge模式,但是我真正想说明的是:

binder其实就是一个和binder设备打交道的接口,而上层imediaplayerservice只不过把它当做一个类似socket使用罢了。我以前经常把binder和上层类imediaplayerservice的功能混到一起去。

当然,你们不一定会犯这个错误。但是有一点请注意:

4.1 native层

刚才那个getmediaplayerservice代码是c++层的,但是整个使用的例子确实java->jni层的调用。如果我要写一个纯c++的程序该怎么办?

int main()

{

 getmediaplayerservice();直接调用这个函数能获得bpmediaplayerservice吗?

不能,为什么?因为我还没打开binder驱动呐!但是你在java应用程序里边却有google已经替你

封装好了。

所以,纯native层的代码,必须也得像下面这样处理:

sp<processstate> proc(processstate::self());//这个其实不是必须的,因为

//好多地方都需要这个,所以自动也会创建.

getmediaplayerservice();

还得起消息循环呐,否则如果bn那边有消息通知你,你怎么接受得到呢?

processstate::self()->startthreadpool();

//至于主线程是否也需要调用消息循环,就看个人而定了。不过一般是等着接收其他来源的消息,例如socket发来的命令,然后控制mediaplayerservice就可以了。

}

五 实现自己的service

好了,我们学习了这么多binder的东西,那么想要实现一个自己的service该咋办呢?

如果是纯c++程序的话,肯定得类似main_mediaservice那样干了。

int main()

{

 sp<processstate> proc(processstate::self());

sp<iservicemanager> sm = defaultservicemanager();

sm->addservice(“service.name”,new xxxservice());

processstate::self()->startthreadpool();

ipcthreadstate::self()->jointhreadpool();

}

看看xxxservice怎么定义呢?

我们需要一个bn,需要一个bp,而且bp不用暴露出来。那么就在bnxxx.cpp中一起实现好了。

另外,xxxservice提供自己的功能,例如getxxx调用

5.1 定义xxx接口

xxx接口是和xxx服务相关的,例如提供getxxx,setxxx函数,和应用逻辑相关。

需要从iinterface派生

class ixxx: public iinterface

{

public:

declare_meta_interface(xxx);申明宏

virtual getxxx() = 0;

virtual setxxx() = 0;

}这是一个接口。

5.2 定义bnxxx和bpxxx

为了把ixxx加入到binder结构,需要定义bnxxx和对客户端透明的bpxxx。

其中bnxxx是需要有头文件的。bnxxx只不过是把ixxx接口加入到binder架构中来,而不参与实际的getxxx和setxxx应用层逻辑。

这个bnxxx定义可以和上面的ixxx定义放在一块。分开也行。

class bnxxx: public bninterface<ixxx>

{

public:

  virtual status_t  ontransact( uint32_t code,

                  const parcel& data,

                  parcel* reply,

                  uint32_t flags = 0);

//由于ixxx是个纯虚类,而bnxxx只实现了ontransact函数,所以bnxxx依然是

一个纯虚类

};

有了declare,那我们在某个cpp中implemnt它吧。那就在ixxx.cpp中吧。

implement_meta_interface(xxx, "android.xxx.ixxx");//implement宏

 

status_t bnxxx::ontransact(

  uint32_t code, const parcel& data, parcel* reply, uint32_t flags)

{

  switch(code) {

    case get_xxx: {

      check_interface(ixxx, data, reply);

      读请求参数

      调用虚函数getxxx()

      return no_error;

    } break; //set_xxx类似

bpxxx也在这里实现吧。

class bpxxx: public bpinterface<ixxx>

{

public:

  bpxxx (const sp<ibinder>& impl)

    : bpinterface< ixxx >(impl)

  {

}

vitural getxxx()

{

 parcel data, reply;

 data.writeinterfacetoken(ixxx::getinterfacedescriptor());

  data.writeint32(pid);

  remote()->transact(get_xxx, data, &reply);

  return;

}

//setxxx类似

至此,binder就算分析完了,大家看完后,应该能做到以下几点:

l         如果需要写自己的service的话,总得知道系统是怎么个调用你的函数,恩。对。有2个线程在那不停得从binder设备中收取命令,然后调用你的函数呢。恩,这是个多线程问题。

l         如果需要跟踪bug的话,得知道从client端调用的函数,是怎么最终传到到远端的service。这样,对于一些函数调用,client端跟踪完了,我就知道转到service去看对应函数调用了。反正是同步方式。也就是client一个函数调用会一直等待到service返回为止。

 以上就是对 android binder机制的详细介绍,后续继续补充相关资料,谢谢大家对本站的支持!