欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

android网络框架对比(自带root权限的框架)

程序员文章站 2023-11-16 23:25:34
这篇文章主要分下面几点来展开讲解:1) android 最新camera 整体框架;2) android camera2 和hal3 的基本了解;3) camera2 介绍;( 本文所写的内容基于an...

这篇文章主要分下面几点来展开讲解:

1) android 最新camera 整体框架;

2) android camera2 和hal3 的基本了解;

3) camera2 介绍;

本文所写的内容基于android 9.0

一、android最新camera 整体框架

android camera整体框架主要包括三个进程: app进程camera server进程hal进程(provider进程) 。进程之间的通信都是通过binder实现,其中app和camera server通信使用 aidl (android interface definition language) ,camera server和hal(provider进程)通信使用 hidl (hal interface definition language) 。

android上面的框架分级,基本都是类似的,应用层-> framework层->hal层,我们ps看下设备上实际的进程情况,如下图所示,可以看到有cameraserver和provider进程。cameraservice是负责app和framework层的通信,而provider进程则是负责framework和hal层之间的通信。

(附:

android 8.0重新设计了 android 操作系统框架(在一个名为 “treble” 的项目中),以便让制造商能够以更低的成本更轻松、更快速地将设备更新到新版 android 系统。

android o之后使用treble的架构,为了解决android系统的碎片化问题和提高系统更新的效率,减少了framework 和hal 的耦合性,进而引出了hidl 的概念。

hidl 全称为hal interface definition language(发音为“hide-l”)是用于指定 hal 和其用户之间的接口的一种接口描述语言 (idl)。

hidl 的目标是,框架可以在无需重新构建 hal 的情况下进行替换。hal 将由供应商或 soc 制造商构建,放置在设备的 /vendor 分区中,这样一来,框架就可以在其自己的分区中通过 ota 进行替换,而无需重新编译 hal,这也是project treble框架设计而诞生的。)

如下图所示,展示了android camera的最新框架,我们先大概看下图片流程,对整体框架有个基本了解。

android网络框架对比(自带root权限的框架)
android网络框架对比(自带root权限的框架)

二、android camera2 和hal3 的基本了解

1) camera2 接口什么时候开始引入的?

android 5.0 开始,google 引入了一套全新的相机框架 camera2(android.hardware.camera2)并且废弃了旧的相机框架 camera1(android.hardware.camera) 。

不了解的同学,可能会有疑问,为啥要废弃camera1接口?

基本原因是,camera1接口过于简单,没法满足更加复杂的相机应用场景。为了给应用层提供更多的相机控制权限,从而构建出更高质量的相机应用程序,google才推出了camera2 接口。

下面可以看下和camera1比较,camera2有哪些高级特性。

2)一些只有 camera2 才支持的高级特性

1. 在开启相机之前检查相机信息 出于某些原因,你可能需要先检查相机信息再决定是否开启相机,例如检查闪光灯是否可用。在 caemra1 上,你无法在开机相机之前检查详细的相机信息,因为这些信息都是通过一个已经开启的相机实例提供的。在 camera2 上,我们有了和相机实例完全剥离的 cameracharacteristics 实例专门提供相机信息,所以我们可以在不开启相机的前提下检查几乎所有的相机信息。 2. 在不开启预览的情况下拍照 在 camera1 上,开启预览是一个很重要的环节,因为只有在开启预览之后才能进行拍照,因此即使显示预览画面与实际业务需求相违背的时候,你也不得不开启预览。而 camera2 则不强制要求你必须先开启预览才能拍照。 3. 一次拍摄多张不同格式和尺寸的图片 在 camera1 上,一次只能拍摄一张图片,更不同谈多张不同格式和尺寸的图片了。而 camera2 则支持一次拍摄多张图片,甚至是多张格式和尺寸都不同的图片。例如你可以同时拍摄一张 1440×1080 的 jpeg 图片和一张全尺寸的 raw 图片。 4. 控制曝光时间 在暗环境下拍照的时候,如果能够适当延长曝光时间,就可以让图像画面的亮度得到提高。在 camera2 上,你可以在规定的曝光时长范围内配置拍照的曝光时间,从而实现拍摄长曝光图片,你甚至可以延长每一帧预览画面的曝光时间让整个预览画面在暗环境下也能保证一定的亮度。而在 camera1 上你只能 yy 一下。 5. 连拍 连拍 30 张图片这样的功能在 camera2 出现之前恐怕只有系统相机才能做到了(通过 opengl 截取预览画面的做法除外),也可能是出于这个原因,市面上的第三方相机无一例外都不支持连拍。有了 camera2,你完全可以让你的相机应用程序支持连拍功能,甚至是连续拍 30 张使用不同曝光时间的图片。

6. 灵活的 3a 控制 3a(af、ae、awb)的控制在 camera2 上得到了最大化的放权,应用层可以根据业务需求灵活配置 3a 流程并且实时获取 3a 状态,而 camera1 在 3a 的控制和监控方面提供的接口则要少了很多。例如你可以在拍照前进行 ae 操作,并且监听本这次拍照是否点亮闪光灯。#####3)何为hal3?为了配合camera2 的使用,android hal层camera框架也做了相对应的改动,也就是hal3。camera1接口对应的是调用的hal1框架。

3)一些概念

关于camera2 和hal3,有些基本概念我们得了解下~

我们先来看下camera2 api涉及到哪些类,下面会对各个类的使用进行讲解~~

android网络框架对比(自带root权限的框架)

1) pipeline

camera2 的 api 模型被设计成一个 pipeline(管道),它按顺序处理每一帧的请求并返回请求结果给客户端。

下面这张来自官方的图展示了 pipeline 的工作流程,我们会通过一个简单的例子详细解释这张图。

android网络框架对比(自带root权限的框架)

为了解释上面的示意图,假设我们想要同时拍摄两张不同尺寸的图片,并且在拍摄的过程中闪光灯必须亮起来。整个拍摄流程如下:

1.创建一个用于从 pipeline 获取图片的 capturerequest。2.修改 capturerequest 的闪光灯配置,让闪光灯在拍照过程中亮起来。3.创建两个不同尺寸的 surface 用于接收图片数据,并且将它们添加到 capturerequest 中。4.发送配置好的 capturerequest 到 pipeline 中等待它返回拍照结果。

一个新的 capturerequest 会被放入一个被称作 pending request queue 的队列中等待被执行,当 in-flight capture queue 队列空闲的时候就会从 pending request queue 获取若干个待处理的 capturerequest,并且根据每一个 capturerequest 的配置进行 capture 操作。最后我们从不同尺寸的 surface 中获取图片数据并且还会得到一个包含了很多与本次拍照相关的信息的 captureresult,流程结束。

2 )supported hardware level

相机功能的强大与否和硬件息息相关,不同厂商对 camera2 的支持程度也不同,所以 camera2 定义了一个叫做 supported hardware level 的重要概念,其作用是将不同设备上的 camera2 根据功能的支持情况划分成多个不同级别以便开发者能够大概了解当前设备上 camera2 的支持情况。

截止到 android p 为止,从低到高一共有 legacy、limited、full 和 level_3 四个级别:

1. legacy :向后兼容的级别,处于该级别的设备意味着它只支持 camera1 的功能,不具备任何 camera2 高级特性。2. limited :除了支持 camera1 的基础功能之外,还支持部分 camera2 高级特性的级别。3. full :支持所有 camera2 的高级特性。4. level_3 :新增更多 camera2 高级特性,例如 yuv 数据的后处理等。

3 )capture

相机的所有操作和参数配置最终都是服务于图像捕获,例如对焦是为了让某一个区域的图像更加清晰,调节曝光补偿是为了调节图像的亮度。因此,在 camera2 里面所有的相机操作和参数配置都被抽象成 capture(捕获),所以不要简单的把 capture 直接理解成是拍照,因为 capture 操作可能仅仅是为了让预览画面更清晰而进行对焦而已。如果你熟悉 camera1,那你可能会问 setflashmode() 在哪? setfocusmode() 在哪? takepicture() 在哪?

告诉你,它们都是通过 capture 来实现的。

capture 从执行方式上又被细分为 单次模式、多次模式 和 重复模式三种,我们来一一解释下:

单次模式(one-shot) :指的是只执行一次的 capture 操作,例如设置闪光灯模式、对焦模式和拍一张照片等。多个一次性模式的 capture 会进入队列按顺序执行。 • 多次模式(burst) :指的是连续多次执行指定的 capture 操作,该模式和多次执行单次模式的最大区别是连续多次 capture 期间不允许插入其他任何 capture 操作,例如连续拍摄 100 张照片,在拍摄这 100 张照片期间任何新的 capture 请求都会排队等待,直到拍完 100 张照片。多组多次模式的 capture 会进入队列按顺序执行。 • 重复模式(repeating) :指的是不断重复执行指定的 capture 操作,当有其他模式的 capture 提交时会暂停该模式,转而执行其他被模式的 capture,当其他模式的 capture 执行完毕后又会自动恢复继续执行该模式的 capture,例如显示预览画面就是不断 capture 获取每一帧画面。该模式的 capture 是全局唯一的,也就是新提交的重复模式 capture 会覆盖旧的重复模式 capture。

我们举个例子来进一步说明上面三种模式,假设我们的相机应用程序开启了预览,所以会提交一个重复模式的 capture 用于不断获取预览画面,然后我们提交一个单次模式的 capture,接着我们又提交了一组连续三次的多次模式的 capture,这些不同模式的 capture 会按照下图所示被执行:

android网络框架对比(自带root权限的框架)

下面是几个重要的注意事项:

1.无论 capture 以何种模式被提交,它们都是按顺序串行执行的,不存在并行执行的情况。2.重复模式是一个比较特殊的模式,因为它会保留我们提交的 capturerequest 对象用于不断重复执行 capture 操作,所以大多数情况下重复模式的 capturerequest 和其他模式的 capturerequest 是独立的,这就会导致重复模式的参数和其他模式的参数会有一定的差异,例如重复模式不会配置
capturerequest.af_trigger_start ,因为这会导致相机不断触发对焦的操作。3.如果某一次的 capture 没有配置预览的 surface,例如拍照的时候,就会导致本次 capture 不会将画面输出到预览的 surface 上,进而导致预览画面卡顿的情况,所以大部分情况下我们都会将预览的 surface 添加到所有的 capturerequest 里。

4) cameramanager

cameramanager 是一个负责查询和建立相机连接的系统服务,它的功能不多,这里列出几个 cameramanager 的关键功能:

1.将相机信息封装到 cameracharacteristics 中,并提获取 cameracharacteristics 实例的方式。2.根据指定的相机 id 连接相机设备。3.提供将闪光灯设置成手电筒模式的快捷方式。

5 )cameracharacteristics

cameracharacteristics 是一个只读的相机信息提供者,其内部携带大量的相机信息,包括代表相机朝向的 lens_facing ;判断闪光灯是否可用的 flash_info_available ;获取所有可用 ae 模式的
control_ae_available_modes 等等。

如果你对 camera1 比较熟悉,那么 cameracharacteristics 有点像 camera1 的 camera.camerainfo 或者 camera.parameters 。

6 ) cameradevice

cameradevice 代表当前连接的相机设备,它的职责有以下四个:

1.根据指定的参数创建 cameracapturesession。2.根据指定的模板创建 capturerequest。3.关闭相机设备。4.监听相机设备的状态,例如断开连接、开启成功和开启失败等。

熟悉 camera1 的人可能会说 cameradevice 就是 camera1 的 camera 类,实则不是,camera 类几乎负责了所有相机的操作,而 cameradevice 的功能则十分的单一,就是只负责建立相机连接的事务,而更加细化的相机操作则交给了稍后会介绍的 cameracapturesession。

7) surface

surface 是一块用于填充图像数据的内存空间,例如你可以使用 surfaceview 的 surface 接收每一帧预览数据用于显示预览画面,也可以使用 imagereader 的 surface 接收 jpeg 或 yuv 数据。每一个 surface 都可以有自己的尺寸和数据格式,你可以从 cameracharacteristics 获取某一个数据格式支持的尺寸列表。

8) cameracapturesession

cameracapturesession 实际上就是配置了目标 surface 的 pipeline 实例,我们在使用相机功能之前必须先创建 cameracapturesession 实例。一个 cameradevice 一次只能开启一个 cameracapturesession,绝大部分的相机操作都是通过向 cameracapturesession 提交一个 capture 请求实现的,例如拍照、连拍、设置闪光灯模式、触摸对焦、显示预览画面等等。

9 ) capturerequest

capturerequest 是向 cameracapturesession 提交 capture 请求时的信息载体,其内部包括了本次 capture 的参数配置和接收图像数据的 surface。capturerequest 可以配置的信息非常多,包括图像格式、图像分辨率、传感器控制、闪光灯控制、3a 控制等等,可以说绝大部分的相机参数都是通过 capturerequest 配置的。

值得注意的是每一个 capturerequest 表示一帧画面的操作,这意味着你可以精确控制每一帧的 capture 操作。

10) captureresult

captureresult 是每一次 capture 操作的结果,里面包括了很多状态信息,包括闪光灯状态、对焦状态、时间戳等等。

例如你可以在拍照完成的时候,通过 captureresult 获取本次拍照时的对焦状态和时间戳。

需要注意的是,captureresult 并不包含任何图像数据,前面我们在介绍 surface 的时候说了,图像数据都是从 surface 获取的。

11) request的整体处理流程

android网络框架对比(自带root权限的框架)

三、 代码实战:如何拍摄单张照片

拍摄单张照片是最简单的拍照模式,它使用的就是 单次模式 的 capture,我们会使用 imagereader 创建一个接收照片的 surface,并且把它添加到 capturerequest 里提交给相机进行拍照,最后通过 imagereader 的回调获取 image 对象,进而获取 jpeg 图像数据进行保存。

1) 定义回调接口

当拍照完成的时候我们会得到两个数据对象,一个是通过 onimageavailable() 回调给我们的存储图像数据的 image,一个是通过 oncapturecompleted() 回调给我们的存储拍照信息的 captureresult,它们是一一对应的,所以我们定义了如下两个回调接口:

private val captureresults: blockingqueue<captureresult> = linkedblockingdeque()


private inner class captureimagestatecallback : cameracapturesession.capturecallback() {
    @mainthread
    override fun oncapturecompleted(session: cameracapturesession, request: capturerequest, result: totalcaptureresult) {
        super.oncapturecompleted(session, request, result)
        captureresults.put(result)
    }
}


private inner class onjpegimageavailablelistener : imagereader.onimageavailablelistener {
    @workerthread
    override fun onimageavailable(imagereader: imagereader) {
        val image = imagereader.acquirenextimage()
        val captureresult = captureresults.take()
        if (image != null && captureresult != null) {
            // save image into sdcard.
        }
    }
}


2) 创建 imagereader

创建 imagereader 需要我们指定照片的大小,所以首先我们要获取支持的照片尺寸列表,并且从中筛选出合适的尺寸,假设我们要求照片的尺寸最大不能超过 4032×3024,并且比例必须是 4:3,所以会有如下筛选尺寸的代码片段:

@workerthread
private fun getoptimalsize(cameracharacteristics: cameracharacteristics, clazz: class<*>, maxwidth: int, maxheight: int): size? {
    val streamconfigurationmap = cameracharacteristics.get(cameracharacteristics.scaler_stream_configuration_map)
    val supportedsizes = streamconfigurationmap?.getoutputsizes(clazz)
    return getoptimalsize(supportedsizes, maxwidth, maxheight)
}


@anythread
private fun getoptimalsize(supportedsizes: array<size>?, maxwidth: int, maxheight: int): size? {
    val aspectratio = maxwidth.tofloat() / maxheight
    if (supportedsizes != null) {
        for (size in supportedsizes) {
            if (size.width.tofloat() / size.height == aspectratio && size.height <= maxheight && size.width <= maxwidth) {
                return size
            }
        }
    }
    return null
}

接着我们就可以筛选出合适的尺寸,然后创建一个图像格式是 jpeg 的 imagereader 对象,并且获取它的 surface:

val imagesize = getoptimalsize(cameracharacteristics, imagereader::class.java, maxwidth, maxheight)!!
jpegimagereader = imagereader.newinstance(imagesize.width, imagesize.height, imageformat.jpeg, 5)
jpegimagereader?.setonimageavailablelistener(onjpegimageavailablelistener(), camerahandler)
jpegsurface = jpegimagereader?.surface


3) 创建 capturerequest

接下来我们使用 template_still_capture 模板创建一个用于拍照的 capturerequest.builder 对象,并且添加拍照的 surface 和预览的 surface 到其中:

captureimagerequestbuilder = cameradevice.createcapturerequest(cameradevice.template_still_capture)
captureimagerequestbuilder.addtarget(previewdatasurface)
captureimagerequestbuilder.addtarget(jpegsurface)