ipad测距仪怎么用前置摄像头(iphone测距仪使用方法)
就在今天早晨,苹果发布了ios/ipados 13.4更新,除了常规升级,还有个看似不起眼的更新:加入了arkit 3.5。
如果你关注过上周发布的ipad pro,想必已经能猜到,arkit 3.5是就是为它的激光雷达准备的。
从2017年开始,苹果就开始大力推广ar(增强现实),但只有发布会上的minecraft等游戏展示令人印象深刻,之后鲜有厂商跟进。曾经开发ar眼镜的magic leap也濒临“卖身”。
ar似乎远远看不到大范围实际应用的那一天,但是ipad pro激光雷达的出现可能改变这一局面。
关于arkit 3.5
在今天更新的arkit 3.5中,苹果添加了一个新的“场景几何”(scene geometry)api,允许开发者使用ipad pro上激光雷达扫描仪创建房间的3d地图,识别地板、墙壁、天花板、桌椅沙发等。
能够在5米范围内精准测量物体的长宽高,感知到物体每个平面的方向,甚至还能发现物体之间的遮挡关系,让嵌入在视频的中数字内容与场景更好地融合在一起。
这让ios自带的测距仪app体验有了质的飞跃。
之前的ipad和iphone都是通过摄像头的景深来感知物体的远近,实际上测距仪的照片中并不包含真正的3d信息。
用过测距仪的用户都知道,比如我们在测量桌子长度的时候,测距仪的起点和终点很难精准地放置在桌子边缘上。这使得我们的测量准确度大打折扣。
ipad pro上测距仪app因为有了激光雷达的存在,与其他苹果设备有很大的不同。
而配备了激光雷达的ipad pro当它到达要测量的桌子等物体的末端时,能够自动识别边缘。
△图片转自魏布斯视频
而且如果你走得更近,则会在屏幕上展示更多细节,比如自动显示的新标尺视图。
△图片转自魏布斯视频
数码评测达人魏布斯在他的评测视频中对ipad pro的激光雷达有详细的介绍。
尽管苹果没有特别提及,但激光雷达也将改善相机拍摄效果,今后在采用人像模式时,背景虚化也会更加精准。
ipad上的激光雷达
激光雷达之前已经广泛用在自动驾驶汽车上,用于物体的3d成像。苹果的自动驾驶秘密项目titan project也用过激光雷达。
苹果在2017年发表的一篇研究论文详细介绍了自动驾驶汽车上的3d对象识别系统。该系统利用了激光雷达的深度图,与神经网络结合起来,大大提高了自动驾驶汽车识别环境的能力。
如今苹果的自动驾驶汽车计划已搁浅,但激光雷达却被用在了移动设备上。
那么ipad pro上的这颗激光雷达有何特别之处呢?
ipad pro上的这颗lidar本质上是一颗飞行时间传感器(tof)。tof现在被各大手机厂商用在相机的对焦上。
但苹果使用的tof与其他厂商不同,它是一颗真正根据飞行时间计算距离的传感器dtof。
其他厂商都是根据相位差,利用发射光线和反射回的光线之间的相位干涉来判断时间和距离。
而是更具发射光子反射回来的时间差来计算距离,这颗tof能以纳秒(十亿分之一秒)速度运行,精度更高、能耗更低。正是这个传感器的出现让ar应用成为可能。
用ipad拍摄照片看起来相当笨拙,但是今年的iphone可能配备激光雷达,如果苹果的ar眼镜计划付诸实践,那么未来的苹果ar眼镜也一定会有激光雷达相助。
令人高兴的是,外媒appleinsider爆料称,ios 14的代码中显示今年的iphone会加入激光雷达。只是iphone背后的三摄排列似乎没有给激光雷达留下足够的空间,难道iphone的摄像头布局还要改吗?