就在今天早晨,苹果发布了iOS/iPadOS 13.4更新,除了常规升级,还有个看似不起眼的更新:加入了ARKit 3.5。
如果你关注过上周发布的iPad Pro,想必已经能猜到,ARKit 3.5是就是为它的激光雷达准备的。
从2017年开始,苹果就开始大力推广AR(增强现实),但只有发布会上的MineCraft等游戏展示令人印象深刻,之后鲜有厂商跟进。曾经开发AR眼镜的Magic Leap也濒临“卖身”。
AR似乎远远看不到大范围实际应用的那一天,但是iPad Pro激光雷达的出现可能改变这一局面。
关于ARKit 3.5
在今天更新的ARKit 3.5中,苹果添加了一个新的“场景几何”(Scene Geometry)API,允许开发者使用iPad Pro上激光雷达扫描仪创建房间的3D地图,识别地板、墙壁、天花板、桌椅沙发等。
能够在5米范围内精准测量物体的长宽高,感知到物体每个平面的方向,甚至还能发现物体之间的遮挡关系,让嵌入在视频的中数字内容与场景更好地融合在一起。
这让iOS自带的测距仪App体验有了质的飞跃。
之前的iPad和iPhone都是通过摄像头的景深来感知物体的远近,实际上测距仪的照片中并不包含真正的3D信息。
用过测距仪的用户都知道,比如我们在测量桌子长度的时候,测距仪的起点和终点很难精准地放置在桌子边缘上。这使得我们的测量准确度大打折扣。
iPad Pro上测距仪App因为有了激光雷达的存在,与其他苹果设备有很大的不同。
而配备了激光雷达的iPad Pro当它到达要测量的桌子等物体的末端时,能够自动识别边缘。
△图片转自魏布斯视频
而且如果你走得更近,则会在屏幕上展示更多细节,比如自动显示的新标尺视图。
△图片转自魏布斯视频
数码评测达人魏布斯在他的评测视频中对iPad Pro的激光雷达有详细的介绍。
尽管苹果没有特别提及,但激光雷达也将改善相机拍摄效果,今后在采用人像模式时,背景虚化也会更加精准。
iPad上的激光雷达
激光雷达之前已经广泛用在自动驾驶汽车上,用于物体的3D成像。苹果的自动驾驶秘密项目Titan Project也用过激光雷达。
苹果在2017年发表的一篇研究论文详细介绍了自动驾驶汽车上的3D对象识别系统。该系统利用了激光雷达的深度图,与神经网络结合起来,大大提高了自动驾驶汽车识别环境的能力。
如今苹果的自动驾驶汽车计划已搁浅,但激光雷达却被用在了移动设备上。
那么iPad Pro上的这颗激光雷达有何特别之处呢?
iPad Pro上的这颗LiDAR本质上是一颗飞行时间传感器(ToF)。ToF现在被各大手机厂商用在相机的对焦上。
但苹果使用的ToF与其他厂商不同,它是一颗真正根据飞行时间计算距离的传感器dToF。
其他厂商都是根据相位差,利用发射光线和反射回的光线之间的相位干涉来判断时间和距离。
而是更具发射光子反射回来的时间差来计算距离,这颗ToF能以纳秒(十亿分之一秒)速度运行,精度更高、能耗更低。正是这个传感器的出现让AR应用成为可能。
用iPad拍摄照片看起来相当笨拙,但是今年的iPhone可能配备激光雷达,如果苹果的AR眼镜计划付诸实践,那么未来的苹果AR眼镜也一定会有激光雷达相助。
令人高兴的是,外媒AppleInsider爆料称,iOS 14的代码中显示今年的iPhone会加入激光雷达。只是iPhone背后的三摄排列似乎没有给激光雷达留下足够的空间,难道iPhone的摄像头布局还要改吗?
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。