谷歌的ARCore深度API为非专用设备带来了深度映射和遮挡
现在可以在关闭预览,ARCore深度API允许创建深度地图使用一个相机。谷歌说,这一功能以前只能在带有深度传感器的设备上使用,它使在物理环境中真实地混合虚拟对象以及构建更自然、更交互和更有帮助的体验成为可能。
ARCore深度API使用深度从运动算法创建一个深度地图的环境。
深度图是通过从不同的角度拍摄多幅图像,并在移动手机以估计到每个像素的距离时进行比较来创建的。
深度图基本上允许您确定哪些对象离您更近,从而确定您放置在环境中的虚拟对象是否应该被某个真实世界的对象重叠。这解决了一个常见的AR体验问题,其中虚拟对象似乎只是漂浮在现实世界的顶部。
在ARCore深度API中的关键点是它不需要任何专门的硬件,例如配备iPhoneX和以后型号的深度传感器,这些硬件由A11、A12Bionic、A12X Bionic和A13Bionic芯片供电。事实上,苹果今年早些时候在ARKit3中引入了对人遮挡的支持,以及其他先进功能,但只适用于集成其True Depth相机和至少使用A12仿生处理器的设备。相反,ARCore深度API可以在大约2亿台设备上运行,谷歌说。
我们将开始在SceneViewer中提供遮挡,这是一个为搜索中的AR提供电源的开发工具,到今天,最初的一组超过2亿个支持ARCore的Android设备。
遮挡检测仅仅是通过拥有一个环境深度图而解锁的可能性之一。事实上,谷歌在一段视频中展示了虚拟物体如何有可能沿着真实的路径,与物理物体互动,例如弹跳或撞击它们,在使用家具躲避和隐藏的同时玩耍等等。
由于谷歌计划以更有计划的方式推出,ARCore深度API尚未完全与Android兼容。愿意尝试它的开发人员可以填写谷歌的呼吁合作者表格,以访问这一新工具。