苹果ARKit 4解析:凸显LiDAR战略布局,为AR眼镜做准备

青亭网 @ 2020/06/30


hi188|编辑
虽然上周WWDC20主Keynote中,并没有提及ARKit 4,但AR肯定是不可或缺的一部分,在WWDC之后的议程中又面向开发者公布8段视频,进一步阐述与ARKit和AR相关的部分,除了ARKit 4更新点之外,还包括RealityKit、Reality Composer新功能,甚至还有ARKit 3.5中高级场景理解相关视频。
今天的文章中,就来将将其中3段关于新功能的视频进行详解,它们分别是:ARKit 4新功能、USD新功能、RealityKit新功能。
ARKit 4新功能
我们在WWDC 20当天就解析了ARKit 4的新功能,根据苹果在本次更新的视频中,ARKit 4主要带来以下几点创新:位置锚定、场景几何、面部追踪优化升级等。
场景理解方面,包括遮挡、光影效果,物理特效,碰撞特效等设定。
另外,在真实环境中的网格模型使用颜色进行区分深度的,如上图中,颜色越深代表距离越近,越浅则相反,到白色时距离恰好在5米。此前我们在iPad Pro 2020发布时已知,其配备的LiDAR具备5米的深度感知能力,因此真实环境中5米以内的环境均可实现高精度网格覆盖。
综合来看,由于iPad Pro 2020发布时同期发布的ARKit 3.5并没有伴随着iOS/iPadOS大版本更新,因此在iOS 14/iPad OS 14发布时苹果围绕其配备的LiDAR进行详解。
从中我们可以看出,苹果的ARKit以及相关功能越来越强大,而基于软件的AR体验基本上没有太多新的进展,而ARKit 3.5和ARKit 4中大部分都是围绕LiDAR模组展开。我们有理由猜测未来苹果设备将更多配备LiDAR模组来可开展开AR应用,例如新的iPhone甚至AR/VR眼镜,而这个进程也在加速推进。
与此同时,苹果系统和功能在升级的同时,对硬件的要求也越来越高。其中ARKit 4中不少新特性都要求是A12芯片及更高的设备,也意味着即便是iPhone X也无法体验,因此如果你要购买,我们建议选择A12芯片及更新的设备。
( END)

 
   推荐阅读    






 
每天五分钟,轻松了解前沿科技。    
         —— 青亭网  

English:

淘宝精选