iPhone 12 Pro 和 iPhone 12 Pro Max 在去年三摄影像系统的基础上,加入了一枚 LiDAR 激光雷达扫描仪。
这枚传感器通过测量激光触及物体后反射回来所用的时间,来绘制出空间深度图,最终为 iPhone 带来更沉浸的 AR 体验,而且还能在暗光环境下提高 iPhone 12 Pro 系列的对焦速度,并且利用深度图实现夜间人像模式功能。
而这项技术或许会应用在未来的苹果 AR 眼镜上。
最近苹果申请的一项名为「具有低光 *** 作的头戴式显示器」专利遭到曝光,它描述了多种感知头显(HMD)佩戴者侦测周围环境的方法。苹果在专利申请当中表示,在光线不足的环境下,人眼观察环境的能力会比光线充足的条件下差,而搭载激光雷达传感器的头显设备可以在黑暗环境下充当佩戴者的「第三只眼睛」。
苹果提出的解决方案是利用「苹果眼镜」等 HMD 设备(头戴显示器)中的激光传感器(一般包括一个照明器和一个探测器,照明器向环境中发射红外光,检测器观察环境中物体反射的电磁辐射)来记录周围环境中包括深度和距离在内的信息,然后将结果以未指定的 「图形内容」回传给佩戴者,帮助佩戴者在黑暗中「看清」周围的环境。
关于苹果正在开发 AR 头显设备的传闻已久由来已久,多次准确爆料苹果新品开发计划的彭博社此前就曾发表报道称,苹果的 AR 头显计划由负责 AR/VR 的副总裁 Mike Rockwell 领导,据称正在开发的产品包括一款代号为 N421 的轻便 AR 眼镜,和代号为 N301 的 AR/VR 一体化头显。
而目前苹果的许多技术和功能也被视为是为 AR 设备铺路的铺垫,例如 AirPods 的空间音频技术、iPhone / Apple Watch / HomePod 等设备上的 UWB 超宽频芯片、iPhone 12 Pro 系列和 iPad Pro 2020 的 LiDAR 激光雷达扫描仪等等。
责编AJX
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)