(文章来源:可穿戴设备网)
虚拟现实是一种全新的3D渲染类型。这项技术最近得到了广泛的关注。现在已经有很多人体验过虚拟现实头显了, 而未来几年将有更多的人能够体验到这项技术。那么, 虚拟现实的工作原理是什么呢?
VR头显不是通过过滤来自外部屏幕的内容来工作的,而是生成自己的双眼图像,并直接呈现给相应的眼睛。VR头显通常包含两个微型显示器(左眼一个,右眼一个),它们现实的头像会经过光学元件的放大和调整,并显示在用户眼前的特定位置上。
如果显示器的分辨率足够高的话,图像的放大比例也会更高,这样用户就会看到更广阔的视场,而沉浸体验也会更好。现在像Oculus Rift这样的虚拟现实系统会追踪用户的位置,为立体视觉增加运动视差效果。
目前版本的虚拟现实系统并不支持视觉调节,并且容易造成视觉辐辏和调节的冲突。为了确保用户体验,这个技术难题是必须要解决的。这些系统现在也不能完全解眼镜动作的问题(范围有限和失真),但是这个问题未来可能会通过眼球追踪技术来解决。
增强现实头显。同样的,增强现实头显也变得越来越普遍。增强现实技术可以把数字世界和现实世界融合在一起。为了确保真实感,增强现实系统不仅需要追踪用户在真实世界的头部运动,同时也要考虑自己所在的现实3D环境。如果Hololens和Magic Leap最近的报道是真的话,增强现实领域现在已经出现了巨大的飞跃。
近眼光场显示,正如我们的两只眼睛看到的世界会有所不同,现实世界的光线也是从不同的方向进入瞳孔之中的。为了触发视觉调节,近眼显示屏必须能够模拟独立从各个方向发射的光线。这种光信号被称为光场,这是虚拟现实和增强现实产品未来的关键。
在实现这种技术之前,我们只能继续忍受头痛了。这些是头显设备需要克服的挑战,它们面临的另外一个问题是融入社会和文化(比如Google Glass的遭遇)。如果想同时以多个视角显示世界,我们则需要利用裸眼3D显示系统。裸眼3D屏幕,如果不佩戴任何设备,我们可以如何体验3D图像呢?
看到这里, 我想你应该明白如果想提供立体视觉,3D屏幕必须朝着不同的空间方向投射出不同视角的影像内容。这样子,观众的左眼和右眼将会自然地看到不同的图像,从而触发深度感知,因此这种系统被称作“自动立体显示”。因为3D图像是依靠屏幕投射的,所以只要3D效果不是太夸张的话,自动立体显示本身可以支持支持视觉辐辏和视觉调节。
但是这并不代表这种系统不会造成眼睛不适。事实上,这种系统在不同视觉区域的转换方面也有另外一个问题。这种系统的图像会出现频繁的跳跃、亮度变换、暗带、立体视觉中断等问题,最糟糕的是左右眼看到的内容被颠倒,导致完全相反的3D感受。
(责任编辑:fqj)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)