在虚拟现实中,如何做到六自由度跟踪?我们都知道传统的惯性传感器是无法做到这一点的,最多只能跟踪头部的转动;想要跟踪头部的位移,就要引入光学系统了。传统的光学系统是摄像头式的,摄像头跟踪头显上标记的马克点实现跟踪,Oculus的ConstellaTIon系统就使用了摄像头+红外主动马克点的方式;而HTC Vive则使用了一套十分巧妙的技术,称之为Lighthouse,这套技术由Valve开发,可以说是目前体验最好的VR光学跟踪方案。
Lighthouse由两个基站构成:每个基站里有一个红外LED阵列,两个转轴互相垂直的旋转的红外激光发射器。转速为10ms一圈。基站的工作状态是这样的:20ms为一个循环,在循环开始的时候红外LED闪光,10ms内X轴的旋转激光扫过整个空间,Y轴不发光;下10ms内Y轴的旋转激光扫过整个空间,X轴不发光。
Valve在头显和控制器上安装了很多光敏传感器。
在基站的LED闪光之后就会同步信号,然后光敏传感器可以测量出X轴激光和Y轴激光分别到达传感器的时间。这个时间就正好是X轴和Y轴激光转到这个特定的,点亮传感器的角度的时间,于是传感器相对于基站的X轴和Y轴角度也就已知了;分布在头显和控制器上的光敏传感器的位置也是已知的,于是通过各个传感器的位置差,就可以计算出头显的位置和运动轨迹。
这个系统有很多优势。
第一条是其需要的计算能力非常小。
一个光学系统需要进行成像,然后程序就需要通过图像处理的方法来将成像中的马克点分辨出来。成像的细节越丰富,需要的图像处理计算能力就越高。所以红外摄像头比单色摄像头简单,单色摄像头比彩色摄像头简单。Lighthouse使用的仅仅是时间参数,那么它就不涉及到图像处理,对于位置的计算在设备本地就可以完成。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)