应用于头跟踪虚拟现实系统的感知深度映射方法

文档序号:9353166阅读:418来源:国知局
应用于头跟踪虚拟现实系统的感知深度映射方法
【技术领域】
[0001] 本发明涉及计算机多媒体领域,尤其涉及一种应用于头跟踪虚拟现实系统的感知 深度映射方法。
【背景技术】
[0002] 立体显示是通过模拟人类双眼视觉的图像视差,使观看者在观看图像时形成纵深 的视觉感知。在虚拟现实系统中,立体显示可有效的增强真实感和沉浸性。但是在立体显 示中,由于人眼辐辏和聚焦的冲突,也会造成视觉疲劳。在软件上解决视觉疲劳的最好方法 是通过减小双眼图像的视差来来减少辐辏和聚焦的冲突。视差减少意味着感知深度也会减 少。因此当观看者在观看立体图像时,有一个适宜的感知深度范围。将感知深度压缩到适 宜的感知深度范围之内的方法称为深度映射。
[0003] 在虚拟现实系统中,传统的深度压缩方法是通过减小双眼相机的轴距来实现深度 映射。但是由于深度映射会导致感知物体产生两个方向上的变形:一是沿观看方向产生挤 压变形是物体看起来趋于扁平;二是感知物体以双眼相机的中心线作为基准位置发生斜切 变形。在头跟踪系统中,由于拍摄立体图像的双眼相机随着头部的运动而运动,感知物体的 斜切变形的基准线也会随着头部的运动而运动,从而导致感知图像会随着头部的运动而移 动,这种图像的移动称之为"图像漂移"。

【发明内容】

[0004] 为了解决传统的深度映射方法在头跟踪系统中产生的图像漂移问题,本发明提供 了一种应用于头跟踪虚拟现实系统的感知深度映射方法。该方法利用与实际双眼距离相同 的相机轴距来拍摄图像,利用固定的斜切变形基准线对虚拟场景进行深度压缩变换。该方 法不仅可以消除头跟踪虚拟现实系统中的图像漂移问题,还可以灵活的实现线性和非线性 深度映射。
[0005] 为了实现上述目的,本发明采用以下技术方案:
[0006] -种应用于头跟踪虚拟现实系统的感知深度映射方法,包括:
[0007] 步骤一:获取场景物体的立体图像,并判断场景物体的立体图像的头部状态是否 发生变化,若未发生变化,则采用与用户双眼距离相同的相机轴距的双相机拍摄场景物体 的立体图像;若发生变化,则进入下一步;
[0008] 步骤二:调整双相机的0视差投影面到双相机中点位置的距离,使双相机中点到 投影面的距离与物理显示屏幕到用户双眼中心的距离相同;
[0009] 步骤三:根据屏幕尺寸和视点位置来确定感知深度适宜区,将投影面两侧场景物 体沿深度方向进行缩放变换且向投影面做挤压,使场景深度范围位于确定的感知深度适宜 区内;
[0010] 步骤四:根据透视投影几何对场景物体进行斜切变换,利用双相机进行拍摄场景 物体的立体图像。
[0011] 所述步骤四中,以双相机中点在垂直于投影面并穿过投影面中心的轴线上的投影 作为计算斜切变换的透视参考点。
[0012] 所述步骤三中将投影面两侧场景物体沿深度方向进行缩放变换的方法包括线性 缩放变换映射和非线性缩放变换映射。
[0013] 以透视参考点为坐标原点,以投影面的中垂线为Z轴,以水平方向为X轴,竖 直方向为Y轴建立坐标系,模型顶点坐标从(x,y,z)经过缩放和斜切变换后被变换到 (x',y',z');
[0014] 在该坐标空间内对模型进行沿深度方向上进行线性缩放变换映射,深度方向上的 缩放变换为:
[0015]
[0016] 其中,f为相机的远裁剪面距离,f'为感知深度适宜区的远边界到相机距离,F为 双相机中点距离投影平面。
[0017] 投影面两侧场景物体在水平和垂直方向上的斜切变换为:
[0018]

[0019] 当投影面两侧场景物体沿深度方向进行非线性缩放变换映射时,在不同的深度采 用不同的压缩比率。
[0020] 当投影面两侧场景物体沿深度方向进行非线性缩放变换映射时,压缩比率随着投 影面两侧场景物体与投影面距离的缩小而减小。
[0021] 以透视参考点为坐标原点,以投影面的中垂线为Z轴,以水平方向为X轴,竖 直方向为Y轴建立坐标系,模型顶点坐标从(x,y,z)经过缩放和斜切变换后被变换到 (x',y',z');
[0022] 在该坐标空间内对模型沿深度方向上进行非线性缩放变换映射,深度方向上的缩 放变换为:
[0023]
[0024]其中,f为相机的远裁剪面距离,n为近裁剪面距离,f',n'分别为感知深度适宜区 的远近边界到相机距离,F为双相机中点到投影平面的距离。
[0025] 投影面两侧场景物体在水平和垂直方向上的斜切变换为:
[0026]

[0027] 本发明的有益效果:
[0028](1)当实际观看者双眼距离和拍摄立体图像的相机轴距相等时,感知物体不产生 变形,因此在头跟踪系统中,本发明采用和实际用户的双眼距离相同的相机轴距来拍摄立 体图像可以消除图像漂移现象。
[0029] (2)为了实现深度压缩,本发明将虚拟场景进行缩放和斜切变换来减少感知深度, 同时采用和用户双眼距离相同的相机轴距来拍摄立体图像,这样可以在消除图像漂移的情 况下减少感知深度,减轻视觉疲劳。
【附图说明】
[0030] 图1是本发明的应用于头跟踪虚拟现实系统的感知深度映射方法流程示意图;
[0031] 图2是模型在深度方向上的缩放和水平方向上的斜切变换示意图。
【具体实施方式】
[0032] 下面结合附图与实施例对本发明做进一步说明:
[0033] 如图1所示,本发明的应用于头跟踪虚拟现实系统的感知深度映射方法,包括:
[0034] 步骤一:获取场景物体的立体图像,并判断场景物体的立体图像的头部状态是否 发生变化,若未发生变化,则采用与用户双眼距离相同的相机轴距的双相机拍摄场景物体 的立体图像;若发生变化,则进入下一步;
[0035] 步骤二:调整双相机的0视差投影面到双相机中点位置的距离,使双相机中点到 投影面的距离与物理显示屏幕到用户双眼中心的距离相同;
[0036] 步骤三:根据屏幕尺寸和视点位置来确定感知深度适宜区,将投影面两侧场景物 体沿深度方向进行缩放变换且向投影面做挤压,使场景深度范围位于确定的感知深度适宜 区内;
[0037] 步骤四:根据透视投影几何对场景物体进行斜切变换,利用双相机进行拍摄场景 物体的立体图像。
[0038] 进一步地,步骤三中将投影面两侧场景物体沿深度方向进行缩放变换的方法包括 线性缩放变换映射和非线性缩放变换映射。
[0039] 以被拍摄的物体为图2中所示的动物模型为例:
[0040] 采用用户双眼距离相同的相机轴距的双相机来分别拍摄图2中所示的
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1