头部佩戴型显示装置、控制其的方法及计算机程序的制作方法_3

文档序号:9843283阅读:来源:国知局
用。
[0080]增强现实感处理部142执行增强现实感处理。增强现实感处理是用于对实际存在于现实世界的实际物体附加地显示虚拟物体的处理,包含以下的次序al?a6。
[0081](al)增强现实感处理部142获取由相机61拍摄到的外景图像。
[0082](a2)增强现实感处理部142从次序al所获取的外景图像中所含的实际物体中,特定作为附加虚拟物体的对象的实际物体(以下,也称为“对象物体”。)。
[0083](a3)增强现实感处理部142获取对象物体的位置。在此,“位置”包含与利用者相距的距离以及利用者的视野内的水平方向和铅垂方向的位置。此时,增强现实感处理部142也可以使用由作为立体相机的相机61获取的2张以上的外景图像来计算对象物体的位置。另外,增强现实感处理部142也可以一并使用由相机61获取的I张以上的外景图像和未图示的各种传感器(例如,深度传感器、测距传感器等)来计算对象物体的位置。
[0084](a4)增强现实感处理部142获取或者生成表示虚拟物体的图像、文字、图形符号等(例如指示器、快捷键、菜单、单选按钮、选择按钮、软键盘等)。增强现实感处理部142可以将虚拟物体预先存储于存储部120,也可以从与HMD100网络连接的其它装置获取虚拟物体。
[0085](a5)增强现实感处理部142生成:以与在次序a3中获取的对象物体的位置对准的方式配置次序a4的虚拟物体,并对其它部分配置了黑色的附加图像数据。在上述的位置对准之际,增强现实感处理部142可以利用对象物体的特征部(边缘等),也可以利用附加给对象物体的标记等记号。在位置对准之际,增强现实感处理部142也可以利用使用了预先存储于存储部120的对象物体的模型(或者图像)的图像识别。在位置对准之际,增强现实感处理部142也可以基于利用者的指示。另外,增强现实感处理部142在配置虚拟物体时,也可以对虚拟物体实施放大、缩小、旋转、色变换等图像处理。
[0086](a6)增强现实感处理部142通过与偏移检测部144协作来执行下述的“偏移校正处理”。利用偏移校正处理,并考虑眼的个人差异来校正附加图像数据内的虚拟物体的位置,而确定最终的虚拟物体的位置。偏移校正处理的具体内容在下文中记述。
[0087]偏移检测部144在下述的偏移校正处理中检测眼的个人差异。
[0088]图像处理部160进行图像显示用的信号处理。具体而言,图像处理部160在经由接口 180和/或无线通信部132输入了内容(影像)的情况下,生成基于内容的图像数据Data。图像处理部160在从HMD100的其它功能部接收到图像数据的情况下,将所接收的数据作为图像数据Data。此外,图像处理部160也可以对图像数据Data执行分辨率变换处理、亮度和/或彩度的调节之类的各种色调校正处理、梯形失真校正处理等图像处理。图像处理部160将上述的图像数据Data、时钟信号PCLK、垂直同步信号VSync、水平同步信号HSync经由发送部51、52向图像显示部20发送。此外,也将经由发送部51发送的图像数据Data称为“右眼用图像数据Datal ”,将经由发送部52发送的图像数据Data称为“左眼用图像数据Data2”。
[0089]显示控制部190生成对右显示驱动部22和左显示驱动部24进行控制的控制信号。具体而言,显示控制部190利用控制信号独立地控制左右的IXD控制部211、212对左右的IXD24U242的驱动接通/关断和/或左右的背光源控制部201、202对左右的背光源221,222的驱动接通/关断,据此来控制右显示驱动部22和左显示驱动部24的每一个的图像光的生成和射出。显示控制部190将上述的控制信号经由发送部51、52向图像显示部20发送。
[0090]声音处理部170获取内容所包含的声音信号,对所获取的声音信号进行放大,并供给至右耳机32的未图示的扬声器和左耳机34的未图示的扬声器。
[0091]接口 180依据预定的有线通信标准在接口 180与外部装置OA之间进行通信。作为预定的有线通信标准,例如有Micro USB (通用串行总线,Universal Serial Bus)、USB、HDMI (高清晰度多媒体接口,High Definit1n Multimedia Interface,HDMI 是注册商标)、DVI (数字视频接口,Digital Visual Interface)、VGA(视频图形阵列,Video GraphicsArray)、Composite (复合式)、RS-232C (Recommended Standard (推荐标准)232)、以IEEE802.3例示的有线LAN等。作为外部设备0A,例如可以利用个人计算机PC和/或便携电话终端、游戏终端等。
[0092]图3是表示利用者所视觉识别的虚像的一例的说明图。图3(A)例示在未执行增强现实感处理的情况下的利用者的视野VR。如上所述,被导至HMD100的利用者的双眼的图像光在利用者的视网膜成像,据此利用者对虚像VI进行视觉识别。在图3(A)的例子中,虚像VI是HMD100的0S150的待机画面。利用者透过右光学像显示部26和左光学像显示部28对外景SC进行视觉识别。这样,本实施方式的HMD100的利用者对于视野VR中的、显示了虚像VI的部分,可以观察虚像VI和位于虚像VI的背后的外景SC。另外,对于视野VR中的、未显示虚像VI的部分,可以透过光学像显示部来直接观察外景SC。
[0093]图3⑶例示了执行增强现实感处理的情况下的利用者的视野VR0利用者通过执行增强现实感处理对包含虚拟物体VO的虚像VI进行视觉识别。虚拟物体VO是以与外景SC的山麓重叠的方式配置的苹果的图像。这样,利用者可以通过观察虚像VI所包含的虚拟物体VO和透过到虚像VI的背后看到的外景SC内的实际物体这双方,来体验增强现实感。
[0094]A-2.偏移校正处理:
[0095]偏移校正处理是在增强现实感处理中考虑眼的个人差异来校正附加图像数据内的虚拟物体的位置的处理。偏移校正处理作为增强现实感处理的子例程,在增强现实感处理的次序a6中被执行。
[0096]图4是表示偏移校正处理的次序的流程图。图5是用于对偏移校正处理的步骤S102进行说明的图。在图5中,为了图示方便,省略了除了 HMD100的右光学像显示部26和左光学像显示部28以及利用者的右眼RE和左眼LE以外的图示。右眼RE具备晶状体60R和中央凹70R,左眼LE具备晶状体60L和中央凹70L。以下,也将右眼RE和左眼LE统称为“双眼”。同样地,也将晶状体60R和晶状体60L统称为“晶状体”,也将中央凹70R和中央凹70L统称为“中央凹”。同样地,也将右光学像显示部26和左光学像显示部28统称为“光学像显示部”。
[0097]在偏移校正处理(图4)的步骤S102中,偏移检测部144使作为记号的虚拟物体OB(以下,也简单地称为“记号0B”。)显示在标准坐标上。具体而言,偏移检测部144在利用标准的利用者的双眼将记号OB成像的情况下,生成在距离Z1处的(XpY1)坐标上换言之在三维空间上的标准坐标(X1, Y1, Z1)上对记号OB进行视觉识别那样的带有视差的包含记号OB的右眼用图像数据Datal和左眼用图像数据Data2,并向图像处理部160发送。此时,设右眼用图像数据Datal内的记号OB的坐标为PR(Xl,yi,O),设左眼用图像数据Data2内的记号OB的坐标为PL (Xl,yi,O)。此外,PR和PL是不同的坐标系。此外,以下,将PR的X1的值记载为aPRx1 ”,将PR的Y1的值记载为“PRy Λ将PR的Z1的值记载为“PRz广。对于RL也是同样的。
[0098]标准坐标(X1, Y1, Z1KPRU1, ypOhPLUpypO)的关系可以如以下的方式地进行定义。
[0099].X1= PRx !或者 PLx !
[0100].Y1= PRy !或者 PLy !
[0101].Z1 =右眼用图像数据Datal和左眼用图像数据Data2中的通过记号OB的视差瞄准的任意的点。设上述点为比利用者的手臂的长度短的点。
[0102]在以上的说明中,为使说明简便,在\中,忽略PRx 1与PLxj^差异。在更加严密地定义标准坐标&的情况下,也可以采用以下的方式。此外,眼间距离和显示部距离使用预先存储于距离信息122的值。
[0103].X1-(眼间距离/2) X {显示部距离/(Z1+显示部距离)} = PRx1
[0104].X1+(眼间距离/2) X {显示部距离/(Z1+显示部距离)} = PLx1
[0105]图6是用于对偏移校正处理的步骤S104以后的处理进行说明的图。在图6中也省略了除了光学像显示部和利用者的双眼以外的图示。在图6中,图5中示出的标准的利用者的双眼RE、LE用虚线图示,执行偏移校正处理时的实际的利用者的双眼REa、LEa用实线图示。实际的利用者的右眼REa和左眼LEa与标准的利用者的右眼RE和左眼LE相比较,眼球的形状、晶状体60Ra和晶状体60La的位置、中央凹70Ra和中央凹70La的位置存在差升。
[0106]在图4的步骤S104中,偏移检测部144促使HMD100的实际的利用者一边注视步骤S102中显示的记号0B,一边使用手指示记号0B。偏移检测部144可以通过将促使注视和用手指示的消息显示为虚像来实现引导,也可以使用声音来实现引导。
[0107]实际的利用者依照上述的引导,用手指示步骤S102中显示的记号0B。实际的利用者的眼球的形状和晶状体以及中央凹的位置与标准的利用者存在差异。因此,实际的利用者识别为“存在记号0B”,一边用手80指示一边注视的点FP (以下,也称为“注视点FP”。)如图6所示,与记号OB的位置是不同的。以下,也将三维空间上的注视点FP的坐标(X2,Y2,Z2)称为“注视点坐标”。
[0108]图7是用于对偏移校正处理的步骤S106进行说明的图。在图4的步骤S106中,偏移检测部144利用作为立体相机的相机61来获取与实际的利用者的右眼RE对应的外景图像頂R和与左眼LE对应的外景图像頂L。
[0109]在图4的步骤S108中,偏移检测部144从2张外景图像中求取注视点坐标(X2,Y2,Z2)。具体而言,偏移检测部144首先求取外景图像頂R内的指尖的坐标(换言之,注视点的坐标)FPR(x3,y3,0)和外景图像頂L内的指尖的坐标FPL(x3,y3,0)。FPR和FPL是不同的坐标系。此外,以下,将FPR的X3的值记载为“FPRx 3”,将y3的值记载为“FPRy3”。对于FRL也是同样。
[0110]偏移检测部144可以使用求得的坐标FPR(x3,y3,0)和FPL(x3,y3,0)按照以下的方式求取注视点坐标(X2,Y2,Z2)。
[0111].X2 =通过求解以下的式1、式2来求取。此外,眼间距离和显示部距离使用预先存储于距离信息122的值。
[0112]X2-(眼间距离/2) X {显示部距离/(Z1+显示部距离)} = FPRx3…(式I)
[0113]X2+(眼间距离/2) X {显示部距离/(Z1+显示部距离)} = FPLx3…(式2)
[0114].Y2= FPRy 3或者 FPLy 3
[0115].Ζ2 =根据视差(即FPRx 3与FPLx 3之差)和距离信息122内的眼间距离,使用三角函数求取的点
[0116]根据步骤S108,偏移检测部144可以使用在头部佩戴型显示装置(HMD100)中广泛地搭载的立体相机所获取的至少2张外景图像頂R、頂L,来求取注视点坐标(X2,Y2, Z2)。
[0117]以下的偏移校正处理(图4)中的右眼用处理(步骤SllO?S120)和左眼用处理(步骤S150?S160)并行地执行。以下,首先,仅对右眼用处理进行说明。
[0118]在图4的步骤SllO中,偏移检测部144求取右眼的标准向量B1R。具体而言,偏移检测部144求取连结图5的右眼用图像数据Datal内的记号OB的坐
当前第3页1 2 3 4 5 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1