立体显示设备和接受指令的方法与流程

文档序号:12732747阅读:162来源:国知局
立体显示设备和接受指令的方法与流程

本申请属于申请日为2012年3月1日的中国发明专利申请201280017005.4的分案申请。

技术领域

本发明涉及一种当立体地显示将由指示体指令的指令图像以及接收用户的指令时能够不破坏用户的立体效果的立体显示设备、指令接受方法和程序。



背景技术:

在相关技术中,已知存在一种立体显示设备,在该立体显示设备中,当显示用右眼的按钮图像和左眼的按钮图像形成的3D按钮图像并且用户通过诸如手指和触摸笔的指示体触摸布置在显示屏幕上的触摸传感器时,检测在显示屏幕上的触摸位置(例如,参见PTL1)。

{引用列表}

{专利文献}

{PTL 1}:日本专利申请特开No.2010-55266



技术实现要素:

技术问题

然而,如图17中所示,当用户的手指92接近其上设有触摸传感器的显示屏幕90时,手指92和按钮立体图像94重叠并且看起来好像手指92穿过按钮,并且因此存在用户感到奇怪的问题。也就是,虽然在硬件按钮的情况下按钮受到手指的按压,但是在虚拟3D按钮的情况下,即使按压操作由手指执行,按钮立体图像也只是覆盖手指,并且因此存在观察员的立体效果受到破坏的问题。

鉴于以上问题,完成了本发明,并且本发明的目的是提供一种当立体地显示将由指示体指令的指令图像以及接受用户的指令时不能破坏用户的立体效果的立体显示设备与指令接受方法和程序。

问题的解决方案

为了实现该目的,本发明提供了一种立体显示设备,包括:立体显示装置,所述立体显示装置用于显示用要由指示体指令的指令左眼图像和指令右眼图像形成的指令立体图像;空间传感器,所述空间传感器检测在所述立体显示设备的显示屏幕上由所述指示体指令的指令位置并且检测所述立体显示设备的显示屏幕与所述指示体之间的间隔;确定装置,所述确定装置用于确定由所述空间传感器检测到的所述指令位置是否在与所述指令立体图像相对应的检测区域内,并且接受与所述指令立体图像相对应的指令;视差量判定装置,所述视差量判定装置用于判定由所述立体显示装置显示的所述指令左眼图像与所述指令右眼图像之间的视差量,并且根据由所述空间传感器检测到的间隔上的减小来减小所述指令左眼图像与所述指令右眼图像之间的视差量;以及图像处理装置,所述图像处理装置用于通过由所述视差量判定装置判定的所述视差量将所述指令立体图像显示在所述立体显示装置上。

而且,本发明提供了一种立体显示设备,该设备包括:立体显示装置,所述立体显示装置用于显示用要由指示体指令的指令左眼图像和指令右眼图像形成的指令立体图像;触摸传感器,所述触摸传感器布置在所述立体显示装置的显示屏幕上并且检测由所述指示体触摸的指令位置;确定装置,所述确定装置用于确定所述触摸传感器检测到所述触摸的所述指令位置是否在与所述指令立体图像相对应的检测区域内,并且接受与所述指令立体图像相对应的指令;空间传感器,所述空间传感器检测所述触摸传感器的触摸表面或所述立体显示装置的显示屏幕与所述指示体之间的间隔;视差量判定装置,所述视差量判定装置用于判定由所述立体显示装置显示的所述指令左眼图像与所述指令右眼图像之间的视差量,并且根据由所述空间传感器检测到的间隔上的减小来减小所述指令左眼图像与所述指令右眼图像之间的视差量;以及图像处理装置,所述图像处理装置用于通过由视差量判定装置判定的所述视差量将所述指令立体图像显示在所述立体显示装置上。

根据本发明,由于空间传感器检测到显示屏幕与指示体(例如,手指或触摸笔)之间的间隔,并且根据检测到的间隔上的减小来减小指令左眼图像与指令右眼图像之间视差量,所以可以不破坏用户的立体效果。

在该说明书中,“指令立体图像”是将由指示体指令的指令图像并且表示被立体地显示的图像。“指令立体图像”的具体示例包括所谓的按钮类型(例如,3D按钮、3D图标或3D缩略图)的3D图像和所谓的滑动类型(例如,3D滑块)的3D图像。触摸操作类型(例如,按钮操作或滑动操作)和图像显示格式不特别地受到限制。

在按钮类型3D图像(即,3D按钮图像)中,通过本发明,由于可以改变立体图像的弹出量,使得立体图像连同诸如手指和触摸笔的指示体受到按压,所以能够消除视觉奇异性的感觉。即使当不提供按钮类型3D图像时,也提供促使用户精确地识别指示体与显示屏幕之间的间隔的效果。

在一个实施例中,当空间传感器或触摸传感器检测到指示体的指令时,图像处理装置将指令立体图像切换至平面显示。也就是,当指示体触摸时,由于将指令图像从立体显示切换至平面显示,所以不仅可以感觉到触觉而且还可以感觉到指示体与显示屏幕之间的间隔变为零的视觉,这是优选的。

而且,本发明提供了一种使用立体显示装置和空间传感器的指令接受方法,所述立体显示装置用于显示用要由指示体指令的指令左眼图像和指令右眼图像形成的指令立体图像,所述空间传感器检测在所述立体显示装置的显示屏幕上由指示体指令的指令位置并且检测所述立体显示装置的显示屏幕与所述指示体之间的间隔,所述方法包括:通过预定的视差量将所述指令立体图像显示在所述立体显示装置上的步骤;通过所述空间传感器获取在所述立体显示装置的显示屏幕与所述指示体之间的间隔的步骤;根据在所获取的间隔上的减小来减小所述指令左眼图像与指令右眼图像之间的视差量的步骤;以及通过判定由所述空间传感器检测到的指令位置是否在与所述指令立体图像相对应的检测区域内来接受与所述指令立体图像相对应的指令的步骤。

而且,本发明提供了一种使用立体显示装置、触摸传感器和空间传感器的指令接受方法,所述立体显示装置用于显示用要由指示体指令的指令左眼图像和指令右眼图像形成的立体图像,所述触摸传感器布置在所述立体显示装置的显示屏幕上并且检测由所述指示体触摸的位置,所述空间传感器检测在所述触摸传感器的触摸表面或所述立体显示装置的显示屏幕与所述指示体之间的空间上的间隔的变化,所述方法包括:通过预定的视差量将所述指令立体图像显示在所述立体显示装置上的步骤;从所述空间传感器获取在所述立体显示装置的显示屏幕与所述指示体之间的间隔的步骤;根据在从所述空间传感器获取的间隔上的减小来减小所述指令左眼图像与指令右眼图像之间的视差量的步骤;以及通过判定由所述触摸传感器检测到触摸的位置是否在与所述指令立体图像相对应的检测区域内来接受与所述指令立体图像相对应的指令的步骤。

而且,本发明提供促使计算机执行指令接受方法的程序和存储该程序的计算机可读记录介质。

发明的有益效果

根据本发明,当立体地显示触摸操作的指令图像和接受用户的指令时,可以不破坏用户的立体效果。

附图说明

图1是图示根据本发明的立体显示设备的示例的整个配置的框图。

图2是图示指令立体图像和指令位置检测区域的示例的解释图。

图3是图示使用立体照相机作为空间传感器的立体显示设备的外观的视图。

图4是图示使用红外光传感器作为空间传感器的立体设备的视图。

图5是图示指令接收设备的示例的流程的流程图。

图6是例如其中用于优势眼的指令图像接近用于不是优势眼的眼睛的指令图像的解释图。

图7是图示其中根据指示体与显示屏幕之间的间隔的减小来减小指令立体图像的弹出量dz的状态的模式图。

图8是图示仅面对指示体的指令立体图像的视差量减小的情况的解释图。

图9是图示仅面对指示体的指令立体图像的尺寸增大的情况的解释图。

图10是图示移动周围的指令立体图像远离面对指示体的指令立体图像的情况的解释图。

图11是图示在未获取优势眼信息的情况下指令立体图像与指令位置检测区域的示例的解释图。

图12是图示根据本发明的立体设备的另一个示例的整个配置的框图。

图13是用来描述优势眼测量处理的解释图。

图14是图示立体显示设备的基础硬件配置示例的框图。

图15是图示根据本发明的能够通过空间传感器检测指令位置的立体显示设备的示例的整个配置的框图。

图16是图示图15中的立体显示设备的基础硬件配置示例的框图。

图17是用来描述本发明的问题的解释图。

具体实施方式

在下文中,根据附图详细地描述本发明的实施例。

图1是图示一个实施例的立体显示设备10的配置示例的框图。

图像输入单元11输入一个视点的2D图像。三维图像处理单元12将从图像输入单元11输出的一个方面的2D图像转换成用多个视点的2D图像(即,右眼的右眼图像和左眼的左眼图像)形成的3D图像。立体显示单元13执行3D图像的立体显示。触摸传感器16布置在立体显示单元13的显示屏幕上并且检测在显示屏幕上由用户通过诸如手指和触摸笔的指示体触摸的指令位置(x-y坐标)。

在此处,在说明书中,“2D”意指二维(即,平面)和“3D”意指三维(即,立体)。也就是,“2D图像”表示平面图像,并且“3D图像”表示立体图像(即,能够立体地观察的图像)。

图2的部分(A)至(C)图示了为了接受立体显示单元13和触摸传感器16中的用户的指令将多个视点的指令2D图像(即,指令左眼图像53L和指令右眼图像53R)显示在立体显示单元13的显示屏幕上的状态。图2的部分(A)图示了视差量为零(即,无弹出)的情况,图2的部分(B)图示了视差量是小的(即,小弹出量)的情况,并且图2的部分(C)图示了视差量是最大的(即,最大弹出)的情况。附图标记56表示其中在显示屏幕(即,触摸表面)上触摸的指令位置被检测为有效的指令位置检测区域。虽然在图2的部分(A)的情况下它不被识别为立体图像,但是通过将指令左眼图像53L和指令右眼图像53R在x方向(即,水平方向)上移位视差量d并且如图2的部分(B)和(C)所示显示它们,用户将指令图像识别为在显示屏幕的近侧上弹出的立体图像(即,3D图像)。

空间传感器17表示检测指示体(例如,手指和触摸笔)的三维位置的传感器,该传感器检测立体显示单元13的显示屏幕(或触摸传感器16的触摸表面)与指示体之间的间隔。在此处,触摸传感器16与指令的移动距离相比是薄的,并且因此,触摸传感器16的和显示屏幕的前表面(即,触摸表面)被识别为大致相同的。在下文中,在假定空间传感器17检测到立体显示单元13的显示屏幕与指示体之间的间隔的情况下给出解释。

立体效果设定单元14具有接受与指令3D图像的立体效果的量级(或强度)相关的设定输入操作并且促使存储单元15存储与立体效果的设定和输入量级相对应的视差量作为初始视差量的功能。例如,立体效果设定单元14促使立体显示单元13显示立体效果的“强烈”、“中等”和“微弱”的选择菜单以从用户接受立体效果水平的选择输入,并且促使存储单元15存储与该立体效果水平相对应的视差量。

优势眼信息设定单元20A接受用户的优势眼信息的设定输入并且将设定和输入优势眼信息存储在存储单元15中。例如,通过询问用户关于左右眼中的哪一只眼是优势眼的问题,从用户接受右眼或左眼的选择输入。在此处,对通过用户的设定输入操作获取优势眼信息的配置给出解释,并且稍后描述通过自动地确定用户的优势眼获取优势眼信息的模式。

指令位置检测区域判定单元18至少基于优势眼信息来判定在立体显示单元13的显示屏幕上的指令位置检测区域(即,反应区域)。例如,在获取优势眼信息的情况下,取决于用户的优势眼是右眼还是用户的优势眼是左眼,切换在指令位置检测区域中的显示屏幕上的位置、尺寸和形状中的至少一个。

确定单元19确定其中指令位置检测单元16检测到触摸的位置是否在由指令位置检测区域判定单元18判定的指令位置检测区域(其是与指令3D图像相对应的区域)的范围内,使得接受与指令3D图像相对应的指令。也就是,确定单元19确定是否存在与指令3D图像相对应的用户的指令。

控制单元30控制立体显示设备10的每个单元。而且,作为视差量判定装置,控制单元30判定在指令左眼图像53L与指令右眼图像53R之间的视差量。控制单元30根据由空间传感器17检测到的在立体显示单元13的显示屏幕与指示体之间的空间的间隔上的变化来改变视差量。根据由空间传感器17检测到的间隔上的减小,该示例的控制单元30减小指令右眼图像53R与指令左眼图像53L之间的视差量。而且,当由触摸传感器16检测到指示体的触摸时,该示例的控制单元30执行控制以将指令3D图像切换至平面显示。为了将指令3D图像切换至平面显示,存在仅将指令右眼图像和指令左眼图像中的一个显示在立体显示单元13上的切换模式和将视差量改变为零的模式。

接着,描述优势眼与用户的触摸位置之间的关系。如果执行图2的部分(B)和(C)所示的显示,则虽然立体图像出现在指令右眼图像53R的中心位置与指令左眼图像53L的中心位置之间的中间,但是在用户在看见立体图像的同时通过手指或触摸笔给出指令的情况下,指令位置是取决于用户的优势眼的位置。例如,在用户的优势眼是右眼的情况下,用户倾向于指令与在指令右眼图像53R的中心位置与指令左眼图像53L的中心位置之间的中间位置C相比更靠近指令右眼图像53R的中心位置的位置。因此,在获取优势眼信息的情况下,根据用户的优势眼是否右眼还是用户的优势眼是左眼,指令位置检测区域判定单元18切换指令位置检测区域的位置、尺寸和形状中的至少一个。例如,在获取优势眼信息的情况下,指令位置检测区域布置在更靠近指令右眼图像和指令左眼图像当中的优势眼的指令图像的显示位置中。例如,包括指令右眼图像53R的显示区域的指令位置检测区域被设定。通过该方式,可以正确地确定由用户预期的指令。

在图1中,图像输入单元11、三维图像处理单元12、指令位置检测区域判定单元18、确定单元19和控制单元30用例如微处理器(CPU)形成。立体效果设定单元14和优势眼信息设定单元20主要用例如微处理器和触摸传感器16形成。在不使用触摸传感器的情况下,立体效果设定单元14和优势眼信息设定单元20可以用诸如键盘和鼠标的其它输入设备形成。存储单元15用例如存储器形成。然而,在每个单元中的处理可以由软件根据在诸如存储单元15的计算机可读非临时记录介质中所记录的程序来执行或可以由硬件通过电路来执行。

接着,描述了能够检测指示体的三维位置的空间传感器17的示例。

图3图示了在使用复眼立体照相机42(下文被称为“复眼3D照相机”)作为图1的空间传感器17的情况下的立体显示设备10。复眼3D照相机42是包括光学系统和多个视点的摄像元件的照相机,并且,基于由多重成像元件拍摄的多个视点的成像图像,检测指示体的三维位置以触摸包括立体显示单元13和触摸传感器16的触摸面板40。

在此处,在图3中,虽然例证了其中使用复眼3D照相机42的情况,但是执行单个成像光学系统的光瞳分割以执行立体射线照相的单眼3D照相机可以被用作空间传感器17。

如图4的部分(A)和(B)所示,红外光传感器可以被用作空间传感器17,该红外光传感器包括发出红外光的红外发光单元17a和接收红外光的红外光接收单元17b。图4的部分(A)表示其中从与显示屏幕正交的z方向(即,x-y平面)看到立体显示设备10的平面图。图4的部分3(B)表示其中沿着z方向看到立体显示设备10的横截面的横截面图。该示例的空间传感器17具有其中包括红外发光单元17a和红外光接收单元17b的红外光传感器集合在z方向上被分层的配置。如图4的部分(C)所示,通过检测其中置于所述红外光传感器17a和17b集合当中的由指示体遮挡的红外光,检测到指示体与显示屏幕之间的间隔。根据在指示体与显示屏幕之间的间隔检测所需的分辨能力来判定红外光传感器在Z方向上之间的元件间隔。

在此处,虽然立体照相机(即,立体成像传感器)和红外光传感器已经作为空间传感器17被引入,但是毋庸赘述,可以使用其它种类的传感器。例如,电容类型触摸传感器(或触摸面板)可以被用作空间传感器。

图5是图示在图1中的立体显示设备10a中的指令接收处理示例的流程图。根据通过控制形成控制单元30的微处理器的程序来执行该处理。假定在开始该处理之前,将一个视点的指令2D图像输入在图像输入单元11中。

首先,确定是否已经设定优势眼信息(步骤S2)。也就是,判定是否将优势眼信息存储在存储单元15中。

在已经设定优势眼信息的情况下,基于优势眼信息,判定观察员的优势眼是左眼还是用户的优势眼是右眼(步骤S4)。在优势眼是右眼的情况下,事先对三维图像处理单元12给出通知,使得当指示体接近显示屏幕时,将指令左眼图像移位至指令右眼图像侧并且显示在立体显示单元13上(步骤S6)。在优势眼是左眼的情况下,事先对三维图像处理单元12给出通知,使得当指示体接近显示屏幕时,将指令右眼图像移位至指令左眼图像侧并且显示在立体显示单元13上(步骤S8)。因此,通过事先设定与优势眼信息相对应的移位信息,当指示体接近立体显示单元13的显示屏幕时,执行图像处理,使得用于不是优势眼的眼睛的指令图像的显示位置(例如,指令左眼图像)接近用于优势眼的指令图像的显示位置(例如,指令右眼图像)。

在尚未设定优势眼信息的情况下,事先对三维图像处理单元12给出通知,使得将指令左眼图像和指令右眼图像两者移位并且显示在立体显示单元13上(步骤S10)。也就是,由于不提供优势眼信息,所以事先设定优势眼信息使得执行如下默认的处理:当指示体接近立体显示单元13的显示屏幕时,使指令左眼图像和指令右眼图像接近两个指令图像的显示位置的中心。

随后,将指令图像立体地显示在立体显示单元13上(步骤S12)。也就是,基于由立体效果设定单元14设定的初始视差量,由三维图像处理单元12将由图像输入单元11获取的一个视点的指令2D图像转换成包括指令左眼图像和指令右眼图像的指令3D图像,并且将指令3D图像显示在立体显示单元13上。

随后,开始观察员的指令的接受(步骤S14)。在该示例中,由指令位置检测区域判定单元18基于存储在存储单元15中的优势眼信息来判定指令位置检测区域,并且指令位置检测区域被通知给确定单元19。

随后,从空间传感器17获取指示体的三维位置(px、py、pz)(步骤S16)。在该示例中,由图3中的复眼3D照相机42测量指示体的三维位置。在此处,在该示例中,px和py表示在与显示屏幕平行的平面上的坐标,并且px示出在水平方向上的位置。而且,pz示出离显示屏幕的距离(或间隔)。

随后,确定指示体的x-y位置(px、py)和指令3D图像的x-y位置是否匹配(步骤S18)。也就是,确定由空间传感器17检测到的指示体的x-y位置(px、py)是否在指令3D图像的x-y平面中的范围内。在将多个指令3D图像显示在立体显示单元13上的情况下,在所述多个指令3D图像当中指定面对指示体的指令3D图像。

在存在面对指示体的指令3D图像的情况下,确定相对于指令3D图像的弹出量dz和在指示体与显示屏幕之间的间隔pz而言是否规定pz<dz(步骤S20)。已经知道初始视差量d0(即,左右指令图像之间的距离)和与初始视差量d0相对应的弹出量dz0,并且首先确定是否建立pz<dz0。在此处,根据在观察员与显示屏幕之间的距离r和在观察员的两只眼睛之间的间隔s,通过dz0=(d0×r)/(d0+s)判定dz0。作为一个示例,在大约三英寸的LCD的情况下,可以计算s=65mm,并且r=300mm。关于r,可以针对观察员使用复眼照相机或距离传感器来计算精确的值。而且,可以执行脸部检测和面部检测以检测观察员的眼睛的位置并且计算s的精确值。

在面对指示体的指令3D图像存在并且建立pz<dz的情况下,通过使指令左眼图像和指令右眼图像中的至少一个在水平方向(即,x方向)上移位,由三维图像处理单元12调节指令左眼图像与指令右眼图像之间的视差量,使得建立dz=pz。也就是,基于在步骤S6、S8或S10中设定的移位信息集合,使得用于不是优势眼的眼睛的指令图像的显示位置接近用于优势眼的指令图像的显示位置。图6典型地图示了其中当优势眼是右眼时使用于左眼的指令左眼图像53L接近用于右眼的右眼指令右眼图像53R的状态。因此,当根据由空间传感器17检测到的间隔dz上的减小来减小视差量时,并且指令3D图像的立体图像54被移动并且受到指示体的按压。

随后,由确定单元19确定是否触摸了指令位置检测区域(步骤S24)。也就是,确定指示体是否触摸在显示屏幕中由指令位置检测区域判定单元18判定的指令位置检测区域(实际上,触摸面板的触摸表面包括立体显示单元13和触摸传感器16)。

在确定指令位置检测区域被触摸的情况下,通过在水平方向(即,x方向)上移位指令左眼图像和指令右眼图像中的至少一个,调节视差量使得指令3D图像的弹出量dz成为零(步骤S26)。也就是,基于在步骤S6、S8或S10中的移位信息集合,由三维图像处理单元12将指令3D图像切换至2D显示,使得指令左眼图像与指令右眼图像之间的视差量变成零。在该示例中,它进入其中显示仅用于优势眼的指令图像(例如,指令右眼图像,如果右眼是优势眼的话)的状态。

随后,执行与触摸操作相对应的动作(步骤S28)。也就是,执行与指令3D图像相对应的处理。

随后,确定是否终止该处理(步骤S30),在该处理终止的情况下终止处理,并且在该处理继续的情况下返回至步骤S16。

如上文使用图5所描述的,当间隔pz小于初始弹出量dz0时,根据在间隔pz上的减小来减小弹出量dz。图7的部分(A)至(D)图示了该状态。

在图7的部分(A)所示的状态下,由于间隔pz大于弹出量dz并且手指在3D按钮的立体图像54前面,所以即使间隔pz减小,也不会改变弹出量dz。如图7的部分(C)中所示,当间隔pz小于初始弹出量dz0时,通过根据间隔pz上的减小来减小视差量,控制单元30减小弹出量dz。如图7的部分(D)所示,当检测到手指的触摸时,三维图像处理单元12将3D按钮的指令3D图像切换至2D显示。例如,它进入仅显示优势眼的指令图像的状态。替代地,将视差量调节成变为dz=0。

当使触摸手指远离显示屏幕时,根据由空间传感器17检测到的间隔pz上的增加,可以使3D按钮的视差量增加。也就是,像从部分(D)、部分(C)至部分(B)以逆序看到图7的情况那样,根据间隔pz的增加,可以增加弹出量dz。然而,如图7的部分(A)所示,当间隔pz等于或大于初始弹出量dz0时,弹出量dz不增加。

如图7所示,虽然上文已经描述了其中间隔pz与初始弹出量dz0之间关系是当建立pz<dz0时弹出量dz逐渐减小的示例情况,但是作为另一个模式,当建立pz<dz0时,可以将弹出量dz设定为零。也就是,在pz<dz0时,切换至2D显示。

而且,已经描述了其中使用于不是优势眼的眼睛的指令图像的显示位置靠近用于优势眼的指令图像的显示位置的情况,基于优势眼的敏锐度可以移位指令图像。更具体地,将指示用户的优势眼和优势眼的敏锐度的优势眼信息事先存储在存储单元15中,并且,当根据在空间传感器17检测到间隔pz上的减小来减小视差量时,基于存储在存储单元15中的优势眼信息,三维图像处理单元12使得指令右眼图像的显示位置和指令左眼图像的显示位置两者接近如下位置:该位置与在指令右眼图像与指令左眼图像之间的中间位置相比更靠近用于优势眼的指令图像的显示位置并且通过根据优势眼的敏锐度的速率更靠近用于优势图像的指令图像的显示位置。

接着,对在多个指令3D图像被显示在立体显示单元13上的情况下的控制示例给出解释。

图8是在仅减小面对指示体的3D按钮的视差量的情况下的解释图。

在显示多个3D按钮54a、54b和54c的情况下,三维图像处理单元12基于由空间传感器17检测到的手指的三维位置来指定面对手指的3D按钮54b,并且,如图8的部分(B)和(C)中所示,对于在所述多个3D按钮54a、54b和54c当中的仅面对手指的3D按钮54b,通过根据间隔pz的减小来减小视差量来减小弹出量。

而且,在显示多个3D按钮54a、54b和54c的情况下,三维图像处理单元12基于由空间传感器17检测到的手指的三维位置来指定3D按钮54b,指定面对手指的3D按钮54b,并且,如图8的部分(D)所示,当检测到手指触摸到显示屏幕时,三维图像处理单元12将在所述多个3D按钮54a、54b和54c当中的仅面对手指的3D按钮54b切换至2D显示。

而且,在显示多个3D按钮54a、54b和54c的情况下,三维图像处理单元12基于从空间传感器17获取的指示体的三维位置来指定面对指示体的指令3D图像,基于由空间传感器17检测到的手指的三维位置来指定面对手指的3D按钮54b,并且,像以从部分(D)、部分(C)至部分(B)的逆序看到图8的情况那样,仅对于在所述多个3D按钮54a、54b和54c当中的面对手指的3D按钮54b而言,可以通过根据间隔pz的增加而增加视差量来减小弹出量dz。

图9是在放大仅面对指示体的指令3D图像的尺寸的情况下的解释图。

在显示多个3D按钮54a、54b,和54c的情况下,三维图像处理单元12基于由空间传感器17检测到的手指的三维位置来指定面对手指的3D按钮54b,并且,如图9的部分(A)和(B)中所示,在多个3D按钮54a、54b和54c当中的仅面对手指的3D按钮54b的尺寸被放大,并且3D按钮54a、54b和54c中的每一个的位置不被改变。而且,指令位置检测区域根据按钮尺寸的放大而扩大。

在以这种方式放大仅面对指示体的3D按钮的尺寸的情况下,要被按压的3D按钮变得容易被按压。而且,由于每个3D按钮的位置不改变,所以甚至在当要被按压的3D按钮改变至其它3D按钮的情况下,每个3D按钮也容易被按压。

图10是在将周围的指令3D图像移动远离面对指示体的指令3D图像的情况下的解释图。

在显示多个3D按钮54a、54b和54c的情况下,三维图像处理单元12基于由空间传感器17检测到的手指的三维位置来指定面对手指的3D按钮54c,并且,如图10的部分(A)和(B)中所示,将周围的3D按钮54a、54b、54d和54e(即,指令3D图像)移动远离面对手指的3D按钮54c(即,指令3D图像)。

在将其它3D按钮以这种方式移动远离面对指示体的3D按钮的情况下,要被按压的3D按钮变得容易被按压。然而,当手指在按钮的布置方向(例如,x方向)上移动时,显示位置顺利地移动,使得,在将要被按压的3D按钮改变至另一个3D按钮的情况下,按钮不会变得难以被按压。

接着,描述在图1所示的指令位置检测区域判定单元18中的指令位置检测区域判定。

取决于优势眼信息是否被存储在存储单元15中(即,优势眼信息是否存在),指令位置检测区域判定单元18切换指令位置检测区域的位置、尺寸和形状中的至少一个。

在优势眼信息存在的情况下,指令位置检测区域判定单元18使指令位置检测区域的尺寸小于在未提供优势眼信息的情况。

在优势眼信息存在的情况下,取决于用户的优势眼是右眼还是用户的优势眼是左眼,指令位置检测区域判定单元18切换检测区域的位置、尺寸和形状中的至少一个。

在优势眼信息存在的情况下,指令位置检测区域判定单元18将检测区域布置成更靠近指令右眼图像和指令左眼图像中的用于优势眼的指令图像的显示位置。而且,在优势眼信息存在的情况下,指令位置检测区域判定单元18判定指令位置检测区域,使得与指令右眼图像和指令左眼图像中的优势眼相对应的指令图像的至少部分被包括。

接着,对在未获取优势眼信息的情况下的指令位置检测区域给出解释。

在未获取用户的优势眼信息的情况下,不能仅通过检测仅在指令左眼图像位置与指令右眼图像位置之间的中间位置中的用户的指令来覆盖能够被指令的区域。这是因为其右眼是优势眼的用户趋向于指令指令右眼图像的周边,并且其左眼是优势眼的用户趋向于指令指令左眼图像的周边。因此,在未获取优势眼信息的情况下,如图11的部分(A)和(B)中所示,指令位置检测区域判定单元18判定指令位置检测区域56,使得指令右眼图像53R的至少部分和指令左眼图像53L的至少部分被包括。在此处,图11的部分(A)图示了在最小视差量(即,立体图像的最小弹出量)的情况下的示例,并且图11的部分(B)图示了在最大视差量(即,立体图像的最大弹出量)的情况下的示例。

在未获取用户的优势眼信息的情况下,存在从图1的配置省略优势眼信息设定单元20的第一情况,并且存在其中用户的优势眼信息不由在图1所示的配置中的优势眼信息设定单元20设定的第二情况。

接着,对其中测量优势眼信息的情况给出解释。图12是图示能够测量优势眼信息的立体显示设备10的配置示例的框图。在此处,相同的附图标记被分配给图1所示的组件,并且省略关于已解释的事项的解释。

图12中的立体显示设备10包括作为优势眼信息获取装置的优势眼测量单元21,通过优势眼测量单元21执行优势眼测量,并且将作为测量结果的优势眼信息存储在存储单元15中。控制单元30控制包括优势眼测量单元21的每个单元。

基于包括指令右眼图像53R和指令左眼图像53L的指令3D图像的视差量和在指令3D图像被显示在立体显示单元13上的状态下由指令位置检测单元16检测到的用户的指令位置,优势眼测量单元21计算优势眼参数。

优势眼参数在该示例中表示优势眼信息并且指示用户的优势眼连同优势眼的敏锐度水平(在下文中称为“优势眼程度”)。优势眼程度示出如何将立体显示单元13的显示屏幕上的用户的指令位置移位至指令右眼图像53R的显示位置和指令左眼图像53L的显示位置中的优势侧上的指令图像的显示位置。

例如,如图13的部分(A)至(C)所示,包括指令右眼图像53R和指令左眼图像53L的指令3D图像通过三种立体效果显示在立体显示单元13上。在该示例中,在三种(也就是小、中和大)之间改变立体效果(即,立体图像的弹出量)的同时显示指令3D图像。也就是,通过由立体效果设定单元14改变d1、d2和d3之间的视差量来改变指令3D图像的立体效果,促使用户执行关于每个指令3D图像的指令操作,并且由指令位置检测单元16检测到分别与视差量d1、d2和d3相对应的指令位置p1、p2和p3,作为立体显示单元13的显示屏幕上的坐标值。

在该示例中,使用w=a×d作为优势眼模型等式。在此处,“w”表示从一个指令图像的参考位置(在该示例中,其是指令右眼图像53R的中心位置)至指令位置的距离,“a”表示优势眼参数,并且“d”表示视差量。也就是,通过优势眼测量单元21,指令右眼图像53R的参考位置(即,中心位置)和与其相对应的指令左眼图像53L的参考位置(即,中心位置)被用作参考,并且计算数值a=w/d作为优势眼参数,示出指令位置更靠近(即,经移位的)的指令图像的参考位置的数值。

例如,在用户是惯用右眼的情况下,优势眼参数“a”小于0.5。也就是,指令位置成为更靠近指令右眼图像53R的中心位置的位置。在用户是惯用左眼的情况下,优势眼参数“a”变得大于0.5。也就是,指令位置成为更靠近指令左眼图像53L的中心位置的位置。在此处,在优势眼参数“a”变成0.5的情况下,虽然存在用户既是惯用右眼又是惯用左眼的高可能性,但是为了方便起见,可以处理成用户是惯用右眼的或惯用左眼的。

在此处,由于优势眼参数“a”因每个观察员(用户)而变化,所以优选的是,优势眼参数被存储在与用户ID(例如,名称)相关联的存储单元15中,并且指令位置检测区域的范围(即,位置和尺寸)由指令位置检测区域判定单元18为每个用户判定。

为了提高优势眼测量单元21的优势眼测量的测量精度,设定下列测量模式。

第一,存在在改变视差量的同时将指令3D图像多次显示在立体显示单元13上的模式,用户的指令位置由指令位置检测单元16多次检测,并且优势眼信息被计算。

第二,存在在改变显示位置的同时将指令3D图像多次显示在立体显示单元13上的模式,用户的指令位置由指令位置检测单元16多次检测,并且优势眼信息被计算。优选的是,每当显示指令3D图像一次时,就改变视差量。

第三,存在在改变显示位置的同时将指令3D图像的多个项目显示在立体显示单元13上的模式,用户的指令位置由指令位置检测单元16多次检测,并且优势眼信息被计算。优选的是,每个指令3D图像改变视差量。

由于该示例的立体显示设备10测量用户的优势眼和优势眼程度并且基于测量结果判定指令位置检测区域,所以可以更加精确地判定用户的指令。

在此处,在第一实施例至第三实施例中,虽然已经描述了根据用户的优势眼信息判定指令位置检测区域的位置和尺寸的示例情况,但是,可以根据用户的优势眼来判定位置和尺寸中的一个。而且,虽然已经描述了其中指令位置检测区域的形状是四边形的示例情况,但是指令位置检测区域的形状不特别地受到限制。例如,椭圆形状是可接受的。

而且,可以根据用户的优势眼来判定指令位置检测区域的形状。

虽然为了便于本发明的理解在上文中已经将仅四边形按钮图像图示为指令立体图像,但是“按钮图像”并不限于这样的图像并且包括接受指示体(诸如手指和触摸笔)的按压操作的各种立体图像。例如,包括3D图标图像和3D缩略图像。而且,在本发明中,“指令立体图像”不特别地受到“按钮图像”的限制。例如,包括通过诸如类似3D滑块的滑动操作、旋转操作、移动操作、扩大操作和缩小操作的各种触摸操作接受指令的各种图像。

而且,虽然已经描述了其中将指令立体图像显示成随着指示体接近显示屏幕而被按压的示例情况,但是本发明还适用于其中将指令立体图像显示成随着指示体接近显示屏幕而从显示屏幕中的深处接近显示屏幕的情况。

而且,控制单元30可以检测到,通过触摸传感器16(即,指令位置检测单元)输入指令的用户被改变。

例如,控制单元30(即,用户改变检测装置)计算由触摸传感器16检测到的指令位置(即,触摸位置)在由指令位置检测区域判定单元18判定的指令位置检测区域的范围之外的次数或频率,并且基于计算结果来检测用户的变化。控制单元30可以创建关于由触摸传感器16检测到的指令位置的历史信息并且基于关于指令位置的历史信息来检测用户的变化。例如,通过基于关于指令位置的历史信息检测优势眼或优势眼的敏锐度的改变来检测用户的变化。

在检测到用户的变化的情况下,控制单元30执行下列校准处理、检测模式切换处理、显示模式切换处理和通知处理中的至少一个处理。

在校准处理中,获取新用户的优势眼信息以相对于指令左眼图像和指令右眼图像的显示区域来判定检测区域的位置、尺寸和形状中的至少一个上的差别。

检测模式切换处理执行从第一检测模式到第二检测模式的切换,该第一检测模式基于优势眼信息根据用户的优势眼或优势眼的敏锐度来判定指令位置检测区域,该第二检测模式设定指令位置检测区域以默认其尺寸大于上述第一检测模式。

显示模式切换处理执行从显示指令3D图像的立体显示模式至显示指令2D图像的平面显示模式的切换。

可以从用户接受在用户的变化被检测到的情况下执行的处理的选择。

图14是图示根据上述第一至第三实施例的应用立体显示设备的基础硬件配置的框图。在图14中的立体显示设备10中,微处理器110包括根据第一和第二实施例的三维图像处理单元12、指令位置检测区域判定单元18、确定单元19、控制单元30和优势眼测量单元21。而且,介质接口101包括图像输入单元11。相对于如存储卡的立体显示设备10的主体可分离的介质而言,介质接口101执行数据读取和数据写入。作为介质接口101,可以使用经由网络执行通信的网络接口。

作为图14中的立体显示设备10,例如,存在能够执行立体显示的各种数字设备,诸如个人计算机、3D照相机设备、3D便携式终端设备、3D游戏设备、3D引导设备和3D电视设备。

在将图14中的立体显示设备10用作3D照相机设备的情况下,3D成像装置独立于空间传感器17被设定,该3D成像装置通过在多个视点处拍摄物体来获取拍摄的3D图像,并且在立体摄像单元中获取的拍摄的立体图像和指令立体图像被组合并且由立体显示单元13立体地显示。

虽然在上文中已经描述了由触摸传感器16检测到显示屏幕上的指令位置的示例情况,但是可以由空间传感器17检测到指令位置。

图15图示了其中能够由空间传感器17检测到指令位置的立体显示设备10的一个示例的整体配置。在图15中,为图12中所示的组件分配相同的附图标记,并且仅描述与图12的情况不同的要点。

空间传感器17检测由指示体指令的立体显示单元13的显示屏幕上的指令位置并且检测立体显示单元13的显示屏幕与指示体之间的间隔。确定单元19确定由空间传感器17检测到的指令位置是否在与指令3D图像相对应的检测区域内,并且接受与指令3D图像相对应的指令。

当指示体对显示屏幕的指令由空间传感器17检测到时,三维图像处理单元12将指令3D图像切换至平面显示。

根据该示例的空间传感器17,可以检测诸如手指的指示体是否触摸立体显示单元13的显示屏幕以及指示体触摸显示屏幕上的哪个位置。作为这样的空间传感器17的示例,存在立体照相机(例如,复眼3D照相机和单眼3D照相机)。

图16是图示图15所示的立体显示设备的基础硬件配置示例的框图。在图16中,对图14所示的组件分配相同的附图标记,并且存在与图14的情况不同的要点在于,还使用空间传感器17作为指令位置检测单元16。

上面公开的本发明和应用本发明的发明如下。

发明1:一种立体显示设备,包括:立体显示装置,所述立体显示装置用于显示用要由指示体指令的指令左眼图像和指令右眼图像形成的指令立体图像;空间传感器,所述空间传感器检测在所述立体显示装置的显示屏幕上由所述指示体指令的指令位置并且检测所述立体显示装置的显示屏幕与所述指示体之间的间隔;确定装置,所述确定装置用于确定由所述空间传感器检测到的指令位置是否在与所述指令立体图像相对应的检测区域内,并且接受与所述指令立体图像相对应的指令;视差量判定装置,所述视差量判定装置用于判定由所述立体显示装置显示的所述指令左眼图像与所述指令右眼图像之间的视差量,并且根据由所述空间传感器检测到的间隔上的减小来减小所述指令左眼图像与所述指令右眼图像之间的视差量;以及图像处理装置,所述图像处理装置用于通过由所述视差量判定装置判定的所述视差量将所述指令立体图像显示在所述立体显示装置上。

发明2:一种立体显示设备,包括:立体显示装置,所述立体显示装置用于显示用要由指示体指令的指令左眼图像和指令右眼图像形成的指令立体图像;触摸传感器,所述触摸传感器布置在所述立体显示装置的显示屏幕上并且检测由所述指示体触摸的指令位置;确定装置,所述确定装置用于确定其中由所述触摸传感器检测到所述触摸的指令位置是否在与所述指令立体图像相对应的检测区域内,并且接受与所述指令立体图像相对应的指令;空间传感器,所述空间传感器检测所述触摸传感器的触摸表面或所述立体显示装置的显示屏幕与所述指示体之间的间隔;视差量判定装置,所述视差量判定装置用于判定由所述立体显示装置显示的所述指令左眼图像与所述指令右眼图像之间的视差量,并且根据由所述空间传感器检测到的间隔上的减小来减小所述指令左眼图像与所述指令右眼图像之间的视差量;以及图像处理装置,所述图像处理装置用于通过由所述视差量判定装置判定的所述视差量将所述指令立体图像显示在所述立体显示装置上。

发明3:根据发明1所述的立体显示设备,其中,当由所述空间传感器检测到所述指示体到所述显示屏幕的指令时,所述图像处理装置将所述指令立体图像切换至平面显示。

发明4:根据发明2所述的立体显示设备,其中,当由所述触摸传感器检测到所述指示体到所述显示屏幕的触摸时,所述图像处理装置将所述指令立体图像切换至平面显示。

发明5:根据发明1至4中的任一项所述的立体显示设备,其中:所述空间传感器检测所述指示体在空间上的三维位置;并且,在将多个指令立体图像显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的三维位置来指定面对所述指示体的指令立体图像,并且,在所述多个指令立体图像当中,仅对于面对所述指示体的指令立体图像而言,所述图像处理装置根据所述间隔上的减小来减小所述指令右眼图像与所述指令左眼图像之间的视差量。

发明6:根据发明1至5中的一个所述的立体显示设备,其中:所述空间传感器检测所述指示体在空间上的三维位置;并且,在将多个指令立体图像显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的三维位置来指定面对所述指示体的指令立体图像,并且,当检测到所述指示体到所述显示屏幕的指令时,所述图像处理装置仅将在所述多个指令立体图像当中的面对所述指示体的指令立体图像切换至平面显示。

发明7:根据发明1至6中的一个所述的立体显示设备,其中:所述空间传感器检测所述指示体在空间上的三维位置;并且,在将多个指令立体图像显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的三维位置来指定面对所述指示体的立体图像并且放大在所述多个指令立体图像当中的仅面对所述指示体的指令立体图像。

发明8:根据发明1至7中的一个所述的立体显示设备,其中:所述空间传感器检测所述指示体在空间上的三维位置;并且,在将多个指令立体图像显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的三维位置来指定面对所述指示体的立体图像并且使周围的指令立体图像移动远离面对所述指示体的指令立体图像。

发明9:根据发明1至8中的一个所述的立体显示设备,其中,所述视差量判定装置根据由所述空间传感器检测到的间隔上的增加来增加所述指令右眼图像与所述指令左眼图像之间的视差量。

发明10:根据发明9所述的立体显示设备,其中:所述空间传感器检测所述指示体在空间上的三维位置;并且,在将多个指令立体图像显示在所述立体显示装置上的情况下,所述图像处理装置基于所述指示体的三维位置来指定面对所述指示体的指令立体图像,并且,在所述多个指令立体图像当中,仅对于面对所述指示体的指令立体图像而言,所述图像处理装置根据所述间隔上的增加来增加所述指令右眼图像与所述指令左眼图像之间的视差量。

发明11:根据发明1至10中的一个所述的立体显示设备,进一步包括用于存储指示用户的优势眼的优势眼信息的存储装置,其中,当根据所述间隔上的减小来减小所述视差量时,基于存储在所述存储装置中的优势眼信息,所述图像处理装置将用于不是所述指令右眼图像和所述指令左眼图像中的优势眼的眼睛的指令图像的显示位置移动至用于所述优势眼的指令图像的显示位置。

发明12:根据发明1至10中的一个所述的立体显示设备,进一步包括用于存储指示用户的优势眼的优势眼信息和所述优势眼的敏锐度的存储装置,其中,当根据在所述间隔上的减小来减小所述视差量时,基于存储在所述存储装置中的优势眼信息,所述图像处理装置将所述指令右眼图像的显示位置和所述指令左眼图像的显示位置两者移动至更靠近如下位置:该位置与在所述指令右眼图像与所述指令左眼图像之间的中间位置相比更靠近用于所述优势眼的指令图像的显示位置,并且在取决于所述优势眼的敏锐度的程度上更靠近用于所述优势眼的指令图像的显示位置。

发明13:根据发明11和12中的任一项所述的立体显示设备,进一步包括检测区域判定装置,所述检测区域判定装置用于至少基于所述优势眼信息来判定在所述立体显示装置的显示屏幕上指令位置的检测区域。

发明14:根据发明1至13中的任一项所述的立体显示设备,进一步包括优势眼信息获取装置,所述优势眼信息获取装置用于通过基于所述指令立体图像的视差量和在所述指令立体图像被显示在所述立体显示装置上状态下检测到的指令位置计算优势眼信息来获取所述优势眼信息。

发明15:根据发明1至13中的任一项所述的立体显示设备,进一步包括优势眼信息获取装置,所述优势眼信息获取装置用于通过接受所述优势眼信息的输入操作来获取优势眼信息。

发明16:根据发明1至15中的任一项所述的立体显示设备,其中,所述空间传感器是立体成像传感器、红外光传感器与电容传感器中的一个。

发明17:根据发明1至16中的任一项所述的立体显示设备,其中,所述指示体是手指和笔中的一个。

发明18-34:分别对应于发明1至17的指令接受方法。

发明35:一种立体显示设备,包括:立体显示装置,用于显示用指令右眼图像和指令左眼图像形成的指令立体图像以接受用户的指令;指令位置检测装置,用于检测在立体显示装置的显示屏幕上用户的指令位置;优势眼信息获取装置,用于获取指示用户的优势眼的优势眼信息;检测区域判定装置,用于至少基于优势眼信息来判定在立体显示装置的显示屏幕上的指令位置的检测区域;以及确定装置,用于通过确定由指令位置检测装置检测到的指令位置是否在检测区域内来接受与指令立体图像相对应的用户的指令。

发明36:根据发明35所述的立体显示设备,其中,取决于优势眼信息是否存在,所述检测区域判定装置切换所述检测区域的位置、尺寸和形状中的至少一个。

发明37:根据发明36所述的立体显示设备,其中,与在不存在优势眼信息的情况相比,在优势眼信息存在的情况下,检测区域判定装置将检测区域的尺寸设定成更小。

发明38:根据发明35至37中的一个所述的立体显示设备,其中,在优势眼信息存在的情况下,取决于用户的优势眼是右眼还是用户的优势眼是左眼,检测区域判定装置切换检测区域的位置、尺寸和形状中的至少一个。

发明39:根据发明38所述的立体显示设备,其中,在优势眼信息存在的情况下,检测区域判定装置将检测区域布置成更靠近指令右眼图像和指令左眼图像中的优势眼的指令图像的显示位置。

发明40:根据发明35至39中的一个所述的立体显示设备,其中,在优势眼信息存在的情况下,检测区域判定装置判定检测区域,使得指令图像的至少部分对应于指令右眼图像和指令左眼图像中的优势眼。

发明41:根据发明35至40中的一个所述的立体显示设备,其中,在优势眼信息不存在的情况下,检测区域判定装置判定检测区域,使得指令右眼图像的至少部分和指令左眼图像的至少部分被包括。

发明42:根据发明35至41中的一个所述的立体显示设备,其中,基于指令立体图像的视差量和在指令立体图像被显示在立体显示装置上的状态下由指令位置检测装置检测到的用户的指令位置,优势眼信息获取装置计算指示用户的优势眼和优势眼的敏锐度的优势眼信息。

发明43:根据发明42所述的立体显示设备,其中,指令立体图像多次显示在立体显示装置上,而视差量是变化的,用户的指令位置由指令位置检测装置多次检测,并且优势眼信息被计算。

发明44:根据发明42和43中的一个所述的立体显示设备,其中,指令立体图像多次显示在立体显示装置上,而显示位置是变化的,用户的指令位置由指令位置检测装置多次检测,并且优势眼信息被计算。

发明45:根据发明42和43中的一个所述的立体显示设备,其中,指令立体图像显示在立体显示装置上,而显示位置是变化的,用户的指令位置由指令位置检测装置多次检测,并且优势眼信息被计算。

发明46:根据发明35至41中的一个所述的立体显示设备,其中,优势眼信息获取装置接受用户的优势眼信息的输入操作。

发明47:根据发明35至46中的一个所述的立体显示设备,进一步包括:立体效果设定装置,用于接受指令立体图像的立体效果的量级的设定输入操作;以及指令立体图像生成装置,用于通过与立体效果的设定和输入量级相对应的视差量生成指令立体图像,其中:所述立体显示装置显示由所述指令立体图像生成装置生成的立体显示图像;并且所述检测区域判定装置也基于与立体效果的量级相对应的视差量来判定检测区域。

发明48:根据发明35至47中的一个所述的立体显示设备,进一步包括用于通过指令位置感测装置检测输入指令的用户的改变的用户改变检测装置。

发明49:根据发明48所述的立体显示设备,其中,用户改变检测装置计算由指令位置检测装置检测到的指令位置在由检测区域判定装置判定的检测区域的范围之外的次数或频率,并且基于计算结果来检测用户的改变。

发明50:根据发明48所述的立体显示设备,其中,用户改变检测装置创建关于由指令位置检测装置检测到的指令位置的历史信息并且基于关于指令位置的历史信息来检测用户的改变。

发明51:根据发明50所述的立体显示设备,其中,在一个实施例中,用户改变检测装置通过基于关于指令位置的历史信息检测优势眼或优势眼的敏锐度的改变来检测用户的改变。

发明52:根据发明48至51中的一个所述的立体显示设备,进一步包括执行下列各项中的至少一项的控制装置:校准处理,该校准处理获取关于新用户的优势眼信息并且相对于指令左眼图像和指令右眼图像的显示区域来判定检测区域的位置、尺寸和形状中的至少一个上的差别;检测模式切换处理,该检测模式切换处理执行从第一检测模式到第二检测模式的切换,该第一检测模式基于根据用户的优势眼或优势眼的敏锐度的优势眼信息来判定检测区域,该第二检测模式将与第一检测模式相比具有更大的尺寸的检测区域设定成默认;显示模式切换处理,该显示模式切换处理执行从显示指令立体图像的立体显示模式切换到显示平面指令图像的平面显示模式;以及输出通知的通知处理。

发明53:根据发明48至51所述的立体显示设备,进一步包括选择接收装置,该选择接收装置用于从用户接受在检测到用户的改变的情况下执行的处理的选择。

发明54:一种立体摄影设备,包括:根据发明45至52中的一个的立体显示设备;以及立体成像装置,用于获取通过从多个视点拍摄物体而拍摄的立体图像,其中所述立体显示装置组合拍摄的立体图像与指令立体图像并且执行立体显示。

发明54至72:分别对应于发明35至53的指令接受方法。

发明73:一种促使计算机执行根据发明18至34和54至72中的一个所述的指令接受方法的程序。

发明74:记录发明73中描述的程序的记录介质。也就是,可以在预定的记录介质中记录程序并且提供和使用该程序。

虽然已经描述了各种本发明的各种模式,但是毋庸赘述,该说明书中描述的事项可以尽可能被组合并且被实施。

本发明并不限于该说明书中描述的示例和附图所示的示例,并且自然的是,在不脱离本发明的范围的情况下,能够执行各种设计改变和改进。

附图标记清单

10 立体显示设备

11 图像输入单元

12 三维图像处理单元

13 立体显示单元

14 立体效果设定单元

15 存储单元

16 触摸传感器

17 空间传感器

18 指令位置检测区域判定单元

19 确定单元

20 优势眼信息设定单元

21 优势眼测量单元

30 控制单元

53R 指令右眼图像

53L 指令左眼图像

54 立体图像

56 指令位置检测区域

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1