信息处理装置、信息处理方法和程序的制作方法

文档序号:6370735阅读:77来源:国知局
专利名称:信息处理装置、信息处理方法和程序的制作方法
信息处理装置、信息处理方法和程序
相关申请的交叉引用
本申请基于2011年6月7日提交日本专利局的日本在先专利申请JP2011-127389 并且要求其优先权,该申请的整体内容通过引用合并于此。技术领域
本公开涉及一种信息处理装置、一种信息处理方法以及一种存储在非暂态计算机可读介质上的程序。
背景技术
目前,许多信息处理装置安装有触摸面板,用于用户通过直接触摸屏幕来操作显示屏幕中显示的对象。触摸面板的使用使得用户能够执行直观操作,并且具有如下优点不熟悉键盘或小键盘的操作用户能够容易地操作装置。
对于该技术,日本专利申请公布第2010-157189号公开了一种光学触摸面板,用户能够在不直接用手指触摸的情况下操作该光学触摸面板。发明内容
如上文所述,通过安装日本专利申请公布第2010-157189号中描述的光学触摸面板,可以在不直接触摸触摸面板的情况下执行手势操作输入。
然而,在空间中执行操作输入而不直接触摸触摸面板(如手势操作输入)的情况下,用户发现难于感知可操作的空间区域。
考虑到前文,本公开提出了一种信息处理装置、一种信息处理方法以及一种存储在非暂态计算机可读介质上的程序,它们是新型的和改进的并且能够表示其中检测操作的空间区域。
因此,本发明广泛地包括一种装置、一种方法和一种编码有使处理器执行所述方法的程序的非暂态计算机可读介质。在一个实施例中,该装置包括传感器,被配置成检测空间中的对象;以及显示控制单元,被配置成控制显示单元以显示参考对象,使得该参考对象呈现为位于空间中。
在另一实施例中,根据本公开的信息处理方法包括检测空间中的对象;以及控制显示单元以显示参考对象,使得该参考对象呈现为位于空间中。
如上文所述,根据本公开,可以表示其中检测操作的空间区域。


图I是用于说明根据本实施例的信息处理装置10的概况的视图2是根据本实施例的信息处理装置10的配置框图3是用于说明根据本实施例的相机17的设定的示意性横截面视图4是示出根据本实施例的信息处理装置10的空间区域S的视图5是示出根据本实施例的由操作输入单元15设定的空间区域S的示意性横截 面视图;图6是用于说明表示示例1的透视图;图7是用于说明表示示例2的透视图;图8是用于说明表示示例3的透视图;图9是用于说明表示示例4的状态过渡视图;图10是用于说明表不不例4的另一不例的视图;以及图11是是用于说明表示示例5的透视图。
具体实施例方式在下文中,将参照附图详细描述本发明的优选实施例。注意,在本说明书和附图 中,具有基本上相同的功能和结构的结构元件标有相同的附图标记,并且省略了这些结构 元件的重复说明。根据本公开的一个实施例,提供了一种装置,包括传感器,被配置成检测空间中 的对象;以及显示控制单元,被配置成控制显示单元以显示参考对象,使得该参考对象呈现 为位于空间中。根据本公开的另一实施例,提供了一种方法,包括检测空间中的对象;以及控制 显示单元以显示参考对象,使得该参考对象呈现为位于空间中。将以如下顺序进行说明。1.根据本实施例的信息处理装置的概况2.根据本实施例的信息处理装置的细节2-1.信息处理装置的配置2-2.空间区域的表示示例3.结论如上文所述,本说明书中说明的技术由下文描述的“1.根据本实施例的信息处理 装置的概况”和“2.根据本实施例的信息处理装置的细节”中描述的本实施例实施。本说 明书中说明的信息处理装置10和信息处理装置20包括A :操作检测单元(19),其检测空间中的操作;以及B :显示控制单元(11),其通过立体对象表示其中操作检测单元检测到空间中的 操作的空间区域。<1.根据本实施例的信息处理装置的概况〉首先,参照图1说明根据本公开的一个实施例的信息处理装置10的概况。图1是 用于说明根据本实施例的信息处理装置10的概况的视图。如图1中所示,信息处理装置10 包括显示单元13和相机17。根据本实施例的信息处理装置10提供了用户能够三维地和视觉地识别的立体对 象。作为用于观看立体对象的系统,使得用户能够观看具有视差的左眼对象L和右眼对象 R的双眼视差系统正在变得普遍。作为这种双眼视差系统,广泛地存在两种类型的系统,包 括使用眼镜的眼镜系统和不使用眼镜的裸眼系统。裸眼系统包括双凸透屏系统,其通过布 置桶状细微透镜(双凸透镜)来分离左眼对象L和右眼对象R的光路;以及视差屏障系统,其通过纵向细缝(视差屏障)来分离左眼对象L和右眼对象R的光路。
作为示例,根据本实施例的信息处理装置10通过使用户借助于裸眼系统观看双眼视差图像来提供立体对象。图I示出了显示单元13中的左眼对象L和右眼对象R,并且在这些对象前方示出了用户感知的立体对象30。信息处理装置10根据空间中的用户操作控制立体对象30的显示。
根据本实施例的信息处理装置10中包括的相机17对显示单元13的附近区域进行拍摄。信息处理装置10基于相机17拍摄的图像检测空间中的用户操作。
信息处理装置10可以使用与显示单元13集成的操作所输入单元15来检测空间中的用户操作。替选地,信息处理装置10可以使用操作输入单元15和相机17来检测空间中的用户操作,或者可以使用多个相机和其他传感器来检测用户操作。
根据上述信息处理装置10,通过在显示单元13中显示照片的二维图像,可以例如根据在空间中检测到的用户操作来切换所显示的照片的二维图像。信息处理装置10还可以通过在显示单元13中显示诸如图标和缩略图的待操作的立体对象,来控制与空间中待检测的对象的选择操作对应的显示的内容。
然而,由于一般的信息处理装置没有向用户传送其中可以检测用户操作的空间区域的手段,因此用户发现难于识别空间区域和在空间区域中执行适当的操作。
根据本公开的信息处理装置10通过使用立体对象来表示其中能够检测用户操作的空间区域。该配置使得用户能够清楚地识别其中信息处理装置10能够检测用户操作的空间区域。
上文说明了根据本公开的信息处理装置10的概述。接下来,将参照

根据本公开的信息处理装置10的细节。
〈2.根据本实施例的信息处理装置的细节〉
[2-1.信息处理装置的配置]
图2是根据本实施例的信息处理装置10的配置框图。如图2中所示,信息处理装置10包括显示控制单元11、显示单元13、操作输入单元15、相机17和检测单元19。下文说明了每个配置。
显示控制单元11具有生成将显示在显示单元13中的图像的功能。例如,显示控制单元11生成具有视差的双眼图像,并且将所生成的双眼图像输出到显示单元13。
根据本实施例的显示控制单元11通过立体对象表示其中检测用户操作的空间区域。具体地,显示控制单元11控制显示,使得在空间区域中感知立体对象。显示控制单元 11从存储单元(未示出)或检测单元19获取空间区域的三维坐标信息并且确定空间区域的范围。
立体对象基于用户的位置生成失真或者位置偏差。因此,显示控制单元11基于例如用户的脸的位置,执行表示空间区域的立体对象的显示控制。例如,基于拍摄位于显示单元13前方的用户的脸的相机(未示出)所拍摄的图像,检测用户的脸的位置。在[2-2.空间区域的表示示例]中详细说明了根据立体对象的空间区域的表示示例。
显示单元13显示从显示控制单元11输出的数据。例如,显示单元13通过显示具有视差的双眼图像来三维地显示对象。三维显示的对象可以是照片或视频,或者可以是操作按钮或图标的图像。在空间区域的表面部分处或内部感知根据本实施例的显示单元13三维显示的对象,并且该对象可以是表示空间区域的微粒或波纹形效果。
显示单元13可以是诸如液晶显示器(IXD)或有机电致发光(EL)显示器的显示装置。
操作输入单元15接收用户的操作指令,并且将操作的操作内容输出到检测单元 19。除了针对对象的操作之外,用户的操作指令还包括手势操作的操作指令。当操作输入单元15由检测空间中的用户操作的接近传感器实现时,操作输入单元15输出接近传感器的检测结果作为操作内容。操作输入单元15可以是与显示单元13集成设置的接近触摸面板。
相机17是检测空间中的用户操作并且将所拍摄的图像输入到检测单元19的图像传感器。相机17被设定为具有拍摄方向,使得相机17可以拍摄显示单元13的附近区域。 相机17的拍摄方向的设定信息可以存储在存储单元(未示出)中,作为指示其中检测用户操作的空间区域的信息。
参照图3说明相机17的详细设定示例。图3是用于说明根据本实施例的相机17 的设定的示意性横截面视图。如图3中所示,例如,相机17被设定为使得相机17从下方拍摄显示单元13前方的空间。通过该布置,相机17可以在拍摄区域A中拍摄空间中的用户操作。相机17可以安装在信息处理装置10中或者可以设置在外部。
尽管如图3中所示相机17的拍摄区域A在z方向上的宽度在显示单元13在y方向上的每个位置处不同,但是根据本实施例的信息处理装置10可以如图4中所示调整其中能够检测用户操作的三维空间区域S。
图4是示出根据本实施例的信息处理装置10的空间区域S的视图。如图4中所示,信息处理装置10可以将其中在z方向上距显示单元13的距离在显示单元13的整个表面上相同的空间设定为其中能够检测用户操作的空间区域S。例如,通过设置多个相机17 可以设定这样的空间区域S。
上述空间区域S还可以由与显示单元13集成的操作所输入单元15设定。图5是示出由操作输入单元15设定的空间区域S的示意性横截面视图。如图5中所示,例如,当操作输入单元15是与显示单元13集成设置的接近触摸面板时,空间区域S在z方向上的宽度在显示单元13在y方向上的每个位置处相同。
信息处理装置10还可以使用相机17和操作输入单元15两者,来设定图4中所示的空间区域S。
检测单元19是基于从操作输入单元15输入的操作内容(例如,接近传感器的检测结果)或者基于从相机17输入的所拍摄的图像来检测空间中的用户操作的操作检测单元。 根据本实施例的检测单元19可以在其中能够检测用户操作的空间区域S中检测诸如用户的手的操作物体的输入,并且可以检测操作物体的三维位置。
检测单元19例如基于相机17拍摄的拍摄图像来检测操作物体的三维位置。具体地,检测单元19根据所拍摄的图像检测诸如用户的手形和指尖的操作物体,基于在所拍摄的图像中检测到的操作物体的XY坐标和尺寸来将检测到的操作物体转换成三维坐标,并且检测操作物体的三维位置。
操作物体的三维位置的检测不限于基于拍摄图像的情况。例如,检测单元19可以基于从操作输入单元15输入的操作内容检测操作物体的三维位置。具体地,检测单元19基于来自由接近传感器等实现的操作输入单元15的操作内容(例如,接近传感器的检测结果),检测操作物体的三维位置。
上文已详细说明了根据本实施例的信息处理装置10的配置。接下来,参照

显示控制单元11的空间区域S的表示示例。
[2-2.空间区域的表示示例]
(表示示例I)
在表示示例I中,通过显示空间区域S以使得可以在进入空间区域S的操作物体的外周处感知立体对象,来表示空间区域S。通过该布置,用户可以通过实际上将手设定为接近空间区域S来识别空间区域S。下文参照图6说明了表示示例I。
图6是用于说明表示示例I的透视图。如图6中所示,当检测单元19检测到用户的手进入空间区域S时,显示控制单元11三维地显示微粒32,使得在用户的手的外周处感知微粒32。基于从检测单元19输出的操作物体的三维坐标来确定用户的手的外周。
微粒32的三维显示位置可以散布在空间区域S内部和外部。根据如上文所述的该配置,用户可以基于微粒32的出现,识别手的位置在空间区域S中。作为另一示例,微粒 32可以仅在空间区域S中三维显示。根据该配置,用户可以基于微粒32的出现识别手的位置在空间区域S中,并且还可以识别空间区域S中的手的外周处的区域。这样,在前后两者的示例中,用户都可以基于微粒32的出现识别手的位置在空间区域S中。因此,微粒32用作表示空间区域S的立体对象。
显示控制单元11还可以在检测到用户的手时在恒定时段中三维地显示微粒32, 并且随后仅在用户的手平移到空间区域S的表面部分附近时三维地显示微粒32。此外,显示控制单元11还可以总是或者在其中用户的手在空间区域S中的时段期间在每个恒定的时间三维地显示微粒32。
通过该布置,用户可以通过在显示单元13的外周处在空间中操作,直观地掌握空间区域S的表面部分或内部。
(表示示例2)
在表示示例2中,通过显示空间区域S以使得当手进入空间区域S时能够在空间区域S的表面部分处感知立体对象,来表示空间区域S的边界。通过该布置,用户可以通过实际将手设定成接近空间区域S来识别空间区域S的表面。下文参照图7说明了表示示例 2。
图7是用于说明表示示例2的透视图。如图7中所示,当检测单元19检测到用户的手进入空间区域S时,显示控制单元11在空间区域S的表面部分处三维地显示波纹形效果34,该波纹形效果34被感知为波从用户的手的外周散开。
根据如上文所述的该配置,由于用户可以基于波纹形效果34的出现来识别空间区域S的界面,因此波纹形效果34用作表示空间区域S的立体对象。
显示控制单元11还可以在检测到用户的手时在恒定时段中三维地显示波纹形效果34,并且随后仅在用户的手平移到空间区域S的表面部分附近时三维地显示波纹形效果34。此外,显示控制单元11还可以总是或者在其中用户的手在空间区域S的表面部分处的时段期间在每个恒定的时间三维地显示波纹形效果34。
通过该布置,用户可以通过在显示单元13的外周处在空间中操作,直观地掌握空间区域S的界面。
(表示示例3)
在表示示例3中,通过显示空间区域S以使得在空间区域S的表面部分处自动地感知立体对象,来表示空间区域S的边界。下文参照图8说明了表示示例3。
图8是用于说明表示示例3的透视图。如图8中所示,显示控制单元11在空间区域S的表面部分处三维地显示水表面效果35。显示控制单元11可以总是或者在每个恒定的时间三维地显示水表面效果35直至检测到用户操作,或者可以在接通信息处理装置10 的电源时或者在信息处理装置10中启动空间中的操作输入功能时三维地显示水表面效果35。
根据如上文所述的该配置,由于用户可以基于水表面效果35的自动出现来识别空间区域S的界面,因此水表面效果35用作表示空间区域S的立体对象。
通过该布置,由于在预定的定时由立体对象自动地表示空间区域S,因此用户可以在不实际执行空间中的操作的情况下直观地掌握空间区域S的界面。
(表示示例4)
在表示示例4中,当选择能够在空间区域S中直接操作的立体对象时,通过在立体对象的外周处三维地显示微粒来反馈选择操作。通过该布置,用户可以在视觉上识别用户已在空间区域S中选择立体对象。下文参照图9说明了表示示例4。
图9是用于说明表示示例4的状态过渡视图。如图9中的左侧到中间处所示,当检测单元19检测到用户的手进入空间区域S中时,显示控制单元11三维地显示微粒32,使得在用户的手的外周处感知微粒32。
按照与上述表示示例I中的方式相似的方式,微粒32可以被三维显示成散布在空间区域S内部和外部,或者仅散布在空间区域S中。在任一情况下,由于用户可以基于微粒 32的出现来识别手的位置在空间区域S中,因此微粒32用作表示空间区域S的立体对象。
此外,如图9中的右侧所示,用户的手平移到立体对象36的外周,并且待选择的立体对象36被选择。当检测单元19检测到的操作物体(在该情况下是用户的手)的三维位置与用户感知的立体对象36的位置匹配时,显示控制单元11确定立体对象36被选择。如上文所述,基于用户的位置在三维对象中出现失真或位置偏差。因此,显示控制单元11基于用户的脸的拍摄图像来识别用户的脸的位置,并且根据用户的脸的位置控制三维对象的显/Jn ο
当用户以这种方式选择立体对象36时,显示控制单元11进一步在立体对象36的外周处显示所选择的微粒38。
根据如上文所述的该配置,用户可以基于所选择的微粒38的出现来识别在手处已选择了待操作的立体对象36。
作为另一示例,显示控制单元11可以在用户选择立体对象36时仅三维地显示所选择的微粒38。图10是用于说明表示示例4的该另一示例的视图。如图10中所示,当用户选择立体对象36时,显示控制单元11在所选择的立体对象36的外周处三维地显示所选择的微粒38。
根据如上文所述的该配置,当选择待操作的立体对象36时,用户可以基于仅出现所选择的微粒38来更清楚地识别选择操作的反馈。
(表示示例5)
在表示示例5中,由用户的检测触发的立体对象表示空间区域S。通过该布置,可以避免由于在用户不存在期间显示立体对象引起的浪费的功耗。下文参照图11说明了表示示例5。
图11是用于说明表示示例5的透视图。通过在根据上文所述的实施例的信息处理装置10中设置相机23作为检测用户的传感器,获得了图11中所示的信息处理装置20。 检测用户的传感器不限于相机23,并且可以是例如红外传感器。
如图11中的左侧所示,相机23拍摄信息处理装置20的前方。如图11中的右侧所示,当相机23检测到人时,显示控制单元11在空间区域S的表面部分处三维地显示波纹形效果34。
在图11中,尽管在表面部分处显示波纹形效果34作为表示空间区域S的界面的立体对象,但是表示空间区域S的界面的三维显示不限于波纹形效果34,并且可以是例如图8中示出的水表面效果35。
<3.结论〉
如上文所述,基于根据本公开的实施例的信息处理装置10,可以通过由立体对象表示其中检测用户操作的空间区域S,使得用户能够识别空间区域S。
本领域技术人员应当理解,在所附权利要求及其等同物的范围内,可以根据设计需要和其他因素进行各种修改、组合、子组合和变更。
例如,表示空间区域的对象不限于上文所述的表示示例I至表示示例5中所示的图像。例如,可以布置成使得当手进入空间区域时,三维地显示被感知以使得光从手散开的对象。
通过组合表示示例I至表示示例5获得的表示示例也包括在本公开的技术范围内。
在上述实施例中,尽管利用通过平板计算机实现信息处理装置10的示例说明了根据本公开的信息处理装置10,但是本技术不限于该示例。例如,根据本公开的信息处理装置10可以是控制装置,其主要具有参照图2说明的显示控制单元11和检测单元19。在该情况下,该控制装置控制主要具有显示单元13和操作输入单元15的显示装置。此外,这种显示装置在外部设置有相机17。具有这种控制装置和这种显示装置的信息处理系统也包括在本技术中。
根据本公开的信息处理装置可以是头戴式显示器。在该情况下,头戴式显示器中包括的相机拍摄空间中的用户操作。可以布置成使得头戴式显示器中包括的显示控制单元三维地显示对象,使得在其中检测用户操作的空间区域中感知该对象。
此外,根据上文所述的实施例的信息处理装置10和信息处理装置20的配置也可以由诸如中央处理单元(CPU)、只读存储器(ROM)和随机存取存储器(RAM)的硬件配置实现。
此外,还可以制备呈现与根据上文所述的实施例的信息处理装置10和信息处理装置20的配置的功能相同的功能的计算机程序。还提供了存储该计算机程序的非暂态记录介质。记录介质的示例包括磁盘、光盘、磁光盘和闪速存储器。此外,计算机程序可以例如经由网络分送,而不使用记录介质。
此外,还可以如下配置本技术。
(I) 一种装置,包括
传感器,被配置成检测空间中的对象;以及
显示控制单元,被配置成控制显示单元以显示参考对象,使得所述参考对象呈现为位于空间中。
( 2 )根据(I)的装置,进一步包括
所述显示单元,被配置成显示图像。
(3)根据(I)或(2)的装置,其中所述传感器检测与所述显示单元的表面相邻的空间中的对象。
(4)根据(I)或(2)的装置,其中所述显示控制单元控制所述显示单元以将波纹图像显示为所述参考对象。
(5)根据(I)、(2)或(4)中任一个的装置,其中所述显示控制单元控制所述显示单元以将多个微粒的图像显示为所述参考对象。
(6 )根据(I)、( 2 )、( 4 )或(5 )中任一个的装置,其中所述显示控制单元控制所述显示单元以在空间中的固定位置显示所述参考对象。
(7 )根据(I)、( 2 )或(4 )至(6 )中任一个的装置,其中所述显示控制单元控制所述显示单元以在空间的外表面处显示参考对象。
(8)根据(I)、(2)或(4)至(7)中任一个的装置,其中所述显示控制单元控制所述显示单元以在所述传感器检测到的对象的位置处显示所述参考对象。
(9)根据(I)、(2)或(4)至(8)中任一个的装置,其中所述显示控制单元控制所述显示单元以在对象选择的图像的位置处显示所述参考对象。
(10)根据(I)、(2)或(4)至(9)中任一个的装置,其中所述显示控制单元控制所述显示单元使得在所述传感器未检测到任何对象的情况下,没有图像显示在所述显示单元中。
(11)根据(I)、(2)或(4)至(10)中任一个的装置,其中所述传感器包括至少一个红外相机。
(12)根据(I)、(2)或(4)至(11)中任一个的装置,其中所述传感器检测作为用户的身体一部分的操作物体。
(13)根据(1)、(2)或(4)至(12)中任一个的装置,其中所述参考对象是位于对象的操作位置处的立体对象。
(14) 一种方法,包括
检测空间中的对象;以及
控制显示单元以显示参考对象,使得所述参考对象呈现为位于空间中。
(15)—种编码有程序的非暂态计算机可读介质,所述程序在加载在处理器上时使所述处理器执行包括如下步骤的方法
检测空间中的对象;以及
控制显示单元以显示参考对象,使得所述参考对象呈现为位于空间中。
此外,还可以如下配置本技术。
(I) 一种信息处理装置,包括
操作检测单元,检测空间中的操作;以及
显示控制单元,其通过立体对象表示其中所述操作检测单元检测空间中的操作的空间区域。
(2)根据(I)的信息处理装置,其中
所述显示控制单元进行显示,使得在所述空间区域中检测到的操作的操作位置的外周处感知所述立体对象。
(3)根据(I)或(2)的信息处理装置,其中
所述显示控制单元进行显示,使得在所述空间区域的表面部分处感知所述立体对象。
( 4 )根据(I)至(3 )中任一项的信息处理装置,其中
所述显示控制单元进行显示,使得当通过所述操作检测单元在所述空间区域中选择对象时,在所述对象的外周处感知所述立体对象。
( 5 )根据(I)至(4 )中任一项的信息处理装置,其中
所述信息处理装置包括
用户检测单元,检测用户,以及
当所述用户检测单元检测到用户时,所述显示控制单元通过所述立体对象表示所述空间区域。
( 6 )根据(I)至(5 )中任一项的信息处理装置,其中
所述显示控制单元在每个恒定的时间表示所述立体对象。
(7) 一种信息处理方法,包括
检测空间中的操作;以及
通过立体对象表示其中所述检测步骤检测空间中的操作的空间区域。
(8) 一种程序,使计算机执行如下处理
检测空间中的操作的处理;以及
通过立体对象表示其中所述检测处理检测空间中的操作的空间区域的处理。
(9)根据(8)的程序,其中
所述程序使计算机执行显示处理,使得在所述空间区域中检测到的操作的操作位置的外周处感知所述立体对象。
(10)根据(8)或(9)的程序,其中
所述程序使计算机执行显示处理,使得在所述空间区域的表面部分处感知所述立体对象。
(11)根据(8)至(10)中任一项的信息处理装置,其中
所述程序使计算机执行显示处理,使得当检测到在所述空间区域中选择对象的操作时,在所述对象的外周处感知所述立体对象。
(12)根据(8)至(11)中任一项的信息处理装置,其中
所述程序使计算机执行如下处理
检测用户的处理;以及
当检测到用户时通过所述立体对象表示所述空间区域的处理。
( 13)根据(8)至(12)中任一项的信息处理装置,其中所述程序使计算机执行显示所述立体对象的处理使得在每个恒定的时间表示所述空间区 域。
权利要求
1.一种信息处理装置,包括 传感器,被配置成检测空间中的对象;以及 显示控制单元,被配置成控制显示单元以显示参考对象,使得所述参考对象呈现为位于空间中。
2.根据权利要求I所述的信息处理装置,进一步包括 所述显示单元,被配置成显示图像。
3.根据权利要求2所述的信息处理装置,其中所述传感器检测与所述显示单元的表面相邻的空间中的对象。
4.根据权利要求I所述的信息处理装置,其中所述显示控制单元控制所述显示单元以将波纹图像显示为所述参考对象。
5.根据权利要求I所述的信息处理装置,其中所述显示控制单元控制所述显示单元以将多个微粒的图像显示为所述参考对象。
6.根据权利要求I所述的信息处理装置,其中所述显示控制单元控制所述显示单元以在空间中的固定位置显示所述参考对象。
7.根据权利要求I所述的信息处理装置,其中所述显示控制单元控制所述显示单元以在空间的外表面处显示参考对象。
8.根据权利要求I所述的信息处理装置,其中所述显示控制单元控制所述显示单元以在所述传感器检测到的对象的位置处显示所述参考对象。
9.根据权利要求I所述的信息处理装置,其中所述显示控制单元控制所述显示单元以在对象选择的图像的位置处显示所述参考对象。
10.根据权利要求I所述的信息处理装置,其中所述显示控制单元控制所述显示单元使得在所述传感器未检测到任何对象的情况下,没有图像显示在所述显示单元中。
11.根据权利要求I所述的信息处理装置,其中所述传感器包括至少一个红外相机。
12.根据权利要求I所述的信息处理装置,其中所述传感器检测作为用户的身体一部分的操作物体。
13.根据权利要求I所述的信息处理装置,其中所述参考对象是位于对象的操作位置处的立体对象。
14.一种信息处理方法,包括 检测空间中的对象;以及 控制显示单元以显示参考对象,使得所述参考对象呈现为位于空间中。
15.一种编码有程序的非暂态计算机可读介质,所述程序在加载在处理器上时使所述处理器执行包括如下步骤的方法 检测空间中的对象;以及 控制显示单元以显示参考对象,使得所述参考对象呈现为位于空间中。
全文摘要
本公开涉及一种信息处理装置、一种信息处理方法以及一种编码有程序的非暂态计算机可读介质。根据本公开的信息处理装置包括传感器,被配置成检测空间中的对象;以及显示控制单元,被配置成控制显示单元以显示参考对象,使得该参考对象呈现为位于空间中。
文档编号G06F3/01GK102981605SQ20121017774
公开日2013年3月20日 申请日期2012年5月31日 优先权日2011年6月7日
发明者野田卓郎 申请人:索尼公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1