基于虚拟现实系统的头控交互方法及装置的制造方法

文档序号:10511616阅读:328来源:国知局
基于虚拟现实系统的头控交互方法及装置的制造方法
【专利摘要】本发明公开了一种基于虚拟现实系统的头控交互方法及装置,该方法包括:在虚拟现实系统处于头控状态下时,实时获取使用者的头部运动数据;根据头部运动数据确定显示界面显示的头控准星当前所在的位置及头控准星在位置上的停留时间;根据头控准星当前所在的位置及停留时间识别使用者执行的交互操作,且执行交互操作所对应的功能。本发明通过获取使用者的头部运动数据,并基于该运动数据确定头控准星当前所在的位置及停留时间,且基于该头控准星当前所在的位置及停留时间识别使用者执行的交互操作,能够有效的识别使用者通过头控的方式与显示界面的交互,且交互方式简单有效,改善使用者体验。
【专利说明】
基于虚拟现实系统的头控交互方法及装置
技术领域
[0001]本发明属于虚拟现实技术领域,尤其涉及一种基于虚拟现实系统的头控交互方法及装置。
【背景技术】
[0002]虚拟现实(VirtualReality,VR)技术是一种先进的、数字化的人机接口技术,其特点在于计算机产生一种人为虚拟的环境,生成一个以视觉感受为主,包括听觉、触觉的综合感知的人工环境,人们可以通过视觉、听觉、触觉和加速度等多种感觉通道感知计算机虚拟的虚拟世界,也可以也通过移动、语音、表情、手势及视线等最自然的方式和虚拟世界交互,从而产生身临其境的体验。
[0003]虚拟现实技术是计算机技术、传感器技术、人机交互技术、人工智能技术等多种技术的综合发展,目前,已经在军事、医学、教育、娱乐、制造业、工程训练等各个方面得到应用,它被认为是当前及将来影响人们生活的重要技术之一。
[0004]然而,目前,在虚拟现实系统中并无有效且简单的交互方式,限制了虚拟现实技术的发展及应用。

【发明内容】

[0005]本发明提供一种基于虚拟现实系统的头控交互方法及装置,用以解决现有技术在虚拟现实系统中无有效且简单的交互方式的问题。
[0006]本发明第一方面提供一种基于虚拟现实系统的头控交互方法,所述方法包括:
[0007]在虚拟现实系统处于头控状态下时,实时获取使用者的头部运动数据;
[0008]根据所述头部运动数据确定显示界面显示的头控准星当前所在的位置及所述头控准星在所述位置上的停留时间;
[0009]根据所述头控准星当前所在的位置及所述停留时间识别所述使用者执行的交互操作,且执行所述交互操作所对应的功能。
[0010]在第一方面第一种可行的实现方式中,所述根据所述头部运动数据确定显示界面显示的头控准星当前所在的位置及所述头控准星在所述位置上的停留时间的步骤包括:
[0011]解析所述头部运动数据,确定使用者的头部运动的轨迹及在所述轨迹中的暂停时间;
[0012]利用所述使用者的头部运动的轨迹控制所述头控准星的位置进行变化,且将所述头控准星变化后的位置作为所述头控准星当前所在的位置,将所述暂停时间作为所述头控准星在所述位置上的停留时间。
[0013]在第一方面第二种可行的实现方式中,所述根据所述头控准星当前所在的位置及所述停留时间识别所述使用者执行的交互操作的步骤包括:
[0014]确定所述头控准星当前所在的位置在所述显示界面上对应的项目;
[0015]根据所述停留时间确定所述使用者对所述项目执行的交互操作。
[0016]结合第一方面第二种可行的实现方式,在第一方面第三种可行的实现方式中,所述根据所述停留时间确定所述使用者对所述项目执行的交互操作的步骤包括:
[0017]若所述停留时间大于预先设置的第一数值,则确定所述使用者对所述项目执行选择操作;
[0018]若所述停留时间小于预先设置的第一数值,则确定所述使用者对所述项目未执行选择操作。
[0019]结合第一方面第一种可行的实现方式或者第二种可行的实现方式或者第三种可行的实现方式,在第一方面第四种可行的实现方式中,所述实时获取使用者的头部运动数据的步骤包括:
[0020]实时获取头部运动传感器感应到的所述使用者的头部运动数据;
[0021]或者,
[0022]实时获取摄像头拍摄的所述使用者的头部运动数据。
[0023]本发明第二方面提供一种基于虚拟现实系统的头控交互装置,所述装置包括:
[0024]获取模块,用于在虚拟现实系统处于头控状态下时,实时获取使用者的头部运动数据;
[0025]确定模块,用于根据所述头部运动数据确定显示界面显示的头控准星当前所在的位置及所述头控准星在所述位置上的停留时间;
[0026]识别模块,用于根据所述头控准星当前所在的位置及所述停留时间识别所述使用者执行的交互操作,且执行所述交互操作所对应的功能。
[0027]在第二方面第一种可行的实现方式中,所述确定模块包括:
[0028]解析确定模块,用于解析所述头部运动数据,确定使用者的头部运动的轨迹及在所述轨迹中的暂停时间;
[0029]变化确定模块,用于利用所述使用者的头部运动的轨迹控制所述头控准星的位置进行变化,且将所述头控准星变化后的位置作为所述头控准星当前所在的位置,将所述暂停时间作为所述头控准星在所述位置上的停留时间。
[0030]在第二方面第二种可行的实现方式中,其特征在于,所述识别模块包括:
[0031 ]项目确定模块,用于确定所述头控准星当前所在的位置在所述显示界面上对应的项目;
[0032]操作确定模块,用于根据所述停留时间确定所述使用者对所述项目执行的交互操作。
[0033]结合第二方面第二种可行的实现方式,在第二方面第三种可行的实现方式中,所述操作确定模块具体用于:
[0034]若所述停留时间大于预先设置的第一数值,则确定所述使用者对所述项目执行选择操作;
[0035]若所述停留时间小于预先设置的第一数值,则确定所述使用者对所述项目未执行选择操作。
[0036]结合第二方面第一种可行的实现方式或者第二种可行的实现方式或者第三种可行的实现方式,在第二方面第四种可行的实现方式中,所述获取模块具体用于:实时获取头部运动传感器感应到的所述使用者的头部运动数据;
[0037]或者,实时获取摄像头拍摄的所述使用者的头部运动数据。
[0038]从上述本发明实施例可知,在本发明中,在虚拟现实系统处于头控状态下时,实时获取使用者的头部运动数据,根据该头部运动数据确定显示界面显示的头控准星当前所在的位置及头控准星在该位置的停留时间,并根据该头控准星当前所在的位置及上述的停留时间识别使用者执行的交互操作,且执行该交互操作所对应的功能,使得能够有效实现使用者与虚拟现实系统之间的头控交互,交互方式简单方便,改善使用者体验。
【附图说明】
[0039]为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0040]图1为本发明第一实施例中基于虚拟现实系统的头控交互方法的流程示意图;
[0041]图2为本发明第二实施例中基于虚拟现实系统的头控交互方法的流程示意图;
[0042]图3为本发明第三实施例中基于虚拟现实系统的头控交互装置的结构示意图;
[0043]图4为本发明第四实施例中基于虚拟现实系统的头控交互装置的结构示意图。
【具体实施方式】
[0044]为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而非全部实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0045]请参阅图1,为本发明第一实施例中基于虚拟现实系统的头控交互方法的流程示意图,该方法包括:
[0046]步骤101、在虚拟现实系统处于头控状态下时,实时获取使用者的头部运动数据;
[0047]在本发明实施例中,虚拟现实系统中包含虚拟现实头盔或者虚拟现实眼镜,该虚拟现实头盔和该虚拟现实眼镜都包含显示器,该显示器勇于向使用者传递虚拟环境,使得使用者能够产生身临其境的感受。
[0048]在本发明实施例中,使用者可以通过头部控制的方式(简称:头控)与虚拟现实系统中的上述显示器进行交互,以控制显示器的显示。
[0049]在本发明实施例中,实现本发明基于虚拟现实系统的头控交互方法的是基于虚拟现实系统的头控交互装置(以下简称为:头控交互装置),且该头控交互装置是虚拟现实系统中的装置,例如可以是PC机、笔记本电脑,平板电脑、移动终端等。
[0050]其中,在虚拟现实系统处于头控状态下时,头控交互装置将实时获取使用者的头部运动数据。
[0051]在本发明实施例中,头控交互装置具体可以实时获取头部运动传感器感应到的使用者的头部运动数据。
[0052]具体的,虚拟现实系统中的虚拟现实头盔或者虚拟现实眼镜上设置了头部运动传感器,该头部运动传感器能够感应使用者头部的运动,使得使用者的头部动作在改变时,该头部运动传感器能够实时的感应到该使用者的头部运动数据,并将感应到的头部运动数据传输给头控交互装置。
[0053]其中,使用者头部的运动包括头部的旋转动作和小幅度偏转动作。
[0054]其中,该头部运动传感器可以是陀螺仪,且该陀螺仪能够用来定位360度空间中使用者的头部动作,能够感应围绕Χ、γ、ζ三个轴的旋转动作。其中围绕Z轴的旋转动作是指使用者头部以竖直方向为轴的旋转动作,即产生转动角变化的动作,例如使用者运动或基本静止状态下头部左右转动动作,也包括例如使用者直立站立或坐立状态下头头部和身体几乎无位移或者位移很小的情况下的头部左右转动动作。上述的围绕Χ、γ、ζ三个轴的旋转动作是指除了围绕Z轴的旋转动作以外,还包括使用者头部竖直方向轴向运动动作,即产生转动角、偏转角和俯仰角,例如使用者的任何头部转动动作,包括头部转动动作,点头动作,后仰动作,摆头动作等,当然也包括例如使用者直立站立或坐立状态下头部和身体几乎无位移或位移很小的情况下的头部转动动作、点头动作、后仰动作、摆头动作等。陀螺仪能够感应到使用者头部的上述动作,并生成头部运动数据。
[0055]或者;
[0056]头控交互装置还可以通过摄像头获取摄像头拍摄的使用者的头部运动数据。具体的:虚拟现实系统中设置了能够实时拍摄使用者头部的图像的摄像头,且摄像头在拍摄到使用者的头部运动数据(图像数据)之后,将该使用者的头部运动数据传输给头控交互装置。
[0057]其中,该摄像头优选为红外线摄像头,且还包括与该红外线摄像头配合的红外线发射器。在使用时,该红外线摄像头及该红外线发射器面向使用者,使得使用者的头部的运动范围落入该红外线摄像头的拍摄范围内。
[0058]其中,红外线发射器用于在上述拍摄范围内均匀投射红外光,红外线摄像头则用于记录该拍摄范围内的散斑数据,即使用者的头部运动数据,并将得到的头部运动数据传输给头控交互装置。
[0059]其中,红外线发射器向拍摄范围连续发射的均匀红外光照射到粗糙物体(如人体表面或衣物表面)上时,形成随机的反射斑点,即散斑。散斑具有高度随机性,也会随着距离而变换图案,空间中任何两处的散斑都会是不同的图案,相当于将整个空间加上了标记,所以任何物体进入该拍摄范围,以及移动时,都可以确定记录到该物体的位置,基于上述原理,基于红外线摄像头获得的数据能够确定使用者的头部运动,以实现对使用者的头部运动数据的获取。
[0060]步骤102、根据头部运动数据确定显示界面显示的头控准星当前所在的位置及头控准星在位置上的停留时间;
[0061]在虚拟现实系统中,当使用者的头部移动时,使用者视野中的场景元素不会随着视野移动,但是头控准星会一直保持在使用者视野中心。因此,在使用者的头部移动时,头控准星和场景元素会产生相对移动,因此,头控交互装置能够基于使用者的头部运动数据确定显示金额显示的头控准星当前所在的位置及头控准星在位置上的停留时间。
[0062]步骤103、根据头控准星当前所在的位置及停留时间识别使用者执行的交互操作,且执行交互操作所对应的功能。
[0063]在本发明实施例中,头控交互装置在确定头控准星当前所在的位置及停留时间后,将根据该头控准星当前所在的位置及停留时间识别使用者执行的交互操作,并执行该交互操作所对应的功能,例如:若该交互操作是点赞操作,则对该交互操作作用的项目进行点赞,若该交互操作是应用程序的启动操作,则启动所选择的应用程序。
[0064]其中,使用者在执行头控状态下的交互操作时,即是通过控制头控准星的位置及在位置上的停留时间来实现头控的。
[0065]在本发明实施例中,在虚拟现实系统处于头控状态下,头控交互装置实时获取使用者的头部运动数据,并根据该头部运动数据确定显示界面显示的头控准星当前所在的位置及头控准星在该位置上的停留时间,及根据该头控准星当前所在的位置及头控准星在该位置上的停留时间识别使用者执行的交互操作,并执行该交互操作所对应的功能,使得能够有效的实现头控交互,改善使用者的体验。
[0066]请参阅图2,为本发明第二实施例中基于虚拟现实系统的头控交互方法的流程示意图,该方法包括:
[0067]步骤201、在虚拟现实系统处于头控状态下时,实时获取使用者的头部运动数据;
[0068]步骤201与图1所示第一实施例中描述的步骤101的内容相似,此处不做赘述。
[0069 ]步骤202、解析头部运动数据,确定使用者的头部运动的轨迹及在轨迹中的暂停时间;
[0070]步骤203、利用使用者的头部运动的轨迹控制头控准星的位置进行变化,且将头控准星变化后的位置作为头控准星当前所在的位置,将暂停时间作为头控准星在位置上的停留时间;
[0071]在本发明实施例中,头控交互装置将解析使用者的头部运动数据,确定该使用者的头部运动的轨迹及在轨迹中的暂停时间,并利用使用者的头部运动的轨迹控制头控准星的位置进行变化,且将头控准星变化后的位置作为头控准星当前所在的位置,将该暂停时间作为头控准星在位置上的停留时间。例如:若使用者的头部运动的轨迹为向左转动,且转动后的暂停时间为5s,则根据该向左转动的动作确定头控准星在显示界面上的位置变化,并确定变化后头控准星当前所在的位置,且将暂停时间5s作为头控准星在该位置上的停留时间。
[0072]步骤204、确定头控准星当前所在的位置在显示界面上对应的项目;
[0073]步骤205、根据停留时间确定使用者对项目执行的交互操作,并执行交互操作所对应的功能。
[0074]在本发明实施例中,头控交互装置将根据头控准星当前所在的位置确定其在显示界面上对应的项目,并根据停留时间确定使用者对项目执行的交互操作,且执行交互操作所对应的功能,例如,若停留时间大于预先设置的第一数值,则确定使用者对项目执行选择操作;若停留时间小于预先设置的第一数值,则确定使用者对项目未执行选择操作。
[0075]其中,停留时间可以作为一个“程度”的衡量,比如说停留时间越长,则选择头控准星所对应的项目的可能性越大。且为了让使用者能够感受到头控准星在当前的位置的停留时间,还可以通过动画效果来表示头控准星在当前的位置的停留时间,使得使用者能够主观的感受到与显示界面的交互。
[0076]在本发明实施例中,虚拟现实系统处于头控状态下时,头控交互装置将实时获取使用者的头部运动数据,并解析该头部运动数据,确定使用者的头部运动的轨迹及在轨迹中的暂停时间,且利用该使用者的头部运动轨迹控制头控准星的位置变化,将头控准星变化后的位置作为头控准星当前所在的位置,及将上述的暂停时间作为头控准星在该位置上的停留时间,且还将确定头控准星当前所在的位置在显示界面上对应的项目,根据该停留时间确定使用者对该项目执行的交互操作,并执行该交互操作所对应的功能,使得能够基于使用者的头部运动数据控制头控准星,以实现与显示界面的交互,即实现头控,有效改善使用者的体验。
[0077]请参阅图3,图3是本发明第三实施例提供的基于虚拟现实系统的头控交互装置的结构示意图,包括:获取模块301、确定模块302及识别模块303。
[0078]各功能模块详细说明如下:
[0079]获取模块301,用于在虚拟现实系统处于头控状态下时,实时获取使用者的头部运动数据;
[0080]在本发明实施例中,虚拟现实系统中包含虚拟现实头盔或者虚拟现实眼镜,该虚拟现实头盔和该虚拟现实眼镜都包含显示器,该显示器勇于向使用者传递虚拟环境,使得使用者能够产生身临其境的感受。
[0081]在本发明实施例中,使用者可以通过头部控制的方式(简称:头控)与虚拟现实系统中的上述显示器进行交互,以控制显示器的显示。
[0082]在本发明实施例中,该头控交互装置是虚拟现实系统中的装置,例如可以是PC机、笔记本电脑,平板电脑、移动终端等。
[0083]其中,在虚拟现实系统处于头控状态下时,获取模块301将实时获取使用者的头部运动数据。
[0084]在本发明实施例中,获取模块301具体可以实时获取头部运动传感器感应到的使用者的头部运动数据。
[0085]具体的,虚拟现实系统中的虚拟现实头盔或者虚拟现实眼镜上设置了头部运动传感器,该头部运动传感器能够感应使用者头部的运动,使得使用者的头部动作在改变时,该头部运动传感器能够实时的感应到该使用者的头部运动数据,并将感应到的头部运动数据传输给头控交互装置中的获取模块301。
[0086]其中,使用者头部的运动包括头部的旋转动作和小幅度偏转动作。
[0087]其中,该头部运动传感器可以是陀螺仪,且该陀螺仪能够用来定位360度空间中使用者的头部动作,能够感应围绕Χ、γ、ζ三个轴的旋转动作。其中围绕Z轴的旋转动作是指使用者头部以竖直方向为轴的旋转动作,即产生转动角变化的动作,例如使用者运动或基本静止状态下头部左右转动动作,也包括例如使用者直立站立或坐立状态下头头部和身体几乎无位移或者位移很小的情况下的头部左右转动动作。上述的围绕Χ、γ、ζ三个轴的旋转动作是指除了围绕Z轴的旋转动作以外,还包括使用者头部竖直方向轴向运动动作,即产生转动角、偏转角和俯仰角,例如使用者的任何头部转动动作,包括头部转动动作,点头动作,后仰动作,摆头动作等,当然也包括例如使用者直立站立或坐立状态下头部和身体几乎无位移或位移很小的情况下的头部转动动作、点头动作、后仰动作、摆头动作等。陀螺仪能够感应到使用者头部的上述动作,并生成头部运动数据。
[0088]或者;
[0089]获取模块301还可以通过摄像头获取摄像头拍摄的使用者的头部运动数据。具体的:虚拟现实系统中设置了能够实时拍摄使用者头部的图像的摄像头,且摄像头在拍摄到使用者的头部运动数据(图像数据)之后,将该使用者的头部运动数据传输给头控交互装置。
[0090]其中,该摄像头优选为红外线摄像头,且还包括与该红外线摄像头配合的红外线发射器。在使用时,该红外线摄像头及该红外线发射器面向使用者,使得使用者的头部的运动范围落入该红外线摄像头的拍摄范围内。
[0091]其中,红外线发射器用于在上述拍摄范围内均匀投射红外光,红外线摄像头则用于记录该拍摄范围内的散斑数据,即使用者的头部运动数据,并将得到的头部运动数据传输给头控交互装置。
[0092]其中,红外线发射器向拍摄范围连续发射的均匀红外光照射到粗糙物体(如人体表面或衣物表面)上时,形成随机的反射斑点,即散斑。散斑具有高度随机性,也会随着距离而变换图案,空间中任何两处的散斑都会是不同的图案,相当于将整个空间加上了标记,所以任何物体进入该拍摄范围,以及移动时,都可以确定记录到该物体的位置,基于上述原理,基于红外线摄像头获得的数据能够确定使用者的头部运动,以实现对使用者的头部运动数据的获取。
[0093]确定模块302,用于根据头部运动数据确定显示界面显示的头控准星当前所在的位置及头控准星在位置上的停留时间;
[0094]在虚拟现实系统中,当使用者的头部移动时,使用者视野中的场景元素不会随着视野移动,但是头控准星会一直保持在使用者视野中心。因此,在使用者的头部移动时,头控准星和场景元素会产生相对移动,因此,头控交互装置中的确定模块302能够基于使用者的头部运动数据确定显示金额显示的头控准星当前所在的位置及头控准星在位置上的停留时间。
[0095]识别模块303,用于根据头控准星当前所在的位置及停留时间识别使用者执行的交互操作,且执行交互操作所对应的功能。
[0096]在本发明实施例中,在确定头控准星当前所在的位置及停留时间后,识别模块303将根据该头控准星当前所在的位置及停留时间识别使用者执行的交互操作,并执行该交互操作所对应的功能,例如:若该交互操作是点赞操作,则对该交互操作作用的项目进行点赞,若该交互操作是应用程序的启动操作,则启动所选择的应用程序。
[0097]其中,使用者在执行头控状态下的交互操作时,即是通过控制头控准星的位置及在位置上的停留时间来实现头控的。
[0098]在本发明实施例中,在虚拟现实系统处于头控状态下,头控交互装置中的获取模块301实时获取使用者的头部运动数据,并由确定模块302根据该头部运动数据确定显示界面显示的头控准星当前所在的位置及头控准星在该位置上的停留时间,及由识别模块303根据该头控准星当前所在的位置及头控准星在该位置上的停留时间识别使用者执行的交互操作,并执行该交互操作所对应的功能,使得能够有效的实现头控交互,改善使用者的体验。
[0099]请参阅图4,为本发明第四实施例中基于虚拟现实系统的头控交互装置的结构示意图,包括:如图3所示第三实施例中的获取模块301、确定模块302及识别模块303,且与图3所示第三实施例中描述的内容相似,此处不做赘述。
[0100]在本发明实施例中,确定模块302包括:
[0101]解析确定模块401,用于解析头部运动数据,确定使用者的头部运动的轨迹及在轨迹中的暂停时间;
[0102]变化确定模块402,用于利用使用者的头部运动的轨迹控制头控准星的位置进行变化,且将头控准星变化后的位置作为头控准星当前所在的位置,将暂停时间作为头控准星在位置上的停留时间。
[0103]在本发明实施例中,确定模块302中的解析确定模块401将解析使用者的头部运动数据,确定该使用者的头部运动的轨迹及在轨迹中的暂停时间,并由变化确定模块402利用使用者的头部运动的轨迹控制头控准星的位置进行变化,且将头控准星变化后的位置作为头控准星当前所在的位置,将该暂停时间作为头控准星在位置上的停留时间。例如:若使用者的头部运动的轨迹为向左转动,且转动后的暂停时间为5s,则根据该向左转动的动作确定头控准星在显示界面上的位置变化,并确定变化后头控准星当前所在的位置,且将暂停时间5s作为头控准星在该位置上的停留时间。
[0104]在本发明实施例中,识别模块303包括:
[0105]项目确定模块403,用于确定头控准星当前所在的位置在显示界面上对应的项目;
[0106]操作确定模块404,用于根据停留时间确定使用者对项目执行的交互操作。
[0107]其中,操作确定模块404具体用于:
[0108]若停留时间大于预先设置的第一数值,则确定使用者对项目执行选择操作;
[0109]若停留时间小于预先设置的第一数值,则确定使用者对项目未执行选择操作。
[0110]在本发明实施例中,获取模块301具体用于:实时获取头部运动传感器感应到的使用者的头部运动数据;或者,实时获取摄像头拍摄的使用者的头部运动数据。
[0111]在本发明实施例中,项目确定模块403将根据头控准星当前所在的位置确定其在显示界面上对应的项目,并由操作确定模块404根据停留时间确定使用者对项目执行的交互操作,且执行交互操作所对应的功能,例如,若停留时间大于预先设置的第一数值,则确定使用者对项目执行选择操作;若停留时间小于预先设置的第一数值,则确定使用者对项目未执行选择操作。
[0112]其中,停留时间可以作为一个“程度”的衡量,比如说停留时间越长,则选择头控准星所对应的项目的可能性越大。且为了让使用者能够感受到头控准星在当前的位置的停留时间,还可以通过动画效果来表示头控准星在当前的位置的停留时间,使得使用者能够主观的感受到与显示界面的交互。
[0113]在本发明实施例中,虚拟现实系统处于头控状态下时,头控交互装置中的获取模块301将实时获取使用者的头部运动数据,并由解析确定模块301解析该头部运动数据,确定使用者的头部运动的轨迹及在轨迹中的暂停时间,且变化确定模块402利用该使用者的头部运动轨迹控制头控准星的位置变化,将头控准星变化后的位置作为头控准星当前所在的位置,及将上述的暂停时间作为头控准星在该位置上的停留时间,且还将由项目确定模块403确定头控准星当前所在的位置在显示界面上对应的项目,及由操作确定模块404根据该停留时间确定使用者对该项目执行的交互操作,并执行该交互操作所对应的功能,使得能够基于使用者的头部运动数据控制头控准星,以实现与显示界面的交互,即实现头控,有效改善使用者的体验。
[0114]在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
[0115]所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
[0116]另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
[0117]所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0118]需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本发明所必须的。
[0119]在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
[0120]以上为对本发明所提供的一种基于虚拟现实系统的头控交互方法及装置的描述,对于本领域的技术人员,依据本发明实施例的思想,在【具体实施方式】及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本发明的限制。
【主权项】
1.一种基于虚拟现实系统的头控交互方法,其特征在于,所述方法包括: 在虚拟现实系统处于头控状态下时,实时获取使用者的头部运动数据; 根据所述头部运动数据确定显示界面显示的头控准星当前所在的位置及所述头控准星在所述位置上的停留时间; 根据所述头控准星当前所在的位置及所述停留时间识别所述使用者执行的交互操作,且执行所述交互操作所对应的功能。2.根据权利要求1所述的头控交互方法,其特征在于,所述根据所述头部运动数据确定显示界面显示的头控准星当前所在的位置及所述头控准星在所述位置上的停留时间的步骤包括: 解析所述头部运动数据,确定使用者的头部运动的轨迹及在所述轨迹中的暂停时间;利用所述使用者的头部运动的轨迹控制所述头控准星的位置进行变化,且将所述头控准星变化后的位置作为所述头控准星当前所在的位置,将所述暂停时间作为所述头控准星在所述位置上的停留时间。3.根据权利要求1所述的头控交互方法,其特征在于,所述根据所述头控准星当前所在的位置及所述停留时间识别所述使用者执行的交互操作的步骤包括: 确定所述头控准星当前所在的位置在所述显示界面上对应的项目; 根据所述停留时间确定所述使用者对所述项目执行的交互操作。4.根据权利要求3所述的头控交互方法,其特征在于,所述根据所述停留时间确定所述使用者对所述项目执行的交互操作的步骤包括: 若所述停留时间大于预先设置的第一数值,则确定所述使用者对所述项目执行选择操作; 若所述停留时间小于预先设置的第一数值,则确定所述使用者对所述项目未执行选择操作。5.根据权利要求1至4任意一项所述的方法,其特征在于,所述实时获取使用者的头部运动数据的步骤包括: 实时获取头部运动传感器感应到的所述使用者的头部运动数据; 或者, 实时获取摄像头拍摄的所述使用者的头部运动数据。6.—种基于虚拟现实系统的头控交互装置,其特征在于,所述装置包括: 获取模块,用于在虚拟现实系统处于头控状态下时,实时获取使用者的头部运动数据;确定模块,用于根据所述头部运动数据确定显示界面显示的头控准星当前所在的位置及所述头控准星在所述位置上的停留时间; 识别模块,用于根据所述头控准星当前所在的位置及所述停留时间识别所述使用者执行的交互操作,且执行所述交互操作所对应的功能。7.根据权利要求6所述的头控交互装置,其特征在于,所述确定模块包括: 解析确定模块,用于解析所述头部运动数据,确定使用者的头部运动的轨迹及在所述轨迹中的暂停时间; 变化确定模块,用于利用所述使用者的头部运动的轨迹控制所述头控准星的位置进行变化,且将所述头控准星变化后的位置作为所述头控准星当前所在的位置,将所述暂停时间作为所述头控准星在所述位置上的停留时间。8.根据权利要求6所述的头控交互装置,其特征在于,所述识别模块包括: 项目确定模块,用于确定所述头控准星当前所在的位置在所述显示界面上对应的项目; 操作确定模块,用于根据所述停留时间确定所述使用者对所述项目执行的交互操作。9.根据权利要求8所述的头控交互装置,其特征在于,所述操作确定模块具体用于: 若所述停留时间大于预先设置的第一数值,则确定所述使用者对所述项目执行选择操作; 若所述停留时间小于预先设置的第一数值,则确定所述使用者对所述项目未执行选择操作。10.根据权利要求6至9任意一项所述的装置,其特征在于,所述获取模块具体用于:实时获取头部运动传感器感应到的所述使用者的头部运动数据;或者,实时获取摄像头拍摄的所述使用者的头部运动数据。
【文档编号】G06F3/01GK105867613SQ201610159807
【公开日】2016年8月17日
【申请日】2016年3月21日
【发明人】周正
【申请人】乐视致新电子科技(天津)有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1