一种虚拟场景调整方法及头戴式智能设备与流程

文档序号:12118345阅读:237来源:国知局
一种虚拟场景调整方法及头戴式智能设备与流程

本发明涉及电子领域,特别是涉及一种虚拟场景调整方法及头戴式智能设备。



背景技术:

目前虚拟现实(Virtual Reality,简称VR)产品体验中,困扰用户和开发者的最大一个问题就是晕动症。晕动症之所以会发生是因为感官冲突,简单来说,用户在虚拟现实中发生了移动,但在现实中却没有进行移动,这会造成感官冲突,从而引起晕动症。其中,晕动症最主要的来源是在虚拟现实中的移动以及画面切换,因为受限于技术原因,用户没法在现实世界中模拟虚拟现实运动,所以晕动症的问题普遍存在。

目前主要的解决方法中,一方面是通过硬件方法对用户全身动作的精确、快速追踪来降低虚拟现实中的动作与现实世界中的动作匹配不一致,另一方面是通过软件方法来实现舒适的虚拟现实交互体验。但这些方法都存在成本高昂、局限性大以及效果不佳等问题。



技术实现要素:

本发明主要解决的技术问题是提供一种虚拟场景调整方法及头戴式智能设备,能够降低晕动症发生的概率和其产生的影响。

为解决上述技术问题,本发明采用的一个技术方案是:提供一种虚拟场景调整方法,包括:采集头部动作数据;根据头部动作数据生成第一虚拟场景调整指令来对虚拟场景进行调整;采集手势图像数据;对手势图像数据进行手势识别以获取手势姿态数据;在手势姿态数据满足预设标准的情况下,利用手势姿态数据生成第二虚拟场景调整指令并替代第一虚拟场景调整指令来对虚拟场景进行调整。

其中,利用手势姿态数据生成第二虚拟场景调整指令并替代第一虚拟场景调整指令来对虚拟场景进行调整的步骤之前,进一步包括:根据用户输入设置第二虚拟场景调整指令对虚拟场景的调整速度;利用所述手势姿态数据生成第二虚拟场景调整指令并替代第一虚拟场景调整指令来对虚拟场景进行调整的步骤包括:根据第二虚拟场景调整指令以调整速度来对虚拟场景进行调整。

其中,根据用户输入设置第二虚拟场景调整指令对虚拟场景的调整速度的步骤包括:根据第二虚拟场景调整指令以不同的候选调整速度分别生成虚拟场景预览图像,并呈现给用户;根据用户对虚拟场景预览图像的选择从候选调整速度中指定调整速度。

其中,第二虚拟场景调整指令用于控制虚拟场景的移动、转动以及缩放中的至少一者。

其中,对手势图像数据进行手势识别以获取手势姿态数据之后,进一步包括:对手势图像数据进行手势自学习,以在手势图像数据不完整时进行预判,获取手势姿态数据。

为解决上述技术问题,本发明采用的另一个技术方案是:提供一种头戴式智能设备,包括:头部采集模块,用于采集头部动作数据;场景调整模块,用于根据头部动作数据生成第一虚拟场景调整指令来对虚拟场景进行调整;手势采集模块,用于采集手势图像数据;手势识别模块,用于对手势图像数据进行手势识别以获取手势姿态数据;场景调整模块进一步用于在手势姿态数据满足预设标准的情况下,利用手势姿态数据生成第二虚拟场景调整指令并替代第一虚拟场景调整指令来对虚拟场景进行调整。

其中,头戴式智能设备进一步包括速度设置模块,用于根据用户输入设置第二虚拟场景调整指令对虚拟场景的调整速度;场景调整模块进一步包括:场景调整单元,用于根据第二虚拟场景调整指令以调整速度来对虚拟场景进行调整。

其中,速度设置模块包括:场景预览单元,用于根据第二虚拟场景调整指令以不同的候选调整速度分别生成虚拟场景预览图像,并呈现给用户;速度选择单元,用于根据用户对虚拟场景预览图像的选择从候选调整速度中指定调整速度。

其中,第二虚拟场景调整指令用于控制虚拟场景的移动、转动以及缩放中的至少一者。

其中,头戴式智能设备进一步包括手势自学习模块,用于对手势图像数据进行手势自学习,以在手势图像数据不完整时进行预判,获取手势姿态数据。

本发明的有益效果是:区别于现有技术的情况,本发明在手势姿态数据满足预设标准的情况下,利用手势姿态数据生成第二虚拟场景调整指令并替代第一虚拟场景调整指令来对虚拟场景进行调整,使得头部动作及满足预设标准的手部动作分开调整虚拟场景,防止由于头部动作和手部动作同时调整虚拟场景造成较明显的感官冲突,从而降低晕动症发生的概率和其产生的影响,而且可以根据手势关键节点的移动速度控制虚拟场景的调整速度,从而可以用户适应的速度调整虚拟场景,进一步降低晕动症发送的概率。

附图说明

图1是本发明虚拟场景调整方法第一实施方式的流程图;

图2是本发明虚拟场景调整方法第二实施方式的流程图;

图3是本发明虚拟场景调整方法第三实施方式的流程图;

图4是本发明头戴式智能设备第一实施方式的结构示意图;

图5是本发明头戴式智能设备第二实施方式的结构示意图;

图6是本发明头戴式智能设备第三实施方式的结构示意图;

图7是本发明头戴式智能设备第四实施方式的结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

请参阅图1,图1是本发明虚拟场景调整方法第一实施方式的流程图。如图1所示,本发明虚拟场景调整方法包括:

步骤S101:采集头部动作数据;

其中,头部动作数据至少包括头部转动的角度值和相对位置的变化值。

具体地,在一个应用例中,头部动作数据来自部署于头戴式智能设备内部的惯性传感器。惯性传感器是应用惯性原理和测量技术,感受载体运动的加速度、位置和姿态的敏感装置,包括陀螺仪和加速度计。其中,陀螺仪测量头部转动的角度值和方向,加速度计测量头部转动的加速度以计算出头部转动的距离,即头部相对位置的变化值。

步骤S102:根据头部动作数据生成第一虚拟场景调整指令来对虚拟场景进行调整;

具体地,第一虚拟场景调整指令至少包括视角调整指令和视野范围调整指令;在上述应用例中,根据头部转动的角度值生成第一虚拟场景视角调整指令,根据头部相对位置的变化值生成第一虚拟场景视野范围调整指令,采用生成的第一虚拟场景视角调整指令和第一虚拟场景视野范围调整指令分别调整虚拟场景的视角和视野范围。例如,惯性传感器采集到的头部向左转动20度,头部向左移动20厘米,根据上述数据可生成第一虚拟场景视角调整指令为视角向左移动20度,第一虚拟场景视野范围调整指令为视野范围向左移动20厘米,则根据第一虚拟场景视角调整指令和第一虚拟场景视野范围调整指令将虚拟场景视角向左移动20度,视野范围向左移动20厘米。

步骤S103:采集手势图像数据;

其中,手势图像数据是由部署于头戴式智能设备上的双目摄像头拍摄的手势图像。

步骤S104:对手势图像数据进行手势识别以获取手势姿态数据;

其中,手势姿态数据至少包括手型、手势关键节点的位置、移动轨迹和移动速度。

具体地,双目摄像头采集到同一时刻的手势图像数据后,比对两个图像的差别并根据几何原理计算手势距离摄像头的深度信息,然后根据计算机视觉技术和手势识别算法,可识别出手型、手势关键节点的位置、移动轨迹和移动速度。其中,手势关键节点是指根和指尖,手势识别算法可以根据手势识别精度选择,此处不做具体限定。

步骤S105:在手势姿态数据满足预设标准的情况下,利用手势姿态数据生成第二虚拟场景调整指令并替代第一虚拟场景调整指令来对虚拟场景进行调整。

其中,第二虚拟场景调整指令用于控制虚拟场景的移动、转动以及缩放中的至少一者。

具体地,头戴式智能设备内部预先设定用于调整虚拟场景的预设手势数据,在手势识别后获取的手势姿态数据满足预设标准,即手势姿态数据与预设手势数据匹配率达到预设阈值时,则可以利用手势姿态数据生成对应的第二虚拟场景调整指令并替代第一虚拟场景调整指令对虚拟场景进行移动、转动、切换或者缩放,此时第一虚拟场景调整指令无法调整虚拟场景,虚拟场景的调整速度与手势姿态数据中的手势关键节点的移动速度一致。

其中,头戴式智能设备内部预先设定用于调整虚拟场景的预设手势数据包括:手掌转动、握紧拳头并移动、单手大拇指和食指做捏合或松开、双手大拇指和食指做捏合或松开以及摊平手掌的手型、手势关键节点的位置和移动轨迹;而且,头戴式智能设备内部还预先设置有上述预设手势数据关联的第二虚拟场景调整指令类型,即手掌转动的预设手势数据关联的第二虚拟场景调整指令类型为虚拟场景转动指令,握紧拳头并移动的预设手势数据关联的第二虚拟场景调整指令类型为虚拟场景移动指令,单手大拇指和食指做捏合或松开的预设手势数据关联的第二虚拟场景调整指令类型为虚拟场景缩小或放大指令,双手大拇指和食指做捏合或松开的预设手势数据关联的第二虚拟场景调整指令类型为虚拟场景“靠近”或“远离”指令,摊平手掌的预设手势数据关联的第二虚拟场景调整指令类型为调整结束指令。当然,用户也可以根据需求自定义预设手势数据及其关联的第二虚拟场景调整指令类型。

例如,手势识别后获取的手势姿态数据为握紧拳头并向左移动10厘米,则该手势姿态数据与预设的握紧拳头并移动手势数据的手型、手势关键点的位置和移动轨迹匹配率达到70%时,判断该手势姿态数据满足预设标准,利用该手势姿态数据生成对应的第二虚拟场景调整指令,即生成将虚拟场景向左移动10米的指令,并以此指令替代第一虚拟场景调整指令将虚拟场景向左移动10米。

在根据手势姿态数据生成调整结束指令后,继续根据头部动作数据所生成的第一虚拟场景调整指令来对虚拟场景进行调整。进一步,在利用第一虚拟场景调整指令来对虚拟场景移动、转动以及缩放中的一者进行调整的同时,可以根据手势姿态数据所生成的其他控制指令对相应虚拟场景内所呈现的虚拟物体进行控制。例如,根据手势姿态数据生成射击指令,进而在虚拟场景内根据射击指令以动画方式改变虚拟物体来表示是否击中该虚拟物体。

本实施方式中,在手势姿态数据满足预设标准的情况下,利用手势姿态数据生成第二虚拟场景调整指令并替代第一虚拟场景调整指令来对虚拟场景进行调整,使得头部动作及满足预设标准的手部动作分开调整虚拟场景,有效防止由于头部动作和手部动作同时调整虚拟场景造成较明显的感官冲突,而且可以根据手势关键节点的移动速度控制虚拟场景的调整速度,从而可以用户适应的速度调整虚拟场景,进一步降低晕动症发生的概率和其产生的影响的目的。

另外,在其他实施方式中,利用手势姿态数据调整虚拟场景过程中,还可以根据用户需求设置调整虚拟场景的调整速度。

具体请参阅图2,图2是本发明虚拟场景调整方法第二实施方式的流程图。本发明虚拟场景调整方法第二实施方式是在本发明虚拟场景调整方法第一实施方式的基础上,进一步包括:

步骤S201:根据用户输入设置第二虚拟场景调整指令对虚拟场景的调整速度;

具体地,用户可以输入至少一个候选调整速度,用于设置第二虚拟场景调整指令对虚拟场景的调整速度。其中,用户可以通过语音或者点击等方式输入至少一个候选调整速度,该调整速度可以是第二虚拟场景调整指令中手势变化速度与虚拟场景变化速度的比值。例如,用户通过语音输入两个候选调整速度分别为1:1和1:2,分别表示当第二虚拟场景调整指令中手部每秒移动1厘米时,虚拟场景对应每秒移动1厘米和当第二虚拟场景调整指令中手部每秒移动1厘米时,虚拟场景对应每秒移动2厘米。

步骤S202:根据第二虚拟场景调整指令以调整速度来对虚拟场景进行调整。

其中,步骤S202之前包括:

步骤S2021:根据第二虚拟场景调整指令以不同的候选调整速度分别生成虚拟场景预览图像,并呈现给用户;

步骤S2022:根据用户对虚拟场景预览图像的选择从候选调整速度中指定调整速度。

例如,第二虚拟场景调整指令是将虚拟场景向右移动10米,当用户输入两个候选调整速度1:1和1:2后,分别生成以与手势变化速度相同的调整速度将虚拟场景向右移动10米的预览图像和以手势变化速度两倍的调整速度将虚拟场景向右移动10米的预览图像,并将两幅预览图像分别呈现给用户;用户可以根据自身感受选取自身较为适应的调整速度对应的其中一幅预览图像,则后续将该调整速度对虚拟图像进行调整。同时,用户也可以通过控制手部动作的变化速度改变手势关键节点的移动速度,从而配合上述调整速度以用户适应的速度调整虚拟场景,进而达到降低晕动症发生概率的目的。

本实施方式的步骤执行在步骤S105之前,本实施方式可以与本发明虚拟场景调整方法第一实施方式相结合。

请参阅图3,图3是本发明虚拟场景调整方法第三实施方式的流程图。本发明虚拟场景调整方法第三实施方式是在本发明虚拟场景调整方法第一实施方式的基础上,进一步包括:

步骤S301:对手势图像数据进行手势自学习,以在手势图像数据不完整时进行预判,获取手势姿态数据。

具体地,手势自学习采用机器学习原理,模拟人类的学习行为,通过重新组织已有的手势图像数据改善手势识别的准确率,并且可以在手势图像数据不完整时,通过已有的手势图像数据预判出对应的手势姿态数据,提高手势识别的智能性。

其中,步骤S301之后,包括:

步骤S3021:根据手势姿态数据生成三维虚拟手势并发送手势确认提示信息;

具体地,在一个应用例中,根据手势识别后获取的手势姿态数据生成三维虚拟手势,呈现给用户并发送手势确认提示信息,以便用户确认手势识别是否正确。

步骤S3022:判断是否接收到手势确认信息;

步骤S3023:若没有接收到手势确认信息,则返回手势识别的步骤,否则进行后续步骤。

具体地,上述应用例中,用户可以通过语音或者点击等方式确认该三维虚拟手势是否正确,若该三维虚拟手势不正确,即手势识别出错,则返回重新识别,若该三维虚拟手势正确,即手势识别准确,则继续后续步骤。

本实施方式的步骤执行在步骤S104之后,本实施方式可以与本发明虚拟场景调整方法第一实施方式相结合。

请参阅图4,图4是本发明头戴式智能设备第一实施方式的结构示意图。如图4所示,本发明头戴式智能设备40包括:头部采集模块401,场景调整模块402,手势采集模块403和手势识别模块404;其中,手势采集模块403与手势识别模块404连接,头部采集模块401、手势识别模块404分别与场景调整模块402连接。

头部采集模块401用于采集头部动作数据;

其中,头部动作数据至少包括头部转动的角度值和相对位置的变化值。

具体地,头部采集模块401采集头部动作数据并将其传输给场景调整模块402,以对虚拟场景进行调整。

场景调整模块402用于根据头部动作数据生成第一虚拟场景调整指令来对虚拟场景进行调整;

具体地,场景调整模块402根据接收到的头部动作数据生成第一虚拟场景调整指令对虚拟场景进行调整,例如接收到的头部动作数据是头部向右移动10度,则生成的第一虚拟场景调整指令为将虚拟场景向右移动10度,并以此指令调整虚拟场景。

手势采集模块403用于采集手势图像数据;

手势识别模块404用于对手势图像数据进行手势识别以获取手势姿态数据;

其中,手势姿态数据至少包括手型、手势关键节点的位置、移动轨迹和移动速度。

具体地,手势采集模块403采集到同一时刻的手势图像数据后,手势识别模块404比对两个图像的差别并根据几何原理计算手势距离摄像头的深度信息,然后根据计算机视觉技术和手势识别算法,可识别出手型、手势关键节点的位置、移动轨迹和移动速度。其中,手势关键节点是指根和指尖,手势识别算法可以根据手势识别精度选择,此处不做具体限定。

场景调整模块402进一步用于在手势姿态数据满足预设标准的情况下,利用手势姿态数据生成第二虚拟场景调整指令并替代第一虚拟场景调整指令来对虚拟场景进行调整。

其中,第二虚拟场景调整指令用于控制虚拟场景的移动、转动以及缩放中的至少一者。

具体地,头戴式智能设备内部预先设定用于调整虚拟场景的预设手势数据,在手势识别后获取的手势姿态数据满足预设标准,即手势姿态数据与预设手势数据匹配率达到预设阈值时,场景调整模块402利用手势姿态数据生成对应的第二虚拟场景调整指令并替代第一虚拟场景调整指令对虚拟场景进行移动、转动、切换或者缩放,此时第一虚拟场景调整指令无法调整虚拟场景,虚拟场景的调整速度与手势姿态数据中的手势关键节点的移动速度一致。

在根据手势姿态数据生成调整结束指令后,场景调整模块402继续根据头部动作数据所生成的第一虚拟场景调整指令来对虚拟场景进行调整。进一步,场景调整模块402在利用第一虚拟场景调整指令来对虚拟场景移动、转动以及缩放中的一者进行调整的同时,可以根据手势姿态数据所生成的其他控制指令对相应虚拟场景内所呈现的虚拟物体进行控制。例如,根据手势姿态数据生成射击指令,进而在虚拟场景内根据射击指令以动画方式改变虚拟物体来表示是否击中该虚拟物体。

上述实施方式中,头戴式智能设备在手势姿态数据满足预设标准的情况下,利用手势姿态数据生成第二虚拟场景调整指令并替代第一虚拟场景调整指令来对虚拟场景进行调整,使得头部动作及满足预设标准的手部动作分开调整虚拟场景,有效防止由于头部动作和手部动作同时调整虚拟场景造成较明显的感官冲突,而且可以根据手势关键节点的移动速度控制虚拟场景的调整速度,从而可以用户适应的速度调整虚拟场景,进一步降低晕动症发生的概率和其产生的影响的目的。

另外,在其他实施方式中,头戴式智能设备还可以根据用户需求设置调整虚拟场景的调整速度。

具体请参阅图5,图5是本发明头戴式智能设备第二实施方式的结构示意图。图5与图4结构类似,此处不再赘述,不同之处在于进一步包括速度设置模块505,场景调整模块504进一步包括场景调整单元5041。

速度设置模块505分别连接手势识别模块503和场景调整模块504,用于根据用户输入设置第二虚拟场景调整指令对虚拟场景的调整速度;

具体地,用户可以通过语音或者点击等方式输入至少一个候选调整速度,该调整速度是第二虚拟场景调整指令中手势变化速度与虚拟场景变化速度的比值。例如,用户通过语音输入一个候选调整速度分别为1:1.5,表示当第二虚拟场景调整指令中手部每秒移动1厘米时,虚拟场景对应每秒移动1.5厘米。

其中,速度设置模块505进一步包括:

场景预览单元5051,用于根据第二虚拟场景调整指令以不同的候选调整速度分别生成虚拟场景预览图像,并呈现给用户;

速度选择单元5052,用于根据用户对虚拟场景预览图像的选择从候选调整速度中指定调整速度。

具体地,场景预览单元5051根据第二虚拟场景调整指令以用户输入的不同候选调整速度分别生成虚拟场景的预览图像,并将其分别呈现给用户;速度选择单元5052接收用户选择的预览图像,并以其对应的调整速度作为后续调整虚拟场景的调整速度。

场景调整单元5041,用于根据第二虚拟场景调整指令以调整速度来对虚拟场景进行调整。

本实施方式中,头戴式智能设备通过用户输入设置第二虚拟场景调整指令对虚拟场景的调整速度,使得用户可以选择自身较为适宜的速度调整虚拟场景,从而减少虚拟现实与现实世界的感官冲突,进而降低晕动症发生的概率。

请参阅图6,图6是本发明头戴式智能设备第三实施方式的结构示意图。图6与图4结构类似,此处不再赘述,不同之处在于进一步包括依次连接的手势自学习模块606和手势确认提示模块607;其中,手势自学习模块606还连接手势识别模块603,手势确认提示模块607还连接手势识别模块603和场景调整模块604。

手势自学习模块606用于对手势图像数据进行手势自学习,以在手势图像数据不完整时进行预判,获取手势姿态数据。

具体地,手势自学习模块606采用机器学习原理,模拟人类的学习行为,通过重新组织已有的手势图像数据改善手势识别的准确率,并且可以在手势图像数据不完整时,通过已有的手势图像数据预判出对应的手势姿态数据,提高手势识别的智能性。

其中,手势确认提示模块607具体包括:

手势生成单元6071,用于根据手势姿态数据生成三维虚拟手势并发送手势确认提示信息;

具体地,在一个应用例中,手势生成单元6071根据手势识别后获取的手势姿态数据生成三维虚拟手势,呈现给用户并发送手势确认提示信息,以便用户确认手势识别是否正确。

手势确认单元6071,用于判断是否接收到手势确认信息,并在没有接收到手势确认信息时,返回手势识别模块603,在接收到手势确认信息时,将手势姿态数据传输给场景调整模块604,以对虚拟场景进行调整。

具体地,上述应用例中,用户可以通过语音或者点击等方式确认该三维虚拟手势是否正确,若该三维虚拟手势不正确,即手势识别出错,手势确认单元6071没有接收到手势确认信息,则返回手势识别模块603重新识别,若该三维虚拟手势正确,即手势识别准确,手势确认单元6071接收到手势确认信息,则将手势姿态数据传输给场景调整模块604以继续后续步骤。通过手势确认提示模块607可以增加人机交互,并进一步提高手势识别的准确性。

请参阅图7,图7是本发明头戴式智能设备第四实施方式的结构示意图。如图7所示,本发明头戴式智能设备70包括:处理器701,存储器702,惯性传感器703,双目摄像头704和显示器705,其中,上述部件均通过总线相互连接。

其中,惯性传感器703用于采集头部动作数据;

其中,头部动作数据至少包括头部转动的角度值和相对位置的变化值。

具体地,惯性传感器703感知头部转动的角度值和相对位置的变化值并将其传输给处理器701,以对虚拟场景进行调整。

处理器701用于根据头部动作数据生成第一虚拟场景调整指令来对虚拟场景进行调整;

具体地,处理器701根据接收到的头部动作数据生成第一虚拟场景调整指令对虚拟场景进行调整,例如接收到的头部动作数据是头部向右移动10度,则生成的第一虚拟场景调整指令为将虚拟场景向右移动10度,并以此指令调整虚拟场景。

双目摄像头704用于采集手势图像数据;

具体地,双目摄像头704拍摄手势图像数据,并将其发送给处理器701,以进行手势识别。

处理器701进一步用于对手势图像数据进行手势识别以获取手势姿态数据,并在手势姿态数据满足预设标准的情况下,利用手势姿态数据生成第二虚拟场景调整指令并替代第一虚拟场景调整指令来对虚拟场景进行调整。

其中,手势姿态数据至少包括手型、手势关键节点的位置、移动轨迹和移动速度。

具体地,处理器701接收到双目摄像头704发送的同一时刻的手势图像数据后,比对两个图像的差别并根据几何原理计算手势距离摄像头的深度信息,然后根据计算机视觉技术和手势识别算法,可识别出手型、手势关键节点的位置、移动轨迹和移动速度。其中,手势关键节点是指根和指尖,手势识别算法可以根据手势识别精度选择,此处不做具体限定。

其中,第二虚拟场景调整指令用于控制虚拟场景的移动、转动以及缩放中的至少一者。

具体地,存储器702预先保存有用于调整虚拟场景的预设手势数据,在手势识别后获取的手势姿态数据满足预设标准,即手势姿态数据与预设手势数据匹配率达到预设阈值时,处理器701利用手势姿态数据生成对应的第二虚拟场景调整指令并替代第一虚拟场景调整指令对虚拟场景进行移动、转动、切换或者缩放,此时第一虚拟场景调整指令无法调整虚拟场景,虚拟场景的调整速度与手势姿态数据中的手势关键节点的移动速度一致。

显示器705用于显示虚拟场景,包括调整过程中的虚拟场景和调整后的虚拟场景。

本实施方式中,头戴式智能设备包括处理器、存储器、惯性传感器、双目摄像头、显示器,而在其他实施方式中,头戴式智能设备还可以根据具体需求增加扬声器、触觉传感器、无线传输接口等其他部件,此处不做具体限定。

上述实施方式中,头戴式智能设备在手势姿态数据满足预设标准的情况下,利用手势姿态数据生成第二虚拟场景调整指令并替代第一虚拟场景调整指令来对虚拟场景进行调整,使得头部动作及满足预设标准的手部动作分开调整虚拟场景,有效防止由于头部动作和手部动作同时调整虚拟场景造成较明显的感官冲突,而且可以根据手势关键节点的移动速度控制虚拟场景的调整速度,从而可以用户适应的速度调整虚拟场景,进一步降低晕动症发生的概率和其产生的影响的目的。

以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1