虚拟现实交互方法、装置及计算机可读存储介质与流程

文档序号:14155190阅读:175来源:国知局

本公开涉及虚拟现实技术领域,尤其涉及一种虚拟现实交互方法、装置及计算机可读存储介质。



背景技术:

随着科技的发展,虚拟现实(Virtual Reality,VR)技术应运而生。虚拟现实技术是仿真技术的一个重要方向,是仿真技术与计算机图形学、人机接口技术、多媒体传感技术以及网络技术等多种技术的集合,其利用虚拟现实设备模拟生成一个三度空间的虚拟现实场景,提供用户关于视觉、听觉、触觉等感官的模拟,让用户如同身临其境一般。

相关技术中的虚拟现实交互,通常是根据检测到的用户头部运动来改变虚拟现实场景的视角,由此,虚拟现实场景的交互大多枯燥、无交互感。



技术实现要素:

为克服相关技术中存在的问题,本公开提供一种虚拟现实交互方法、装置及计算机可读存储介质。

根据本公开实施例的第一方面,提供一种虚拟现实交互方法,包括:

当检测到虚拟现实场景中的目标对象被选中时,检测输入的运动参数;

根据所述运动参数以及运动参数与所述目标对象的显示动画之间预设的对应关系,获取所述目标对象的目标显示动画;

在所述虚拟现实场景中显示所述目标显示动画。

可选地,所述检测输入的运动参数包括:

检测所述虚拟现实场景的显示设备的运动参数;

所述根据所述运动参数以及运动参数与所述目标对象的显示动画之间预设的对应关系,获取所述目标对象的目标显示动画,包括:

根据所述显示设备的运动参数以及运动参数与所述目标对象的浮动动画之间预设的对应关系,获取所述目标对象的目标浮动动画,所述目标显示动画包括所述目标浮动动画。

可选地,所述检测输入的运动参数包括:

接收所述输入的旋转参数;

所述根据所述运动参数以及运动参数与所述目标对象的显示动画之间预设的对应关系,获取所述目标对象的目标显示动画包括:

根据所述旋转参数以及旋转参数与所述目标对象的旋转动画之间预设的对应关系,获取所述目标对象的目标转动动画,所述目标显示动画包括所述目标转动动画。

可选地,所述方法还包括:

根据所述目标对象的预设模型和所述预设模型的预设动作,创建所述目标对象的多个显示动画;

对所述多个显示动画进行过渡处理。

可选地,所述多个显示动画存储在数据库中,所述数据库提供调用接口,所述获取所述目标对象的目标显示动画包括:

根据所述运动参数调用所述调用接口,以获得所述运动参数对应的所述目标显示动画。

根据本公开实施例的第二方面,提供一种虚拟现实交互装置,包括:

检测模块,被配置为在检测到虚拟现实场景中的目标对象被选中时,检测输入的运动参数;

获取模块,被配置为根据所述运动参数以及运动参数与所述目标对象的显示动画之间预设的对应关系,获取所述目标对象的目标显示动画;

显示模块,被配置为在所述虚拟现实场景中显示所述目标显示动画。

可选地,所述检测模块包括:

检测子模块,被配置为检测所述虚拟现实场景的显示设备的运动参数;

所述获取模块包括:

第一获取子模块,被配置为根据所述显示设备的运动参数以及运动参数与所述目标对象的浮动动画之间预设的对应关系,获取所述目标对象的目标浮动动画,所述目标显示动画包括所述目标浮动动画。

可选地,所述检测模块包括:

接收子模块,被配置为接收所述输入的旋转参数;

所述获取模块包括:

第二获取子模块,被配置为根据所述旋转参数以及旋转参数与所述目标对象的旋转动画之间预设的对应关系,获取所述目标对象的目标旋转动画,所述目标显示动画包括所述目标旋转动画。

可选地,所述装置还包括:

创建模块,被配置为根据所述目标对象的预设模型和所述预设模型的预设动作,创建所述目标对象的多个显示动画;

过渡模块,被配置为对所述多个显示动画进行过渡处理。

可选地,所述多个显示动画存储在数据库中,所述数据库提供调用接口,所述获取模块包括:

第三获取子模块,被配置为根据所述运动参数调用所述调用接口,以获得所述运动参数对应的所述目标显示动画。

根据本公开实施例的第三方面,提供一种虚拟现实交互装置,包括:

处理器;

用于存储处理器可执行指令的存储器;

其中,所述处理器被配置为:

当检测到虚拟现实场景中的目标对象被选中时,检测输入的运动参数;

根据所述运动参数以及运动参数与所述目标对象的显示动画之间预设的对应关系,获取所述目标对象的目标显示动画;

在所述虚拟现实场景中显示所述目标显示动画。

根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开第一方面所提供的虚拟现实交互方法的步骤。

本公开的实施例提供的技术方案可以包括以下有益效果:通过将运动参数与目标对象的显示动画关联,可以根据输入的运动参数显示目标对象在虚拟现实场景中的显示动画,使目标对象呈现出生动、丰富的显示效果,从而提升虚拟现实场景的交互感和生动感,提升用户体验。

应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。

附图说明

此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。

图1是根据一示例性实施例示出的一种虚拟现实交互的实施环境的示意图;

图2是根据一示例性实施例示出的一种虚拟现实交互方法的流程图;

图3A是根据另一示例性实施例示出的一种虚拟现实交互方法的流程图;

图3B是根据另一示例性实施例示出的一种虚拟现实交互方法的流程图;

图4示出了在实施本公开提供的虚拟现实交互方法时的场景示意图;

图5示出了在实施本公开提供的虚拟现实交互方法时的场景示意图;

图6是根据另一示例性实施例示出的一种虚拟现实交互方法的流程图;

图7是根据一示例性实施例示出的一种虚拟现实交互装置的框图;

图8A和图8B是根据另一示例性实施例示出的一种虚拟现实交互装置的框图;

图9是根据另一示例性实施例示出的一种虚拟现实交互装置的框图;

图10是根据一示例性实施例示出的一种用于虚拟现实交互方法的装置的框图。

具体实施方式

这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。

图1是根据一示例性实施例示出的一种虚拟现实交互的实施环境的示意图。如图1所示,该实施环境可以包括VR设备100和外部操控设备200。在本公开中,VR设备100可以例如是VR头盔、VR眼镜等等。此外,VR设备可以为分体式VR设备,也可以为一体式VR设备,本公开对此不做限定。外部操控设备200可以例如是手柄、遥控器等。图1中以VR设备100是VR头盔且外部操控设备200是手柄来示意。

VR设备100可以模拟生成一个三度空间的虚拟现实场景,在该虚拟现实场景中存在一个或多个对象,VR设备100中内置的传感器组件可以跟踪用户头部、眼部等的运动以及识别用户输入的语音信息等,从而根据跟踪结果和/或用户输入的语音信息对虚拟现实场景进行控制,例如选中其中一个对象、调节该对象的大小和远近等,由此可以实现用户与虚拟现实场景的交互。

此外,VR设备100和外部操控设备200之间可以利用各种有线或无线技术来建立通信连接。例如,连接方式可以例如包括但不限于:蓝牙、WiFi(Wireless-Fidelity,无线保真)、2G网络、3G网络、4G网络等等。

在外部操控设备200与VR设备100建立了通信连接之后,外部操控设备200可以与VR设备100可以进行交互,以控制该VR设备100生成的虚拟现实场景,例如调节该对象的大小和远近等。

下面将结合附图来描述本公开提供的虚拟现实交互方法及装置。

图2是根据一示例性实施例示出的一种虚拟现实交互方法的流程图,其中,该方法可以应用于VR设备,例如,图1所示的VR设备100。如图2所示,该方法可以包括以下步骤:

在步骤S201中,当检测到虚拟现实场景中的目标对象被选中时,检测输入的运动参数。

在VR设备模拟生成的虚拟现实场景中,用户可以通过该VR设备选择该虚拟现实场景中的任一个对象并输入相应的运动参数以对选中的对象进行控制。在本公开实施例中,用户选中的对象即为目标对象。

在步骤S202中,根据输入的运动参数以及运动参数与目标对象的显示动画之间预设的对应关系,获取目标对象的目标显示动画。

在步骤S203中,在虚拟现实场景中显示目标显示动画。

VR设备中存储有每个对象的显示动画以及运动参数与每个对象的显示动画之间预设的对应关系。在本公开的实施例中,运动参数与每个对象的显示动画之间的对应关系可以是VR设备出厂时设置好的,也可以是用户自定义设置的。

在检测到输入的运动参数后,VR设备可以根据输入的运动参数以及运动参数与目标对象的显示动画之间预设的对应关系,调用目标对象的目标显示动画并显示在虚拟现实场景中。

由此,通过将运动参数与目标对象的显示动画关联,可以根据输入的运动参数显示目标对象在虚拟现实场景中的显示动画,使目标对象呈现出生动、丰富的显示效果,从而提升虚拟现实场景的交互感和生动感,提升用户体验。

在一个实施例中,输入的运动参数可以来源于虚拟现实场景的显示设备的运动参数。相应地,如图3A所示,上述步骤S201包括:

在步骤S211中,检测虚拟现实场景的显示设备的运动参数。

在本公开的实施例中,虚拟现实场景的显示设备可以为如上所述的VR设备。用户佩戴VR设备并转动头部,在这个过程中,VR设备的也发生转动,配置在VR设备中的传感器组件(如陀螺仪传感器)可以实时检测到VR设备的运动参数。在本公开的实施例中,显示设备的运动参数可以例如包括但不限于显示设备的转动方向等。

相应地,上述步骤S202可以包括:

在步骤S221中,根据显示设备的运动参数以及运动参数与目标对象的浮动动画之间预设的对应关系,获取目标对象的目标浮动动画,其中,目标显示动画包括目标浮动动画。

VR设备中存储有预先设定的目标对象的多个浮动动画以及运动参数与目标对象的浮动动画之间的对应关系。表1提供了一种运动参数与目标对象的浮动动画之间的对应关系的示例。

表1

VR设备根据该预设的运动参数与目标对象的浮动动画之间的对应关系可以调用该目标对象的目标浮动动画并在虚拟现实场景中显示该目标浮动动画。

例如,以VR设备100为VR头盔为例,用户佩戴好VR设备,将应用程序与VR设备绑定,接着开启应用程序进入VR设备生成的虚拟现实场景中,并选择该虚拟现实场景中需要控制的对象。如图4所示,用户选中该虚拟现实场景中的椅子300(目标对象),接着沿箭头C1的方向转动头部以带动VR设备运动沿相同的方向转动。VR设备检测到椅子300被选中后,其内置的传感器组件检测到其转动方向,接着根据转动方向调取该椅子300的向箭头C2的方向浮动的动画(目标浮动动画)并显示在虚拟现实场景中,从而使椅子300呈现出像浮动在水中的动态效果。

由此,通过将虚拟现实场景显示设备的运动和目标对象的浮动动画关联起来,可以在用户佩戴VR设备转动头部时使目标对象产生相应的轻微浮动,从而可以提升虚拟现实场景交互的生动感和趣味感,提升用户体验。

在另一个实施例中,输入的运动参数可以来源于外部操控设备(如图1所示的外部操控设备200)。相应地,如图3B所示,上述步骤S201可以包括:

在步骤S212中,接收输入的旋转参数。

外部操控设备可以具有目标对象旋转控制功能,当该功能被触发时,外部操控设备就可以开始对目标对象进行控制。在控制时,用户可以在外部操控设备中输入旋转参数,例如用户可以手握外部操控设备,并转动(或者移动)该外部操控设备以改变该表外部操控设备的姿态。在这个过程中,配置在外部操控设备中的传感器组件(如陀螺仪传感器)可以实时检测该外部检测装置的旋转参数。在本公开的实施例中,旋转参数可以例如包括但不限于旋转方向、旋转角度等。表2提供了一种旋转参数与目标对象的旋转动画之间的对应关系的示例。

表2

外部操控设备可以通过与VR设备的通信连接将携带有输入的旋转参数的控制信号发送给VR设备,VR设备接收到该控制信号,从而获取到用户输入的旋转参数。

相应地,上述步骤S202可以包括:

在步骤S222中,根据输入的旋转参数以及旋转参数与目标对象的旋转动画之间预设的对应关系,获取目标对象的目标旋转动画,其中,目标显示动画包括目标旋转动画。

VR设备中存储有预先设定的目标对象的多个旋转动画以及旋转参数与目标对象的旋转动画之间的对应关系。VR设备接收到输入的旋转参数后,根据该预设的旋转参数与目标对象的旋转动画之间的对应关系可以调用目标对象的目标旋转动画并在虚拟现实场景中显示该目标旋转动画。

例如,如图5所示,以VR设备100为VR头盔且外部操控设备200为手柄示例,用户选中了虚拟现实场景中的椅子300(目标对象),接着手持手柄并将手柄绕纵轴A1、沿箭头C3所示的方向转动60°(图中未示出转动角度),内置于手柄中的传感器组件(如陀螺仪传感器)采集到手柄的转动方向和转动角度,该转动方向和转动角度即为输入的旋转参数。手柄将携带有旋转参数的控制信号发送给VR头盔,VR头盔接收到该控制信号后,根据输入的旋转参数调取该椅子300的绕纵轴A2、沿箭头C4所示的方向旋转60°的动画(目标旋转动画)并显示在虚拟现实场景中。由此,用户可以通过外部操控设备控制目标对象旋转。

需要说明的是,在另一些实施例中,用户还可以在转动头部的同时通过外部操控设备输入旋转参数。在这种情况下,VR设备同时获取到显示设备的运动参数和输入的旋转参数,则在虚拟现实场景中显示目标对象浮动并旋转。

图6是根据一示例性实施例示出的一种虚拟现实交互方法的流程图,其中,该方法可以应用于VR设备,例如,图1所示的VR设备100。如图6所示,该方法可以包括以下步骤:

在步骤S601中,根据目标对象的预设模型和预设模型的预设动作,创建目标对象的多个显示动画。

VR设备中存储有目标对象的预设模型以及该预设模型的预设动作。VR设备将该预设模型与预设模型的预设动作进行关联,从而创建目标对象的多个显示动画。

在步骤S602中,对多个显示动画进行过渡处理。

为了提高目标对象的显示动画的显示效果,VR设备在创建目标对象的多个显示动画后,对这多个显示动画进行过渡处理,使得各个显示动画之间的切换更流畅、自然。

在步骤S603中,当检测到虚拟现实场景中的目标对象被选中时,检测用户输入的运动参数。

在步骤S604中,根据输入的运动参数以及运动参数与目标对象的显示动画之间预设的对应关系,获取目标对象的目标显示动画。

在步骤S605中,在虚拟现实场景中显示目标显示动画。

需要说明的是,在一个实施例中,目标对象的多个显示动画可以存储在数据库中,该数据库可以提供调用接口,如API(Application Programming Interface,应用程序编程接口)。VR设备可以根据用户输入的运动参数调用该调用接口,以获得输入的运动参数对应的目标显示动画。

图7是根据一示例性实施例示出的一种虚拟现实交互装置700的框图,其中,该装置700可以配置于VR设备,例如,图1所示的VR设备100。参照图7,该装置700可以包括:检测模块701、获取模块702和显示模块703。

该检测模块701被配置为在检测到虚拟现实场景中的目标对象被选中时,检测输入的运动参数。

该获取模块702被配置为根据所述运动参数以及运动参数与所述目标对象的显示动画之间预设的对应关系,获取所述目标对象的目标显示动画。

该显示模块703被配置为在所述虚拟现实场景中显示所述目标显示动画。

可选地,在一种实施例中,如图8A所示,检测模块701可以包括:

检测子模块711,被配置为检测所述虚拟现实场景的显示设备的运动参数。

获取模块702可以包括:

第一获取子模块721,被配置为根据所述显示设备的运动参数以及运动参数与所述目标对象的浮动动画之间预设的对应关系,获取所述目标对象的目标浮动动画,所述目标显示动画包括所述目标浮动动画。

可选地,在另一种实施例中,如图8B所示,检测模块701可以包括:

接收子模块712,被配置为接收所述输入的旋转参数

获取模块702可以包括:

第二获取子模块722,被配置为根据所述旋转参数以及旋转参数与所述目标对象的旋转动画之间预设的对应关系,获取所述目标对象的目标旋转动画,所述目标显示动画包括所述目标旋转动画。

可选地,在另一种实施例中,如图9所示,所述装置700还可以包括:

创建模块704,被配置为根据所述目标对象的预设模型和所述预设模型的预设动作,创建所述目标对象的多个显示动画;

过渡模块705,被配置为对所述多个显示动画进行过渡处理。

可选地,在另一种实施例中,如图9所示,所述多个显示动画存储在数据库中,所述数据库提供调用接口,获取模块702可以包括:

第三获取子模块723,被配置为根据所述运动参数调用所述调用接口,以获得所述运动参数对应的所述目标显示动画。

关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。

本公开还提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开提供的虚拟现实交互方法的步骤。

图10是根据一示例性实施例示出的一种用于虚拟现实交互方法的装置800的框图。例如,该装置800可以是VR设备。

参照图10,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电力组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。

处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的虚拟现实交互方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。

存储器804被配置为存储各种类型的数据以支持在装置800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。

电力组件806为装置800的各种组件提供电力。电力组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。

多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当装置800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。

音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。

I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。

传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到装置800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。

通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。

在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述虚拟现实交互方法。

在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由装置800的处理器820执行以完成上述虚拟现实交互方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。

本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。

应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1