基于虚拟现实的协作训练方法及系统与流程

文档序号:17047272发布日期:2019-03-05 19:42阅读:309来源:国知局
基于虚拟现实的协作训练方法及系统与流程

本发明涉及虚拟现实技术领域,尤其涉及一种基于虚拟现实的协作训练方法及系统。



背景技术:

随着科技的发展,人机接口技术成为智能设备发展的重要方向,基于虚拟现实(virtualreality,vr)的人机接口技术也应运而生。所述虚拟现实可以包括视觉感知、听觉感知、触觉感知、和运动感知,甚至还包括味觉感知、和嗅觉感知等,使用户通过上述感知对真实环境进行模拟。

当前,由于通讯技术的发展,远程教育已经越来越深入到人们的生活之中,但是传统远程教育只能通过视频语音来实现学员与教师或者学员与学员之间的交流沟通,无法实现多方进行协作训练学习,且沉浸感不强。

因此,如何结合虚拟现实技术来实现多用户的协作训练,还有待解决。



技术实现要素:

本发明实施例提供一种基于虚拟现实的协作训练方法及系统,可以提升用户的协作训练效率。

本发明实施例提供以下技术方案:

一种基于虚拟现实的协作训练方法,包括:

接收用户对虚拟数据库中虚拟协作场景的选择指令;

根据所述选择指令获取对应的虚拟协作场景的三维立体图像,并将所述三维立体图像显示在虚拟显示设备上;

根据至少一个用户的输入指令,获取至少一个用户的全息图像信息;

将所述全息图像信息输入至所述三维立体图像中;

实时获取所述至少一个用户的体感信息,并将所述至少一个用户的体感信息实时更新至三维立体图像中,以生成虚拟现实的协作画面。

为解决上述技术问题,本发明实施例还提供以下技术方案:

一种基于虚拟现实的协作训练系统,包括:

接收模块,用于接收用户对虚拟数据库中虚拟协作场景的选择指令;

显示模块,用于根据所述选择指令获取对应的虚拟协作场景的三维立体图像,并将所述三维立体图像显示在虚拟显示设备上;

获取模块,用于根据至少一个用户的输入指令,获取至少一个用户的全息图像信息;

输入模块,用于将所述全息图像信息输入至所述三维立体图像中;

更新模块,用于实时获取所述至少一个用户的体感信息,并将所述至少一个用户的体感信息实时更新至三维立体图像中,以生成虚拟现实的协作画面。

本实施例提供的一种基于虚拟现实的协作训练方法及系统,通过根据用户选择的虚拟协作场景获取对应的三维立体图像进行显示,将多个用户的全息图像信息输入至三维立体图像中,并根据实时获取的多个用户的体感信息对三维立体图像进行更新,生成虚拟现实的协作画面,增强用户的沉浸感,并提升了场景的真实感以及协作训练的效率。

附图说明

下面结合附图,通过对本发明的具体实施方式详细描述,将使本发明的技术方案及其它有益效果显而易见。

图1为本发明实施例提供的基于虚拟现实的协作训练方法的场景示意图。

图2为本发明实施例提供的基于虚拟现实的协作训练方法的流程示意图。

图3为本发明实施例提供的基于虚拟现实的协作训练方法的另一流程示意图。

图4为本发明实施例提供的基于虚拟现实的协作训练系统的模块示意图。

图5为本发明实施例提供的基于虚拟现实的协作训练系统的另一模块示意图。

图6为本发明实施例提供的虚拟现实服务器的结构示意图。

具体实施方式

请参照图式,其中相同的组件符号代表相同的组件,本发明的原理是以实施在一适当的运算环境中来举例说明。以下的说明是基于所例示的本发明具体实施例,其不应被视为限制本发明未在此详述的其它具体实施例。

本文所使用的术语「模块」可看做为在该运算系统上执行的软件对象。本文该的不同组件、模块、引擎及服务可看做为在该运算系统上的实施对象。而本文该的装置及方法优选的以软件的方式进行实施,当然也可在硬件上进行实施,均在本发明保护范围之内。

请参阅图1,图1为本发明实施例所提供的基于虚拟现实的协作训练方法的场景示意图。该场景包括虚拟现实服务器31、虚拟显示设备33、用户34、可穿戴接收设备35、以及至少一个摄像模块36。

该虚拟现实服务器31用于存储虚拟协作场景的三维立体图像32。该虚拟现实服务器31与虚拟显示设备33、可穿戴接收设备35以及至少一个摄像模块36之间可以通过无线网络、蓝牙或者红外线连接。

该虚拟显示设备33包括但不限于:智能数据头盔、以及计算机终端。

该可穿戴接收设备35包括但不限于:智能数据头盔、智能数据手套以及智能数据鞋。

其中,当虚拟现实服务器31接收到用户对虚拟数据库中虚拟协作场景的选择指令时,根据选择指令获取对应虚拟协作场景的三维立体图像32,并将该三维立体图像32显示在虚拟显示设备上33。用户34可以通过虚拟显示设备33来进行三维立体图像32的查看。根据至少一个用户34的输入指令,获取至少一个用户34的全息图像信息。将该全息图像信息输入至该三维立体图像32中,实时获取该至少一个用户34的体感信息,并将该至少一个用户34的体感信息实时更新至三维立体图像中,以生成虚拟现实的协作画面。

以下进行具体分析说明。

请参阅图2,图2是本发明实施例提供的基于虚拟现实的协作训练方法的流程示意图。

具体而言,该方法包括:

在步骤s101中,接收用户对虚拟数据库中虚拟协作场景的选择指令。

其中,该虚拟协作场景可以包括虚拟教室、虚拟实验室、虚拟演练场、虚拟维修厂等虚拟协作场景。该虚拟协作场景存储在虚拟数据库中。在一实施方式中,该虚拟协作场景还可以根据用户的需求进行定制制作,此处不作具体限定。

进一步的,该虚拟协作场景可以通过显示接口将虚拟协作场景的缩略图显示外接显示设备上,用户可以通过显示设备选取对应的需要进行虚拟模拟的虚拟协作场景,当用户确定虚拟协作场景时,对应生成选择指令。

在步骤s102中,根据选择指令获取对应的虚拟协作场景的三维立体图像,并将三维立体图像显示在虚拟显示设备上。

需要说明的是,该三维立体图像是基于用户选择的虚拟协作场景对应的虚拟现实场景图像。该虚拟现实场景图像可以根据游戏引擎预先搭建而成,如unity3d搭建形成,不但可以发布windows系统,还可以发布到ios、linux等操作系统环境中。

其中,根据该选择指令指示的用户选择的虚拟协作场景获取对应的三维立体图像,并将该三维立体图像显示在虚拟显示设备上,在一实施方式中,该虚拟显示设备可以包括但不限于虚拟显示头戴式显示设备。用户可以通过佩戴该头戴式显示设备对三维立体图像进行对应的查看,以使用户产生身临其境的沉浸感。

进一步的,每一虚拟协作场景的三维立体图像都有对应的多个起始位置。该起始位置为容纳虚拟用户的插入位置。

在步骤s103中,根据至少一个用户的输入指令,获取至少一个用户的全息图像信息。

需要说明的是,该至少一个用户,可以为一个、二个、三个等更多用户,此处不作具体限定。该全息图像信息为是一种三维图像,它与传统的照片有很大的区别。传统的照片呈现的是真实的物理图像,而全息图像信息则包含了被记录物体的尺寸、形状、亮度和对比度等信息。

其中,当某用户进行登陆操作并选择了对应的起始位置时,会对应生成输入指令,该输入指令指示该用户开始进入虚拟协作场景中,可以开启多个摄像设备,在一实施方式中,该摄像设备可以为全息摄像设备。通过该多个摄像设备从360度拍摄该用户的多张图像,将该多张图像进行结合,生成该用户的全息图像信息。

在步骤s104中,将全息图像信息输入至三维立体图像中。

其中,可以根据该全息图像信息对应生成三维虚拟用户图像,该三维虚拟用户图像包括用户的尺寸、形状、亮度和对比度等信息。根据用户选择起始位置,调整三维虚拟用户图像的显示比例,将该三维虚拟用户图像插入至对应的起始位置上。该三维虚拟用户为真实用户的替身,以实现用户切身出现在虚拟协作场景中。

进一步的,该三维立体图像中可以出现多个三维虚拟用户。

在步骤s105中,实时获取至少一个用户的体感信息,并将至少一个用户的体感信息实时更新至三维立体图像中,以生成虚拟现实的协作画面。

其中,可以通过虚拟显示设备上的陀螺仪装置确定某一用户的头部方向信息,如用户头部方向转动,通过多个摄像设备拍摄获取该用户的动作信息,根据该头部方向信息以及动作信息,生成该用户的体感信息,并将该体感信息输入至三维立体图像中,使得该用户虚拟对应的替身(三维虚拟用户)根据该体感信息作出相同的动作,并对应将三维立体图像进行显示视角实时调整。模拟三维立体图像中的替身的实时视角。

在一实施方式中,该至少一个用户可以佩戴数据手套,该数据手套可以实时检测用户手部的力度信息以及手部操作信息,将该力度信息以及手部操作信息与头部方向信息以及动作信息结合,并输入至三维立体图像中,可以完成用户操控替身实现用户对虚拟协作场景中的虚拟物品的操作。完成多个用户的替身在同一虚拟协作场景中进行协作训练。

由上述可知,本实施例提供的一种基于虚拟现实的协作训练方法,通过根据用户选择的虚拟协作场景获取对应的三维立体图像进行显示,将多个用户的全息图像信息输入至三维立体图像中,并根据实时获取的多个用户的体感信息对三维立体图像进行更新,生成虚拟现实的协作画面,增强用户的沉浸感,并提升了场景的真实感以及协作训练的效率。

根据上述实施例所描述的方法,以下将举例作进一步详细说明。

请参阅图3,图3是本发明实施例提供的基于虚拟现实的协作训练方法的另一流程示意图。

具体而言,该方法包括:

在步骤s201中,接收用户对虚拟数据库中虚拟协作场景的选择指令。

需要说明的是,用户可以为分为管理员用户和普通用户,只有管理员用户才有选择虚拟协作场景的权限。

其中,该虚拟协作场景可以包括虚拟教室、虚拟实验室、虚拟演练场、虚拟维修厂等虚拟协作场景。该虚拟协作场景存储在虚拟数据库中。

进一步的,该虚拟协作场景可以通过显示接口将虚拟协作场景的缩略图显示外接显示设备上,管理员用户可以通过显示设备选取对应的需要进行虚拟模拟的虚拟协作场景,当管理员用户确定虚拟协作场景时,对应生成选择指令。

在步骤s202中,根据选择指令获取对应的虚拟协作场景的三维立体图像,并将三维立体图像显示在虚拟显示设备上。

其中,根据该选择指令指示的用户选择的虚拟协作场景获取对应的三维立体图像,并将该三维立体图像显示在虚拟显示设备上,在一实施方式中,该虚拟显示设备可以包括但不限于虚拟显示头戴式显示设备。用户可以通过佩戴该头戴式显示设备对三维立体图像进行对应的查看,以使用户产生身临其境的沉浸感。

进一步的,每一虚拟协作场景的三维立体图像都有对应的多个起始位置。该起始位置为容纳虚拟用户的插入位置。

在步骤s203中,当接收到至少一个用户的输入指令时,开启多个摄像设备拍摄至少一个用户的多张图像。

需要说明的是,该至少一个用户,可以为一个、二个、三个等更多用户,此处不作具体限定。

其中,当某一用户进行登陆操作时,该三维立体图像会对应显示多个起始位置,当用户确定起始位置时,会对应生成输入指令,该输入指令指示该用户开始进入虚拟协作场景中,根据该输入指令可以开启对应的多个摄像设备,在一实施方式中,该摄像设备可以为全息摄像设备。通过该多个摄像设备从360度拍摄该用户的多张图像。

在步骤s204中,将多张图像进行结合,生成至少一个用户的全息图像信息。

其中,通过该多个摄像设备从360度拍摄的该用户的多张图像,将该多张图像进行结合,生成该用户的全息图像信息。该全息图像信息包括该用户的尺寸、形状、亮度和对比度等信息。

在步骤s205中,根据全息图像信息生成对应的三维虚拟用户图像。

其中,将某一用户的全息图像信息进行分析建模,比例调整,生成与三维立体图像适配的三维虚拟用户图像,以使得可以将该三维虚拟用户图像显示融合在三维立体图像中。

在步骤s206中,确定三维虚拟用户图像在三维立体图像中的起始位置。

其中,通过分析输入指令,确定当前某一用户选择的起始位置信息,该起始位置信息为三维立体图像中的某区域,包括空间坐标范围。

在步骤s207中,获取起始位置的空间坐标范围。

其中,该空间坐标范围对应为三维空间坐标范围,该三维虚拟用户图像的起始位置在该三维空间坐标范围内。

其中,获取该起始位置的三维空间坐标范围,该三维虚拟用户图像可以对应出现在该三维空间坐标范围内。

在步骤s208中,将三维虚拟用户图像对应插入至空间坐标范围内。

其中,对根据空间坐标范围,对应调整三维虚拟用户图像的显示比例,以是的该三维虚拟用户图像不超过该空间坐标范围,将调整后的三维虚拟用户图像插入至空间坐标范围内。该三维虚拟用户图像为用户对应在三维立体图像中替身,进一步的,用户可以操控该替身完成在虚拟协作场景的协作动作。

在步骤s209中,通过虚拟显示设备上的陀螺仪确定至少一个用户的头部方向信息。

需要说明的是,该虚拟显示设备上一般都设置有陀螺仪,该陀螺仪可以捕获用户的视觉角度以及头部转动。

进一步的,可以通过虚拟显示设备上的陀螺仪捕获某一用户当前的视觉角度以及头部转动,以生成某一用户的头部方向信息。

在步骤s210中,通过多个摄像设备获取至少一个用户的动作信息。

其中,通过多个摄像设备全角度实时拍摄某一用户的肢体动作信息,该肢体动作信息包括用户的手部动作,腿部动作信息等。

在一实施方式中,该至少一个用户可以佩戴数据手套等手部细节检测装置,该数据手套可以实时检测用户手部的力度信息以及手部操作信息,可以将该力度信息以及手部操作信息与动作信息结合,更加精确的检测用户手部的动作细节信息。

在步骤s211中,根据至少一个用户的头部方向信息以及动作信息,生成至少一个用户的体感信息。

在一实施方式中,将某一用户的头部方向信息以及动作信息和通过数据手套实时检测到的用户手部的力度信息以及手部操作信息进行结合,生成某一用户的体感信息。

在步骤s212中,将至少一个用户的体感信息实时输入至三维立体图像中。

其中,当将某一用户的体感信息输入至三维立体图像中后,首先根据该头部方向信息获取该用户的替身(三维虚拟用户图像)对应该空间位置以该头部方向,对三维立体图像的显示视角进行实时调整。以使得该用户产生沉浸感,感觉自身处于该虚拟协作场景中,其次,通过获取的动作信息和通过数据手套实时检测到的用户手部的力度信息以及手部操作信息对该用户的替身进行实时对应动作反馈,以使得用户可通过自身动作操控替身在虚拟协作场景中进行对应的训练。

进一步的,该多个用户可以在三维立体图像中可以互相看到彼此的实时协作训练动作,并根据彼此实时协作训练动作进行调整配合,在一实时方式中,该处于同一三维立体图像中的用户可以通过语音来进行实时沟通交流,以更好增强彼此的协作性。

在一实施方式中,该将至少一个用户的体感信息实时输入至三维立体图像中之后,还包括:

(1)根据虚拟显示的协作画面,进行实时评分,得到评分值。

其中,该管理员用户可以通过观察多个用户之间的协作画面进行实时评分,打出评分值,或者根据多个用户之间的协作画面与标准协作视频的相似度自动进行实时频分,得到评分值,该相似度越高,评分值越高,该相似度越低,评分值越低。

(2)当评分值低于预设阈值时,获取对应的协作教学视频,并进行播放。

其中,当评分值低于预设阈值时,说明当前协作训练不合格,获取对应的协作教学视频,进行播放,让处于该虚拟协作场景中的用户进行同步学习。

由上述可知,本实施例提供的一种基于虚拟现实的协作训练方法,通过根据用户选择的虚拟协作场景获取对应的三维立体图像进行显示,获取多个用户的全息图像,根据全息图像生成对应的三维虚拟用户图像,确定三维虚拟用户图像在三维立体图像中的起始位置并进行插入,生成多个用户在三维立体图像中的替身后,通过虚拟显示设备上的陀螺仪确定多个用户的头部方向信息,通过摄像设备获取多个用户的动作信息,将头部方向信息和动作信息结合,生成用户的体感信息,将该体感信息实时输入到三维立体图像中,使得该多个替身进行协作训练,并对三维立体图像的显示视角进行实时调整,生成虚拟现实的协作画面,增强用户的沉浸感,并提升了场景的真实感以及协作训练的效率。

为便于更好的实施本发明实施例提供的基于虚拟现实的协作训练方法,本发明实施例还提供一种基于上述基于虚拟现实的协作训练方法的系统。其中名词的含义与上述基于虚拟现实的协作训练方法中相同,具体实现细节可以参考方法实施例中的说明。

请参阅图4,图4为本发明实施例提供的基于虚拟现实的协作训练系统的模块示意图。

具体而言,该基于虚拟现实的协作训练系统300,包括:接收模块31、显示模块32、获取模块33、输入模块34以及更新模块35。

该接收模块31,用于接收用户对虚拟数据库中虚拟协作场景的选择指令。

其中,该虚拟协作场景可以包括虚拟教室、虚拟实验室、虚拟演练场、虚拟维修厂等虚拟协作场景。该虚拟协作场景存储在虚拟数据库中。

进一步的,该接收模块31中的虚拟协作场景可以通过显示接口将虚拟协作场景的缩略图显示外接显示设备上,用户可以通过显示设备选取对应的需要进行虚拟模拟的虚拟协作场景,当用户确定虚拟协作场景时,对应生成选择指令。

该显示模块32,用于根据该选择指令获取对应的虚拟协作场景的三维立体图像,并将该三维立体图像显示在虚拟显示设备上。

其中,该显示模块32根据该选择指令指示的用户选择的虚拟协作场景获取对应的三维立体图像,并将该三维立体图像显示在虚拟显示设备上,在一实施方式中,该虚拟显示设备可以包括但不限于虚拟显示头戴式显示设备。用户可以通过佩戴该头戴式显示设备对三维立体图像进行对应的查看,以使用户产生身临其境的沉浸感。

进一步的,每一虚拟协作场景的三维立体图像都有对应的多个起始位置。该起始位置为容纳虚拟用户的插入位置。

该获取模块33,用于根据至少一个用户的输入指令,获取至少一个用户的全息图像信息。

其中,当某用户进行登陆操作并选择了对应的起始位置时,会对应生成输入指令,该输入指令指示该用户开始进入虚拟协作场景中,该获取模块33可以开启多个摄像设备,在一实施方式中,该摄像设备可以为全息摄像设备。通过该多个摄像设备从360度拍摄该用户的多张图像,将该多张图像进行结合,生成该用户的全息图像信息。

该输入模块34,用于将该全息图像信息输入至该三维立体图像中。

其中,该输入模块34可以根据该全息图像信息对应生成三维虚拟用户图像,该三维虚拟用户图像包括用户的尺寸、形状、亮度和对比度等信息。根据用户选择起始位置,调整三维虚拟用户图像的显示比例,将该三维虚拟用户图像插入至对应的起始位置上。该三维虚拟用户为真实用户的替身,以实现用户切身出现在虚拟协作场景中。

进一步的,该三维立体图像中可以出现多个三维虚拟用户。

该更新模块35,用于实时获取该至少一个用户的体感信息,并将该至少一个用户的体感信息实时更新至三维立体图像中,以生成虚拟现实的协作画面。

其中,该更新模块35可以通过虚拟显示设备上的陀螺仪装置确定某一用户的头部方向信息,如用户头部方向转动,通过多个摄像设备拍摄获取该用户的动作信息,根据该头部方向信息以及动作信息,生成该用户的体感信息,并将该体感信息输入至三维立体图像中,使得该用户虚拟对应的替身(三维虚拟用户)根据该体感信息作出相同的动作,并对应将三维立体图像进行显示视角实时调整。模拟三维立体图像中的替身的实时视角。

可一并参考图5,图5为本发明实施例提供的基于虚拟现实的协作训练系统的另一模块示意图,该基于虚拟现实的协作训练系统300还可以包括:

其中,该获取模块33还可以包括开启子模块331、以及结合子模块332。

具体而言,该开启子模块331,用于当接收到至少一个用户的输入指令时,开启多个摄像设备拍摄该至少一个用户的多张图像。该结合子模块332,用于将该多张图像进行结合,生成该至少一个用户的全息图像信息。

其中,该输入模块34还可以包括生成子模块341、确定子模块342、获取子模块343以及插入子模块344。

具体而言,该生成子模块341,用于根据该全息图像信息生成对应的三维虚拟用户图像。该确定子模块342,用于确定该三维虚拟用户图像在三维立体图像中的起始位置。该获取子模块343,用于获取该起始位置的空间坐标范围。该插入子模块344,用于将该三维虚拟用户图像对应插入至该空间坐标范围内。

其中,该更新模块35还可以包括第一确定子模块351、第二确定子模块352、生成子模块353以及调整子模块354。

具体而言,该第一确定子模块351,用于通过该虚拟显示设备上的陀螺仪确定该至少一个用户的头部方向信息。该第二确定子模块352,用于通过该多个摄像设备获取该至少一个用户的动作信息。该生成子模块353,用于根据该至少一个用户的头部方向信息以及动作信息,生成至少一个用户的体感信息。该调整子模块354,用于将该至少一个用户的体感信息实时输入至该三维立体图像中,以使得该三维立体图像根据该至少一个用户的体感信息进行显示视角实时调整。

评分模块36,用于根据该虚拟显示的协作画面,进行实时评分,得到评分值;

播放模块37,用于当该评分值低于预设阈值时,获取对应的协作教学视频,并进行播放。

由上述可知,本实施例提供的一种基于虚拟现实的协作训练系统,通过根据用户选择的虚拟协作场景获取对应的三维立体图像进行显示,获取多个用户的全息图像,根据全息图像生成对应的三维虚拟用户图像,确定三维虚拟用户图像在三维立体图像中的起始位置并进行插入,生成多个用户在三维立体图像中的替身后,通过虚拟显示设备上的陀螺仪确定多个用户的头部方向信息,通过摄像设备获取多个用户的动作信息,将头部方向信息和动作信息结合,生成用户的体感信息,将该体感信息实时输入到三维立体图像中,使得该多个替身进行协作训练,并对三维立体图像的显示视角进行实时调整,生成虚拟现实的协作画面,增强用户的沉浸感,并提升了场景的真实感以及协作训练的效率。

相应的,本发明实施例还提供一种虚拟现实服务器,如图6所示,该虚拟现实服务器可以包括射频(rf,radiofrequency)电路401、包括有一个或一个以上计算机可读存储介质的存储器402、输入单元403、显示单元404、传感器405、音频电路406、无线保真(wifi,wirelessfidelity)模块407、包括有一个或者一个以上处理核心的处理器408、以及电源409等部件。本领域技术人员可以理解,图6中示出的虚拟现实服务器结构并不构成对虚拟现实服务器的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:

rf电路401可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,交由一个或者一个以上处理器408处理;另外,将涉及上行的数据发送给基站。通常,rf电路401包括但不限于天线、至少一个放大器、调谐器、一个或多个振荡器、用户身份模块(sim,subscriberidentitymodule)卡、收发信机、耦合器、低噪声放大器(lna,lownoiseamplifier)、双工器等。此外,rf电路401还可以通过无线通信与网络和其他设备通信。该无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(gsm,globalsystemofmobilecommunication)、通用分组无线服务(gprs,generalpacketradioservice)、码分多址(cdma,codedivisionmultipleaccess)、宽带码分多址(wcdma,widebandcodedivisionmultipleaccess)、长期演进(lte,longtermevolution)、电子邮件、短消息服务(sms,shortmessagingservice)等。

存储器402可用于存储软件程序以及模块,处理器408通过运行存储在存储器402的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器402可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如产品的虚拟图像等)等;存储数据区可存储根据虚拟现实服务器的使用所创建的数据(比如部件信息、维修信息等)等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器402还可以包括存储器控制器,以提供处理器408和输入单元403对存储器402的访问。

输入单元403可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的麦克风、触摸屏、体感输入设备、键盘、鼠标、操作杆、光学或者轨迹球信号输入。具体地,在一个具体的实施例中,输入单元403可包括触敏表面以及其他输入设备。触敏表面,也称为触摸显示屏或者触控板,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触敏表面上或在触敏表面附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触敏表面可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器408,并能接收处理器408发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触敏表面。除了触敏表面,输入单元403还可以包括其他输入设备。具体地,其他输入设备可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。

显示单元404可用于显示由用户输入的信息或提供给用户的信息以及终端的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。显示单元404可包括显示面板,可选的,可以采用液晶显示器(lcd,liquidcrystaldisplay)、有机发光二极管(oled,organiclight-emittingdiode)等形式来配置显示面板。进一步的,触敏表面可覆盖显示面板,当触敏表面检测到在其上或附近的触摸操作后,传送给处理器408以确定触摸事件的类型,随后处理器408根据触摸事件的类型在显示面板上提供相应的视觉输出。虽然在图6中,触敏表面与显示面板是作为两个独立的部件来实现输入和输入功能,但是在某些实施例中,可以将触敏表面与显示面板集成而实现输入和输出功能。

虚拟现实服务器还可包括至少一种传感器405,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板的亮度,接近传感器可在虚拟虚拟现实产品维修移动到耳边时,关闭显示面板和/或背光。作为运动传感器的一种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于终端还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。但是可以理解的是,其并不属于虚拟现实服务器的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。

音频电路406、扬声器,传声器可提供用户与终端之间的音频接口。音频电路406可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路406接收后转换为音频数据,再将音频数据输出处理器408处理后,经rf电路401以发送给比如另一终端,或者将音频数据输出至存储器402以便进一步处理。音频电路406还可能包括耳塞插孔,以提供外设耳机与终端的通信。

wifi属于短距离无线传输技术,终端通过wifi模块407可以帮助用户收发电子邮、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图6示出了wifi模块407,但是可以理解的是,其并不属于虚拟现实服务器的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。

处理器408是终端的控制中心,利用各种接口和线路连接整个虚拟现实服务器的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行虚拟现实服务器的各种功能和处理数据,从而对虚拟现实服务器进行整体监控。可选的,处理器408可包括一个或多个处理核心;优选的,处理器408可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器408中。

虚拟现实服务器还包括给各个部件供电的电源409(比如电池),优选的,电源可以通过电源管理系统与处理器408逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源409还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。

尽管未示出,虚拟现实服务器还可以包括摄像头、蓝牙模块等,在此不再赘述。具体在本实施例中,虚拟现实服务器中的处理器408会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器402中,并由处理器408来运行存储在存储器402中的应用程序,从而实现各种功能:

接收用户对虚拟数据库中虚拟协作场景的选择指令;

根据该选择指令获取对应的虚拟协作场景的三维立体图像,并将该三维立体图像显示在虚拟显示设备上;

根据至少一个用户的输入指令,获取至少一个用户的全息图像信息;

将该全息图像信息输入至该三维立体图像中;

实时获取该至少一个用户的体感信息,并将该至少一个用户的体感信息实时更新至三维立体图像中,以生成虚拟现实的协作画面。

具体实施时,以上各个单元可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个单元的具体实施可参见前面的方法实施例,在此不再赘述。

在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见上文针对基于虚拟现实的协作训练方法的详细描述,此处不再赘述。

本发明实施例提供的基于虚拟现实的协作训练方法及系统,该基于虚拟现实的协作训练系统及基于虚拟现实的协作训练方法属于同一构思,在该基于虚拟现实的协作训练系统上可以运行该基于虚拟现实的协作训练方法实施例中提供的任一方法,其具体实现过程详见该基于虚拟现实的协作训练方法实施例,此处不再赘述。

需要说明的是,对本发明该基于虚拟现实的协作训练方法而言,本领域普通测试人员可以理解实现本发明实施例基于虚拟现实的协作训练方法的全部或部分流程,是可以通过计算机程序来控制相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,如存储在终端的存储器中,并被该终端内的至少一个处理器执行,在执行过程中可包括如该基于虚拟现实的协作训练方法的实施例的流程。其中,该存储介质可为磁碟、光盘、只读存储器(rom,readonlymemory)、随机存取记忆体(ram,randomaccessmemory)等。

对本发明实施例的该基于虚拟现实的协作训练系统而言,其各功能模块可以集成在一个处理芯片中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。该集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中,该存储介质譬如为只读存储器,磁盘或光盘等。

以上对本发明实施例所提供的一种基于虚拟现实的协作训练方法及系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上该,本说明书内容不应理解为对本发明的限制。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1