一种基于虚拟现实仿真的预处理动态建模方法及装置与流程

文档序号:17724103发布日期:2019-05-22 02:23阅读:196来源:国知局
一种基于虚拟现实仿真的预处理动态建模方法及装置与流程

本发明实施例涉及虚拟现实仿真技术领域,具体涉及一种基于虚拟现实仿真的预处理动态建模方法及装置。



背景技术:

虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟环境,是一种多源信息融合的、交互式的三维动态视景和实体行为的系统仿真使用户沉浸到该环境中。虚拟现实技术主要包括模拟环境、感知、自然技能和传感设备等方面。模拟环境是由计算机生成的、实时动态的三维立体逼真图像。感知是指理想的虚拟现实应该具有一切人所具有的感知。除计算机图形技术所生成的视觉感知外,还有听觉、触觉、力觉、运动等感知,甚至还包括嗅觉和味觉等,也称为多感知。自然技能是指人的头部转动,眼睛、手势、或其他人体行为动作,由计算机来处理与参与者的动作相适应的数据,并对用户的输入作出实时响应,并分别反馈到用户的五官。

与传统视窗操作下的新媒体艺术相比,交互性和扩展的人机对话,是vr独特优势的关键所在。通过对vr、ar等技术的应用,可以采用更为自然的人机交互手段控制作品的形式,塑造出更具沉浸感的艺术环境和现实情况下不能实现的梦想,并赋予创造的过程以新的含义。如具有vr性质的交互装置系统可以设置观众穿越多重感官的交互通道以及穿越装置的过程,艺术家可以借助软件和硬件的顺畅配合来促进参与者与作品之间的沟通与反馈,创造良好的参与性和可操控性;也可以通过视频界面进行动作捕捉,储存访问者的行为片段,以保持参与者的意识增强性为基础,同步放映增强效果和重新塑造、处理过的影像;通过增强现实、混合现实等形式,将数字世界和真实世界结合在一起。

本发明人发现,在与现实场景相结合的应用领域中,通过程序触发开关来调取相应的动作指令,展现预先设定好的场景,在此过程中,预先设定好的场景与现实场景不能够很好的融合,进而给用户带来不真实的体感。



技术实现要素:

为此,本发明实施例提供一种基于虚拟现实仿真的预处理动态建模方法及装置,以解决现有技术导致的预先设定好的场景与现实场景不能够很好的融合的问题。

为了实现上述目的,本发明的实施方式提供如下技术方案:

本发明的第一方面,提供一种基于虚拟现实仿真的预处理动态建模方法,包括:

创建图像输出区、待输出区、预处理区,通过所述图像输出区获取操作指令,并将所述操作指令分发给所述预处理区和所述待输出区;

在所述预处理区中,根据所述操作指令获取预处理区内的模型属性和场景属性,实时获取模型实际属性值和场景实际属性值,根据所述模型实际属性值和所述场景实际属性值,对所述预处理区内的模型和场景进行渲染,保存渲染得到的模型与场景渲染序列;

在所述待输出区中,根据所述操作指令从所述预处理区中,获取所述模型与场景渲染序列及对应的模型和场景,对获取到的模型和场景进行校验,根据校验结果对所述模型与场景渲染序列精细渲染,保存精细渲染得到的视频序列;

在所述图像输出区中,获取预览方式,根据所述操作指令从待输出区中获取对应的视频序列,按照预览方式播放视频。

在本发明另一个实施例中,所述创建图像输出区、待输出区、预处理区,包括:

创建图像输出区,根据所述图像输出区的尺寸动态创建待输出区,根据所述图像输出区的尺寸和所述待输出区的尺寸创建预处理区。

在本发明另一个实施例中,所述在所述预处理区中,根据所述操作指令获取预处理区内的模型属性和场景属性,实时获取模型实际属性值和场景实际属性值,包括:

在所述预处理区中,根据所述操作指令生成预演指令序列;

根据所述预演指令序列获取所述预处理区内即将使用的模型;

根据所述即将使用的模型,实时获取预先安装的各种传感器采集到的数据,并对采集到的数据进行分析,得到模型实际属性值和场景实际属性值。

在本发明另一个实施例中,所述根据所述模型实际属性值和所述场景实际属性值,对所述预处理区内的模型和场景进行渲染,保存渲染得到的模型与场景渲染序列,包括:

从所述预处理区内各模型属性值、各图形属性值、各场景属性值、各素材属性值中,获取与所述模型实际属性值和所述场景实际属性值匹配的模型、图形、场景、素材;

根据与所述模型实际属性值和所述场景实际属性值匹配的模型、图形、场景、素材,采用图形渲染引擎和物理渲染引擎对预处理区内即将使用的模型、场景进行渲染,保存渲染得到的模型与场景渲染序列。

在本发明的另一实施例中,所述根据校验结果对所述模型与场景渲染序列精细渲染,保存精细渲染得到的视频序列,包括:

根据操作指令获取当前的模型和当前的场景,将所述当前的模型和当前的场景分别与从预处理区中获取到的模型和场景进行比较,若模型和场景分别相同,则对所述模型与场景渲染序列进行精细渲染,保存精细渲染得到的视频序列。

本发明的第二方面,提供一种基于虚拟现实仿真的预处理动态建模装置,包括:

工作区创建模块,用于创建图像输出区、待输出区、预处理区;

指令分发模块,用于通过所述图像输出区获取操作指令,并将所述操作指令分发给所述预处理区和所述待输出区;

预处理模块,用于在所述预处理区中,根据所述操作指令获取预处理区内的模型属性和场景属性,实时获取模型实际属性值和场景实际属性值,根据所述模型实际属性值和所述场景实际属性值,对所述预处理区内的模型和场景进行渲染,保存渲染得到的模型与场景渲染序列;

待输出模块,用于在所述待输出区中,根据所述操作指令从所述预处理区中,获取所述模型与场景渲染序列及对应的模型和场景,对获取到的模型和场景进行校验,根据校验结果对所述模型与场景渲染序列精细渲染,保存精细渲染得到的视频序列;

图像输出模块,用于在所述图像输出区中,获取预览方式,根据所述操作指令从待输出区中获取对应的视频序列,按照预览方式播放视频。

所述工作区创建模块,具体用于创建图像输出区,根据所述图像输出区的尺寸动态创建待输出区,根据所述图像输出区的尺寸和所述待输出区的尺寸创建预处理区。

所述预处理模块,用于在所述预处理区中,根据所述操作指令生成预演指令序列,根据所述预演指令序列获取所述预处理区内即将使用的模型,根据所述即将使用的模型,实时获取预先安装的各种传感器采集到的数据,并对采集到的数据进行分析,得到模型实际属性值和场景实际属性值。

所述预处理模块,还用于从所述预处理区内各模型属性值、各图形属性值、各场景属性值、各素材属性值中,获取与所述模型实际属性值和所述场景实际属性值匹配的模型、图形、场景、素材,根据与所述模型实际属性值和所述场景实际属性值匹配的模型、图形、场景、素材,采用图形渲染引擎和物理渲染引擎对预处理区内即将使用的模型、场景进行渲染,保存渲染得到的模型与场景渲染序列。

在本发明第三方面,提供一种基于虚拟现实仿真的预处理动态建模的电子设备,包括:

图形采集单元,用于接收控制器下发的操作命令,调整姿态采集模型实际属性值和场景实际属性值,并将所述模型实际属性值和所述场景实际属性值发送给所述控制器;

控制器,用于创建图像输出区、待输出区、预处理区,通过所述图像输出区获取操作指令,并将所述操作指令分发给所述预处理区和所述待输出区;

用于在所述预处理区中,根据所述操作指令获取预处理区内的模型属性和场景属性,实时获取所述图形采集单元采集到的模型实际属性值和场景实际属性值,根据所述模型实际属性值和所述场景实际属性值,从服务器中获取对应的模型和场景,进行渲染,保存渲染得到的模型与场景渲染序列;

用于在所述待输出区中,根据所述操作指令从所述预处理区中,获取所述模型与场景渲染序列及对应的模型和场景,对获取到的模型和场景进行校验,根据校验结果对所述模型与场景渲染序列精细渲染,保存精细渲染得到的视频序列;

还用于在所述图像输出区中,获取预览方式,根据所述操作指令从待输出区中获取对应的视频序列,按照预览方式播放视频;

服务器,用于存储各模型和各场景。

本发明第四方面,提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,当该指令被处理器执行时可以实现如上所述的基于虚拟现实仿真的预处理动态建模方法。

根据本发明的实施方式,具有如下优点:通过创建图像输出区、待输出区、预处理区,将图像输出区获取到的操作指令与待输出区、预处理区共享,使得待输出区和预处理区能够进行预先处理,生成相应的模型、场景、甚至是视频序列,以便图像输出区在响应操作指令时,更为快速、便捷。更进一步的,本发明通过待输出区对模型和场景的校验处理,再对预处理区中已保存的模型与场景渲染序列进行精细渲染,极大提高了虚拟现实场景的渲染速度,并且通过校验处理,保证了预处理场景与模型与实际场景一致,使渲染得到的视频更为真实的融入到现实环境中。

附图说明

为了更清楚地说明本发明的实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是示例性的,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图引伸获得其它的实施附图。

图1为本发明的一实施例提供的一种基于虚拟现实仿真的预处理动态建模方法流程图;

图2为本发明的一实施例提供的步骤103的细化流程图;

图3为本发明的另一实施例提供的一种基于虚拟现实仿真的预处理动态建模装置结构示意图;

图4为本发明的另一实施例提供的预处理模块203的结构示意图;

图5为本发明的另一实施例提供的一种基于虚拟现实仿真的预处理动态建模系统的工作流程图;

图6为本发明的另一实施例提供的一种基于虚拟现实仿真的预处理动态建模的电子设备结构示意图;

图7为本发明的另一实施例提供的一种基于虚拟现实仿真的预处理动态建模系统的工作区域图;

图8为本发明的另一实施例提供的一种基于虚拟现实仿真的预处理动态建模方法中预处理区工作流程图;

图9为本发明的另一实施例提供的一种基于虚拟现实仿真的预处理动态建模方法中待输出区工作流程图;

图10为本发明的另一实施例提供的一种基于虚拟现实仿真的预处理动态建模方法中图像输出区工作流程图。

图中:201为工作区创建模块、202为指令分发模块、203为预处理模块、204为待输出模块、205为图像输出模块,2031为预演模块、2032为模型预测模块、2033为模型提取模块、2034为草图渲染模块,301为图形采集单元、302为控制器、303为服务器。

具体实施方式

以下由特定的具体实施例说明本发明的实施方式,熟悉此技术的人士可由本说明书所揭露的内容轻易地了解本发明的其他优点及功效,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

在本发明的第一方面,提供一种基于虚拟现实仿真的预处理动态建模方法,具体如图1所示,包括:

步骤101:创建图像输出区,根据图像输出区创建待输出区,根据图像输出区和待输出区创建预处理区。

在本发明实施例中,系统通过创建三个工作区,对每个工作区进行不同的分工定义,使三个工作区相互协作配合,快速处理数据,增强用户体验。系统创建图像输出区,以在该工作区内显示输出视频,根据图像输出区的尺寸动态创建待输出区,以使得图像输出区与待输出区之间尺寸匹配。通过各种质量预判,根据图像输出区的尺寸和待输出区的尺寸创建预处理区,进一步使三个工作区之间的尺寸匹配,以使得在各工作区处理的模型、场景、以及视频相互匹配,避免因工作区尺寸不匹配导致失真的问题。

步骤102:通过图像输出区获取操作指令,并将其分发给预处理区和待输出区。

在本发明实施例中,系统通过在图像输出区中获取用户的操作指令,了解用户即将使用的视频,将操作指令分发给另外两个工作区,使得另两个工作区能够进行预先处理,生成相应的模型、场景、甚至是视频序列,以便图像输出区在响应操作指令时,更快速、便捷。

步骤103:在预处理区中,根据操作指令获取预处理区内的模型属性和场景属性,实时获取模型实际属性值和场景实际属性值,根据模型实际属性值和场景实际属性值采用渲染引擎,对预处理区内的模型和场景进行渲染,保存渲染得到的模型与场景渲染序列。

在本发明实施例中,本步骤具体如图2所示,包括:

步骤1031:在预处理区中,根据操作指令生成预演指令序列;

在本发明实施例中,根据操作指令,比如推进、后退、缩放、旋转、查看、抓取、巡视、漫游等,通过对这些指令动作的分析生成预演指令,预演指令是指客户或系统即将采用的下一个动作指令。

步骤1032:根据预演指令序列获取预处理区内即将使用的模型;

在本发明实施例中,通过预演指令序列的优先级获取即将使用的模型,并对其进行后续的预处理操作。

本步骤还包括:获取预处理区内各模型属性、各模型对应的图形属性、各场景属性以及各场景对应的素材属性,并与预设数据库建立映射。

步骤1033:根据即将使用的模型,实时获取预先安装的各种传感器采集到的数据,并对采集到的数据进行分析,得到模型实际属性值和场景实际属性值,从预处理区内各模型属性值、各图形属性值、各场景属性值、各素材属性值中,获取与模型实际属性值和场景实际属性值匹配的模型、图形、场景、素材;

在本发明实施例中,获取与预处理区内场景和模型对应的预先安装的各种传感器,获取各传感器采集到的数据,并将这些数据分析处理后,找到与之对应各模型属性接口和图形属性以及使用的素材属性进行属性变量赋值。

步骤1034:根据与模型实际属性值和场景实际属性值匹配的模型、图形、场景、素材,采用图形渲染引擎和物理渲染引擎对预处理区内即将使用的模型、场景进行渲染,保存渲染得到的模型与场景渲染序列。

在本发明实施例中,在预处理区的工作范围内查找所有即将使用变化的场景以及对应的模型,通过获取外部数据变量,对变化的场景中的模型进行属性参数的更改,生成新的模型,再形成全新的场景,启用渲染引擎进行草图渲染,形成渲染序列,并保存。

步骤104:在待输出区中,根据操作指令从预处理区中获取已保存的模型与场景渲染序列及对应的模型和场景,对获取到的模型和场景进行校验,根据校验结果进行精细渲染,保存精细渲染得到的视频序列;

在本发明实施例中,获取图像输出区的尺寸即显示尺寸,根据图像输出区的尺寸动态创建待输出区,根据操作指令形成预演指令序列,根据预演指令序列从预处理区中获取已保存的模型与场景渲染序列及其对应的模型和场景,根据操作指令获取当前的模型和当前的场景,将当前的模型和当前的场景分别与从预处理区中获取到的模型和场景进行比较,若两者均相同,则对模型与场景渲染序列进行精细渲染,保存精细渲染得到的视频序列;若两者至少存在一者不相同,则根据当前的模型和当前的场景重新进行渲染,对得到的渲染后的模型和场景序列再进行精细渲染。

需要说明的是,本发明实施例中还包括,在对模型和场景进行校验之前还包括生成时间序列,根据时间序列的优先级获取对应的已保存的模型与场景渲染序列,再进行相应的校验操作,以保证预处理区保存的模型与场景渲染序列与当前实际情景匹配。

通过待输出区对模型和场景的校验处理,再对预处理区中已保存的模型与场景渲染序列进行精细渲染,极大提高了虚拟现实场景的渲染速度,并且通过校验处理,保证了预处理场景与模型更真实的融入到现实环境中,使渲染得到的视频更为真实。

步骤105:在图像输出区中,获取预览方式,根据操作指令从待输出区中获取对应的视频序列,按照预览方式播放视频。

在本发明实施例中,图像输出区获取操作指令,了解用户即将进行的操作,将其分发给另外两个工作区,实现操作指令共享,以供另两个工作区预先对该操作指令所包含的场景、模型、视频进行预处理以及保存。使得图像输出区在执行操作指令时,可以快速的获取到对应的视频,大大提高了反应速度,增强用户体验。

在本发明的第二方面,提供一种基于虚拟现实仿真的预处理动态建模装置,如图3所示,包括:

工作区创建模块201,用于创建图像输出区,根据图像输出区创建待输出区,根据图像输出区和待输出区创建预处理区;

在本发明实施例中,装置通过创工作区创建模块201建三个工作区,对每个工作区进行不同的分工定义,使三个工作区相互协作配合,快速处理数据,增强用户体验。创建图像输出区,以在该工作区内显示输出视频。根据图像输出区的尺寸动态创建待输出区,以使得图像输出区与待输出区之间尺寸匹配。通过各种质量预判,根据图像输出区的尺寸和待输出区的尺寸创建预处理区,进一步使三个工作区之间的尺寸匹配,以使得在各工作区处理的模型、场景、以及视频相互匹配,避免因工作区尺寸不匹配导致失真的问题。

指令分发模块202,用于通过图像输出区获取操作指令,并将其分发给预处理区和待输出区;

在本发明实施例中,指令分发模块202通过在图像输出区中获取用户的操作指令,了解用户即将使用的视频,将操作指令分发给另外两个工作区,使得另两个工作区能够进行预先处理,生成相应的模型、场景、甚至是视频序列,以便图像输出区在响应操作指令时,更快速、便捷。

预处理模块203,用于在预处理区中,根据操作指令获取预处理区内的模型属性和场景属性,实时获取模型实际属性值和场景实际属性值,根据模型实际属性值和场景实际属性值采用渲染引擎,对预处理区内的模型和场景进行渲染,保存渲染得到的模型与场景渲染序列。

在本发明实施例中,预处理模块203具体如图4所示,包括:

预演模块2031,用于在预处理区中,根据操作指令生成预演指令序列;

在本发明实施例中,预演模块2031,具体用于根据操作指令,比如推进、后退、缩放、旋转、查看、抓取、巡视、漫游等,通过对这些指令动作的分析生成预演指令,预演指令是指客户或系统即将采用的下一个动作指令。

模型预测模块2032,用于根据预演指令序列获取预处理区内即将使用的模型;

在本发明实施例中,模型预测模块2032,具体用于通过预演指令序列的优先级获取即将使用的模型,并对其进行后续的预处理操作。模型预测模块2032,还用于获取预处理区内各模型属性、各模型对应的图形属性、各场景属性以及各场景对应的素材属性,并与预设数据库建立映射。

模型提取模块2033,用于根据即将使用的模型,实时获取预先安装的各种传感器采集到的数据,并对采集到的数据进行分析,得到模型实际属性值和场景实际属性值,从预处理区内各模型属性值、各图形属性值、各场景属性值、各素材属性值中,获取与模型实际属性值和场景实际属性值匹配的模型、图形、场景、素材;

在本发明实施例中,模型提取模块2033,具体用于获取与预处理区内场景和模型对应的预先安装的各种传感器,获取各传感器采集到的数据,并将这些数据分析处理后,找到与之对应各模型属性接口和图形属性以及使用的素材属性进行属性变量赋值。

草图渲染模块2034,用于根据与模型实际属性值和场景实际属性值匹配的模型、图形、场景、素材,采用图形渲染引擎和物理渲染引擎对预处理区内即将使用的模型、场景进行渲染,保存渲染得到的模型与场景渲染序列。

在本发明实施例中,草图渲染模块2034,具体用于在预处理区的工作范围内查找所有即将使用变化的场景以及对应的模型,通过获取外部数据变量,对变化的场景中的模型进行属性参数的更改,生成新的模型,再形成全新的场景,启用渲染引擎进行草图渲染,形成渲染序列,并保存。

待输出模块204,用于在待输出区中,根据操作指令从预处理区中获取已保存的模型与场景渲染序列及对应的模型和场景,对获取到的模型和场景进行校验,根据校验结果进行精细渲染,保存精细渲染得到的视频序列;

在本发明实施例中,待输出模块204,具体用于获取图像输出区的尺寸即显示尺寸,根据图像输出区的尺寸动态创建待输出区,根据操作指令形成预演指令序列,根据预演指令序列从预处理区中获取已保存的模型与场景渲染序列及其对应的模型和场景,根据操作指令获取当前的模型和当前的场景,将当前的模型和当前的场景分别与从预处理区中获取到的模型和场景进行比较,将根据校验结果进行精细渲染,保存精细渲染得到的视频序列。

需要说明的是,本发明实施例中还包括,时间模块,用于在对模型和场景进行校验之前还包括生成时间序列,根据时间序列的优先级获取对应的已保存的模型与场景渲染序列,再进行相应的校验操作,以保证预处理区保存的模型与场景渲染序列与当前实际情景匹配。

在本发明实施例中,通过待输出区对模型和场景的校验处理,再对预处理区中已保存的模型与场景渲染序列进行精细渲染,极大提高了虚拟现实场景的渲染速度,并且通过校验处理,保证了预处理场景与模型更真实的融入到现实环境中,使渲染得到的视频更为真实。

图像输出模块205,用于在图像输出区中,获取预览方式,根据操作指令从待输出区中获取对应的视频序列,按照预览方式播放视频。

在本发明实施例中,图像输出模块205,具体用于在图像输出区获取操作指令,了解用户即将进行的操作,将其分发给另外两个工作区,实现操作指令共享,以供另两个工作区预先对该操作指令所包含的场景、模型、视频进行预处理以及保存。使得图像输出区在执行操作指令时,可以快速的获取到对应的视频,大大提高了反应速度,增强用户体验。

在本发明又一实施例中,将预处理区记做区域3,对应的工作流程如图8所示。将待输出区记做第2区域,对应的工作流程图如图9所示。将图像输出区示意图记做第1区域,其对应的工作流程图如图10所示。

在本发明的第三方面,提供一实施例以举例说明一种基于虚拟现实仿真的预处理动态建模方法。

本实施例所涉本项目要仿真一个长度为5公里的高速公路交通场景,其场景包括平原地区、山岭、沟壑,其主要基础设施包括高速公路、互通立交、桥梁、隧道、服务区等重要目标对象,项目配套设施包括:防护栏、防撞桶、情报板、灯杆、标志标线、防眩板、中央隔离带、锥桶、监控设备、照明设备、供电设备、安全设施,环境美化主要包括:花草、绿植、树木、飞鸟、建筑物,交通仿真对象主要包括:车辆(按照国家标准划分)、行人,以及其他物体。

由于要求被仿真的整体项目要和实际项目完全相符,因此所有模型均采用1:1建模,其所涉及使用应用软件主要包括:ue4虚幻引擎、c++、3dmax、autocad、unity3d等,但不仅限于以上应用制作软件。

细节要求:整体仿真的场景要和外场实际交通一样包括交通状态、环境状态,其中交通状态包括畅通、拥堵、堵塞,要求被仿真的车辆也要和外场实际的车辆尽量保持一致,比如:车型、颜色、品牌、车牌等重要信息,其行驶状态主要包括:所在车道、所在位置、行驶速度。环境状态主要包括:24小时时间环境变化、四季环境变化、各种天气环境变化,其中环境变化是指被仿真的物体或场景能够在不同天气、不同时间、不同季节实现与之对应的物理属性的变化,如下雪路面以及树木建筑变白等等。

系统操作查看要求:操作人员能够通过第一人称或者是第三人称,采用定点、旋转、推进、后退、路径漫游、俯视、跟随等查看目标物体以及场景。

历史再现查看方式,是指在获取被跟踪仿真的目标对象当时运动轨迹和当时的环境变化量,将这些数据重新导入到系统中,使系统能够重现当时的场景。

通过以上对项目的实际分析发现所有仿真环节几乎全部是基于被仿真的目标对象、物体、周围环境变量而快速的改变模型外观、物理属性、重复建模等。为了达到以上要求系统必须留有足够的外部数据接口来接受这些物体变量,将预先设建成的模型素材、图形素材以及配套的系统插件导入中系统数据库中以备系统动态建模时使用。

本发明实施例中,一种基于虚拟现实仿真的预处理动态建模系统的工作流程如图5所示。要想仿真出与外在环境、物体、场景、属于一模一样的真实效果,外在数据变量的获取是必不可少的。对于这些数据的处理筛选、融合、生成都是一个非常关键的环节,再通过这些物理属性的运算处理就可以使被仿真的对象或场景以及结果的展现就会变得更加真实可信。对于变量我们又可以根据系统实现的结果特性定义为系统内部变量和系统外部变量。

其中,系统变量主要包括:系统内部变量和系统外部变量,系统内部变量包括显示变量、操作变量、特性变量。进一步地,显示变量包括:画面推进速度、第一视角、第三视角、模拟摄像机焦距、模拟摄像机布设高度、模拟摄像机推进方向。操作变量包括:旋转、放大、缩小、移动、其他变量。

系统外部变量包括环境变量、时间变量、物理属性变量以及空间变量。环境变量包括:雨、雪、雾、霾、沙尘、风向、风速、光照、光强、湿度、气压、摩擦系数、综合气体、其他环境变量。时间变量包括:时、分、秒、月、日、年、春、夏、秋、冬、昼、夜、早上、中午、傍晚、日出、日落以及其他时间变量。物理属性变量包括:颜色、尺寸、高度、长度、宽度、种类、面积等。空间变量包括但不限于距离、速度、方向、位置、夹角。

其中,外部数据变量主要有安装在道路两侧的各种传感器来获取数据采集汇总的功能,内部数据变量主要是获取操作者以及图形中的角色动作指令来获得。

系统预处理的动态建模技术的实现过程详解:

以俯视查看动作为缩放展示为例,其中图像输出区是指操作者能够通过显示设备实时观看的部分,而待输出区则是在下一个缩小动作过程中,系统已经将所有数据全部处理完毕等待显示的区域,而预处理区则是系统在获取各种外部数据并结合本地数据融合经过渲染加工后,等待进入待输出区的部分。通过这种连续递进处理方式,就能够快速生成并属于高质量的动态场景和模型。

通过以上对项目的实际分析发现所有仿真环节几乎全部是基于被仿真的目标对象、物体、周围环境变量而快速的改变模型外观、物理属性、重复建模等。为了达到以上要求系统必须留有足够的外部数据接口来接受这些物体变量,将预先设建成的模型素材、图形素材以及配套的系统插件导入中系统数据库中以备系统动态建模时使用。

在本发明的第四方面,提供一种基于虚拟现实仿真的预处理动态建模的电子设备,如图6所示,包括:

图形采集单元301,用于接收控制器下发的操作命令,调整姿态采集模型实际属性值和场景实际属性值,并将所述模型实际属性值和所述场景实际属性值发送给所述控制器302;

控制器302,分别与所述图形采集单元301和服务器303连接,用于创建图像输出区、待输出区、预处理区,通过所述图像输出区获取操作指令,并将所述操作指令分发给所述预处理区和所述待输出区;

用于在所述预处理区中,根据所述操作指令获取预处理区内的模型属性和场景属性,实时获取所述图形采集单元302采集到的模型实际属性值和场景实际属性值,根据所述模型实际属性值和所述场景实际属性值,从服务器303中获取对应的模型和场景,进行渲染,保存渲染得到的模型与场景渲染序列;

用于在所述待输出区中,根据所述操作指令从所述预处理区中,获取所述模型与场景渲染序列及对应的模型和场景,对获取到的模型和场景进行校验,根据校验结果对所述模型与场景渲染序列精细渲染,保存精细渲染得到的视频序列;

还用于在所述图像输出区中,获取预览方式,根据所述操作指令从待输出区中获取对应的视频序列,按照预览方式播放视频;

服务器303,用于存储各模型和各场景。

本发明第五方面,提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,当该指令被处理器执行时可以实现如上所述的基于虚拟现实仿真的预处理动态建模方法。

在本发明实施例中,通过创建图像输出区、待输出区、预处理区,将图像输出区获取到的操作指令与待输出区、预处理区共享,使得待输出区和预处理区能够进行预先处理,生成相应的模型、场景、甚至是视频序列,以便图像输出区在响应操作指令时,更为快速、便捷。更进一步的,本发明通过待输出区对模型和场景的校验处理,再对预处理区中已保存的模型与场景渲染序列进行精细渲染,极大提高了虚拟现实场景的渲染速度,并且通过校验处理,保证了预处理场景与模型更真实的融入到现实环境中,使渲染得到的视频更为真实。

虽然,上文中已经用一般性说明及具体实施例对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1