三维场景重建方法及其系统与流程

文档序号:21369508发布日期:2020-07-04 04:46阅读:307来源:国知局
三维场景重建方法及其系统与流程

本发明涉及计算机领域,更进一步的涉及一三维场景重建方法及其系统。



背景技术:

近年来,伴随着计算机视觉和机器人技术的兴起,实时三维重建技术作为一个研究热点,被广泛的应用于三维建模、ar(augmentedreality)、vr(virtualreality)、mr(mixedreality)和slam(simultaneouslocalizationandmapping)等领域。

传统三维实时重建技术通常采用传统经典算法sfm(structurefrommotion)作为基础的算法。sfm算法采用二维图像作为输入,通常在二维图像上寻找特征点进行帧间匹配,通过最小化重投影误差求解相机位姿的变化从而构建出三维模型。sfm算法由于采用二维图像作为输入,受特征可见度和完成性的影响,并且损失了一定的三维信息,极大的限制了三维重建的精度。并且采用sfm的算法后续筛选配对、求解位姿、处理累计误差的过程计算速度慢,难以达到实时的三维重建。

为了解决传统三维实时重建技术的三维重建精度低的缺点一种解决方案是采用高精度的三维激光扫描仪作为输入,但是高精度的三维激光扫描仪价格昂贵,成本较高,不利于大范围的推广使用。

随着计算机应用技术的不断发现和发展,三维实时重建技术必将随着计算机应用的发展得到更加广泛的应用,因此如何解决传统三维重建技术所面临的重建精度低,重建速度慢不能够实时重建的问题便成为三维实时重建技术所亟待解决的技术问题。



技术实现要素:

本发明的一个目的在于提供一三维场景重建方法及其系统,其中所述三维场景重建方法基于深度图像进行三维场景重建,重建场景精度高。

本发明的另一个目的在于提供一三维场景重建方法及其系统,其中所述三维场景重建方法基于深度图像进行三维重建,场景重建速度快。

本发明的另一个目的在于提供一三维场景重建方法及其系统,其中所述三维重建方法能够对深度点云数据构建深度金字塔,能够加快后续深度点云数据的处理速度,增加三维场景重建的速度。

本发明的另一个目的在于提供一三维场景重建方法及其系统,其中所述三维场景重建方法能够从粗到细地计算相机位姿,能够在保证三维重建精度的同时加快计算三维重建速度。

本发明的另一个目的在于提供一三维场景重建方法及其系统,其中所述三维场景重建方法采用全部深度信息进行相机跟踪,能够在多变的光照环境中完成高质量的几何表面重建。

本发明的另一个目的在于提供一三维场景重建方法及其系统,其中所述三维场景重建方法采用光线投影算法进行三维模型的实时显示,并能够处理部分动态变化的环境、提供任意视角的交互显示。

本发明的另一个目的在于提供一三维场景重建方法及其系统,其中所述三维场景重建方法采用光线投影算法进行三维模型的实时显示,能够处理和虚拟物体、虚拟光纤、前景人物等的交互。

本发明的另一个目的在于提供一三维场景重建方法及其系统,其中所述三维场景重建方法能够对快速移动的物体进行实时三维重建。

本发明的另一个目的在于提供一三维场景重建方法及其系统,其中所述三维场景重建方法采用tsdf表示方法对深度点云数据进行拼接,噪声小、数据融合质量高、点云拼接速度高。

本发明的另一个目的在于提供一三维场景重建方法及其系统,其中通过所述三维场景重建方法重建的场景用户能够在任意时刻将拼接后的场景保存为三维格式的文件。

本发明的另一个目的在于提供一三维场景重建方法及其系统,其中用户能够与三维重建模型进行实时交互操作。

本发明的另一个目的在于提供一三维场景重建方法及其系统,其中所述三维场景重建方法简单易行、经济成本低。

本发明的另一个目的在于提供一三维场景重建方法及其系统,其中所述基于深度图像的场景重建系统结构简单,易于实现,经济成本低。

相应的,为了实现以上至少一个发明目的,本发明进一步提供一三维场景重建方法,所述三维场景重建方法包括:

通过一tof摄像模组获取一待重建场景的一第一帧深度点云数据;

对所述第一帧深度点云数据进行预处理,以构建所述第一帧深度点云数据对应的深度金字塔;

以截断符号距离函数对经过预处理的所述第一帧深度点云数据进行处理以将所述第一帧深度点云数据转化为体积表示;

通过所述tof摄像模组获取该待重建场景的一第二帧深度点云数据;

对所述第二帧深度点云数据进行预处理,以构建所述第二帧深度点云数据对应的深度金字塔;

基于所述第一帧深度点云数据对应的深度金字塔和所述第二帧深度点云数据对应的深度金字塔,对所述第一帧深度点云数据和所述第二帧深度点云数据进行点云拼接,以获得所述tof摄像模组获取所述第二帧深度点云数据的时候的全局位姿;

以截断符号距离函数对经过预处理之后的所述第二帧深度点云数据进行处理,以将所述第二帧深度点云数据转化为体积表示;

融合基于体积表示的所述第一帧深度点云数据和基于体积表示的所述第二帧深度点云数据,以获得所述tof摄像模组获取所述第二帧深度点云数据时该待重建场景的基于体积的融合表示;以及

响应于停止所述tof摄像模组对该待重建场景进行扫描,对该待重建场景的基于体积的融合表示进行三角化处理,以获得在所述tof摄像模组获取所述第二帧深度点云数据的视角下该待重建场景的三维模型。

根据本发明的一个实施例,在所述步骤融合基于体积表示的所述第一帧深度点云数据和基于体积表示的所述第二帧深度点云数据,以获得所述tof摄像模组获取所述第二帧深度点云数据时该待重建场景的基于体积的融合表示和所述步骤响应于停止所述tof摄像模组对该待重建场景进行扫描信息,对该待重建场景的基于体积的融合表示进行三角化处理,以获得在所述tof摄像模组获取所述第二帧深度点云数据的视角下该待重建场景的三维模型之间还包括:

通过所述tof摄像模组获取该待重建场景的一第三帧深度点云数据;

对所述第三帧深度点云数据进行预处理,以构建所述第三帧深度点云数据对应的深度金字塔;

基于所述第二帧深度点云数据对应的深度金字塔和所述第三帧深度点云数据对应的深度金字塔,对所述第二帧深度点云数据和所述第三帧深度点云数据进行点云拼接,以获得所述tof摄像模组获取所述第三帧深度点云数据时的全局位姿;

以截断符号距离函数对经过预处理之后的所述第三帧点云数据进行处理,以将所述第三帧深度点云数据转化为体积表示;以及

融合基于体积表示的所述第三帧深度点云数据,以及通过融合基于体积表示的所述第一帧深度点云数据和所述第二帧深度点云数据生成的基于体积的融合表示,以获得所述tof摄像模组获取所述第三帧深度点云时该待重建场景基于体积的融合表示。

根据本发明的一个实施例,所述三维重建方法还包括:基于所述tof摄像模组的当前位姿,对该待重建场景的基于体积的融合表示进行光线投影处理,以生成该待重建场景的实时显示数据。

根据本发明的一个实施例,在构建所述第一帧深度点云数据、所述第二帧深度点云数据以及所述第三帧深度点云数据对应的深度金字塔之前进一步包括:对所述第一帧深度点云数据、所述第二帧深度点云数据以及所述第三帧深度点云数据进行降噪处理。

根据本发明的一个实施例,所述tof摄像模组的工作波长为850nm。

根据本发明的一个实施例,所述tof摄像模组的视场角为60°(h)*45°(v)。

根据本发明的一个实施例,所述tof摄像模组的最高支持帧率为30帧/秒。

根据本发明的另一方面,本发明进一步提供一三维场景重建系统,包括:

一tof摄像模组,所述tof摄像模组能够获取一待重建场景的一第一帧深度点云数据和一第二帧深度点云数据;

一深度金字塔构建单元,所述深度金字塔构建单元被可工作的连接于所述tof摄像模组,所述深度金字塔构建单元能够构建所述第一帧深度点云数据和所述第二帧深度点云数据对应的深度金字塔;

一体积表示单元,所述体积表示单元被可工作的连接于所述深度金字塔构建单元,所述体积表示单元能够以截断符号距离函数对经过预处理的所述第一帧深度点云数据和所述第二帧深度点云数据进行处理以将所述第一帧深度点云数据和所述第二帧深度点云数据转化为体积表示;

一点云拼接单元,所述点云拼接单元被可工作的连接于所述深度金字塔构建单元,所述点云拼接单元能够基于所述第一帧深度点云数据和所述第二帧深度点云数据对应的深度金字塔对所述第一帧深度点云数据和所述第二帧深度点云数据进行点云拼接,以获得所述tof摄像模组的当前位姿;

一体积表示融合单元,所述体积表示融合单元被可工作的连接于所述体积表示单元,所述体积表示融合单元能够融合基于体积表示的所述第一帧深度点云数据和所述第二帧深度点云数据,以获得所述tof摄像模组当前位姿下该待重建场景的基于体积的融合表示;以及

一三角化处理单元,所述三角化处理单元被可工作的连接于所述体积表示融合单元,所述三角化处理单元能够对该待重建场景的基于体积的融合表示进行三角化处理,以获得在所述tof摄像模组当前位姿下的该待重建场景的三维模型。

根据本发明的一个实施例,所述tof摄像模组还能够获取一第三帧深度点云数据;所述深度金字塔构建单元能够构建所述第三帧深度点云数据对应的深度金字塔,所述点云拼接单元能够对所述第二帧深度点云数据和所述第三帧深度点云数据进行点云拼接,以获得所述tof摄像模组的当前位姿;所述体积表示单元能够以截断符号距离函数对构建过深度金字塔的所述第三帧深度点云数据进行处理,以将所述第三帧深度点云数据转化为体积表示;所述体积表示融合单元能够融合基于体积表示的所述第三帧深度点云数据,以及通过融合基于体积表示的所述第一帧深度点云数据和所述第二帧深度点云数据生成的基于体积的融合表示,以获得所述tof摄像模组在当前位姿下该待重建场景的基于体积的融合表示,所述三角化处理单元能够对该待重建场景的基于体积的融合表示进行三角化处理,以获得所述tof摄像模组在当前位姿下该待重建场景的三维模型。

根据本发明的一个实施例,所述三维场景重建系统进一步包括一光线投影单元,所述光线投影单元被可工作的连接于所述体积表示融合单元,所述光线投影单元能够对该待重建场景的基于体积的融合表示进行光线投影,以生成该待重建场景的实时显示数据。

根据本发明的一个实施例,所述三维场景重建系统进一步包括一降噪单元,所述降噪单元分别被可工作的连接于所述tof摄像模组和所述深度金字塔构建单元,所述降噪单元能够在构建所述第一帧深度点云数据、所述第二帧深度点云数据以及所述第三帧深度点云数据对应的深度金字塔之前对所述第一帧深度点云数据、所述第二帧深度点云数据以及所述第三帧深度点云数据进行降噪处理。

附图说明

图1是根据本发明的一个优选实施例的三维场景重建方法的结构框图示意图。

图2是根据本发明的一个优选实施例的三维场景重建方法的结构框图示意图。

图3是根据本发明的一个优选实施例的基于深度图像的场景重建系统的整体框图结构示意图。

图4是根据本发明的一个优选实施例的三维场景重建方法的流程框图示意图。

图5是根据本发明的一个优选实施例的基于深度图像的场景重建系统的应用示意图。

图6是根据本发明的一个优选实施例的三维场景重建方法的一应用示意图。

图7是根据本发明的一个优选实施例的三维场景重建方法的一应用示意图。

图8是根据本发明的一个优选实施例的三维场景重建方法的一应用示意图。

具体实施方式

以下描述用于揭露本发明以使本领域技术人员能够实现本发明。以下描述中的优选实施例只作为举例,本领域技术人员可以想到其他显而易见的变型。在以下描述中界定的本发明的基本原理可以应用于其他实施方案、变形方案、改进方案、等同方案以及没有背离本发明的精神和范围的其他技术方案。

本领域技术人员应理解的是,在本发明的揭露中,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系是基于附图所示的方位或位置关系,其仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此上述术语不能理解为对本发明的限制。

可以理解的是,术语“一”应理解为“至少一”或“一个或多个”,即在一个实施例中,一个元件的数量可以为一个,而在另外的实施例中,该元件的数量可以为多个,术语“一”不能理解为对数量的限制。

参考附图1至图2,本发明所提供的基于深度图像的三维场景重建方法被阐述。所述基于深度图像的三维重建方法包括

101:通过一tof摄像模组10获取一待重建场景200的一第一帧深度点云数据11;

102:对所述第一帧深度点云数据11进行预处理,以构建所述第一帧深度点云数据11对应的深度金字塔;

103:以截断符号距离函数对经过预处理的所述第一帧深度点云数据11进行处理,以将所述第一帧深度点云数据11转化为体积表示;

104:通过所述tof摄像模组10获取该待重建场景200的一第二帧深度点云数据12;

105:对所述第二帧深度点云数据12进行预处理,以构建所述第二帧深度点云数据12对应的深度金字塔;

106:基于所述第一帧深度点云数据11对应的深度金字塔和所述第二帧深度点云数据12对应的深度金字塔,对所述第一帧深度点云数据11和所述第二帧深度点云数据12进行点云拼接,以获得所述tof摄像模组10获取所述第二帧深度点云数据12时的全局位姿;

107:以截断符号距离函数对经过预处理之后的所述第二帧深度点云数据12进行处理,以将所述第二帧深度点云数据12转化为体积表示;

108:融合基于体积表示的所述第一帧深度点云数据11和基于体积表示的所述第二帧深度点云数据12,以获得所述tof摄像模组10获取所述第二帧深度点云数据12时该待重建场景200的基于体积的融合表示;以及

109:响应于停止所述tof摄像模组对该待重建场景进行扫描,对该待重建场景200的基于体积的融合表示进行三角化处理,以获得在所述tof摄像模组10获取所述第二帧深度点云数据12的视角下该待重建场景200的三维模型。

参考附图2,所述三维场景重建方法在所述步骤108和所述步骤109之间进一步包括如下步骤:

201:通过所述tof摄像模组10获取该待重建场景200的一第三帧深度点云数据13;

202:对所述第三帧深度点云数据13进行预处理,以构件所述第三帧深度点云数据13对应的深度金字塔;

203:基于所述第二帧深度点云数据12对应的深度金字塔和所述第三帧深度点云数据13对应的深度金字塔,对所述第二帧深度点云数据12和所述第三帧深度点云数据13进行点云拼接,以获得所述tof摄像模组10获取所述第三帧深度点云数据13时的全局位姿;

204:以截断符号距离函数对经过预处理之后的所述第三帧深度点云数据13进行处理,以将所述第三帧深度点云数据13转化为体积表示;以及

205:融合基于体积表示的所述第三帧深度点云数据13,以及通过融合基于体积表示的所述第一帧深度点云数据11和所述第二帧深度点云数据12生成的基于体积的融合表示,以获得所述tof摄像模组10获取所述第三帧深度点云时该待重建场景基于体积的融合表示。

根据本发明的一个实施例,其中所述三维场景重建方法进一步包括如下步骤:

301:对该待重建场景200的基于体积的融合表示进行投影处理,以获得该待重建场景200的实时显示数据。

根据本发明的一个实施例,其中所述三维场景重建方法在构建所述第一帧深度点云数据11、所述第二帧深度点云数据12以及所述第三帧深度点云数据13对应的深度金字塔之前进一步包括:对所述第一帧深度点云数据11、所述第二帧深度点云数据12以及所述第三帧深度点云数据13进行降噪处理。

根据本发明的一个实施例,其中所述三维场景重建方法中所采用的所述tof摄像模组的型号为mars05。mars05采用最新的tof方案,采用的传感器为1/1.4英寸cmos(深度)、1/6英寸cmos(彩色),支持640*480高精度的点云输出(误差在1%以内),1920*1080的彩色输出;并且帧率最高支持30帧/秒,可以实时处理3d动态捕捉数据输出;tof视场角为60°(h)*45°(v),rgb视场角81.86°(h)*52°(v),工作波长为850nmvcsel,探测范围为0.1m-6m,并内置六自由度的imu传感器icm20690,抗非炫目强光干扰,使用环境广泛;同时mars05模块搭载movidius平台,处理芯片为ma2150,通过标准usb3.0/2.0接口进行供电和数据传输,操作系统方面支持linuxubuntu14.04,windows7/8/10x86/x64,android4.3或更高,设备体积大小为22mm(宽)*85mm(长)*17.4mm(高),具有小尺寸低功耗、便于使用及推广等优点。

在本发明所提供的所述三维场景重建方法中,在对所述第一帧深度点云数据11、所述第二帧深度点云数据12以及所述第三帧深度点云数据13构建对应的深度金字塔之前先对所述第一帧深度点云数据11、所述第二帧深度点云数据12以及所述第三帧深度点云数据13进行降噪处理,以供方便对所述第一帧深度点云数据11、所述第二帧深度点云数据12以及所述第三帧深度点云数据13的后续处理,提高三维场景重建的速度。

在本发明所提供的所述三维场景重建方法中,分别对所述第一帧深度点云数据11、所述第二帧深度点云数据12以及所述第三帧深度点云数据13构建对应的深度金字塔,因此能够从粗到细的计算所述tof摄像模组10的位姿,在保证较高的三维重建精度的同时加快了三维场景重建的精度。

在本发明所提供的所述三维场景重建方法中,以截断符号距离函数(tsdftruncatedsigneddistancefunctions)对经过预处理的所述第一帧深度点云数据11、所述第二帧深度点云数据12以及所述第三帧深度点云数据13进行处理,以供获得所述第一帧深度点云数据11、所述第二帧深度点云数据12以及所述第三帧深度点云数据13所对应的体积表示。以截断符号距离函数对深度点云数据进行体积表示相较于传统的点云或mesh表示方法,可以以更小噪声、更高质量地进行数据融合,与sdf(signeddistancefunctions)表示相比,计算速度更快。

在本发明所提供的所述三维场景重建方法的所述步骤109中,响应于停止所述tof摄像模组10对该待重建场景200进行扫描,对该待重建场景200的基于体积的融合表示进行三角化处理,以获得在所述tof摄像模组10当前位姿下的该待重建场景200的三维模型,采用全部深度信息进行所述tof摄像模组的跟踪,采用波前法进行模型的三角化,可在多变的光线环境中完成高质量的几何表面重建,尤其是能够在室内多变的光照环境中完成高质量的几何表面重建。需要指出的是,当获取停止所述tof摄像模组10对该待重建场景200的扫描信息后,然后才对该待重建场景200基于体积的融合进行三角化处理,生成该待重建场景200的三维模型。停止所述tof摄像10对该待重建场景200的扫描信息包括但不限于,使用者的保存模型操作。

在本发明所提供的所述三维场景重建方法的所述步骤301中,对该待重建场景200的基于体积的融合表示进行投影处理,以获得该待重建场景200的实时显示数据中,采用光线投影算法进行三维模型的实时显示,并可处理部分动态变化的环境,比如用户在该待重建场景200前走动,提供任意视角的交互显示,也可以处理和虚拟物体、虚拟光线、前景人物等的交互。

根据本发明的一个实施例,其中在所述步骤106,基于所述第一帧深度点云数据11对应的深度金字塔和所述第二帧深度点云数据12对应的深度金字塔,对所述第一帧深度点云数据11和所述第二帧深度点云数据12进行点云拼接,以获得所述tof摄像模组10获取所述第二帧深度点云数据12的时候的全局位姿中,结合拍摄所述第一帧深度点云数据11时所述tof摄像模组10的全局位姿、所述第一帧深度点云数据11的体积表示以及所述第二帧深度点云数据12采用icp(iterativeclosestpoint迭代最近点算法)算法计算所述tof摄像模组10获取所述第二帧深度点云数据12的时候的全局位姿。

同样的,在所述步骤203,基于所述第二帧深度点云数据12对应的深度金字塔和所述第三帧深度点云数据13对应的深度金字塔,对所述第二帧深度点云数据12和所述第三帧点云数据13进行点云拼接,以供获得所述tof摄像模组在获取所述第三帧深度点云数据13的时候的全局位姿中,结合拍摄所述第二帧深度点云数据12时所述tof摄像模组10的全局位姿、所述第二帧深度点云数据12以及所述第三帧深度点云数据13采用icp算法计算所述tof摄像模组10获取所述第三帧深度点云数据13的时候的全局位姿。

需要指出的是,在本优选实施例中,假设所述tof摄像模组10在获取所述第一帧深度点云数据11的时候的全局位姿为全局坐标系中的原点,以供由此获得所述tof摄像模组10获取后续深度点云数据的时候的全局位姿。

根据本发明的一个实施例,其中在所述步骤108,融合基于体积表示的所述第一帧深度点云数据11和基于体积表示的所述第二帧深度点云数据12,以获得所述tof摄像模组10获取所述第二帧深度点云数据12的时候该待重建场景20的基于体积的融合表示。

根据本发明的一个实施例,其中在所述步骤205,融合基于体积表示的所述第三帧深度点云数据13,以及通过融合基于体积表示的所述第一帧深度点云数据11和所述第二帧深度点云数据12生成的基于体积的融合表示,以获得所述tof摄像模组10获取所述第三帧深度点云数据13的时候该待重建场景200的基于体积的融合表示中,也就是将所述第三帧深度点云数据13的体积表示融合与所述第一帧深度点云数据11的体积表示和所述第二帧深度点云数据12的体积表示的融合,以供获得所述tof摄像模组10获取所述第三帧深度点云数据13的时候该待重建场景200的基于体积的融合表示。

参考附图4,其显示有本发明所提供的所述三维场景重建方法的流程结构示意图,当使用者需要进行三维场景重建的时候,首先连接所述tof摄像模组10,然后通过所述tof摄像模组10获取深度点云数据,对所获取的深度点云数据进行降噪处理,构件深度点云数据所对应的深度金字塔,对所获取的深度点云数据进行体积表示,然后判断所获取的深度点云数据是否为第一帧深度点云数据,当判断所获取的深度点云数据是第一帧深度点云数据的时候,以所述tof摄像模组10获取所述第一帧深度点云数据11的全局位姿为坐标原点构建全局坐标系;当判断所获取的深度点云数据不是第一帧深度点云数据的时候,将该不是第一帧深度点云数据的深度点云数据与该深度点云数据的前一帧深度点云数据进行点云拼接,以获得该深度点云数据的全局坐标,接着将该深度点云数据与之前的深度点云数据的体积表示或之前的深度点云数据的融合体积表示进行融合,以获得所述tof摄像模组10获取该深度点云数据的时候的融合体积表示,然后进行光线投影操作,以获得该待重建场景200的三维重建场景的实时显示。

需要指出的是,在本发明所提供的所述三维场景重建方法中,使用者能够随时进行按键操作随时保存重建后的该待重建场景200的三维模型为三维格式的文件。当判断使用者进行保存按键操作的时候,对融合体积表示进行三角化处理,以获得该待重建场景200的三维场景重建模型,并能够将该待重建场景200的三维重建模型保存为三维文件的格式,当使用者没有进行按键操作的时候,所述tof摄像模组10继续获取该待重建场景200的深度点云。

参考附图3,根据本发明的另一方面,为了实现本发明所提供的所述三维场景重建方法本发明进一步提供一三维场景重建系统。所述三维场景重建系统包括一所述tof摄像模组10、一深度金字塔构建单元20、一体积表示单元30、一点云拼接单元40、一体积表示融合单元50以及一三角化处理单元60,所述tof摄像模组10能够获取该待重建场景200的一所述第一帧深度点云数据11和一所述第二帧深度点云数据12;所述深度金字塔构建单元20被可工作的连接于所述tof摄像模组10,所述深度金字塔构建单元20能够构建所述第一帧深度点云数据11和所述第二帧深度点云数据12对应的深度金字塔;所述体积表示单元30被可工作的连接于所述深度金字塔构建单元20,所述体积表示单元30能够以截断符号距离函数对经过预处理的所述第一帧深度点云数据11和所述第二帧深度点云数据12进行处理,以将所述第一帧深度点云数据11和所述第二帧深度点云数据12转化为体积表示;所述点云拼接单元40被可工作的连接于所述深度金字塔构建单元20,所述点云拼接单元40能够基于所述第一帧深度点云数据11和所述第二帧深度点云数据12对应的深度金字塔对所述第一帧深度点云数据11和所述第二帧深度点云数据12进行点云拼接,以获得所述tof摄像模组10获取所述第二帧深度点云数据12的时候的全局位姿;所述体积表示融合单元50被可工作的连接于所述体积表示单元30,所述体积表示融合单元50能够融合基于体积表示的所述第一帧深度点云数据11和所述第二帧深度点云数据12,以获得所述tof摄像模组10在获取所述第二帧深度点云12的时候该待重建场景200的基于体积的融合表示;所述三角化处理单元60被可工作的连接于所述体积表示融合单元50,所述三角化处理单元60能够对该待重建场景200的基于体积的融合表示进行三角化处理,以获得所述tof摄像模组10在获取所述第二帧深度点云数据12的全局位姿的时候该待重建场景200的三维模型。

根据本发明的一个实施例,所述tof摄像模组10还能够获取一第三帧深度点云数据13,所述深度金字塔构建单元20能够构建所述第三帧深度点云数据13对应的深度金字塔,所述点云拼接单元40能够对所述第二帧深度点云数据12和所述第三帧深度点云数据13进行点云拼接,以获得所述tof摄像模组10获取所述第三帧深度点云数据13的时候的全局位姿;所述体积表示单元30能够以截断符号距离函数对构建过深度金字塔的所述第三帧深度点云数据13进行处理,以将所述第三帧深度点云数据13转化为体积表示;所述体积表示融合单元50能够融合基于体积表示的所述第三帧深度点云数据13,以及通过融合基于体积表示的所述第一帧深度点云数据11和所述第二帧深度点云数据12生成的基于体积的融合表示,以获得所述tof摄像模组10在获取所述第三帧深度点云数据13的时候的全局位姿下该待重建场景200的基于体积的融合表示,所述三角化处理单元60能够对该待重建场景200的基于体积的融合表示进行三角化处理,以获得所述tof摄像模组10在获取所述第三帧深度点云数据13的全局位姿下该待重建场景200的三维模型。

所述三维场景重建系统进一步包括一光线投影单元70,所述光线投影单元70被可工作的连接于所述体积表示融合单元50,所述光线投影单元70能够对该待重建场景200的基于体积的融合表示进行光线投影,以生成该待重建场景200的实时显示数据。

所述三维场景重建系统进一步包括一降噪单元80,所述降噪单元80分别被可工作的连接于所述tof摄像模组10和所述深度金字塔构建单元20,所述降噪单元80能够在构建所述第一帧深度点云数据11、所述第二帧深度点云数据12以及所述第三帧深度点云数据13对应的深度金字塔之前对所述第一帧深度点云数据11、所述第二帧深度点云数据12以及所述第三帧深度点云数据13进行将噪处理,以供提高所述第一帧深度点云数据11、所述第二帧深度点云数据12以及所述第三帧深度点云数据13的后续数据处理效率,提高三维场景重建的效率。

所述深度金字塔构建单元20能够对所述tof摄像模组10所获取的深度点云数据构建点云数据深度金字塔,以供能够从粗到细的计算所述tof摄像模组10的全局位姿,在保证三维场景重建具有较高的精度的同时加快三维场景重建的速度。

所述体积表示单元30能够以截断符号距离函数(tsdftruncatedsigneddistancefunctions)对经过预处理的所述第一帧深度点云数据11、所述第二帧深度点云数据12以及所述第三帧深度点云数据13进行处理,以供获得所述第一帧深度点云数据11、所述第二帧深度点云数据12以及所述第三帧深度点云数据13所对应的体积表示。以截断符号距离函数对深度点云数据进行体积表示相较于传统的点云或mesh表示方法,可以以更小噪声、更高质量地进行数据融合,与sdf(signeddistancefunctions)表示相比,计算速度更快。

所述点云拼接单元40能够结合所述tof摄像模组10获取所述第一帧深度点云数据11时所述tof摄像模组10的全局位姿、所述第一帧深度点云数据11的体积表示以及所述第二帧深度点云数据12采用icp(iterativeclosestpoint迭代最近点算法)算法计算所述tof摄像模组10获取所述第二帧深度点云数据12的时候的全局位姿;或者结合所述tof摄像模组10获取所述第二帧深度点云数据12时所述tof摄像模组10的全局位姿、所述第二帧深度点云数据12的体积表示以及所述第三帧深度点云数据13采用icp算法计算所述tof摄像模组获取所述第三帧深度点云数据13的时候的全局位姿。

所述三角化处理单元60能够用全部深度信息进行所述tof摄像模组的跟踪,采用波前法进行模型的三角化,可在多变的光线环境中完成高质量的几何表面重建,尤其是能够在室内多变的光照环境中完成高质量的几何表面重建。

所述光线投影单元70能够采用用光线投影算法向点云数据的体积融合表示进行光线投影,以供获得当前位姿视角下的三维重建场景,进行三维模型的实时显示,并可处理部分动态变化的环境,比如用户在该待重建场景200前走动,提供任意视角的交互显示,也可以处理和虚拟物体、虚拟光线、前景人物等的交互。

所述三维场景重建系统进一步包括一显示装置90,所述显示装置90被可工作的连接于所述三角化处理单元60,所述显示装置用于显示该待重建场景200的三维重建模型。

参考附图6至8,其显示有本发明所提供的所述三维场景重建系统的应用示意图。参考附图6,其显示有所述tof摄像模组10所获取的该待重建场景200的一帧深度点云数据的体积表示。参考附图7,其显示有所述tof摄像模组10所获取的该待重建场景200的另一帧深度点云数据的体积表示。参考附图8,其显示有本发明所提供的所述三维场景重建系统基于所述tof摄像模组所获取的两帧所述深度点云数据所建立的该待重建场景200的三维模型。

本领域的技术人员应当理解的是,该待重建场景200可以是现实生活中的任何三维物体或者三维物体的组合,所述三维场景重建系统能够构建该待重建场景200的三维模型。

在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。

本领域的技术人员应理解,上述描述及附图中所示的本发明的实施例只作为举例而并不限制本发明。本发明的目的已经完整并有效地实现。本发明的功能及结构原理已在实施例中展示和说明,在没有背离所述原理下,本发明的实施方式可以有任何变形或修改。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1