一种基于深度自编码器的点云几何压缩的方法与流程

文档序号:18903595发布日期:2019-10-18 22:19阅读:830来源:国知局
本发明属于点云数据压缩领域,特别涉及一种基于深度自编码器的点云几何压缩的方法。
背景技术
::随着三维扫描设备的快速发展,快速将现实世界中的三维信息数字化成为可能,点云正逐渐成为表达三维场景和物体三维表面的一种有效方式。相比于传统的二维图片和视频,点云通常以点的形式离散地分布在三维空间中,支持自由视点、多角度的观看,满足了人们对三维世界的用户体验,应用也愈发广泛;点云是三维扫描设备对物体表面采样所获取的,点的数量众多,其中每个点包含(x、y、z)几何信息和颜色、纹理等属性信息,信息量大,所以点云的数据量十分庞大。考虑到点云的大数据量和网络传输的有限带宽,点云压缩是一个势在必行的任务。点云压缩主要分为几何压缩和属性压缩,其中点云几何压缩是一个活跃的、富有前景的研究领域。现有的点云几何压缩方法主要是基于八叉树划分的几何压缩方法。首先先对原始点云进行量化,人为设置一个量化系数来减少原始点云的点数,并移除重复点。接下来使用八叉树对点云进行空间分解,然后记录每个八叉树子节点是否含有点,并将其作为占有码记录。该方法的处理效率较高但压缩性能有待提高。并且不具有快速适应某一类特定的点云能力。近年来,针对三维点云的机器学习方法有了很大的发展。例如在点云识别和分割任务上,基于深度学习的方法已经超过了基于传统手工特征的方法,并且在三维重建方面获得了很大的成功。这类基于数据驱动的方法可以很快的适应某一类特定种类的点云,学习其特有的特征,在特定任务上获得较好的效果,但是这种方法几乎没有用在点云几何压缩上。通常来说,传统的点云编码器的设计需要数以月计的时间,但是基于深度学习的方法通过对大量数据进行学习,可以很快的适应不同类型的数据,从而可以节约大量的人力成本,同时获得较好的压缩效果,并且基于深度学习的方法已经在图片和视频压缩领域获得了一定程度的成功。综合来看,现有的点云几何压缩方法存在压缩效率有待提高,开发时间长,不具备快速适应新数据集等情况。技术实现要素:为了克服现有技术的不足,本发明提出一种基于深度自编码器的点云几何压缩的方法,该方法打破了传统的点云几何压缩框架,提出了一种新的基于神经网络的点云几何压缩框架,可以使用大量数据进行训练,进一步提高点云几何压缩的性能。本发明采用如下技术方案:一种基于深度自编码器的点云几何压缩的方法,其具体步骤为:(1)点云预处理:收集待压缩的一类点云作为训练集,并将其归一化至单位圆中;(2)点云下采样:对训练集中的点云进行下采样,使得每个点云具有相同的点数m,点云中的每个点具有(x,y,z)三维坐标;下采样方法使用最远点采样法,首次随机选择一点,接下来每次都选择与被选择点集距离最远的点加入到被选择点集中,直至被选择点数满足要求。(3)训练压缩模型:将经过第(2)步下采样后的点云输入到基于深度自编码器的点云几何压缩框架中进行训练;(4)点云的几何压缩:将训练得到的压缩框架运用于此类所有点云的几何压缩。上述步骤(3)所述的基于深度自编码器的点云几何压缩框架,其具体训练过程如下:(3-1)将经过(2)步下采样后的点云x输入到基于神经网络的编码器e中,得到经过编码后的码字y;(3-2)将经过编码器e编码产生的码字y进行量化得到量化后的码字由于取整量化函数的导数为0或者无穷大,无法进行反向梯度传播,因此需要对其导数进行近似处理:其中,r(y)即为近似函数,符号d代表求微分。一种简单的选择为:r(y)=y+u.(3)其中,u为[-0.5,0.5]间的随机噪声。在训练的过程中用公式(3)来代替量化,即可成功进行反向传播。训练完成后,在实际压缩过程中,使用原始的量化取整函数即可;(3-3)将量化后的码字进行概率建模,使用文献(balléj,minnend,singhs,etal.variationalimagecompressionwithascalehyperprior[j].2018.)记载的算法求出码字的概率模型再根据概率模型计算码字的信息熵,作为模型训练的码率损失r:其中e为求期望函数。(3-4)对量化后的码字进行解码。解码器d由全连接神经网络构成,将码字解码成重构点云;将重构点云与原始输入点云使用倒角距离(chamferdistance,dch)计算误差:其中,s1和s2分别是输入点云和重构点云。最终,压缩框架的率失真损失函数为:其中,λ为权衡码率和失真的拉格朗日系数,fe表示编码器的非线性函数,fd表示解码器的非线性函数,为码字的概率模型。整个网络框架在训练过程优化公式(6)所示率失真损失函数。本发明的一种基于深度自编码器的点云几何压缩的方法具有如下有益效果:1.本发明的点云几何压缩的方法提供了一种基于深度学习的点云几何压缩框架,对于给定的一类几何形状类似的待压缩点云,通过深度自编码器学习得到几何编码器和解码器,可以节省大量码率,同时获得较高的重建质量。2.与传统的基于手工设计的几何编解码器相比,这种数据驱动的方法不仅能够获得较好的压缩效果,同时也能更快的适应新的点云种类。3.目前三维点云模型已经越来越多运用在生活中并且具有大量的点云可以作为训练集,因此本发明适用范围非常广泛。附图说明图1是本发明的基于深度自编码器的点云几何压缩方法的框架流程图;图2是本发明实施例中与由动态图像专家组(mepg组织)第125次会议提出的测试模型tmc13的压缩主观性能对比图,其中:左列为原始点云,中间列为本发明方法结果,右列为tmc13结果;图3a是本发明与传统测试模型tmc13(由mepg组织第125次会议提出)在椅子(chair)数据集上的压缩客观性能对比图;图3b是本发明与传统测试模型tmc13(由mepg组织第125次会议提出)在飞机(airplane)数据集上的压缩客观性能对比图;图3c是本发明与传统测试模型tmc13(由mepg组织第125次会议提出)在汽车(car)数据集上的压缩客观性能对比图;图3d是本发明与传统测试模型tmc13(由mepg组织第125次会议提出)在桌子(table)数据集上的压缩客观性能对比图。具体实施方式下面结合附图和实施例,对本发明进行详细的描述。本发明提出了一种基于深度自编码器的点云几何压缩的方法,该方法的框架主要包括基于神经网络的编码器,量化器,熵估计模块和基于神经网络的解码器。此方法能够针对某类特定种类的点云快速的学习出适应其特点的编码器,同时能够获得较好的压缩效果。图1是本发明的基于深度自编码器的点云几何压缩的方法的框架流程图,包括以下步骤:(1)点云的预处理:收集待压缩的一类点云作为训练集,并将其归一化至单位圆中;(2)点云下采样:此步骤对应图1中的采样层。给定一待处理点云x,该点云即为图1中的输入,其点数为n,每个点具有(x,y,z)三维坐标,则将点云x用维度为n×3的矩阵表示。由于在不同的码率点处需要的点云点数不同,因此需要人为的对原始点云进行下采样。下采样的方法为最远点下采样法。设待处理点云x具有n个点,用集合来表示为{x1,x2,...,xn},使用最远点下采样法得到原点云的一个子集{xi1,xi2,…,xim},使得xij为与前一层选择的点集距离最远的点,并将其加入到被选择点集中。与随机下采样的方法相比,经过此方法采样后的点云点密度更加均匀,有利于保持原始点云的几何形状。经过下采样后的,原来的n×3点云成为m×3点云。(3)训练压缩模型:(3-1)设经过下采样后的点云点数为m,用维度为m×3的矩阵来表示。经过下采样后的点云通过由神经网络组成的编码器e编码成k个码字,记作y。编码器基于由文献(charlesrq,haos,mok,etal.pointnet:deeplearningonpointsetsfor3dclassificationandsegmentation[c]//ieeeconferenceoncomputervision&patternrecognition.2017.)记载的神经网络框架改进得来。编码器由5层感知机组成,经过5层感知机后,每个点的特征由原来的三位坐标变换为k维特征,因此使用m×k矩阵表示。再对该m×k维度矩阵求最大池化(对应图1中的最大池化层),即得到最终的1×k维码字y。(3-2)将编码得到的1×k维的码字y进行量化:由于取整量化函数的导数为0或者无穷大,无法进行反向梯度传播,因此需要对其导数进行近似处理:其中,r(y)即为近似函数。一种简单的选择为:r(y)=y+u.(3)其中,u为[-0.5,0.5]间的随机噪声。在训练的过程中用公式(3)来代替量化,即可成功进行反向传播。训练完成后,在实际压缩过程中,使用原始的量化取整函数即可。(3-3)熵瓶颈层的作用是将码字y进行量化得到并将量化后的码字进行概率建模,使用文献(balléj,minnend,singhs,etal.variationalimagecompressionwithascalehyperprior[j].2018.)记载的算法求出码字的概率模型再根据概率模型计算码字的信息熵,作为模型训练的码率损失:(3-4)对量化后的码字进行解码。解码器d由三层的全连接神经网络构成,将码字解码成重构点云,重构点云用m×3维度的矩阵表示,该点云即为图1中的输出;将重构点云与原始输入点云使用倒角距离(chamferdistance,dch)计算误差:其中,s1和s2分别是输入点云和重构点云。最终,压缩框架的率失真损失函数为:其中,λ为权衡码率和失真的拉格朗日系数,fe表示编码器的非线性函数,fd表示解码器的非线性函数,为码字的概率模型。整个网络框架在训练过程优化公式(6)所示损失函数(对应于图1中的率失真损失)。(4)点云的几何压缩:将训练完成的压缩框架运用于此类所有点云的几何压缩。主要步骤:首先将待压缩点云进行预处理和下采样,与第(1)和(2)步骤相同;对经过下采样后的点云用训练完成的编码器进行编码,对编码得到的码字进行量化,此时的量化不需要进行近似处理;将量化后的码字经过任意熵编码器编码就得到的用于存储和传输的码流;解码时,将码流进行熵解码得到码字,将码字使用训练完成的解码器进行解码得到重构点云。图2是本发明的基于深度自编码器的点云几何压缩的方法和传统方法tmc13(由mepg组织第125次会议提出)的压缩主观性能对比图,其中,左列为原始点云,中间列为本发明方法结果,右列为tmc13结果。从上到下分别为椅子(chair)类型点云、桌子(table)类型点云、汽车(car)类型点云和飞机(airplane)类型点云。从上到下,不同类型的点云使用本方法分别获得的编码每个点所需要的比特数为0.28227、0.255371、0.269531、0.290039、0.249、0.2764和0.2363,获得的峰值信噪比分别为11.2439db、10.8908db、15.2908db、15.84db、20.8142db、17.8893db和12.8006db。使用tmc13得到的编码每个点所需要的比特数从上到下分别为0.761719db、0.589844db、0.535156、0.308594、0.796974、1.16797和1.23828,获得的峰值信噪比分别为11.0722db、10.4177db、15.2666db、15.8073db、20.2003db、17.485db和12.8038db。从图中可以看出,使用本发明的点云几何压缩的方法得到的重构点云的点数更多,分布更为密集,与原始点云更为接近,在几乎相同的峰值信噪比(psnr)下所需的码字远小于tmc13结果。为了验证本发明的一种基于深度自编码器的点云几何压缩的方法的效果,我们使用形状网(shapenet)数据集进行验证,使用其中的4类点云进行实验,结果如图3a至图3d所示,其中,图3a是本发明与传统测试模型tmc13(由mepg组织第125次会议提出)在椅子(chair)数据集上的压缩客观性能对比图;图3b是本发明与传统测试模型tmc13(由mepg组织第125次会议提出)在飞机(airplane)数据集上的压缩客观性能对比图;图3c是本发明与传统测试模型tmc13(由mepg组织第125次会议提出)在汽车(car)数据集上的压缩客观性能对比图;图3d是本发明与传统测试模型tmc13(由mepg组织第125次会议提出)在桌子(table)数据集上的压缩客观性能对比图。从图中可以看到,在这四类点云上,本发明的编码表现在所有码率点上都超过了tmc13的编码表现。具体地,从图3a可以看出,在椅子(chair)数据集上,本发明相比于tmc13获得了71.4%的增益,从图3d可以看出,本发明在桌子(table)数据集上获得了61.3%的增益,从图3c中可以看出,本发明在汽车(car)数据集上获得了80.1%的增益,从图3d可以看出,本发明在飞机(airplane)数据集上获得了79.8%的增益。本发明的方法在点云几何压缩方面比由mepg组织提出的tmc13点云编码器减少70%左右的码率。主观质量对比如图2所示,在相似的重建质量下,本发明的方法码率小于tmc13的压缩结果,压缩性能的优势明显,优点突出。需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换和修改都是可能的。因此,本发明不应局限于实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。当前第1页12当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1