一种基于图卷积神经网络的形状协同分割方法与流程

文档序号:16686039发布日期:2019-01-22 18:19阅读:728来源:国知局
一种基于图卷积神经网络的形状协同分割方法与流程

本发明涉及图形学的几何形状建模与分析技术,用为技术基础能广泛应用于三维游戏、建模、仿真等领域。



背景技术:

形状分割是指将形状切分成一组数量有限,各自具有简单语义的子形状。该技术能广泛应用于图形学的各个领域,例如三维游戏、建模、仿真、模型的模式识别等。早期的工作主要集中在对单个形状的分割上,但效率较低,最近有很多学者研究同时分割一组形状,并建立它们之间的对应关系,即:形状协同分割。它能有效辅助解决很多形状处理问题,如建模,模型检索,和纹理映射等。

目前,针对该问题,存在有无监督方法和监督的方法。无监督的方法能自动、高效的对形状进行协同分割,然而它的结果依赖于给定的数据集,即对不同的数据集,协同分割结果的准确率会存在很大的差异。另一方面,基于监督方法的协同分割结果依赖于已标注的训练集,给定足够多的训练集,它能得到准确率很高的分割结果。然而这类方法的缺点在于首先它也依赖于给定的训练数据集,其次其对已标注数据的训练过程的时间复杂度非常高。



技术实现要素:

本发明设计一种新型的基于图卷积神经网络的协同分割模型方法,可以对充分挖掘图模型数据,进行半监督的对模型进行分析。主要过程为:

步骤一:形状过分割

将给定的三维模型集合进行归一化分割;将每个三维模型分割成30个子片。

步骤二:图模型构建

对模型集的每个子片进行特征抽取;分别抽取形状直径函数、共形因子、形状上下文、平均测地距离和到底部的测地距离;拟定pi表示第i个子片,hk,i表示该子片的第k个特征描述;将该子片的所有特征进行连接,形成该子片的特征描述xi=[h1,i,h2,i,...,h5,i];对于任意两个子片pi和pj,采用emd距离计算它们之间的相似距离d(pi,pj)=emd(xi,xj),得到初始距离定义;通过应用高斯核,得到最终两个子片pi和pj的距离定义ai,j=exp(-d(pi,pj)/2σ2);根椐该距离,定义图模型g=(v,e)。图的节点表示每一个子片,并用它的特征描述该子片的属性,图的边的权重采用两个子片的距离来定义;相应的子片之间的距离构成相似矩阵w。

步骤三:图卷积神经网络

根椐给定的图模型,定义两层的图卷积网络模型,每一层图的结构均保持不变,节点和边的属生作动态调整;拟定最后一个节点输出为z。每一层神经网络描述成一个非线性函数h(l+1)=f(hl,a),其中h(0)=x,h(l)=z;将f(·)函数展开,定义神经网络的结构为:其中为图的邻接矩阵,i为单位矩阵。wl为每层矩阵的权重。φ(·)定义为激活函数,常用的激活函数如relu定义为:relu(·)=max(0,·);

将两层的图卷积网络进行展开,得到神经网络的输出为:

其中w(0)为输入到隐藏层的权重矩阵,wl为隐藏层至输出的矩阵。其中定义的损失函数预测值与基准值之间的误差:其中yl为标签的索引。

步骤四:形状分割结果

根椐步骤三预测得到的结果,将每个节点的标签信息反射到形状上,得到形状的分割和语义结果。

本发明相对于现有技术所具有的有益效果:本发明能支持半监督的形状协同分割,即只需要较少的标注信息,就能较准确的预测出三维模型其它未标注部分的语义信息。相比其它方法,它在仅需要少数标注信息的情况下,得到结果的精度更高。

附图说明

图1.本发明网络框架流程图;

图2.模型分割成不同的子片;

图3.图卷积网络结构示意;

图4.模型协同分割结果示例。

具体实施方式

结合附件,通过具体实施示例,对本发明的技术方案进行清楚、完整的描述。

1.网络结构图

如图1所示,系统主要分为三个步骤,第一将形状过分割成30个子片。然后通过特征提取,对这些子片构建一个图模型。最后通过图卷积网络模型,学习得到图上其它模型的分割结果。

2.模型过分割示意

图2展示我们对模型进行过分割,系统采用归一化分割对模型进行切分,每个模型我们都切分成30个子片。它们的边界与特征线基本一致。从而将分割问题转化为过分割后子片的聚类问题。

3.网络输出说明

图3展示我们的图卷积网络模型结构。系统的模型主要分为两层。图结构在作为输入进入网络模型后发射每一个节点将自身的特征信息经过变换后发送给邻居节点。这一步是在对节点的特征信息进行抽取变换。然后要接收每个节点将邻居节点的特征信息聚集起来。这一步是在对节点的局部结构信息进行融合。最后通过变换把前面的信息聚集之后做非线性变换,增加模型的表达能力。

设计的图卷积神经网络和普通卷积神经网络一样有以下性质:1)、局部参数共享,算子是适用于每个节点,处处共享。2)、感受域正比于层数,最开始的时候,每个节点包含了直接邻居的信息,再计算第二层时就能把邻居的邻居的信息包含进来,这样参与运算的信息就更多更充分。层数越多,感受域就更广,参与运算的信息就更多。

gcn模型同样具备深度学习的三种性质,1)、层级结构(特征一层一层抽取,一层比一层更抽象,更高级);2)、非线性变换(增加模型的表达能力);3)、端对端训练(不需要再去定义任何规则,只需要给图的节点一个标记,让模型自己学习,融合特征信息和结构信息。)

通过对节点的学习和传输,它能同时对节点特征信息与结构信息进行端对端学习。

4.模型结果示例

图4展示了本模型的采用该方法在一些数据集上的分割结果,相同的语义分割部分我们采用相同的颜色来表示。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1