联合混合尺度特征描述子与邻居一致性的图像匹配方法

文档序号:33894000发布日期:2023-04-21 03:37阅读:66来源:国知局
联合混合尺度特征描述子与邻居一致性的图像匹配方法

本发明属于基于深度学习的计算机视觉,主要涉及了联合混合尺度特征描述子与邻居一致性的图像匹配方法。


背景技术:

1、图像特征匹配是指在同一三维场景的两个二维视图之间建立点到点的对应关系,图像匹配是许多下游三维计算机视觉任务的基石,包括三维重建、视觉定位、运动结构(sfm)、同步定位和映射(slam)等。给定一对图像,传统的特征匹配方法是:(1)特征检测(2)特征描述(3)特征匹配(4)剔除离群点。

2、早期的特征匹配方法趋向于人工设计出特征点提取器和描述子,并取得了一定的成功。近些年来深度学习方法采用数据驱动策略,可以获得对光照和视角变化更加鲁棒的描述子,卷积神经网络最先被采用作为特征点检测和描述的工具。近年来为了扩大感受野和聚合更大的上下文信息,transformer被广泛应用于特征匹配中。受部分场景中大量的稀疏纹理影响,特征点的可重复性变差且更难被提取出来,无特征点检测器的方法趋向于先建立视图间的密集匹配,在提取出可靠的匹配加以精修。然而卷积神经网络提取出的特征经过多层下采样会丢失细粒度的细节信息,无法正确在场景中的小物体上建立正确的匹配。如何克服学习到的描述子既有丰富的细粒度细节,又能对各种几何变形鲁棒,就成了本领域技术人员亟待解决的问题。


技术实现思路

1、本发明正是针对现有技术中无特征点检测器方法均存在缺陷的问题,提供联合混合尺度特征描述子与邻居一致性的图像匹配方法,所述方法依次经过基于卷积与注意力混合和基于增强自注意力网络后,将不同尺度的特征描述子在特征维度上拼接,获得初始的分配矩阵,初始匹配点对经过基于一个共享权重的图神经网络后,修正分配矩阵,实现图像匹配。本发明通过融合单尺度特征描述子和多尺度特征描述子,避免由于卷积神经网络中的下采样操作带来的细节损失,同时考虑邻居一致性来保证匹配的几何一致性,最终达到准确性高的匹配效果。

2、为了实现上述目的,本发明采取的技术方案是:联合混合尺度特征描述子与邻居一致性的图像匹配方法,所述方法依次经过基于卷积与注意力混合和基于增强自注意力的网络后,将不同尺度的特征描述子在特征维度上拼接,获得初始的分配矩阵,初始匹配点对经过基于一个共享权重的图神经网络后,修正分配矩阵,实现图像匹配。

3、作为本发明的一种改进,所述方法包括以下步骤:

4、s1,特征提取:对输入的从不同视角拍摄同一画面的原图片经过fpn网络进行不同分辨率的特征提取,经由特征提取得到的特征图具有不同的空间分辨率和语义信息,原图像1/2分辨率大小的特征图和1/8大小的特征图被用作下一步的特征描述;

5、s2,单尺度特征描述;将步骤s1获得的1/8大小的特征图位置编码后输入基于卷积与注意力混合的神经网络,得到单尺度特征描述子;所述基于卷积与注意力混合的神经网络中的混合自注意力层额外增加了一个卷积分支而交叉注意力层则保持不变,混合自注意力层的卷积分支恢复了原图像的局部几何结构而注意力分支进行特征内部的信息交互;交叉注意力层实现不同特征的信息交互,更新每一层的特征;

6、s3,多尺度特征描述;将步骤s1中获得的从不同视角拍摄的原图片作为输入,输入至基于增强自注意力的网络中,输出多尺度的特征描述子;所述基于增强自注意力的网络中增强自注意力中的键矩阵(k)和值矩阵(v)在不同自注意力头中以不同的比例下采样,每一个自注意力头进行不同尺度特征的信息传递,生成多尺度的特征描述子;

7、s4,不同尺度特征融合:将步骤s2获得的单尺度特征描述子和步骤s3获得的多尺度特征描述子在特征维度上进行拼接;

8、s5,将步骤s4获得的混合尺度描述子输入最优匹配层,得到初始的分配矩阵;基于设置的阈值,选取初始的匹配点对;

9、s6,邻居一致性滤除外点:将步骤s4获得的初始匹配点对建模成图结构,输入到一个共享权重的图神经网络,图神经网络的输出被用于修正初始的分配矩阵,获取新的匹配点对。

10、s7,匹配精修:将步骤s1获得的1/2大小的特征图和步骤s4获得的混合描述子输入到一个全连接神经网络中,得到增强的1/2大小的特征图;所得特征图和步骤s6获得的像素级精度的新匹配点对输入到一个匹配精修网络,输出亚像素级精度的最终匹配,从而构建了完整的图像匹配模型,实现图像匹配。

11、作为本发明的一种改进,所述步骤s2中将1/8大小的特征图进行位置编码并重新排列成一维张量;经由卷积与自注意力融合的混合自注意层和交叉注意力层,得到单尺度特征描述子

12、作为本发明的一种改进,所述步骤s2中基于稀疏的注意力图神网络训练过程具体为:

13、混合自注意力机制和交叉注意力机制在网络中不同层交替使用。当使用混合自注意力机制时,在特征图内学习每个像素之间的相似性;当使用交叉注意力机制时,学习特征图间每个像素的相似性,最终通过一层全连接神经网络得到网络层与层之间传递的信息。

14、作为本发明的另一种改进,所述步骤s3进一步包括:

15、s31:对键矩阵(k)和值矩阵(v)在不同自注意力头中以不同的比例下采样,

16、

17、

18、vi=vi+le(vi),

19、式中,x表示输入的特征,表示线性映射矩阵,ri表示第i个特征头的下采样比例,mta(·)表示多尺度聚合操作,le(·)是一个卷积神经网络;

20、s32:步骤s31获得的查询矩阵(q),键矩阵(k)和值矩阵(v)进行信息传递,

21、

22、式中dh表示每个特征头的特征维度。

23、作为本发明的另一种改进,所述步骤s4中的同维度操作具体包括:将256维的单尺度特征描述子和128多尺度特征描述子在特征维度上拼接得到384维的特征描述子。

24、作为本发明的又一种改进,所述步骤s5具体为:先计算两个混合描述子之间的相似度矩阵,

25、

26、式中,τ是一个常数,<·>表示内积。相似度矩阵作为部分指派问题的代价矩阵,求解这个部分指派问题可以得到最优解置信度分配矩阵,从而得到初始匹配。

27、作为本发明的更进一步改进,所述步骤s6中,提取出对应点对的稀疏描述子,通过内积计算出稀疏的相似度矩阵p,图像间点集的对应关系可以看作是图结构中节点的对应关系,从而构建出节点矩阵ra,rb和边矩阵ea,eb,这里每个节点只保留与其余最相似的两个节点之间的边,经由一个共享参数的图神经网络,

28、da=ψ(ra,ea),

29、db=ψ(ra,eb),

30、式中ψ是图神经网络,da,db的差可以用来修正初始的分配矩阵,得到符合邻居一致性的像素级别精度的新匹配。

31、作为本发明的更进一步改进,所述步骤s7中,在增强的1/2原图大小的特征图中,以每个匹配点为中心,截取5×5大小的局部窗口,这些窗口经由序列化后,经由所述步骤s2中的单尺度特征描述网络,得到局部细粒度描述子,分别计算每一个匹配点处的描述子在另一张图的局部细粒度描述子上的峰值响应,得到最终亚像素精度的最终匹配结果。

32、与现有技术相比,本发明具有的有益效果:

33、1、本发明改进了无特征点检测器的特征匹配方法,给单尺度特征描述子补充了局部几何结构信息。

34、2、本发明联合了混合尺度特征描述子,既增强了特征描述子的显著性又保持了描述子对光照和视角变换的鲁棒性。

35、3、本发明设计了一种新颖的外点滤除方法,检验获得的初始匹配是否具有邻居一致性,增强了匹配结果的可靠性,在三维重建、视觉定位与导航等领域有着广泛的应用前景。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1