点线特征融合的错误匹配剔除方法与流程

文档序号:14991427发布日期:2018-07-20 22:18阅读:1596来源:国知局

本发明涉及计算机视觉中的图像特征匹配领域,特别是图像匹配中点匹配和线匹配方法。



背景技术:

特征匹配技术在图像检索、物体识别、视频跟踪以及增强现实等领域有重要应用。目前已有的曲线匹配方法主要有如下两类,第一类是基于曲线形状的匹配方法,第二类方法是基于图像内容的匹配方法[1-3]。两种方法在局部形变较大时,均会产生较多地错误匹配,匹配正确率和总数达不到预期的效果。因此,从现有的匹配结果中去除错误匹配是计算机视觉、模式识别等领域中的一项基本问题,其应有广泛。

现有方法对特征点错误匹配去除方法研究较多,一些算法将线和点结合建立关系实现错误匹配的去除。例如lourakis等人[4]用两条直线和两个点构成的射影不变量实现平面上直线和点的匹配,但由于点匹配和直线匹配均是未知的,进行自由组合时需要大量时间。为避免在区域内寻找点匹配的组合搜索问题,fan等人[5]利用已有的特征点匹配结果,提出一种基于点线不变量的直线错误匹配去除方法。但现有点线结合的方法只适用于直线匹配,均无法用于曲线错误匹配的剔除。

参考文献:

[1]wangz,wuf,huz.msld:arobustdescriptorforlinematching[j].patternrecognition,2009,42(5):941-953.

[2]王志衡,智珊珊,刘红敏.基于亮度序的均值标准差描述子[j].模式识别与人工智能,2013,26(4):91-98.

[3]liuh.m,zhis.s,wangz.h.,iocd:intensityordercurvedescriptor[j].internationaljournalofpatternrecognitionandartificialintelligence,2013,27(7):1355011-135037

[4]lourakism.i.a.,halkidiss.t,orphanoudakiss.c.matchingdisparateviewsofplanarsurfacesusingprojectiveinvariants[j].imagevisioncomputing,2000,18(9):673–683.

[5]fanb,wuf,huz.aggregatinggradientdistributionsintointensityorders:anovellocalimagedescriptor[c]//ieee,2011:2377-2384.。



技术实现要素:

本发明针对现有曲线匹配和点匹配算法中存在有错误匹配的问题,目的是提供一种将点、线特征融合起来的匹配方法。为了实现本目的,本发明基于点线特征融合的错误匹配剔除方法,包括以下步骤:

步骤s1:从不同角度拍摄同一场景两幅不同图像并输入计算机;

步骤s2:利用sift技术进行特征点检测及匹配;

步骤s3:利用曲线描述子进行曲线匹配;

步骤s4:确定各匹配曲线的支撑区域;

步骤s5:获取匹配曲线对应支撑区域内的匹配点对;

步骤s6:计算曲线支撑区域内特征点到曲线的最小距离;

步骤s7:根据匹配曲线对的差异度剔除错误曲线匹配;

步骤s71:计算匹配曲线对的差异度;

步骤s72:验证匹配曲线对的正确性并剔除错误曲线匹配;

步骤s8:根据匹配点对的差异度剔除错误点匹配;

步骤s81:计算匹配点对的差异度;

步骤s82:验证匹配点对的正确性并剔除错误点匹配。

本发明提供的点线特征融合的错误匹配剔除方法,首先利用已建立的点匹配结果约束、验证曲线匹配的结果,然后利用得到的曲线匹配结果约束、验证点匹配结果。本发明提供的方法不仅能够准确检测出错误的匹配,而且计算简单,不需要复杂变换,在计算复杂性及效率上优于已有方法;同时,该方法具有通用性,可用于各种点匹配和曲线匹配算法结果中错误匹配的剔除。

附图说明

图1为本发明点线特征融合的错误匹配剔除方法流程图。

具体实施方式

如图1所示为本发明点线特征融合的错误匹配剔除方法流程图,包括:采集图像并输入计算机、匹配图像中的特征点、匹配图像中的特征曲线、确定匹配曲线的支撑区域、获取匹配曲线对应支撑区域内的匹配点对、计算曲线支撑区域内特征点到曲线的最小距离、根据匹配曲线对的差异度剔除错误曲线匹配、根据匹配点对的差异度剔除错误点匹配。

各步骤的具体实施细节如下:

步骤s1:从不同角度拍摄同一场景两幅不同图像并输入计算机。

步骤s2:利用sift技术进行特征点检测与匹配,获得匹配点对集合s(p)={(pi,pi),i=1,2,…,np},其中pi表示第1幅图像中匹配的特征点,pi表示第2幅图像中与pi匹配的特征点,np为匹配特征点对的个数。

步骤s3:利用canny边缘检测算子提取曲线并使用文献iocd:intensityordercurvedescriptor,internationaljournalofpatternrecognition&artificialintelligence.2013,27(7),1355011所述亮度序曲线描述子进行曲线匹配,获得匹配曲线对集合s(c)={(cj,cj),j=1,2,…,nc},其中cj表示第1幅图像中的匹配曲线,cj表示第2幅图像中与cj匹配的曲线,nc为匹配曲线对的个数。

步骤s4:确定各曲线的支撑区域,具体方式为,对于任一条由num(c)个点组成的匹配曲线c,记c上任一点为pkk=1,2,…,num(c),将以pk为圆心r为半径的圆形区域定义为点pk的支撑区域并记为g(pk),c上各点支撑区域覆盖的区域定义为c的支撑区域并记为g(c)=g(p1)∪g(p2)∪…∪g(pnum(c))。

步骤s5:获取匹配曲线对应支撑区域内的匹配点对,具体方式为,对于任一匹配曲线对(cj,cj),由步骤s4分别获得cj、cj的支撑区域g(cj)、g(cj),寻找满足如下条件的匹配点对(p,p’):pg(cj)&p’g(cj)&(p,p’)∈s(p),得到(cj,cj)对应支撑区域内的匹配点对集合s(cpj)={(pl,pl),l=1,2,…,nj},nj为匹配点对的个数。

步骤s6:计算曲线支撑区域内特征点到曲线的最小距离,具体方式为,对于步骤s5获取的匹配点对集合s(cpj)中的任一匹配点对(pl,pl),计算特征点pl到曲线cj上各点距离并记距离最小值为djl;计算pl到曲线cj上各点距离并记距离最小值为djl;获得s(cpj)对应的最小距离集合s(d)={(djl,djl),l=1,2,…,nj}。

步骤s7:根据匹配曲线对的差异度剔除错误曲线匹配,具体方式如下:

步骤s72:验证匹配曲线对的正确性并剔除错误曲线匹配,具体方式为,对于任一匹配曲线对(cj,cj),给定阈值tc,tc一般取8~15,如果dif(cj,cj)<tc,则(cj,cj)为正确匹配,否则将(cj,cj)作为错误匹配剔除。

步骤s8:根据匹配点对的差异度剔除错误点匹配,具体方式如下

步骤s81:计算匹配点对的差异度,具体方式为,对于集合c中的任一匹配点对(pi,pi),如果pig(cj),计算点pi到曲线cj的最小距离并记为dij;计算点pi到曲线cj的最小距离并记为dij,则匹配点对(pi,pi)的差异度定义为:dif(pi,pi)=|dij-dij|。

步骤s82:验证匹配点对的正确性并剔除错误点匹配,具体方式为,对于任一匹配点对(pi,pi),定义阈值tp,tp一般取35~45,如果dif(pi,pi)<tp,则(pi,pi)为正确匹配,否则将(pi,pi)作为错误匹配剔除。

本发明提供的点线特征融合的错误匹配剔除方法,首先利用已建立的点匹配结果约束、验证曲线匹配结果,剔除不满足约束条件的曲线匹配对;然后利用得到的曲线匹配结果约束、验证点匹配结果,实现错误匹配的剔除。本发明提供的方法不仅能够准确检测出错误匹配,而且计算简单,在计算复杂性及效率上优于已有方法;同时,该方法具有通用性,可用于各种点匹配和曲线匹配算法结果中错误匹配的剔除。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1