基于颜色特征增强的没有单一显著残差的协同检测算法的制作方法

文档序号:15776474发布日期:2018-10-30 15:25阅读:125来源:国知局
基于颜色特征增强的没有单一显著残差的协同检测算法的制作方法

本发明属于计算机视觉领域,涉及一种图像视觉协同显著性检测技术,特别是涉及一种基于颜色特征增强的没有单一显著残差的协同检测算法。



背景技术:

协同显著性检测旨在检测一组图像中共同的显著性对象,那些只在个别图像或小部分图像群体中显着的对象在概念上被视为背景。协同显著性检测在计算机视觉应用中被广泛使用,比如图像协同分割,图像匹配,对象联合识别。

jacobs等人[1]首次提出了协同显著性检测问题;li和ngan[2]将协同显著性检测建模为某种单图像显著性和图像间相似性的显式组合;cheng[3]等人通过最大化图像间相似性和图像内清晰度来识别图像集合中的协同显著性对象;cao[4]计算自适应权重以融合多个单显着图,并使用秩约束来导出协同显著图。

liu[5]等人提出了使用联合fine-scale区域相似度和coarse-scale物体先验进行分层分割来检测协同显著性对象,ye[6]等人提出有效的协同显著对象发现和恢复策略。huang[7]等人提出了一个高斯混合模型来生成协同显著性先验并且通过用这些先验融合各个显著图来得到多幅图像的协同显著性。尽管融合方案多种多样,这种单一图像显著性和图像间相似性的显式组合可能导致协同显著检测中的单一显著残差,即将个别图像或者小部分图像群体中的显著性对象也检测出来。



技术实现要素:

本发明提出一种新的协同显著检测方法,可以有效的消除协同显著检测中的单一显著残差问题。本发明源于这样的观察:在一些丰富的颜色特征空间内,协同显著物体具有相似的颜色分布。技术方案如下:

1.一种基于颜色特征增强的没有单一显著残差的协同检测算法,包括下列步骤:

步骤1:单一显著图的预处理阶段

作为预处理步骤,对于一副输入图像,通过平均两个已有的显著检测器的结果来提取潜在的显著性区域,然后通过流形排序算法优化初始的单一显著图,提取到的图像i的单一显著图表示为si;

步骤2:颜色特征增强

步骤2.1:显著性前景字典的创建

采用具有四个指数,即0.5,1,1.5,2.5,的八种颜色特征,包括rgb,lab,色调,饱和度,来形容这个32维的丰富的颜色特征空间,用图像超像素来表示每一副图像;本发明对每一副图像i使用di表示超像素水平的颜色特征字典矩阵,字典创建包括超像素分割,超像素水平颜色特征提取和转换;

步骤2.2:对步骤2.1提取到的颜色特征进行编码

为保证判别能力以及获得更可靠的特征系数通过otsu自适应阈值来得到bin(·),并且通过稀疏编码来优化αi,对步骤2.1提取到的颜色特征进行编码;

步骤2.3:协同显著性标示

图像j关于图像i的协同显著程度可以经由显著性前景字典的加强乘积和以及在相同颜色特征空间上的最优的显著性特征系数来有效测量,由此得到了测量从图像j到图像i的协同显著性得分的协同显著性指示图

步骤2.4:协同显著性融合

应用混合融合策略,依靠多数投票来自适应的选择使用加法还是乘法整合多个协同显著性信息,以结合它们各自的优点,即:若超过一半的输入图像投票的超像素p对其他图像是协同显著的,使用归一化加法来融合协同显著标示信息,相反使用乘法来融合他们;

步骤3:融合后的协同显著图由全局协同显著性传播进行后处理

为提高协同显著前景的完备性,使用元胞自动机扩展模型(cellularautomatapropagation)对融合后的协同显著图进行后处理。

附图说明

图1:协同显著性检测方法框架图

图2:imagepair[17]数据集上不同方法的协同显著性检测结果的四个例子

图3:icoseg[18]数据集上不同方法的协同显著性检测结果的两个例子

图4(a)和(b):分别为两个基准数据集上不同方法的平均pr曲线

具体实施方式

本发明由三个主要步骤组成。首先,作为预处理步骤,我们导出每个输入图像的单一显着图。然后,通过颜色特征增强来进行协同显著预测和协同显著融合。最后,融合后的协同显著图由全局协同显著性传播进行后处理。具体实施方式如下:

步骤1:单一显著图的预处理阶段

作为预处理步骤,对于一副输入图像,通过平均两个先进的显著检测器的结果来提取潜在的显著性区域,使用两个显著检测器的结果的平均可以结合两种方法的优点。然后我们通过流形排序算法优化初始的单一显著图,提取到的图像i的单一显著图表示为si。

步骤2:颜色特征增强

本发明的核心是颜色特征增强,它在一个32维的丰富的颜色特征空间中稀疏的编码每一个输入图像的显著前景,通过显著性前景字典和稀疏编码的显著性系数αi的相互增强的结果导出图像j关于图像i的协同显著性指示图iij(反之亦然)。

步骤2.1:显著性前景字典的创建

颜色是人们理解世界的重要线索之一,因此很多显著性检测器或者协同显著性检测器都基于颜色信息得出结论。本发明采用具有四个指数(即0.5,1,1.5,2.5)的八种颜色特征(即rgb,lab,色调,饱和度等)来形容这个32维的丰富的颜色特征空间。为了提高效率,我们用图像超像素来表示每一副图像。本发明对每一副图像i使用di表示超像素水平的颜色特征字典矩阵,其中di的第p行表示超像素p相应的32维颜色特征,表示为如图1所示,其中ni是图像i的超像素的个数。可以看出,字典创建主要有超像素分割,超像素水平颜色特征提取和转换组成,这些操作都是线性复杂的。

步骤2.2:对步骤2.1提取到的颜色特征进行编码

理想情况下,图像i的单一显著图si可以被表示为si=diαi,其中是图像i的显著前景在32维颜色特征空间的特征编码向量。为了保证判别能力以及获得更可靠的特征系数本发明通过otsu自适应阈值[8]来得到bin(·),并且通过稀疏编码来优化αi,公式如下:

其中λ=0.5来控制αi的稀疏性。由以上公式可以看出特征编码实际上是一个稀疏编码问题,复杂度为其中ni是图像i的超像素的个数,d=32是特征维度,n是图像的数量。

步骤2.3:协同显著性标示

本发明使用表示输入图像组的特征字典集合,表示相应的最优显著性特征系数集合。在一组图像组中,协同显著的物体具有相似的颜色分布,所以在相同的特征空间中就会有相近的特征编码向量。因此,图像j关于图像i的协同显著程度可以经由显著性前景字典的加强乘积和以及在相同颜色特征空间上的最优的显著性特征系数来有效测量。由此得到了测量从图像j到图像i的协同显著性得分的协同显著性指示图如下所示:

其中dj和bin(si)分别是特征字典以及图像j的二进制单一显著性向量。协同显著性标示的时间复杂度是

协同显著性指示图是一种有效的协同显著性测量方式,它可以在多幅图像中突出显示协同显著的物体,并且抑制单一显著性残差。如图1所示,橘色的风筝是协同显著的物体,成功的被协同显著性标示突出显示,同时单一的显著前景最后的一幅图中的黑色击剑运动员被很好的抑制在中。

步骤2.4:协同显著性融合

一般而言,以前的协同显著性检测方法使用加法或者乘法来整合多个协同显著性信息,然而通过一个简单的算术运算不能得到令人满意的协同显著性检测结果。归一化加法不能消除只存在于少数输入图像中的不常见但是显著的物体,乘法往往会丢失存在于多数输入图像中的协同显著前景。相反,我们应用混合融合策略,依靠多数投票来自适应的选择使用加法还是乘法整合多个协同显著性信息,以结合它们各自的优点。具体来说,超过一半的输入图像投票的超像素p对其他图像是协同显著的,我们就使用归一化加法来融合协同显著标示信息,相反我们使用乘法来融合他们。本发明的融合协同显著图由如下公式得到:

其中bin(·)表示得是otsu自适应阈值[8],是对在图像i中协同显著的超像素p投票的图像的数目,iij(p)是图像j的超像素p关于图像i的协同显著性指示得分。协同显著性融合的时间复杂度是

步骤3:融合后的协同显著图由全局协同显著性传播进行后处理

为了提高协同显著前景的完备性,本发明使用元胞自动机扩展模型(cellularautomatapropagation)[9]来对我们融合后的协同显著图进行后处理,此方法的有效性已经在单一显著性检测[10]中被证实。

步骤4:显著性融合检测模型的结果测试

对于一组图像经由上述三个步骤的操作,得到协同显著性检测的结果输出。本发明在两个测试基准数据集上和五个先进的协同显著性检测方法进行比较,方法包括cp[2],cb[11],hs[5],codr[6]和mlrf[7],两个基准数据集是imagepair[2]和icoseg[12]。我们在评估中比较了两种形式的结果,包括融合的协同显著图(表示为ouri)和最终的协同显著图(表示为ourf)。其中,cp[2]只用于图像对的协同显著性检测,公平起见,本发明只在imagepair[2]数据集上与其比较。本发明中使用多种评价指标来对比较结果进行评价,包括pr曲线,mae,精确度,召回率和f-measure度量。

我们首先展示在imagepair[2]和icoseg[12]数据集上的协同显著性检测结果的几个特例,如图2和图3所示。在所有的比较方法中,cp[2]不能准确的突出显示协同显著性物体也不能很好的抑制背景,因此会生成错误的显著图,比如图2中的第三组和第四组图像。cb[12]的大多数结果是不完整的。hs[5]和codr[6]通常可以检测出协同的显著性前景,但是不能很好的抑制背景。mlrf[7]的结果要稍好一点,但是在其协同显著图中依然可以看到单一显著性残差,如图3所示。与其他方法相比,本发明的协同显著性检测结果在背景中更清晰和完整,并且检测到的协同显著性物体更加均匀的突出。本发明在单一显著性残差方面表现出更好的能力,比如图2中的第二组和第四组图像还有图3所示。与ouri相比,ourf保留了更高的准确性,也有更高的完整性。

图4展示了在两个基准数据集上所有方法的平均pr曲线,我们可以看出cb[12]在两个数据集上表现最差。尽管图4中其他方法的pr曲线比较接近,我们依然可以看出本发明在两个数据集上达到最高的pr曲线。

表1进一步定量分析了本发明的优越性能。可以看出在两个数据集上,ourf具有最高的精确度和f-measure,与codr[6]相比,mlrf[7]在两个数据集上表现一致很好。与mlrf[7]相比,本发明的mae评估值在imagepair[2]和icoseg[12]数据集上分别实现了12.45%和11.11%的相对减少,本发明的f-measure评估值在imagepair[2]和icoseg[12]数据集上分别实现了2.65%和6.36%的提升。此外,我们做了方差分析,以证明我们的结果和最好的竞争对手mlrf[7]的统计学意义。测试统计分别是我们的方法和mlrf[7]的评估结果,即mae评估值和f-measure评估值的差异。具体来说,在两个数据集上mae减少量的p值是0.014<0.05和2.06-5<<0.05,在两个数据集上f-measure提升量的p值是0.0049<0.05和2.36-7<<0.05。由于icoseg[12]数据集包含更具有挑战性的多图像协同显著性检测案例,因此本发明在此数据集上的提升具有更多的意义。同样,除了ourf,ouri在mae评估值和f-measure评估值上也实现了可观的表现。

参考文献

[1]d.jacobs,b.dan,ande.shechtman,“cosaliency:wherepeoplelookwhencomparingimages,”inproc.23rdannu.acmsymp.userinterfacesoftw.technol.,2010,pp.219–228.

[2]h.liandk.n.ngan,“aco-saliencymodelofimagepairs,”ieeetrans.imageprocess.,vol.20,no.12,pp.3365-3375,dec.2011.

[3]m.cheng,n.j.mitra,x.huang,ands.hu,“salientshape:groupsaliencyinimagecollections,”vis.comput.,vol.30,no.4,pp.443-453,2014.

[4]x.cao,z.tao,b.zhang,h.fu,andw.feng,“self-adaptivelyweightedco-saliencydetectionviarankconstraint,”ieeetrans.imageprocess.,vol.23,no.9,pp.4175-4186,sep.2014.

[5]z.liu,w.zou,l.li,l.shen,ando.l.meur,“co-saliencydetectionbasedonhierarchicalsegmentation,”ieeesignalprocess.lett.,vol.21,no.1,pp.88-92,jan.2014.312.

[6]l.ye,z.liu,j.li,w.-l.zhao,andl.shen,“co-saliencydetectionviaco-salientobjectdiscoveryandrecovery,”ieeesignalprocess.lett.,vol.22,no.11,pp.2073-2077,nov.2015.315.

[7]r.huang,w.feng,andj.sun,“saliencyandco-saliencydetectionbylow-rankmultiscalefusion,”inproc.ieeeint.conf.multimediaexpo,2015,pp.1-6.

[8]n.otsu,“athresholdselectionmethodfromgray-levelhistograms,”ieeetrans.syst.,man,cybern.,vol.smc-9,no.1,pp.62-66,jan.1979.

[9]j.vonneumann,“thegeneralandlogicaltheoryofautomata,”cerebralmech.behavior,vol.1,pp.1-41,1951.340.

[10]y.qin,h.lu,y.xu,andh.wang,“saliencydetectionviacellularautomata,”inproc.ieeeconf.comput.vis.patternrecognit.,2015,342pp.110-119.

[11]h.fu,x.cao,andz.tu,“cluster-basedco-saliencydetection,”ieeetrans.imageprocess.,vol.22,no.10,pp.3766-3778,oct.2013.

[12]d.batra,a.kowdle,d.parikh,j.luo,andt.chen,“interactivelyco-segmentatingtopicallyrelatedimageswithintelligentscribbleguidance,”int.j.comput.vis.,vol.93,no.3,pp.273-292,2011.

表1:不同方法在两个基准数据集上的mae,精确度,召回率和f-measure值的比较。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1