全局颜色对比度检测和分割显著图的方法与流程

文档序号:11409061阅读:397来源:国知局
全局颜色对比度检测和分割显著图的方法与流程

本发明属于彩色图像处理技术领域,具体涉及全局颜色对比度的显著性检测和分割方法。



背景技术:

任一时刻,环境中均存在大量的视觉刺激。经过漫长的进化,人类视觉系统(humanvisualsystem,hvs)能够从复杂环境中,快速提取感兴趣的目标与区域,以降低视觉信号处理的复杂度。这些引起视觉注意力的局部区域,通常被称为显著性区域(saliencyregion)。将场景中各个区域的显著性,进行归一化后得到的图像则称为显著图(saliencymap)[1]

在图像处理与计算机视觉中,鲁棒准确的显著性区域自动检测算法具有重要的实用价值。这是因为从计算复杂度角度考虑,一些图像的处理任务,常常无法做到对视觉场景中的全部视觉信息同时进行处理,这时,希望显著性强的区域获得更多的计算资源。其主要的应用场景包括目标检测与追踪、自适应图像压缩、图像编辑、图像质量评估等。

近年来,文献报道了大量显著性检测算法[1]-[6]。大部分此类算法试图利用亮度、颜色、边缘等底层特征,来确定某一区域与其周围区域的对比度,以计算获取显著性区域。其中,基于局部对比度的方法,是利用图像区域相对于邻域的稀缺性来检测显著性。如经典的itti&koch[1]方法,就是利用多尺度图像特征的中心与环绕差异来计算显著图,而文献[2]则提出了基于傅立叶变换相位谱的方法。另一类是基于全局对比度的方法,它们根据图像区域相对于全局的对比度差异来计算显著性,包括rachanta等人在文献[3]提出的基于频率调整的显著性检测与分割算法,文献[4]报道了最大化显著性密度函数的方法。这些现有报道算法的主要缺点是:基于局部对比度类的算法,往往是通过检测图像边缘来计算显著性,因此只有目标的边缘才可以产生较高的显著性;而其他一些算法则只能检测全局最大显著性,因而不适用于多目标检测问题;忽略图像部分空间关系的算法,则未有效利用空间信息等等。



技术实现要素:

本发明的目的在于提供一种能够应对不规则背景干扰,检测与分割正确性高的全局颜色对比度检测和分割显著图的方法。

本发明提供的全局颜色对比度检测和分割显著图的方法,包括两部分:显著性检测和显著图分割;其中:

(一)显著性检测,采用全局颜色对比度方法,具体步骤为:

1.1全局颜色对比度分析

在彩色图像中,一个彩色像素点通常由rgb三个通道联合加以表示。如果将彩色图像从rgb空间转换到l*a*b空间[7][8],那么其中的l分量就描述了像素点的亮度,而a和b分量则描述了像素点的色度。如果定义像素点ii的颜色为ci,那么ci在l*a*b空间就可以表示为ci=(li,ai,bi),这样像素点ii和ij的颜色对比度则可定义为ci和cj的欧式几何距离,即:

d(ii,ij)=d(ci,cj)=[(li-lj)2+(ai-aj)2+(bi-bj)2]1/2(1)

式(1)表明:如果像素点ii和ij的颜色对比度越强,那么d(ii,ij)值就越大。

在复杂场景中,人类视觉系统会根据高对比度的刺激,来准确判断目标的显著性,因此显著性目标和周围环境相比,往往具有较强的颜色对比度[5]。基于这一观察,对任一幅彩色图像i,我们就可定义某一像素点ii的显著性s(ii),是该像素点与其它所有像素点之间的颜色对比度之和[5],数学上,这一定义可以写成下式:

s(ii)=d(ii,i1)+d(ii,i2)+...+d(ii,in)(2)

其中,n代表图像i的总像素点,d(ii,ij)(j=1,2,...,n)是像素点ii和ij之间的颜色对比度。

此外,从式(1)和(2)可以看出,定义的显著性s(ii)只与像素点ii的颜色ci相关。对于图像i中任意两个相同颜色的像素点ij和ik,有d(ii,ij)=d(ii,ik)。因此,我们可以将式(2)右边相同颜色的像素点整合在一起而得到下式:

其中,n代表图像i的总颜色个数;f(cj)是颜色cj在图像i中出现的频次。

1.2颜色的聚类与量化

将彩色图像从rgb颜色空间转换到l*a*b空间,共有2563种不同的颜色,因此计算式(3)的复杂度非常高。我们注意到,对图像显著性产生决定性影响的往往是图像中的几种主要颜色,考虑到人类视觉系统存在的掩盖效应,即人眼不能察觉低于灵敏度阈值的差异[9],因此,我们可采用k-means算法来对在l*a*b空间的像素点进行聚类,其中心个数设置为m,像素点ii聚类后的颜色为ri,那么式(3)就能简化为:

在本发明中,我们取m的值为8。为了说明式(4)的有效性,让我们来看图1给出的例子,图1(a)是测试图像,图1(b)是据文献[14]给出的基于小波金字塔分解方法计算出的显著图,图1(c)是由我们的式(4)所获得的显著图。可以看到,文献[14]的局部对比度的方法只在图像边缘处产生较高的显著性,而本发明方法则能够均匀地突出显著性目标。

1.3颜色的离散度与边缘加权

除了全局颜色对比度,空间信息对于视觉注意力选择机制也具有重要的影响[9]。在自然场景中,显著性目标往往具有规则的形状,并且在空间分布较为集中,而天空、云彩、河流等目标则在空间分布比较离散。因此,下面将讨论如何利用颜色在空间上的离散度,来进一步提高显著图的显著性。为此我们定义某个颜色在空间上的分布离散度,是该颜色像素点在空间位置上的方差,数学上它的定义如下:

其中,(x0,y0)为聚类后颜色为ri的像素区域中心,(xi,yi)是该区域内像素点的坐标,k则是该区域像素点个数,并归一化它们的坐标到[0,1]区间。

定义用颜色离散度来增强显著性式(4)的结果就为:

其中,σ2是颜色离散度的加权权重。σ2越接近0时,颜色离散度对显著图的影响就越大,反之则小。根据经验,σ2的取值区间可为[0.1,0.3]。本发明实验中取σ2的值为0.2。

颜色离散度加权的显著性,有利于提高对大范围非显著性目标的抑制,如天空、云彩、河流等。图2给出了这样一个例子,其中图2(a)为测试图像,图2(b)为未加权计算的显著图,图2(c)为σ2取值0.2时由式(6)获得的显著图。可以看到,由于大面积云彩的离散度较高,颜色离散度加权使得其显著性大为降低,因而有利于正确地检测原图中的显著性目标。

另外,考虑到自然场景中,显著性目标往往位于图像中间的位置,与图像边缘重合的区域显著性一般较低。因此,我们将可将图像i视为无向图g,i中的像素点是g中的顶点,相邻顶点之间存在一条边e。这样我们就可采用图的广度搜索算法[10],将与图像边缘重合区域的显著性进行降低:

s(ii)=s(ii)'*β(7)

其中,ii∈θ,区域θ内的像素点满足:存在一条从图像边缘某一点imar到ii的路径,且该路径上各像素点经过聚类后的颜色相等。其中,s(ii)'是原始显著性,s(ii)是加权后的显著性,β是权值,β越接近0表示边缘部分显著性的权值就越低。一般β取值区间可为[0.1,0.8]。本发明实验中取β的值为0.5。

(二)分割显著图分割,采用动态阈值方法

显著性目标通常是我们关心的目标,为了对它们进行进一步处理,例如在视频图像中对它们进行跟踪,我们希望对上节研究的显著图做进一步处理,即分割出显著图中的显著性目标,并得到包含显著性目标的二值图像。为此,本发明首先根据显著图初始化前景目标和背景区域,并设其它区域为待定区域,再根据前景和背景的统计信息对待定区域中的像素点做进一步划分,经过多次迭代后,使待定区域面积为0,以达到分割出显著性目标的目的。其处理的具体步骤如下:

(1)初始化:设输入归一化后的显著图为s,首先采用固定阈值初步分割出前景和背景区域。在本发明中,前景阈值hi取值范围[0.6,1],这里选为0.7,背景阈值lo取值范围[0.1,0.3],选为0.2。其它区域设为待定。

(2)迭代:

(2.1)统计信息:统计计算出前景区域的均值mean_t和最小值min_t,以及背景区域的均值mean_b和最大值max_b。据下式更新前景阈值hi和背景阈值lo:

其中,μ为前景阈值的迭代步长,(1-mean_t+min_t)为步长加权值,取值范围为[0,1]。观察显著图可以发现,目标的显著性统计分布常常较为集中,因此,当目标区域的显著性最小值距离均值越远,说明待定区域中存在目标的可能性越小,此时应越谨慎更新目标区域。当目标区域的显著性最小值距离均值越远,(1-mean_t+min_t)的值则越小,此时(1-mean_t+min_t)μ整体就越小,因此就有较少待定区域的点会被归入目标区域,与我们的期望符合。ν为背景阈值迭代步长,(1-mean_b+max_b)为步长加权值,其意义同步长加权值(1-mean_t+min_t)。μ和ν初始值均设为0.05。

(2.2)更新前景与背景区域:对待定区域中的像素点,可据式(8)更新前景阈值hi和背景阈值lo。当显著值式(7)同时落入前景和背景区域时,该像素点将归入区域均值离它显著值最近的区域。

(2.3)更新迭代步长:此时,如果前景区域已经更新,则保持迭代步长μ不变;否则,说明没有新的像素点归入前景区域,此时迭代步长μ应增大。根据实验,选择迭代步长的增量为0.05,即μ=μ+0.05。对背景区域的迭代步长更新方式同前景区域迭代步长更新方式。

(2.4)如果待定区域面积为0,则跳出循环,否则重复步骤2。

(3)输出:输出前景区域,即得到包含显著性目标的二值图像。

此外,为避免局部亮点显著性过高而掩盖了真实的目标,我们设置前景区域占整幅画面比例至少为整幅画面的10%。如果在迭代过程中没有达到这一比例,则我们持续地增大前景区域的迭代步长μ,以便更多待定区域中的像素点能归入前景区域。

本发明从全局颜色对比度的角度研究如何检测显著性,并通过颜色离散度和空间信息来进一步优化检测到的显著图。在此基础上,为了有效地分割显著图中的多个目标,本发明通过迭代更新的方法来动态地计算分割阈值,利用它来分割得到二值图像并为后续目标追踪等图像处理问题提供自动目标检测的方法。相比于传统的显著性检测和分割方法,本发明算法的主要优点在于:

(1)利用颜色信息建立起全局的对比度,对图像中相似的区域赋予相近的显著性,因此有利于均匀地突出全部目标;

(2)利用颜色离散度和空间信息来对得到的显著图进行进一步增强,以应对白云等不规则背景的干扰;

(3)根据前景目标与背景区域的均值、方差等统计信息,通过迭代方法来动态地计算分割阈值,以提高了多目标检测与分割的正确性。

附图说明

图1为全局对比度与局部对比度方法生成的显著图。

图2为颜色离散度加权的效果。

图3为本发明算法用于显著性检测和分割的视觉效果。

图4为不同显著图模型的roc曲线。

具体实施方式

首先,我们选取achanta数据库中的部分图像,用本发明算法检测和分割它们中的显著性目标,实验中取σ2的值为0.2;hi取值范围[0.6,1],这里选为0.7,背景阈值lo取值范围[0.1,0.3],选为0.2;迭代步长μ和ν初始值均设为0.05,μ和μ的增量均为0.05,一般增量和迭代步长可取[0,0.1]范围内的值。其视觉效果如图3所示。

在图3中,图3(a)为测试图像,图3(b)是本发明算法得到的显著图,图3(c)~(d)是分割算法在迭代过程中生成的目标二值图像,图3(e)是最终包含显著性目标的二值图像,图3(f)是由人工标记的目标二值图像。

从图3可以看到,本发明算法利用全局颜色对比度,并结合颜色离散度和边缘加权能够将大范围的目标和背景分离开。在之后迭代的分割算法中,利用已确定的前景背景区域的统计信息,谨慎地更新待定区域,从而能够有效地提取出显著性目标。特别是,从图3中第1,2,4幅测试图像可看出,本发明算法适用于多目标的自动检测。

采用正确率precision、召回率recall和f-测度f-measure等指标,来对本发明的显著性检测和分割算法进行定量的分析。假设人工标记的二值图像为rmap,由客观显著性算法所得到的二值图像为smap,则其各项指标可具体定义如下[3]

据文献[3]中的实验方法,采用固定阈值tf来分割显著图,以得到包含显著性目标的二值图像。对于数据库中的所有图像,分别取正确率和召回率的均值,来作为算法在阈值为tf时的正确率precision和召回率recall。通过选取不同的阈值tf,以precision为纵轴、recall为横轴,绘制出roc(receiveroperatingcharacteristics)曲线。在随机分割算法中,roc曲线为y=x。当roc曲线离y=x越远,表示显著图模型与人工标记越一致。

图4是由achanta数据库上由ft[3]、hc[5]、lc[11]、wt[12]、sdct[13]和本发明算法所绘制的roc曲线。当tf取值最小值时,图像中所有的像素点都被认为是显著性目标,此时召回率为1,正确率均为0.2。说明在该数据库中,显著性目标的大小平均占整幅图像面积的20%。另一方面,当tf取最大值时,本发明算法的召回率高于其它几种算法,说明显著性最大的像素点中包含了更多的显著性目标。图4的结果说明相比较于文献报道中的算法,本发明算法和人类视觉系统的注意力选择机制具有更好的一致性。

参考文献

[1]ittil,kochc,niebure.amodelofsaliency-basedvisualattentionforrapidsceneanalysis[j].ieeetransactionsonpatternanalysisandmachineintelligence,1998,20(11):1254-1259.

[2]maq,zhangl.saliency-basedimagequalityassessmentcriterion[c]//

internationalconferenceonintelligentcomputing.springerberlinheidelberg,2008:1124-1133.

[3]achantar,hemamis,estradaf,etal.frequency-tunedsalientregiondetection[c]//computervisionandpatternrecognition,2009.cvpr2009.ieeeconferenceon.ieee,2009:1597-1604.

[4]luoy,yuanj,xuep,etal.saliencydensitymaximizationforefficientvisualobjectsdiscovery[j].ieeetransactionsoncircuitsandsystemsforvideotechnology,2011,21(12):1822-1834.

[5]chengmm,mitranj,huangx,etal.globalcontrastbasedsalientregiondetection[j].ieeetransactionsonpatternanalysisandmachineintelligence,2015,37(3):569-582.

[6]borjia,chengmm,jiangh,etal.salientobjectdetection:abenchmark[j].ieeetransactionsonimageprocessing,2015,24(12):5706-5722.

[7]hunterrs.photoelectriccolordifferencemeter[j].josa,1958,48(12):985-995.

[8]hunterrs.accuracy,precision,andstabilityofnewphotoelectriccolor-differencemeter[c]//journaloftheopticalsocietyofamerica.circulationfulfillmentdiv,500sunnysideblvd,woodbury,ny11797-2999:amerinstphysics,1948,38(12):1094-1094.

[9]liut,yuanz,sunj,etal.learningtodetectasalientobject[j].ieeetransactionsonpatternanalysisandmachineintelligence,2011,33(2):353-367.

[10]zhour,hansenea.breadth-firstheuristicsearch[j].artificialintelligence,2006,170(4):385-408.

[11]zhaiy,shahm.visualattentiondetectioninvideosequencesusingspatiotemporalcues[c]//proceedingsofthe14thacminternationalconferenceonmultimedia.acm,2006:815-824.

[12]imamoglun,linw,fangy.asaliencydetectionmodelusinglow-levelfeaturesbasedonwavelettransform[j].ieeetransactionsonmultimedia,2013,15(1):96-105.

[13]baip,cuiz,ganz,etal.anovelsaliencydetectionmodelbasedoncurvelettransform[c]//wirelesscommunications&signalprocessing(wcsp),20168thinternationalconferenceon.ieee,2016:1-5.

[14]黄虹,张建秋.彩色自然场景统计显著图模型[j].复旦学报:自然科学版,2014(1):51-58.。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1