基于显著性的自适应阈值自然目标图像分割抽取算法的制作方法

文档序号:12367167阅读:374来源:国知局
本发明属于图像处理
技术领域
,具体涉及基于显著性的自适应阈值自然目标图像分割抽取算法。
背景技术
:随着计算机视觉与图像处理技术的发展,基于草图生成自然图像场景已经广泛应用于儿童教学、动漫游戏、动画等领域。实现该技术的关键是草图对象及自然目标图像的合理分割、抽取及基于草图的自然目标图像检索。因此,针对基于草图生成自然图像场景中草图对象和自然目标图像分割抽取的关键技术进行研究,然而,现存的图像分割方法中目前还没有一种分割算法模型能满足所有人对不同图像的不同需求。因此,针对具有不同特征图像的分割抽取算法进行研究,具有重要的实际应用价值。近年来,人类视觉感知研究表明,在视觉感知中,对比度较大的区域容易引起人类的注意,而显著性是人类在最短时间对图像中某个区域感兴趣的本质。Itti等人结合人类视觉搜索方面的理论知识,提出了基于中心区域-周围区域的显著性提取算法模型,并将其运用到图像分割领域。该模型同时也考虑了Koch和Ullman等人提出的生物学视觉注意模型。在此基础上,Frintrop针对Itti所提算法进行了改进,在检测模型中添加积分技术。2007年,上海交大的侯晓迪在CVPR发表了一篇论文,通过图像的相位谱残差获取显著信息。同年,Liu等人将中央-周围对比度、多尺度对比度和颜色空间分布三种特征信息通过随机场模型进行结合,对全局信息和局域信息以及尺度信息都进行了计算。2008年,Achanta等人通过图像亮度和颜色的低频信息计算图像的显著性,并结合K-means算法分割图像。随后一年,Achanta在频率调整的基础上结合MeanShift算法实现图像分割。2012年,Federico等人提出了颜色独立性特征,认为空间中跳跃的颜色显著性较大,同时结合空间颜色分布计算显著信息。以上所提到的基于显著性的图像分割算法,均能较好的得到图像中显著性区域。但部分算法耗时过长,分割结果干扰信息过多,或只能提取到图像中较显著区域,但该区域并不完全包含图像中某个对象,可能仅为对象的某一部分区域。目前,人们已对基于草图的自然图像场景生成关键技术中草图对象及自然目标图像分割抽取方法进行了很多研究,并取得了不错的成果,但仍存在以下问题及难点:(1)目前草图抽取算法通常只针对单个对象的草图和实时生成草图,而针对草图轮廓明显,闭合线条众多的特性,图像分割方法难以抽取到完整草图对象。因此,如何完整抽取到草图场景中多个目标成为了一个问题。(2)基于显著性的自然图像分割有时只能提取到对象的某一部分区域,图像数据库中自然图像分割结果好坏将直接影响后续图像合成。因此,如何分割得到显著对象整体区域是目前的一个难点问题。技术实现要素:本发明的目的在于提供基于显著性的自适应阈值自然目标图像分割抽取算法,该算法提高了分割结果的准确性。本发明所采用的技术方案是:基于显著性的自适应阈值自然目标图像分割抽取算法,包括如下步骤:包括以下步骤:步骤1、对自然目标图像进行聚类分割和显著信息提取,得到均值显著图像;步骤2、根据均值显著图像对自然目标图像进行自适应阈值分割,得到未处理的分割结果二值图像,对未处理的分割结果二值图像进行区域填充,得到完整的目标二值化图像。本发明的特点还在于,步骤1包括以下步骤:步骤1.1、创造一个M*N图像矩阵im,将图像矩阵im存储作为输入自然图像,将自然目标图像从RGB色彩空间转换到CIELAB色彩空间,保存为图像矩阵labim;RGB色彩空间转化到CIELAB色彩空间的过程如下,先将RGB色彩空间根据公式(1)转化为CIEXYZ色彩空间,XYZ=0.4124530.3575800.1804230.2126710.7151600.0721690.0193340.1191930.090227RGB---(1)]]>然后根据公式(2)—(5)将CIEXYZ色彩空间转化到CIELAB色彩空间,L*=116×(YYn)13-16,YYn>0.008856903.3×YYn,other---(2)]]>a*=500×(f(XXn)-f(YYn))---(3)]]>b*=200×(f(YYn)-f(ZZn))---(4)]]>f(t)=t13,t>0.0088567.787×t+16116,t≤0.008856---(5)]]>公式(1)—(5)中,L*为明度指数,a*,b*为色品指数,X,Y,Z为颜色样品的三刺激值,Xn,Yn,Zn为CIE标准照明体照射到完全漫反射体表面的三刺激值,取Xn=0.9515,Yn=1.0000,Zn=1.0886,t为函数f(t)的变量;步骤1.2、用SLIC超像素分割算法对图像矩阵labim进行聚类;根据CIELAB空间图像矩阵labim的测地距离进行K-means聚类,产生大体上尺寸均匀,且保持颜色边界的超像素分割结果图像;具体为,首先,将图像矩阵labim划分为K=400个网格,计算每个网格的中心点并在[-2,2]范围内波动,作为K-means聚类的初始聚类中心,初始时所有像素均未归类,此时任何一个像素点归属于类m的距离dis(m)=∞,m为聚类的标签,dis(m)为像素点到类n的距离;然后,在聚类中心的2S*2S区域内计算每个像素点与该类中心点之间的测地线距离D,S为网格边长度,S根据公式(6)计算得出,S=N/K,---(6)]]>公式(6)中,N为图像的像素个数,K=400,若D<dis(m),则像素点暂时归类到m类,并改变dis(m)=D,调整聚类中心,dis(m)<D,不处理,在聚类迭代过程中,在聚类中心的2S*2S区域内;若迭代次数it<5,则重复上述计算,否则结束K-means聚类迭代,最后,得到聚类结果图像矩阵labim;步骤1.3、根据步骤1.2所得的聚类结果,计算聚类中平均矩阵labim颜色和位置,分别为超像素块的颜色和位置;计算标签m内的平均颜色信息和平均位置信息,以平均颜色信息作为标签m内超像素的颜色信息,平均位置信息作为标签m内超像素的位置信息;步骤1.4、根据超像素块的颜色和位置信息,计算超像素块颜色独立性信息、空间颜色分布信息;根据公式(7)计算颜色独立性信息,根据公式(9)计算空间颜色分布信息;Ui=Σj=1N||ci-cj||2·w(Pi,Pj)---(7)]]>公式(7)中,Ui为颜色独立性,表示超像素在CIELAB空间中与其它超像素j的颜色比值,N为超像素分割结果中的超像素的个数,Pi,Pj为在超像素i,j在分割结果中的位置信息,w(Pj,Pj)为超像素i与超像素j之间的距离权重,采用高斯权函数公式(8)计算超像素间权重,公式(8)中,σP=0.25;w(Pi,Pj)=exp(-12σP2||Pi-Pj||2)---(8)]]>根据公式(9)计算空间颜色分布信息;Di=Σj=1N||Pj-μi||2·w(ci,cj)---(9)]]>公式(9)中,为超像素i的加权位置信息,公式(10)为超像素i与超像素j之间的颜色权重,表示颜色之间的相似性,w(ci,cj)=exp(-12σc2||ci-cj||2)---(10)]]>公式(10)中,σc=20;步骤1.5、根据超像素块颜色独立性信息、空间颜色分布信息,计算超像素块显著信息;由于空间颜色分布的区分度更大,在显著信息融合的时候将其放在指数位置,最终超像素i的显著信息为Si为公式(11);Si=Ui·exp(-k·Di)(11)公式(11)中,k为常数3,从上式可以看出,当空间分布越广泛时,空间颜色分布Di值越大,显著信息Si越小,反之,颜色空间分布越窄,其显著信就越大;步骤1.6、将超像素块显著信息转换为像素级,保存为均值显著图像矩阵sal;图像中每个像素的显著性为其所在超像素i以及周围超像素的显著信息Si的高斯线性加权;S~i=Σi=1NwijSj---(12)]]>公式(12)其中,权值wij由位置和颜色共同决定;wij=exp(-12(α||ci-cj||2+β||Pi-Pj||2))---(13)]]>公式(13)中,α=β=1/30,用以调节颜色和位置信息的比重。步骤2包括以下步骤:步骤2.1、对图像矩阵im采用6*6的高斯滤波,将结果保存为图像矩阵img,将图像矩阵img从RGB转换到HSV色彩空间,计算色彩分布图HSVHist,将高斯滤波结果图像矩阵img从RGB转换到HSV色彩空间,计算色彩分布图HSVHist,根据色彩分布图计算HSVHist中符合条件的有效峰值个数K;过程如下,首先,将图像矩阵img按公式(14)—(16)从RGB转换到HSV色彩空间;V=max(16)公式(14)—(16)中,max为R,G,B分别的最大值,min为R,G,B分别的最小值,H∈[0,360]度是角度的色相角,S,V∈[0,1]是饱和亮度;然后,对HSV三个分量按公式(17)进行归一化,计算L的色彩分布图HSVHist,L(i,j)=H(i,j)*16+S(i,j)*4+V(i,j)(17)最后,根据色彩分布图HSVHist计算其中中符合条件的峰值个数K,计算色彩分布图HSVHist峰值,取步长step=30,若某个峰值点ki左右30以内有其他峰值点超过该点的峰值,则舍弃ki,从而计算得到有效峰值K;步骤2.2、根据色彩分布图计算HSVHist中符合条件的有效峰值个数K;将HSV色彩空间矩阵img采用K-means聚类为K+1个类,K为有效峰值个数,聚类结果保存为pixel_labels;步骤2.3、将聚类分割结果pixel_labels与步骤1.6中的均值显著图像矩阵sal结合,计算每个聚类中的显著信息均值meansm;若像素点i属于区域R,则si=Σi,j∈RS~/N---(18)]]>公式(18)中,s为均值显著图像,N表示区域中的像素点个数,为显著图像显著信息;步骤2.4、计算meansm的平均值作为阈值,对显著信息均值meansm进行阈值分割,得到未处理的分割结果二值图像;创建一个M*N的零像素矩阵binarymap,binarymap=zeros(m,n),按公式(19)计算meansm的平均值作为阈值th,若meansm(x,y)≥th,则brinarymap(x,y)=1,最终得到未处理的分割结果二值图像brinarymap;th=Σx=1XΣy=1Ys(x,y)N---(19)]]>公式(19)中,s(x,y)为像素点(x,y)在均值显著图像s中的显著信息,X,Y,为显著图像的行数和列数,N为像素点总个数;步骤2.5、对未处理的分割结果二值图像进行区域填充,得到完整的目标二值化图像;首先,对brinarymap取反得到此时,目标区域为黑色,背景区域为白色,其中黑色区域上的较小的白色连通区域将会影响整体提取效果,对中4连通域进行标注,将面积小于20000的连通区域用黑色填充,得到填充后的二值图像binarymap;然后,将填充后的二值图像binarymap取反得到保留中连最大连通域,其他区域填充为0,结果保存为binarymap,得到最终的输出结果二值图像binarymap,得到完整的目标二值化图像。本发明的有益效果是:基于显著性的自适应阈值自然目标图像分割抽取算法,实现了自然图像中目标对象的自动分割抽取。本算法在通过统计颜色分布信息有效计算其峰值个数作为K-means聚类的聚类中心数K,消除了人工因素对分割过程的影响。同时,与MeanShift算法进行分割相比,K-means算法聚类结果较好。因此,本发明的算法在分割结果的准确性好。具体实施方式下面结合具体实施方式对本发明进行详细说明。本发明基于显著性的自适应阈值自然目标图像分割抽取算法,包括以下步骤:步骤1、对自然目标图像进行聚类分割和显著信息提取,得到均值显著图像;步骤1包括以下步骤:步骤1.1、创造一个M*N图像矩阵im,将图像矩阵im存储作为输入自然图像,将自然目标图像从RGB色彩空间转换到CIELAB色彩空间,保存为图像矩阵labim;RGB色彩空间转化到CIELAB(L*a*b*)色彩空间的过程如下,先将RGB色彩空间根据公式(1)转化为CIEXYZ色彩空间,XYZ=0.4124530.3575800.1804230.2126710.7151600.0721690.0193340.1191930.090227RGB---(1)]]>然后根据公式(2)—(5)将CIEXYZ色彩空间转化到CIELAB色彩空间,L*=116×(YYn)13-16,YYn>0.008856903.3×YYn,other---(2)]]>a*=500×(f(XXn)-f(YYn))---(3)]]>b*=200×(f(YYn)-f(ZZn))---(4)]]>f(t)=t13,t>0.0088567.787×t+16116,t≤0.008856---(5)]]>公式(1)—(5)中,L*为明度指数,a*,b*为色品指数,X,Y,Z为颜色样品的三刺激值,Xn,Yn,Zn为CIE标准照明体照射到完全漫反射体表面的三刺激值,取Xn=0.9515,Yn=1.0000,Zn=1.0886,t为函数f(t)的变量;步骤1.2、用SLIC超像素分割算法对图像矩阵labim进行聚类;根据CIELAB空间图像矩阵labim的测地距离进行K-means聚类,产生大体上尺寸均匀,且保持颜色边界的超像素分割结果图像;具体为,首先,将图像矩阵labim划分为K=400个网格,计算每个网格的中心点并在[-2,2]范围内波动,作为K-means聚类的初始聚类中心,初始时所有像素均未归类,此时任何一个像素点归属于类m的距离dis(m)=∞,m为聚类的标签,dis(m)为像素点到类n的距离;然后,在聚类中心的2S*2S区域内计算每个像素点与该类中心点之间的测地线距离D,S为网格边长度,S根据公式(6)计算得出,S=N/K,---(6)]]>公式(6)中,N为图像的像素个数,K=400,若D<dis(m),则像素点暂时归类到m类,并改变dis(m)=D,调整聚类中心,dis(m)<D,不处理,在聚类迭代过程中,在聚类中心的2S*2S区域内;若迭代次数it<5,则重复上述计算,否则结束K-means聚类迭代,最后,得到聚类结果图像矩阵labim;步骤1.3、根据步骤1.2所得的聚类结果,计算聚类中平均矩阵labim颜色和位置,分别为超像素块的颜色和位置;计算标签m内的平均颜色信息和平均位置信息,以平均颜色信息作为标签m内超像素的颜色信息,平均位置信息作为标签m内超像素的位置信息;步骤1.4、根据超像素块的颜色和位置信息,计算超像素块颜色独立性信息、空间颜色分布信息;根据公式(7)计算颜色独立性信息,根据公式(9)计算空间颜色分布信息;Ui=Σj=1N||ci-cj||2·w(Pi,Pj)---(7)]]>公式(7)中,Ui为颜色独立性,表示超像素在CIELAB空间中与其它超像素j的颜色比值,N为超像素分割结果中的超像素的个数,Pi,Pj为在超像素i,j在分割结果中的位置信息,w(Pj,Pj)为超像素i与超像素j之间的距离权重,采用高斯权函数公式(8)计算超像素间权重,公式(8)中,σP=0.25;w(Pi,Pj)=exp(-12σP2||Pi-Pj||2)---(8)]]>根据公式(9)计算空间颜色分布信息;Di=Σj=1N||Pj-μi||2·w(ci,cj)---(9)]]>公式(9)中,为超像素i的加权位置信息,公式(10)为超像素i与超像素j之间的颜色权重,表示颜色之间的相似性,w(ci,cj)=exp(-12σc2||ci-cj||2)---(10)]]>公式(10)中,σc=20;步骤1.5、根据超像素块颜色独立性信息、空间颜色分布信息,计算超像素块显著信息;由于空间颜色分布的区分度更大,在显著信息融合的时候将其放在指数位置,最终超像素i的显著信息为Si为公式(11);Si=Ui·exp(-k·Di)(11)公式(11)中,k为常数3,从上式可以看出,当空间分布越广泛时,空间颜色分布Di值越大,显著信息Si越小,反之,颜色空间分布越窄,其显著信就越大;步骤1.6、将超像素块显著信息转换为像素级,保存为均值显著图像矩阵sal;图像中每个像素的显著性为其所在超像素i以及周围超像素的显著信息Si的高斯线性加权;S~i=Σi=1NwijSj---(12)]]>公式(12)其中,权值wij由位置和颜色共同决定;wij=exp(-12(α||ci-cj||2+β||Pi-Pj||2))---(13)]]>公式(13)中,α=β=1/30,用以调节颜色和位置信息的比重;步骤2、根据均值显著图像对自然目标图像进行自适应阈值分割,得到未处理的分割结果二值图像,对未处理的分割结果二值图像进行区域填充,得到完整的目标二值化图像;步骤2包括以下步骤:步骤2.1、对图像矩阵im采用6*6的高斯滤波,将结果保存为图像矩阵img,将图像矩阵img从RGB转换到HSV色彩空间,计算色彩分布图HSVHist,将高斯滤波结果图像矩阵img从RGB转换到HSV色彩空间,计算色彩分布图HSVHist,根据色彩分布图计算HSVHist中符合条件的有效峰值个数K;过程如下,首先,将图像矩阵img按公式(14)—(16)从RGB转换到HSV色彩空间;V=max(16)公式(14)—(16)中,max为R,G,B分别的最大值,min为R,G,B分别的最小值,H∈[0,360]度是角度的色相角,S,V∈[0,1]是饱和亮度;然后,对HSV三个分量按公式(17)进行归一化,计算L的色彩分布图HSVHist,L(i,j)=H(i,j)*16+S(i,j)*4+V(i,j)(17)最后,根据色彩分布图HSVHist计算其中中符合条件的峰值个数K,计算色彩分布图HSVHist峰值,取步长step=30,若某个峰值点ki左右30以内有其他峰值点超过该点的峰值,则舍弃ki,从而计算得到有效峰值K;步骤2.2、根据色彩分布图计算HSVHist中符合条件的有效峰值个数K;将HSV色彩空间矩阵img采用K-means聚类为K+1个类,K为有效峰值个数,聚类结果保存为pixel_labels;步骤2.3、将聚类分割结果pixel_labels与步骤1.6中的均值显著图像矩阵sal结合,计算每个聚类中的显著信息均值meansm;若像素点i属于区域R,则si=Σi,j∈RS~/N---(18)]]>公式(18)中,s为均值显著图像,N表示区域中的像素点个数,为显著图像显著信息;步骤2.4、计算meansm的平均值作为阈值,对显著信息均值meansm进行阈值分割,得到未处理的分割结果二值图像;创建一个M*N的零像素矩阵binarymap,binarymap=zeros(m,n),按公式(19)计算meansm的平均值作为阈值th,若meansm(x,y)≥th,则brinarymap(x,y)=1,最终得到未处理的分割结果二值图像brinarymap;th=Σx=1XΣy=1Ys(x,y)N---(19)]]>公式(19)中,s(x,y)为像素点(x,y)在均值显著图像s中的显著信息,X,Y,为显著图像的行数和列数,N为像素点总个数;步骤2.5、对未处理的分割结果二值图像进行区域填充,得到完整的目标二值化图像;首先,对brinarymap取反得到此时,目标区域为黑色,背景区域为白色,其中黑色区域上的较小的白色连通区域将会影响整体提取效果,对中4连通域进行标注,将面积小于20000的连通区域用黑色填充,得到填充后的二值图像binarymap;然后,将填充后的二值图像binarymap取反得到保留中连最大连通域,其他区域填充为0,结果保存为binarymap,得到最终的输出结果二值图像binarymap,得到完整的目标二值化图像。K-means聚类的基本思路是:①首先人为定义聚类数目K,从N个数据样本集中任意选择K个对象作为初始聚类中心;②将数据样本集中每一个样本数据x依据最小距离原则,将其分配给离它最近的聚类中心所在的类别中,其中最小距离原则Di=min{||x-Ci||},x∈dataset,i=1,2,...,k;③然后计算该聚类中所有数据样本的均值得到新的聚类中心;④若聚类中心变化,则返回步骤(2),采用新的聚类中心继续进行聚类;如果聚类中心不再变化,则聚类函数开始收敛,停止计算;⑤最后的到的K个类就是最终的分类结果;假设数据集M={xi/xi∈RD,i=1,2,...,n}中一共有n个数据点,每个数据点xi均由d个特征数据组成。K-means将这n个数据划分为K类,新的聚类集C={Ck/k=1,2,...,K}中,每一个Ck类的类中心分别为μk,则xi到任意一个类中心μk的欧氏距离可以表示为:D(xi,μk)=Σj=1d(xij-μij)2,(xi∈ck)---(20)]]>则所有划分到Ck类的点xi到μk的欧氏距离之和为:M(ck)=Σxi∈ckD(xi,μk)---(21)]]>将聚类集中所有子类统计一次,得到数据集中所有点xi到μk的距离之和,即为K-means算法的优化准则函数J=S(xi)=ΣK=1KM(ck)=ΣK=1KΣxi∈ck(xi,μk)=ΣK=1KΣi=1nλiD(xi,μk)=ΣK=1KΣi=1nλi||xi,μk||2---(22)]]>其中,由上式可以看出,当聚类函数值取到最小时,该聚类中心为各类内的所有数据样本平均值,此时聚类效果最好。K-means算法最主要的问题是需事先确定聚类的个数,本算法统计自然图像的HSV颜色分布中峰值个数K,采用K+1作为聚类个数。表1给出了下述四个方法对分割结果进行客观评价的结果。其中,参考分割结果为人为手工标记,实际分割结果为相同图像在不同算法下的分割结果,指标评价结果为多幅图像实际结果评价指标平均值。主要选取概率兰德指数(PRI)、变异信息的测量距离(VOI)、全局一致性错误(GCE)、边界位移错误(BDE)四个客观评价指标:1.归一化概率兰德指数主要用于评估实际分割结果和参考结果之间的属性的一致性,假设{S1,S2,......,Sk}是图像X的K个手工分割结果图像,Stest是采用算法的实际分割结果图像,其中X={x1,x2,......,xN}包含N个像素点,若将图像中任意两个像素点(xi,xj)进行区域划分,这一过程是一个概率事件,则对图像中像素点(xi,xj)划分到同一区域的概率可以通过贝努力实验近似统计,这称之为概率兰德指数(ProbabilisticRandIndex,PRI),公式如下:PR(Stest,{Sk})=1(C2N)Σi,ji<j[cijpij+(1-cij)(1-pij)]---(24)]]>公式(24)中,cij=I(litest=ljtest)={1,litest=ljtest0,litest≠ljtest---(25)]]>pij=1KΣI(liSk=ljSk)---(26)]]>公式(24)-(25)中,I是一个判别函数,当(xi,xj)标记li,lj相同时,(xi,xj)被划分到同一区域。当PRI指数越大时,表示算法分割结果与手工分割结果越相似,即算法分割结果越可靠,反之,PRI越小,结果越不可靠。2.变异信息的测量距离:互信息是信息论中较广为人知的一个概念,主要用于衡量随机变量X从观察场Y中获得的信息量大小,两个随机变量X,Y之间互信息量越大,两者趋于一致的程度越高,假设,把算法分割图像记为随机变量C1,参考分割图像为C2,则两个分割结果C1,C2的互信息可表示为:MI(C1,C2)=Σci∉C1Σcj∉C2p(ci,cj)logp(ci,cj)p(ci)p(cj)---(27)]]>由于MI(C1,C2)的上限值与C1,C2的总聚类基团个数有关,A.Strehl提出了归一化MI,得到归一化互信息距离测度Str,M.Meila在此基础上,提出了变异信息(VariationOfInformation)的距离测度:VOI(C1,C2)=H(C1)+H(C2)-2MI(C1,C2)(28)其中,H(C1)=-Σci∈C1p(ci)logp(ci)H(C2)=-Σcj∈C2p(cj)logp(cj)---(29)]]>公式(28)-(29)中,分别代表聚类C1,C2的熵,当VOI值越小时,表明C1,C2之间聚类结果越一致,也就是算法分割图像与参考分割图像相比信息变化越少,算法分割图像越接近参考分割图像,反之亦反。3.是全局一致性错误(GlobalConsistencyError,GCE)是定义于局部细分误差基础之上。假设图像中存在某一像元Pi,在实际分割结果中参考分割结果中pi∈Sk,当时,局部细分误差定义为:E(Sk′,sktest,pi)=<R(Sk′,pi)R(Sktest,pi)>/<R(Sk′,pi)>---(30)]]>其中,<R>表示集合R中元素个数,符号“\”表示差集。式(24)中局部细分误差是不对称的,即当时,像原元pi位于算法细分区域内,则针对每个像元的局部细分误差,可用公式(31)计算:GCE(S,Stest)=1nmin{ΣiE(S,Stest,pi),ΣiE(Stest,S,pi)}---(31)]]>由上述公式可以知道,GCE越小,参考分割图像和算法分割图像的全局一致性误差越小。4.边界位移错误(BoundaryDisplacementError,BDE)表示实际分割结果图像和参考结果图像中边界像素的平均位移误差。BDE越小,实际分割结果图像与参考结果图像边界位置越一致,则算法分割结果越好,结果保留小数点后三位,其中BDE最小为0。表1不种方法分割结果客观评价表从表1中的数据可以看出,FT方法与Federico方法分割结果在PRI、VOI、BDE三个指标上几乎一致,Federico方法在GCE指标上比FT方法有所提高,这主要由FT方法干扰信息过多造成的。本算法PRI指标为0.954,这表示本算法与人工分割结果较接近,BDE指标为3.728,这表示本算法能较好的分割抽取到与理想分割结果一致的目标对象轮廓。从整体上来说,本算法在四个指标上均有所提升,特别是PRI指标和BDE指标提升较大。因此,本算法能更好的分割抽取到图像中目标对象。当前第1页1 2 3 
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1