一种基于区域的多特征融合高分辨率遥感影像分割方法与流程

文档序号:11412991阅读:507来源:国知局
本发明属于图像处理
技术领域
,具体涉及一种基于区域的多特征融合高分辨率遥感影像分割方法。
背景技术
:高空间分辨率遥感影像为遥感技术的发展带来机遇的同时,也为遥感数据的处理带来了新的挑战,影像中大量细节的出现和地物光谱特征的复杂化导致了传统像素级分类方法准确性的降低,基于此,面向对象分析(objectbasedimageanalysis,OBIA)成为高分辨率遥感影像处理的新选择,而进行OBIA的基础是影像分割,通过影像分割技术获得同质区域即对象,然后以对象作为基元进行分析,可以充分利用对象的光谱、纹理、形状等特征,在理论和实践上都比传统的像素级算法更具优势。目前遥感影像分类方法可以分为基于像素的、基于边缘的和基于区域的三类方法,其中,基于区域的方法由于影像对象上下关系层次明确,易输出多尺度分割结果,而成为遥感影像分割的主流方法。目前应用最为广泛的高分辨率影像分割算法为FNEA算法,它是面向对象分析软件eCognition中的核心算法,是一种区域生长类算法,从一个像素大小的对象开始,经过两两合并形成较大对象,通过判断异质性上限是否超过尺度参数作为合并终止条件,合并准则中采用对象的颜色和形状特征。基于区域的影像分割方法主要包括以下几点不足:1)特征利用不足。目前的算法往往注重影像光谱特征的利用,较少利用形状特征,而纹理特征的利用更为少见,从而使得分割过程中对象的语义描述不够准确,进而导致分割精度的降低。2)算法效率较低。目前算法在进行分割时,数据结构的设计往往相对简单,因而导致算法性能不高,效率较低。3)算法缺乏自适应性。目前算法的分割参数设置过多,设置时往往依赖于经验,导致算法的自动化程度较低,过度的参数依赖性与不确定性、处理目标的单一性,造成方法普适性较差。技术实现要素:针对上述现有技术中存在的缺陷或不足,本发明的目的在于,提供一种基于区域的多特征融合高分辨率遥感影像分割方法,解决现有技术中存在的影像特征利用不足、算法效率较低及自适应性差的问题和缺陷。为了实现上述任务,本发明采用如下技术方案予以实现:一种基于区域的多特征融合遥感影像分割方法,具体包括以下步骤:步骤一:对遥感影像进行主成分分析,得到基影像,对基影像进行NSCT变换后,提取基影像中每个点的纹理特征向量,然后对所有点的纹理特征向量进行模糊C均值聚类,获得聚类集合;步骤二:对遥感影像进行初始分割,获得多个初分割区域;步骤三:计算每个初分割区域的纹理均值,根据每个初分割区域的纹理均值和步骤一所得的聚类集合确定每个初分割区域所属的类;步骤四:计算每两个相邻的初分割区域的纹理特征距离;步骤五:利用步骤四得到的纹理特征距离,计算每两个相邻的初分割区域的相似性度量值;步骤六:以步骤五得到的相似性度量值作为区域邻接图的权重,基于区域邻接图和最近邻图进行区域合并,直至满足合并终止条件。本发明还有如下区别技术特征:进一步的,步骤一的具体步骤包括:步骤1.1:对遥感影像进行主成分分析,选取第一主成分作为NSCT变换的基影像I;步骤1.2:设定基影像I进行NSCT变换的层数k(k为2~5),对基影像I进行NSCT变换后产生带通子图像I1,I2,...,Ik;子图像Im(1≤m≤k)的方向分解数为dm,其中,dm取值范围为2m-len,len通常为不大于2的非负整数,则Im(1≤m≤k)产生的方向子图像分别表示为对于基影像,提取每个点的纹理特征向量,点(i,j)处的纹理特征向量定义为:Fij=(I11(i,j),I12(i,j),...,I12d1(i,j),I21(i,j),I22(i,j),...,I22d2(i,j),...,Ik1(i,j),Ik2(i,j),...,Ik2dk(i,j))]]>式中,表示方向子图像在点(i,j)处的系数值,(i,j)表示像素点的坐标位置;步骤1.3:对所有点的纹理特征向量进行模糊C均值聚类,得到聚类集合CC={1,2,…,g},每一类聚类中心分别记为CC1,CC2,…,CCg,其中g表示纹理特征向量的聚类个数。进一步的,步骤二采用分水岭变换对影像进行初始分割,得到初分割区域。进一步的,步骤三的具体步骤包括:对于任一初分割区域Rs,定义其纹理均值:Us=1|Rs|Σ(i,j)∈RsFij]]>其中|Rs|表示区域Rs的面积,对于初分割区域中的任意两邻域Rs和Rt,其纹理均值距离为dtxt1=||Us-Ut||,其中Ut代表Rt的纹理均值;根据纹理均值判断区域Rs所属的类:Cs=argminw∈CC||Us-CCw||]]>其中,CCw表示某一聚类中心。进一步的,步骤四的具体步骤包括:计算每两个相邻的初分割区域Rs和Rt的纹理特征距离:dtxt=dtxt1+||CCs-CCt||,Cs≠Ctdtxt1+min(||CCs-CCv||)/3,Cs=Ct---(5)]]>其中Cs和Ct分别表示Rs和Rt所属聚类,CCs和CCt分别表示Rs和Rt所属聚类的聚类中心,CCv表示除CCs外的其它聚类中心。进一步的,所述步骤五的公式为:dsim=dtxt进一步的,所述步骤五还包括:计算每两个相邻的初分割区域的光谱特征距离:dspe=Σi=1n(stdi-a*stdai+b*stdbia+b)]]>其中i代表波段,a和b分别表示合并前两相邻区域的面积,和分别表示合并前第i波段两区域的灰度标准差,stdi表示合并后第i波段新区域的灰度标准差;利用纹理特征距离和光谱特征距离,计算每两个相邻的初分割区域的相似性度量值:dsim=dspe*dtxt进一步的,所述步骤五还包括:计算每两个相邻的初分割区域的形状特征距离:dshp=cmp-a*cmp1+b*cmp2a+b]]>式中,cmp1和cmp2分别表示合并前两相邻区域的紧致度,a和b分别表示合并前邻域的面积,cmp表示合并后新区域的紧致度,新区域紧致度的计算公式为:其中l和s分别表示合并后新区域的周长和面积;利用纹理特征距离和形状特征距离,计算每两个相邻的初分割区域的相似性度量值:dsim=dtxt*dshp进一步的,所述步骤五还包括:计算每两个相邻的初分割区域的光谱特征距离和形状特征距离,其中,每两个相邻的初分割区域的光谱特征距离:dspe=Σi=1n(stdi-a*stdai+b*stdbia+b)]]>其中i代表波段,a和b分别表示合并前两相邻区域的面积,和分别表示合并前第i波段两区域的灰度标准差,stdi表示合并后第i波段新区域的灰度标准差;每两个相邻的初分割区域的形状特征距离:dshp=cmp-a*cmp1+b*cmp2a+b]]>式中,cmp1和cmp2分别表示合并前两相邻区域的紧致度,a和b分别表示合并前邻域的面积,cmp表示合并后新区域的紧致度,新区域紧致度的计算公式为:其中l和s分别表示合并后新区域的周长和面积;利用纹理特征距离、光谱特征距离和形状特征距离,计算每两个相邻的初分割区域的相似性度量值:dsim=aba+b*dspe*dtxt*dshp]]>式中,a和b分别表示合并前两相邻区域的面积。进一步的,步骤七的具体步骤包括:步骤7.1:以相似性度量值dsim初始化RAG和NNG,寻找NNG中的环,并按照权重大小存储到堆中;步骤7.2:合并堆中权重最小的环,得到新生成区域;步骤7.3:调用步骤三至步骤六,计算得到的新生成区域与其邻域的相似性度量值;步骤7.4:更新RAG、NNG、NNG环,得到所有的相似性度量值在堆中的最新表示;步骤7.5:判断区域个数是否等于设定的阈值,如果是,则终止合并,否则,继续进行步骤7.2,直到区域个数等于设定的阈值。本发明与现有技术相比,具有以下优点:(1)本发明综合采用光谱、纹理、形状等特征来构建合并规则,相对于单独采用某一种特征构建的规则更加符合对象的语义描述,从而使得分割精度更高。(2)在影像分割过程中,本发明联合采用RAG和NNG两种数据结构来维护区域的邻接关系,使得本算法可以获得更高的执行效率,相对于现有技术可以更加快速的得到分割结果。(3)本发明的算法可以处理多个目标,算法的分割参数设置较为均衡,具有较好的普适性和较高的自动化程度。附图说明图1是本发明的算法流程图。图2是分割影像及影像RAG和NNG的示意图;其中图2(a)是分割影像示意图;图2(b)是影像的RAG示意图;图2(c)是影像的NNG示意图。图3是本发明算法和FNEA的分割结果对比图;其中图3(a)是FNEA对I1的分割结果;图3(b)是本发明算法对I1的分割结果;图3(c)是I1的参考分割结果;图3(d)是FNEA对I2的分割结果;图3(e)是本发明算法对I2的分割结果;图3(f)是I2的参考分割结果。以下结合附图和实施例对本发明的具体内容作进一步详细地解释和说明。具体实施方式为了使本发明的目的、技术方案及优势更加清楚,结合附图及实施例对本发明做进一步详细说明,本发明的一种基于区域的多特征融合高分辨率遥感影像分割方法,具体包括以下步骤:步骤一:对高分辨遥感影像进行主成分分析,得到基影像,对基影像进行NSCT变换后,提取基影像中每个点的纹理特征向量,然后对所有点的纹理特征向量进行模糊C均值聚类,获得聚类集合;步骤1.1:对高分辨率影像进行主成分分析,选取第一主成分作为NSCT变换的基影像I;步骤1.2:设定基影像I进行NSCT变换的层数k(k为2~5),对基影像I进行NSCT变换后,产生的带通子图像分别为I1,I2,...,Ik,某一子图像Im(1≤m≤k)的方向分解数为dm,其中,dm取值范围为2m~len,len通常为不大于2的非负整数,则Im(1≤m≤k)产生的方向子图像分别表示为对于基影像,提取每个点的纹理特征向量,点(i,j)处的纹理特征向量定义为:Fij=(I11(i,j),I12(i,j),...,I12d1(i,j),I21(i,j),I22(i,j),...,I22d2(i,j),...,Ik1(i,j),Ik2(i,j),...,Ik2dk(i,j))]]>上述中,表示方向子图像在点(i,j)处的系数值,(i,j)表示像素点的坐标位置;步骤1.3:得到影像的纹理聚类中心。对所有点的纹理特征向量进行模糊C均值聚类,得到聚类集合CC={1,2,…,g},每一类聚类中心分别记为CC1,CC2,…,CCg,其中g表示纹理特征向量的聚类个数,一般取值稍大于图像中的纹理类别数,根据图像中的纹理类别数来确定,例如图像中有5类纹理类别,g可以取6或者7。步骤二:采用分水岭变换对初始的高分辨影像进行初始分割,获得低层次的初分割区域;步骤三:判断任一初分割区域所属的类。计算每个初分割区域的纹理均值,根据每个初分割区域的纹理均值和步骤一所得的聚类集合判断任一初分割区域所属的类;对于任一初分割区域Rs,定义其纹理均值:Us=1|Rs|Σ(i,j)∈RsFij]]>其中|Rs|表示区域Rs的面积,对于初分割区域中的任意两邻域Rs和Rt,其纹理均值距离为dtxt1=||Us-Ut||,其中Ut代表Rt的纹理均值;根据纹理均值判断区域Rs所属的类:Cs=argminw∈CC||Us-CCw||]]>其中,CCw表示某一聚类中心。步骤四:计算每两个相邻的初分割区域Rs和Rt的纹理特征距离:dtxt=dtxt1+||CCs-CCt||,Cs≠Ctdtxt1+min(||CCs-CCv||)/3,Cs=Ct---(5)]]>其中Cs和Ct分别表示Rs和Rt所属聚类,CCs和CCt分别表示Rs和Rt所属聚类的聚类中心,CCv表示除CCs外的其它聚类中心;步骤五:得到邻域的综合相似性度量值。利用步骤四得到的纹理特征距离,计算每两个相邻的初分割区域的相似性度量值;dsim=dtxt进一步的,在获得纹理特征距离的基础上,步骤五还包括:计算每两个相邻的初分割区域的光谱特征距离:dspe=Σi=1n(stdi-a*stdai+b*stdbia+b)]]>其中i代表波段,a和b分别表示合并前两相邻区域的面积,和分别表示合并前第i波段两区域的灰度标准差,stdi表示合并后第i波段新区域的标准差;利用纹理特征距离和光谱特征距离,计算每两个相邻的初分割区域的相似性度量值:dsim=dspe*dtxt进一步的,在获得纹理特征距离的基础上,所述步骤五还包括:计算每两个相邻的初分割区域的形状特征距离:dshp=cmp-a*cmp1+b*cmp2a+b]]>式中,cmp1和cmp2分别表示合并前两相邻区域的紧致度,a和b分别表示合并前邻域的面积,cmp表示合并后新区域的紧致度,新区域紧致度的计算公式为:其中l和s分别表示合并后新区域的周长和面积;在获得纹理特征距离的基础上,利用纹理特征距离和形状特征距离,计算每两个相邻的初分割区域的相似性度量值:dsim=dtxt*dshp更进一步的,利用纹理特征距离、光谱特征距离和形状特征距离,计算每两个相邻的初分割区域的相似性度量值:dsim=aba+b*dspe*dtxt*dshp]]>式中,a和b分别表示合并前两相邻区域的面积;步骤六:区域合并。以步骤五得到的相似性度量值作为区域邻接图(regionadjacencygraph,RAG)的权重,基于区域邻接图和最近邻图(nearestneighborgraph,NNG)进行区域合并,直至满足合并终止条件;步骤7.1:以相似性度量值dsim初始化RAG和NNG,寻找NNG中的环,并按照权重大小存储到堆中;步骤7.2:合并堆中权重最小的环,得到新生成区域;步骤7.3:调用步骤三至步骤六,计算得到的新生成区域与其邻域的相似性度量值;步骤7.4:更新RAG、NNG、NNG环,得到所有的相似性度量值在堆中的最新表示;步骤7.5:判断区域个数是否等于设定的阈值,如果是,则终止合并,否则,继续进行步骤7.2,直到区域个数等于设定的阈值。实验效果分析:为了验证本发明的效果,通过实验比较了本发明算法与FNEA算法,采用两种算法分别对两幅高分二号影像I1和I2进行分割,实验时保证每个影像中两算法分割结果中区域个数相等,并从目视角度尽量与参考分割保持一致;分割结果如图3所示,经分析发现,两影像I1和I2中每个区域个数分别为191和137,其中,FNEA算法的尺度参数分别为Scale=85和70,形状和紧致度参数分别均为0.1和0.5;本发明算法实验时的NSCT变换层数为3,各层的方向数分别为2、4、8,对I1和I2进行实验时纹理聚类个数g分别为7和6。通过对比参考分割图,如图3(c)、图3(f)所示,发现FNEA算法和本发明均可以得到较为准确的地物边缘,但是,从FNEA算法对I1的分割结果发现,如图3(a)所示的下方的建筑物,由于FNEA算法在合并准则中没有考虑纹理特征,因而在纹理特征明显区域出现了过分割;同时FNEA算法对I2的分割结果发现,如图3(d)中右上方的农田,对于光谱相近但是纹理存在差别的区域出现地物融合的现象,特别是当分割尺度较大时地物融合现象更加明显。除定性的目视观察外,实验还通过分割参考影像对两种方法进行了定量评价,实验通过分割参考影像对两种方法进行了定量评价,评价指标为EN和ARI,两种指标均对过分割和欠分割敏感,EN是指参考分割影像中所有分割区域错分像素占比的平均值,值越小表示分割效果越好;ARI表示分割结果和参考分割的相关性,值越大表明相关性越高,分割结果越准确。对于影像I1,FNEA分割结果的EN值和ARI值分别为0.285、0.474,本方法的EN值和ARI值分别为0.221、0.523;对于影像I2,FNEA分割结果的EN值和ARI值分别为0.153、0.628,本方法的EN值和ARI值分别为0.137、0.639。通过上述定量评价可以发现本发明方法的评价指标要优于FNEA;此外还采用1幅大小为1255*1255的遥感影像进行了分割效率的实验,本发明算法和FNEA算法的分割耗时分别为13.4s和19.6s,因此,本发明分割效率更高。当前第1页1 2 3 
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1