基于cdcp局部描述子的遥感图像场景分类方法

文档序号:10489411阅读:254来源:国知局
基于cdcp局部描述子的遥感图像场景分类方法
【专利摘要】本发明公开了一种基于完全双交叉模式CDCP局部描述子的遥感图像场景分类方法,主要解决传统遥感图像分类方法准确率不高的问题。其实现步骤为:1.输入遥感图像数据集;2.对数据集中的图像进行灰度化处理;3.对灰度化处理后的图像提取完全双交叉模式CDCP局部特征描述子,即将每幅图像转化成一个特征向量;4.对图像的特征向量进行归一化;5.以归一化后的特征向量作为分类特征,采用SVM分类器对数据集中所有图像进行分类,并输出分类结果。本发明提出的完全双交叉模式CDCP局部特征描述子对多种遥感图像具有很强的描述能力,提高了场景分类的准确率,可用于对遥感图像数据的分析和管理。
【专利说明】
基于CDCP局部描述子的遥感图像场景分类方法
技术领域
[0001] 本发明属于图像处理技术领域,进一步涉及遥感图像场景分类,可用于对遥感图 像数据的分析和管理。
【背景技术】
[0002] 场景分类是遥感图像处理的一个重要环节,也是遥感研究领域的热点。随着卫星 遥感图像和航空遥感图像分辨率不断提高,可以从遥感图像中获得更多有用的数据和信 息。而针对不同场合的应用,对遥感图像的处理也有着不同的要求,所以为了有效地对这些 遥感图像数据进行分析和管理,需要根据图像内容给图像贴上语义标签。而场景分类就是 解决该类问题的一种重要途径。
[0003] 场景分类指的就是从多幅图像中区分出具有相似场景特征的图像,并正确的对这 些图像进行分类。通俗讲就是将数据库中的不同遥感图像按照一定的分类特征进行分类, 所以场景分类的关键就在于对图像特征的提取。针对图像特征的提取,已经出现了很多经 典的方法,主要分为三类:一是对图像直接提取特征描述子,比如尺度不变特征变换SIFT、 颜色直方图、方向梯度直方图H0G、局部二值模式LBP等;二是在图像分块提取的一些底层特 征基础上继续进行特征提取,比如词袋模型B0VW、稀疏编码等;三是通过训练深度网络模 型,对图像自动提取特征。
[0004] 上述三种方法各有优缺点。第一种方法虽然步骤简单,但由于低层特征对于场景 语义信息的描述具有局限性,所以这种方法对提取的特征描述子具有较高的要求;第二种 方法相对于第一种方法分类精度虽有所提高,但处理过程会更复杂;而深度网络是最近几 年兴起的一种方法,优点在于不用人工提取特征描述子,而且经过充分训练后的网络分类 效果非常好。但深度网络模型却需要大量的数据进行训练,耗时较长,对存储要求也相对较 尚。

【发明内容】

[0005] 本发明的目的在于针对已有技术的不足,提出一种基于⑶CP局部特征描述子的遥 感图像场景分类方法,以减小对分类模型的训练耗时,提高分类的精度。
[0006] 本发明的技术思路是:针对遥感图像场景种类繁多、纹理复杂的特点通过统计图 像中像素点与邻域像素点之间的灰度变化趋势以及变化幅度,并经过编码得到一个统计直 方图,将该直方图作为每幅图像的分类特征,用分类器进行分类,从而获得较好的分类效 果。其实现步骤包括如下:
[0007] (1)输入遥感图像数据集;
[0008] (2)采用Matlab自带的灰度化函数rgb2gray()对输入的所有图像进行灰度化处 理;
[0009] (3)设置数据集中每幅图像像素点两层邻域的模式,即先将每个像素点的两层邻 域分成〇,V4,π/2,3π/4,π,5π/4,3π/2,7π/4这8个方向,再将该8个方向分为两组:第一组为 (0,11/2,31,331/2),第二组为(>/4,331/4,531/4,731/4);
[0010] (4)计算数据集中每幅图像在上述两组模式下的灰度差值符号直方图,再将这两 组模式下的灰度差值符号直方图连接起来,生成图像的灰度差值符号直方图;
[0011] (5)计算数据集中每幅图像在上述两组模式下的灰度差值绝对值直方图,再将这 两组模式下的灰度差值绝对值直方图连接起来,生成图像的灰度差值绝对值直方图;
[0012] (6)将图像的灰度差值符号直方图和灰度差值绝对值直方图连接起来,生成图像 的特征向量;
[0013] (7)在数据集的每一类遥感场景图像中,随机地选择其中80%的图像的特征向量 作为训练集,其余图像的特征向量作为测试集;
[0014] (8)对特征向量进行归一化处理,即将训练集与测试集一起归一化到[0,1]区间;
[0015] (9)以归一化后的特征向量作为分类特征,采用SVM分类器对数据集中所有图像进 行分类,即利用训练集建立SVM分类模型,再利用该分类模型对测试集进行预测。
[0016] 本发明与现有技术相比具有如下优点:
[0017] 本发明提出了完全双交叉模式CDCP局部特征描述子,与以往的局部二值模式LBP 描述子相比,由于CDCP考虑了两层邻域像素灰度的变化,能更好地反映图像在纹理上的变 化趋势;与原有的双交叉模式DCP描述子相比,由于CDCP增加了相邻像素灰度差值绝对值的 变化,因而弥补了相邻像素灰度差值符号变化反映模式少的缺陷,使描述子的表达能力更 强。
[0018] 实验结果表明,本发明对多个数据集的分类效果都很好,相比已有方法其分类精 度更高。
【附图说明】
[0019] 图1是本发明的实现流程图;
[0020] 图2是本发明中每个像素点的两层邻域模式图。
【具体实施方式】
[0021 ]参照附图1,本发明的具体步骤如下:
[0022]步骤1,输入数据。
[0023]由于数据集有多个类别,所以先将各个类别的场景图像分别放在各个文件夹中, 然后依次读取。
[0024] 在本发明实施例中,对UCMERCED data数据集和WHU-RS data数据集两个遥感数据 集进行实验,即将数据集中的所有图像进行分类实验。
[0025]步骤2,将所有图像进行灰度化处理。
[0026]由于本发明提出的完全双交叉模式CDCP局部特征描述子主要是提取图像的纹理 信息,考虑图像的灰度值变化,所以必须先对图像进行灰度化处理。在本实例中,采用 Mat Iab自带的灰度化函数rgb2gray 〇对所有图像进行灰度化处理。
[0027] 步骤3,设置每个像素点两层邻域的模式。
[0028] 由于考虑到编码后得到的直方图,即每幅图的特征向量维数过高,降低了效率也 容易产生冗余,故需要对每个像素点的邻域模式进行划分。
[0029] (3&)将每个像素点的邻域分为(0,31/4,31/2,331/4,31,531/4,331/2,731/4)这8个方向, 如图2(a)所示;
[0030] (3b)再将8个方向分为两种模式:即将其中的0,π/2,π,3π/2分为第一组,称为模式 一,如图2 (b)所示;将其余的π/4,3π/4,5π/4,7π/4分为第二组,称为模式二,如图2 (c)所示。
[0031] 步骤4,根据以上设置的两组模式计算图像的灰度差值符号直方图。
[0032] (4a)计算中心点像素与其第一层邻域像素点灰度的差值,以及第一层邻域像素点 与第二层邻域像素点灰度的差值;
[0033] Dai = Iai-Io
[0034] Dbi = Ibi-Iai
[0035] 其中,Dm表示第i个方向上中心点与第一层邻域像素点灰度的差值,0<i<7,DBl 表示第i个方向上第一层邻域像素点与第二层邻域像素点灰度的差值,Io表示中心点灰度 值,Im和Ib1分别表示第i个方向上第一层邻域与第二层邻域像素点的灰度值;
[0036] (4b)计算每个方向上的编码值⑶CP_Si;
[0037]
[0038]
[0039]
[0040] (4(:)分别将(0,31/2,31,331/2)与(>/4,331/4,531/4,731/4)两组模式下的4个方向编码 值进行加权联合,得到灰度差值符号矩阵;
[0041]
[0042]
[0043]其中,CDCP_S1表示模式一的灰度差值符号矩阵,CDCP_S2表示模式二的灰度差值 符号矩阵;
[0044] (4d)分别将两种模式下的灰度差值符号矩阵转化为灰度差值符号直方图,再连接 这两个直方图,生成每幅图像的灰度差值符号直方图⑶CP_SH;
[0045] CDCP_SH= [CDCP_S1H,CDCP_S2H]
[0046] 其中,CDCP_S1H表示模式一的灰度差值符号直方图,CDCP_S2H表示模式二的灰度 差值符号直方图。
[0047] 步骤5,根据以上设置的两组模式计算图像的灰度差值绝值直方图。
[0048] (5a)计算中心点像素与第一层邻域像素点灰度差值的绝对值,以及第一层邻域像 素点与第二层邻域像素点灰度差值的绝对值;
[0049] MAi = abs(lAi-Io)
[0050] MBi = abs(lBi-lAi)
[0051] 其中,Mm表示第i个方向上中心点与第一层邻域像素点灰度差值的绝对值,0 < i < 7,MBl表示第i个方向上第一层邻域像素点与第二层邻域像素点灰度差值的绝对值,Io表示 中心点灰度值,Im和Ib1分别表示第i个方向上第一层邻域与第二层邻域像素点的灰度值;
[0052] (5b)计算每幅图像的所有像素点与第一层邻域像素点灰度差值绝对值的均值,以 及第一层邻域像素点与第二层邻域像素点灰度差值绝对值的均值;
[0053]
[0054]
[0055] 其中,Ta表示每幅图像的所有像素与第一层邻域像素点灰度差值绝对值的均值,Tb 表示所有像素第一层邻域像素点与第二层邻域像素点灰度差值绝对值的均值,N表示每幅 图像实际利用的像素个数;
[0056] (5c)计算第i个方向上中心点与第一层邻域像素点灰度的差值绝对值Mm与Ta的差 值DMm,以及第i个方向上第一层邻域像素点与第二层邻域像素点灰度的差值绝对值_ 1与1^ 的差值ET
[0057]
[0058]
[0059]
[0060]
[0061]
[0062]
[0063] (56)分别将(0,31/2,31,331/2)与(>/4,331/4,531/4,731/4)两组模式下的4个方向编码值进行加权联合,得到灰度差值绝对值矩阵;
[0064]
[0065]
[0066] 其中,CDCP_M1表示(0,V2,π,3 V2)模式下的灰度差值绝对值矩阵,CDCP_M2表示 (jt/4,3π/4,5π/4,7π/4)模式下的灰度差值绝对值矩阵;
[0067] (5f)分别将上述两组模式下的灰度差值绝对值矩阵转化为灰度差值绝对值直方 图,再连接这两个直方图,生成每幅图像的灰度差值绝对值直方图⑶CP_MH;
[0068] CDCP_MH= [CDCP_M1H,CDCP_M2H]
[0069] 其中,CDCP_M1H表示(0,31/2,31,331/2)模式下的灰度差值绝对值直方图{00?_12!1 表示(31/4,3 31/4,5 31/4,7 31/4)模式下的灰度差值绝对值直方图。
[0070] 步骤6,生成数据集中所有图像的特征向量。
[0071]将图像的灰度差值符号直方图和灰度差值绝对值直方图连接起来,就生成了图像 的特征向量F;
[0072] F=[CDCP_SH,CDCP_MH]。
[0073] 步骤7,将数据集中所有图像分为训练集与测试集。
[0074] (7a)将数据集中每个类的图像随机分为5份;
[0075] (7b)每次实验依次取其中的4份作为训练集,另外1份作为测试集;
[0076] (7c)如此循环,进行5次实验。
[0077] 步骤8,对数据集中所有图像的特征向量进行归一化处理,归一化的区间为[0,1]。
[0078] 步骤9,对数据集进行分类,并输出分类结果。
[0079] 以归一化后的特征向量作为分类特征,采用SVM分类器对数据集中所有图像进行 分类,即先利用训练集对SVM分类器进行训练,得到最佳参数,建立分类模型,再利用该分类 模型在最佳参数下对测试集进行预测,最后将测试集的预测类别与实际类别进行比对,获 得分类准确率。
[0080] 以下结合仿真图对本发明的效果做进一步的说明。
[0081 ] U方真条件:
[0082] 硬件平台为:Intel(R)Core(TM)i5CPU 2.30GHz;
[0083] 软件平台为:Windows 10,Matlab 2015a。
[0084] 2.仿真实验内容:
[0085]仿真实验1:
[0086]设置第一层邻域半径R1=I;第二层邻域半径R2 = 3;SVM分类器采用高斯径向基函 数RBF核,用本发明对UCMERCED data数据集进行分类。并通过2重的交叉验证,确定优化参 数c = 32和g = 0.0625,计算本发明的分类准确率为87.48 %。
[0087] 用现有的dense sift + SC+SVM、LBP+SVM、DCP+SVM三种方法在最优条件下对 UCMERCED data数据集上进行分类,结果与本发明对比如表1所示。
[0088] 表 1
Luuyu」 从衣见,斗V仅明TOK1兵他力汰双米竝恐史灯,1止明j斗V仅明对逝恐囹像进仃甘 类的理论正确性,且提出的完全双交叉模式⑶CP局部特征描述子也更优于局部二值模式 LBP、双交叉模式DCP等其他局部特征描述子。
[0091]仿真实验2:
[0092]设置第一层邻域半径R1=I;第二层邻域半径R2 = 3;SVM分类器采用高斯径向基函 数RBF核,用本发明对WHU-RS data数据集进行分类。并通过2重的交叉验证,确定优化参数c =8和g = 0.0156。计算本发明的分类准确率为85.05%。
[0093] 用现有的dense s ift+SC+SVM、LBP+SVM、DCP+SVM三种方法在最优条件下对WHU-RS data数据集上进行分类,结果与本发明对比如表2所示。
[0094] 表 2
LUUVOj 从衣ZR」见,斗V仅明tfj双米竝恐也卬兵他力y太史灯,田此口」以有m斗V仅明酡厄用丁 多种数据集。
【主权项】
1. 一种基于CDCP局部描述子的遥感图像场景分类方法,包括: (1) 输入遥感图像数据集; (2) 采用Matlab自带的灰度化函数rgb2gray()对输入的所有图像进行灰度化处理; (3) 设置数据集中每幅图像像素点两层邻域的模式,即先将每个像素点的两层邻域分 成0,jt/4,V2,3V4,3T,53T/4,3V2,73T/4运8个方向,再将该8个方向分为两组:第一组为(0, π/2,π,3π/2),第二组为(>/4,3π/4,加/4,7π/4); (4) 计算数据集中每幅图像在上述两组模式下的灰度差值符号直方图,再将运两组模 式下的灰度差值符号直方图连接起来,生成图像的灰度差值符号直方图; (5) 计算数据集中每幅图像在上述两组模式下的灰度差值绝对值直方图,再将运两组 模式下的灰度差值绝对值直方图连接起来,生成图像的灰度差值绝对值直方图; (6) 将图像的灰度差值符号直方图和灰度差值绝对值直方图连接起来,生成图像的特 征向量; (7) 在数据集的每一类遥感场景图像中,随机地选择其中80%的图像的特征向量作为 训练集,其余图像的特征向量作为测试集; (8) 对特征向量进行归一化处理,即将训练集与测试集一起归一化到[0,1]区间; (9) W归一化后的特征向量作为分类特征,采用SVM分类器对数据集中所有图像进行分 类,即利用训练集建立SVM分类模型,再利用该分类模型对测试集进行预测。2. 根据权利要求1所述的方法,步骤(4)中计算图像灰度差值符号直方图,具体步骤如 下: (4a)计算中屯、点像素与其第一层邻域像素点灰度的差值,W及第一层邻域像素点与第 二层邻域像素点灰度的差值; 〇Ai 二 Ια广 1日 Dbi 二 Ιβ 广 Ια? 其中,Da康示第i个方向上中屯、点与第一层邻域像素点灰度的差值,0 y ^,Dbi表示第 i个方向上第一层邻域像素点与第二层邻域像素点灰度的差值,Ιο表示中屯、点灰度值,lAi和 iBi分别表示第i个方向上第一层邻域与第二层邻域像素点的灰度值; (4b)计算每个方向上的编码值CDCP_Si; CDCP_Si = S(DAi)X^S(DBi)(4c)分别将(0,31/2,31,331/2)与如/4,331/4,531/4,731/4)两组模式下的4个方向编码值进 行加权联合,得到灰度差值符号矩阵;其中,CDCP_S 1 和 CDCP_S2 分别表示(ο,V2,31,3 V2)与(V4,3 V4,5 V4,7 V4)模式下的 灰度差值符号矩阵; (4d)分别将上述两组模式下的灰度差值符号矩阵转化为灰度差值符号直方图,再连接 两个直方图,生成每幅图像的灰度差值符号直方图; CDW_W= [CDW_S1H,CD(P_S2H] 其中,CDCP_W表示图像的灰度差值符号直方图,CDCP_S1H和CDCP_S2H分别表示(0,V 2,3?,3V2)与(V4,3V4,加/4,7V4)模式下的灰度差值符号直方图。3.根据权利要求1所述的方法,其中步骤(5)中计算图像灰度绝对值符号直方图,按如 下步骤进行: (5a)计算中屯、点像素与第一层邻域像素点灰度差值的绝对值,W及第一层邻域像素点 与第二层邻域像素点灰度差值的绝对值; MAi = abs(lAi-Io) Mbi 二曰bs ( iBi-lAi ) 其中,Mai表示第i个方向上中屯、点与第一层邻域像素点灰度差值的绝对值,0含i含7,Mbi 表示第i个方向上第一层邻域像素点与第二层邻域像素点灰度差值的绝对值,Ιο表示中屯、 点灰度值,lAi和iBi分别表示第i个方向上第一层邻域与第二层邻域像素点的灰度值; (5b)计算每幅图像的所有像素点与第一层邻域像素点灰度差值绝对值的均值,W及第 一层邻域像素点与第二层邻域像素点差值绝对值的均值;其中,Τα表示每幅图像的所有像素与第一层邻域像素点灰度差值绝对值的均值,Tb表示 所有像素第一层邻域像素点与第二层邻域像素点灰度差值绝对值的均值,N表示每幅图像 实际利用的像素个数; (5c)计算第i个方向上中屯、点与第一层邻域像素点灰度的差值绝对值Mai与Τα的差值 DMai,W及第i个方向上第一层邻域像素点与第二层邻域像素点灰度的差值绝对值Mbi与Tb的 差值DMBi; DMai=Mai~Ta DMbi=Mb 广 Tb; 巧d)计算每个方向上的编码值CDCP_Mi; CDCP_Mi = S(DMAi) X 化S+DMBi水(5e)分别将(0,31/2,31,331/2)与如/4,331/4,531/4,731/4)两组模式下的4个方向编码值进 行加权联合,得到灰度差值绝对值矩阵;其中,CDCP_M1表示(ο,V2,31,3 V2)模式下的灰度差值绝对值矩阵,CDCP_M2表示(V4, 3 V4,5 V4,7 V4)模式下的灰度差值绝对值矩阵; (5f)分别将上述两组模式下的灰度差值绝对值矩阵转化为灰度差值绝对值直方图,再 连接运两个直方图,生成每幅图像的灰度差值绝对值直方图CDCP_MH; CDCP_MH=[CDCP_M1H,CDCP_M2H] 其中,CDCP_M1H表示(Ο,,31,3 )模式下的灰度差值绝对值直方图,CDCP_M2H表示 (31/4,331/4,加/4,731/4)模式下的灰度差值绝对值直方图。4.根据权利要求1所述的方法,步骤(6)中计算图像灰度绝对值符号直方图,是将图像 的灰度差值符号直方图CDCP_甜和灰度差值绝对值直方图CDCP_MH连接起来,生成图像的特 征向量F; F=[CDCP_ 甜,CDCP_MH]。
【文档编号】G06K9/62GK105844296SQ201610164764
【公开日】2016年8月10日
【申请日】2016年3月22日
【发明人】曹向海, 李泽瀚, 李星华, 梁甜, 焦李成
【申请人】西安电子科技大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1