基于耦合字典学习的合成孔径雷达图像目标识别方法与流程

文档序号:12748490阅读:735来源:国知局

本发明涉及雷达图像目标识别等技术领域,尤其是一种可有效降低算法复杂度、提高雷达图像目标识别准确率和稳定性的基于耦合字典学习的合成孔径雷达图像目标识别方法。



背景技术:

随着雷达(SAR)成像技术的不断成熟,SAR图像在军事、民用领域的应用越来越广泛。目前应用于雷达图像目标自动识别(SAR ATR)与常规的行为识别技术主要包含两个主要过程,即训练过程和测试过程。训练过程有三个具体的处理环节,分别是预处理训练样本(滤除杂波等)、提取训练样本的特征(比较常用的是纹理特征)、建立分类器模型。测试过程同样有三个处理环节,分别是预处理测试样本、提取测试样本的特征、利用训练阶段得到的分类器模型对测试样本进行分类预测。经过近些年的发展,虽然各式各样的字典学习已开始广泛应用在各个领域,但是在SAR图像目标识别中,字典学习的应用并不是十分广泛。Jayaraman.提出了一种基于稀疏表示的方法;Dong利用稀疏编码和单基因信号提出了一种MSRC方法,这些方法都应用了字典学习中的稀疏表示思想,并在雷达图像识别领域都取得了一定的成功,但是识别的准确率和稳定性还有待提高。



技术实现要素:

本发明是为了解决现有技术所存在的上述技术问题,提供一种可有效降低算法复杂度、提高雷达图像目标识别准确率和稳定性的基于耦合字典学习的合成孔径雷达图像目标识别方法。

本发明的技术解决方案是:一种基于耦合字典学习的合成孔径雷达图像目标识别方法,包括建立分类器模型,其特征在于按照如下步骤建立分类器模型:

步骤S1,对训练集样本进行预处理,获得纹理特征;

步骤S2,优化学习得到解析性字典P和混合型字典H;

设样本,字典,稀疏编码矩阵,则综合型字典学习模型为:

(1)

式(1)中为常数,是用来提升区分准确率的约束项;

设混合型字典为,是共享字典,

选择器,第j列如下:

混合型字典的第i列是,,

则耦合字典学习的模型为:

(2)

式(2)中和是常数;

引入一个中间变量A,则上式(2)为:

(3)

分别更新A,H和P,

1)H和P固定,更新A,即要求:

(4)

得到A的闭式解如下:

(5)

2)A和H固定,更新P,即要求:

(6)

得到字典P的闭式解如下:

(7)

3)A和P固定,更新字典H,即要求:

(8)

利用ADMM算法可以求得(8)式的最优解:

(9)

步骤S3,确定分类器模型;

用重构误差表示基于混合字典模型算法的分类器模型,如式(10)所示:

(10)。

本发明将共享字典与综合型-解析型字典相结合,构成了耦合字典学习模型。解析型字典的应用降低了算法的复杂度,使得模型更适合于实时性的系统;共享字典和结构化的综合型字典的应用解决了分类准确性的问题。相比于现有方法,本发明提高了多类合成孔径雷达图像识别准确率,并在俯视角变化的SAR图像识别中有较高的稳定性。

具体实施方式

本发明的合成孔径雷达图像目标识别方法,与现有技术一样,包括即训练过程和测试过程,与现有技术所不同的是按照如下步骤建立分类器模型:

步骤S1,对训练集样本进行预处理,获得纹理特征:

首先选取要进行训练样本类别,然后统一将图像裁剪成相同大小(如统一裁剪至80*80像素),注意一定要保证目标区域的完整性。将处理后的图像进行特征提取处理,提取出纹理特征。将每幅图像得到的纹理特征处理成为一个列向量,并将所有图像的纹理特征的列向量合并成一个集合,由于所得到的列向量维数较大,利用主成分分析(PCA)的方法对纹理特征矩阵进行降维处理;

步骤S2,优化学习得到解析性字典P和混合型字典H;

设样本,字典,稀疏编码矩阵,则综合型字典学习模型为:

(1)

式(1)中为常数, 是用来提升区分准确率的约束项;

设混合型字典为,是共享字典,

选择器,第j列如下:

混合型字典的第i列是,,

则耦合字典学习的模型为:

(2)

式(2)中和是常数;

引入一个中间变量A,则上式(2)为:

(3)

分别更新A,H和P,

1)H和P固定,更新A,即要求:

(4)

得到A的闭式解如下:

(5)

2)A和H固定,更新P,即要求:

(6)

得到字典P的闭式解如下:

(7)

3)A和P固定,更新字典H,即要求:

(8)

利用ADMM算法可以求得(8)式的最优解:

(9)

变量A和P均可得到闭式解,利用ADMM方法求H得优化结果是迅速收敛的;

步骤S3,确定分类器模型:

在耦合字典学习算法中,训练得到的子字典 只对第k类中的样本产生数值较大的编码系数,对第k类以外的样本的映射系数很小,甚至接近于零。与此同时,训练得到的混合字典 可以根据编码系数 对第k个类别中的样本进行重构,此时的重构误差 较小。此外,由于 时, 的值很小,因而 不能用来重构第i类的样本集合 ,所以类别i中样本的重构误差 远大于类别k中样本的重构误差。

在测试阶段,如果查询样本属于类别k,由解析型字典 映射得到的编码向量(表示为)比较显著,而由 的解析型子字典 映射得到的编码向量则很小。因而,由解析型子字典 产生的重构误差 远小于 的解析型子字典产生的重构误差 。显然,特定类别的重构误差可以用来确定测试样本y的类别标签,即可以用重构误差来表示基于混合字典模型算法的分类器,如式(10)所示:

(10)

由式(10)可知,基于耦合字典学习模型的分类器在训练得到最优的字典H和P后,就能得到分类器模型,从而可以对测试图像进行分类识别。

实验例:

将本发明提出的方法应用于一个公开的雷达图像数据库,即MSTAR数据库。MSTAR数据库是美国国防预研计划署和空军研究实验室(DARPA/AFRL)共同资助的。其中包含大量的实测SAR地面静止目标数据,包括军用战车、装甲车等。

MSTAR数据集在雷达图像目标识别技术中具有非常重要的意义,它是SAR图像目标识别性能评估的公开数据库。目标图像包含多类车辆型号,每种车辆型号的雷达图像包含多种俯仰角。由于雷达图像的特殊性,对于每个俯仰角都包含多个图片信息,其中包含了物体在0到360度内的不同视角的雷达图像。为使实验更便捷,实验主要分为两个部分,下面分别介绍。

实验1:实验1主要验证本发明在多类雷达目标识别问题中的可行性。选出十类不同种类军用车辆用来测试。对于同一类车辆,选取俯视角为17度的作为训练数据集,选取俯视角为15度的作为测试数据集。其中BMP2和T72有三种型号,不同型号的配置有细微差别,训练集中选用这两类车辆的标准型号,测试集中选用其余的型号。实验1的具体数据如表1所示。

表 1

按照本发明实施例训练得到分类器模型,然后将测试数据集输入到分类器模型中进行目标识别,本发明实施例与其方法的平均识别率对比如表2。

表 2

实验2:实验2主要用于证明在雷达图像的俯视角发生变化时,本发明有较好的识别稳定性。实验选用的类别分别是:2S1,BRDM和ZSU234。在MSTAR中,这三种类别的样本都含有四种俯视角的SAR图像,分别是15度、17度、30度和45度。我们选用17度作为训练样本,其余三个角度的样本都分别作为测试集。具体实验数据见表3。

表 3

具体的预处理过程与实验1一致,按照本发明实施例训练得到分类器模型,然后将测试数据集输入到分类器模型中进行目标识别,本发明实施例与其方法的平均识别率对比如表2。

表 4

雷达图像受俯视角影响较大,一般情况下当俯视角发生较显著的变化后,雷达图像也会发生比较明显的改变,所以不同俯视角下的雷达目标识别问题很难解决。从表4与其他实验方法的对比结果中可以看出:

1) 在测试样本集与训练样本集俯视角比较接近时(15度与17度非常接近),可以近似认为俯视角近似相等。此时识别种类较少(只有三类),各个方法的识别率都较高,实验结果比较接近;

2) 当测试样本集的俯视角发生较为显著的变化时(30度与17度相比变化了13度),各个方法的实验结果有较明显的变化,识别准确率有不同程度的下降,相比于其他方法,本发明的识别准确率有一定优势;

3) 当测试样本集的俯视角发生剧烈变化时(45度与17度相比剧烈变化了28度),各个方法的实验结果也发生了显著变化,识别准确率下降明显。此时相比于其他方法,本发明的实验结果有非常明显的优势,准确率有非常高的提升。说明本发明相比于当前常用的一些方法在俯视角发生变化时有较好的鲁棒性。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1