基于深度可分离卷积网络的图像变化检测方法与流程

文档序号:16002580发布日期:2018-11-20 19:39阅读:914来源:国知局

本发明属于图像处理技术领域,涉及一种图像变化检测方法,具体涉及一种遥感图像变化检测技术领域中基于深度可分离卷积网络的图像变化检测方法,可用于土地覆盖检测、灾难评估、视频监控等技术领域。



背景技术:

图像变化检测指利用多时相获取的覆盖同一地表区域的图像及其它辅助数据来确定和分析地表变化。它利用计算机图像处理系统,对不同时段目标或现象状态的变化进行识别、分析;它能确定一定时间间隔内地物或现象的变化,并提供地物的空间分布及其变化的定性与定量信息。根据图像数据处理的基本单位,变化检测方法主要分为三大类:1)基于像素点的方法;2)基于窗口的方法;3)基于图像的方法。

基于像素点的方法以像素点为图像分析的基本单元,充分利用光谱特性,而没有考虑空间上下文,这种方法简单容易理解,但是对噪声的鲁棒性很差,很难处理高分辨率的遥感图像。基于窗口的方法常见处理方法为:通过差值法或比值法等算子得到差异图,然后在差异图上滑窗取块,对窗口中心像素点或者整个窗口内的像素点做二分类,一般窗口大小都不超过9×9。相比于基于像素点的方法,基于窗口的方法考虑了空间邻域和上下文信息,对噪声有更佳的鲁棒性,但是在处理大批量图像数据和复杂的高分辨率遥感图像时,由于其在大批量图像数据上应用滑动窗口需要巨大时间花费,而且在图像分辨率很高和地形环境复杂时(如处理建筑物变化检测),该方法效率下降很多。

基于图像的方法与基于窗口的方法的主要区别在于基于图像的方法训练标签使用图像,而不是类别标量。基于图像的方法不仅大大减少了时间开销,实现检测的实时性,而且充分考虑了图像的全局信息,上下文信息更加丰富,提高了检测的准确度。Zhan等人在其发表的论文“Change Detection Based on Deep Siamese Convolutional Network for Optical Aerial Images”(IEEE Geoscience&Remote Sensing Letters,2017,PP(99):1-5)中,公开了一种基于权值耦合的深度卷积网络的光学航拍图像变化检测方法。该方法以端对端的方式训练整个网络,采用5层卷积,网络的输入和输出的尺寸相等。预测时直接输入两时刻的图像,输出两时刻图像的欧式距离图,对欧式距离图进行分割或者聚类等后处理操作得到最终的变化检测结果图。该方法的缺点是对图像的表征能力有限,而且对后处理操作依赖性很强,导致变化检测的准确度比较低。

深度可分离卷积是一种高效的卷积操作,它在每个通道独立执行空间卷积,然后进行逐点卷积,即1×1卷积,将深度卷积的通道映射到新的通道空间。深度可分离卷积减少了拟合数据所需要的参数,降低了训练模型时过拟合的风险,提高卷积效果。



技术实现要素:

本发明的目的在于针对上述已有技术的缺点,提出一种基于深度可分离卷积网络的图像变化检测方法,用于解决现有图像变化检测方法中存在的检测准确度低的技术问题。

本发明实现上述目的的思路是:构建训练样本集、验证样本集和测试样本集,以全卷积网络的变体U-Net为基础网络搭建深度可分离卷积网络,构建训练深度可分离卷积网络的损失函数,训练、测试并验证深度可分离卷积网络,利用已验证的最终训练好的深度可分离卷积网络进行测试,得到变化检测结果图。

根据上述技术思路,实现本发明目的采用的技术方案包括如下步骤:

(1)构建训练样本集、验证样本集和测试样本集:

(1a)获取原始图像样本集:

获取包含拍摄于同一地点不同时刻的多组图像样本对,并对每组图像样本对的真实变化区域进行标注,得到包含多个真实的手工标注图的原始图像样本集;

(1b)对原始图像样本集中的每组图像样本对进行归一化:

对原始图像样本集中的每组图像样本对进行归一化,得到归一化后的多组图像样本对;

(1c)对归一化后的多组图像样本对进行更新:

将归一化后的每组图像样本对中的t2时刻图像样本堆叠到t1时刻图像样本上,得到多幅两通道的图像样本;

(1d)获取训练样本集、验证样本集和测试样本集:

将多幅两通道的图像样本中的多数图像样本作为训练样本集,剩余图像样本中的一部分图像样本作为验证样本集,另一部分图像样本作为测试样本集;

(2)搭建深度可分离卷积网络:

(2a)将全卷积网络的变体U-Net作为待搭建深度可分离卷积网络的基础网络;

(2b)将待搭建深度可分离卷积网络的基础网络的卷积层配置为深度可分离卷积,得到深度可分离卷积网络;

(3)构建训练深度可分离卷积网络的损失函数Loss:

(3a)构建交叉熵损失函数BCE:

其中,n为像素点的个数,yi为真实像素点的类别,yi为深度可分离卷积网络的输出值,i为第i个样本;

(3b)构建加权的dice系数损失函数DICE_loss:

其中,w为查准率和召回率的偏好控制参数;

(3c)获取训练深度可分离卷积网络的损失函数Loss:

Loss=BCE+DICE_loss;

(4)对深度可分离卷积网络进行训练:

(4a)设定迭代次数N为1,损失函数最小阈值为Δl,学习率为α;

(4b)将训练样本集输入到深度可分离卷积网络中,得到多个概率图,并计算每个概率图与其对应的真实手工标注图的损失函数,得到多个概率图与多个真实的手工标注图的损失函数LossN

其中,为第i个概率图与其对应的真实手工标注图的损失函数;

(4c)判断损失函数LossN是否小于最小阈值Δl,若是,将损失函数LossN对应的深度可分离卷积网络作为训练后的深度可分离卷积网络,否则执行步骤(4d);

(4d)采用梯度下降法对深度可分离卷积网络的卷积层参数θ进行更新,得到卷积层参数为θnew的深度可分离卷积网络,θnew的计算公式为:

(4e)令N=N+1,同时将卷积层参数为θ的深度可分离卷积网络更换为卷积层参数为θnew的深度可分离卷积网络,并执行步骤(4b);

(5)对训练后的深度可分离卷积网络进行测试:

将验证样本集中的多幅两通道的图像样本输入到训练后的深度可分离卷积网络中,得到验证样本集中的图像样本在原始图像样本集中对应的每组图像样本对发生变化的概率图,并对每个概率图进行二值化,得到多个二值图;

(6)对训练后的深度可分离卷积网络进行验证:

计算由训练后的深度可分离卷积网络输出的多个二值图的变化检测平均准确率,并判断其是否小于设定的准确率阈值,若是,调整学习率α,并执行步骤(4),否则将多个二值图对应的深度可分离卷积网络作为最终训练好的深度可分离卷积网络,并执行步骤(7);

(7)对最终训练好的深度可分离卷积网络进行测试:

(7a)将测试样本集中的多幅两通道的图像样本输入到最终训练好的深度可分离卷积网络中,得到测试样本集中的图像样本在原始图像样本集中对应的每组图像样本对发生变化的概率图;

(7b)对每个概率图进行二值化,得到多幅变化检测结果图。

本发明与现有技术相比,具有以下优点:

第一,由于本发明在对最终训练好的深度可分离卷积网络进行测试时,采用深度可分离卷积网络提取特征,相比于现有技术采用的深度卷积网络提取的特征更加抽象、语义及结构信息更加丰富,对图像具有更强的表达能力及辨别性,有效提高检测准确度。

第二,由于本发明在对最终训练好的深度可分离卷积网络进行测试时,采用图像的端对端输出,相比于现有技术对深度卷积网络的输出进行分割或者聚类等后处理操作,本发明省略了后处理操作,降低了后处理操作对变化检测结果的消极影响,节约了检测时间,一方面提高了检测的准确度,另一方面提高了检测的效率。

第三,由于本发明构建的用于训练深度可分离卷积网络的损失函数,加入对查准率和召回率的偏好控制,使得本发明在进行图像变化检测时,提高了检测的灵活度。

附图说明

图1是本发明的实现流程框图;

图2是本发明深度可分离卷积网络的结构图;

图3是本发明深度可分离卷积的原理图;

图4是本发明与现有技术对测试样本集进行变化检测输出的变化检测结果图;

图5是本发明在不同偏好控制参数w条件下,对测试样本集进行变化检测输出的变化检测结果图。

具体实施方式

下面结合附图和具体实施例,对本发明作进一步详细描述:

参照图1,基于深度可分离卷积网络的图像变化检测方法,包括如下步骤:

步骤1构建训练样本集、验证样本集和测试样本集:

(1a)本实例将现有的样本集SZTAKI AirChange Benchmark set中的每组图像样本对进行归一化,得到归一化后的多组图像样本对,将归一化后的每组图像样本对中的t2时刻图像样本堆叠到t1时刻图像样本上,得到多幅两通道的图像样本,其中所采用的归一化公式如下:

其中,IA和IB表示同一地点不同时刻的图像样本,IA'表示由IA归一化后的图像样本,IB'表示由IB归一化后的图像样本;

(1b)为了扩大样本集的规模,本实例将将多幅两通道的图像样本中的3幅图像样本作为测试样本集,剩余的9幅图像样本用于构建训练和验证集,通过在每幅图像样本及其真实的手工标注图上对应位置做随机剪切,将9幅图像样本扩充到1800幅,随机选取其中的1440幅图像样本作为训练样本集,剩余的360幅图像样本作为验证样本集。

步骤2搭建深度可分离卷积网络,参照图2:

(2a)将全卷积网络的变体U-Net作为待搭建深度可分离卷积网络的基础网络,其中U-Net架构使用跳过连接(skip connection)将低层特征图与高层特征图结合起来,带来精确的像素级定位。整个网络只有卷积层和池化层,包含一个收缩路径来捕捉上下文信息,以及一个对称的扩张路径以进行精准的定位。收缩路径遵循典型的卷积网络架构,即交替卷积和池化运算,并逐步下采样特征图,同时逐层增加特征图的数量。扩张路径的每个阶段由一个特征图上采样和紧随的卷积层构成。网络的最后一层为1×1卷积,在不同的通道上进行信息整合;

(2b)将基础网络的卷积层配置为深度可分离卷积得到深度可分离卷积网络,其中深度可分离卷积过程如图3所示,首先使用3×3×1大小的卷积核分别和输入数据的各通道做卷积产生新的特征图,新的特征图个数和输入数据通道数相等,接着用1×1的卷积核在新得到的特征图上进行不同通道间的信息融合,这么做是为了对空间信息和深度信息进行去耦,能够有效利用参数,提高卷积的效率,将深度可分离卷积应用到U-Net网络架构中,能够提高变化检测的准确度。

步骤3构建训练深度可分离卷积网络的损失函数Loss:

(3a)构建交叉熵损失函数BCE:

其中,n为像素点的个数,yi为真实像素点的类别,yi为深度可分离卷积网络的输出值,i为第i个样本;

(3b)对于分割问题,dice系数是模型性能的重要观察指标,一般来说,评价指标应和训练目标尽可能接近,因此考虑在损失函数中加入和评价指标相关的部分构建加权的dice系数损失函数DICE_loss:

其中,w为查准率和召回率的偏好控制参数;

(3c)获取训练深度可分离卷积网络的损失函数Loss:

Loss=BCE+DICE_loss。

步骤4对深度可分离卷积网络进行训练:

(4a)设定迭代次数N为1,损失函数最小阈值为Δl,学习率为α;

(4b)将训练样本集输入到深度可分离卷积网络中,得到多个概率图,并计算每个概率图与其对应的真实手工标注图的损失函数,得到多个概率图与多个真实的手工标注图的损失函数LossN

其中,为第i个概率图与其对应的真实手工标注图的损失函数;

(4c)判断损失函数LossN是否小于最小阈值Δl,若是,将损失函数LossN对应的深度可分离卷积网络作为训练后的深度可分离卷积网络,否则执行步骤(4d);

(4d)采用梯度下降法对深度可分离卷积网络的卷积层参数θ进行更新,得到卷积层参数为θnew的深度可分离卷积网络,θnew的计算公式为:

(4e)令N=N+1,同时将卷积层参数为θ的深度可分离卷积网络更换为卷积层参数为θnew的深度可分离卷积网络,并执行步骤(4b)。

步骤5对训练后的深度可分离卷积网络进行测试:

将验证样本集中的多幅两通道的图像样本输入到训练后的深度可分离卷积网络中,得到验证样本集中的图像样本在原始图像样本集中对应的每组图像样本对发生变化的概率图,并对每个概率图进行二值化,得到多个二值图。

步骤6对训练后的深度可分离卷积网络进行验证:

计算由训练后的深度可分离卷积网络输出的多个二值图的变化检测平均准确率,并判断其是否小于设定的准确率阈值,若是,调整学习率α,并执行步骤4,否则将多个二值图对应的深度可分离卷积网络作为最终训练好的深度可分离卷积网络,并执行步骤7,其中变化检测准确率的计算公式为:

其中,TP为二值图中正确检测为变化的像素点个数,TN为二值图中正确检测为未变化的像素点个数,N为二值图中像素点总数。

步骤7对训练好的深度可分离卷积网络进行测试:

(7a)将测试样本集中的多幅两通道的图像样本输入到最终训练好的深度可分离卷积网络中,得到测试样本集中的图像样本在原始图像样本集中对应的每组图像样本对发生变化的概率图;

(7b)对每个概率图进行二值化,得到多幅变化检测结果图。

以下结合仿真实验,对本发明的技术效果作进一步的描述:

1.仿真条件和内容:

实验数据集采用SZTAKI AirChange Benchmark set图像变化检测数据集,本实施例的算法仿真平台为:主频为4.00GHz的CPU,16.0GB的内存,显卡gtx1070ti,Windows 10(64位)操作系统,Keras和Python开发平台。

本发明仿真实验所使用的仿真参数如下:

查准率:统计实验结果图中真实发生变化的像素点的比例:

其中,TP为正检变化类像素数,FP为误检为变化类像素数。

召回率:统计实验结果图中变化像素点被正确检测到的比例:

其中,TP为正检变化类像素数,FN为误检为未变化类像素数。

F1值:综合性指标,查准率和召回率的加权平均:

其中,P为查准率,R为召回率。

仿真1,使用本发明与现有技术对测试样本集进行变化检测,其输出的变化检测结果图如图4所示;

仿真2,使用本发明在不同偏好控制参数w条件下,对测试样本集进行变化检测,其输出的变化检测结果图如图5所示;

2.仿真结果分析:

参照图4,其中,

图4(a)和图4(b)为场景一的图像样本,图4(a)为t1时刻图像样本,图4(b)为t2时刻图像样本,图4(c)为场景一真实的手工标注图,图4(d)为本发明输出的场景一的变化检测结果图,图4(e)为现有技术输出的场景一的变化检测结果图;

图4(f)和图4(g)为场景二的图像样本,图4(f)为t1时刻图像样本,图4(g)为t2时刻图像样本,图4(h)为场景二真实的手工标注图,图4(i)为本发明输出的场景二的变化检测结果图,图4(j)为现有技术输出的场景二的变化检测结果图;

图4(k)和图4(l)为场景三的图像样本,图4(k)为t1时刻图像样本,图4(l)为t2时刻图像样本,图4(m)为场景三真实的手工标注图,图4(n)为本发明输出的场景三的变化检测结果图,图4(o)为现有技术输出的场景三的变化检测结果图;

将图4(d)、图4(i)、图4(n)的变化检测结果图与图4(c)、图4(h)、图4(m)对应的同一场景真实的手工标注图对比可以看出,由于本发明的深度可分离卷积网络提取的特征更加抽象、语义及结构信息更加丰富,对图像具有更强的表达能力及辨别性,因此得到的变化检测结果噪声点少,变化检测准确度高。而将图4(e)、图4(j)、图4(o)的变化检测结果图与图4(c)、图4(h)、图4(m)对应的同一场景真实的手工标注图对比可以看出,由于其对图像的表征能力较弱,因此得到的变化检测结果噪声点多,使得变化检测准确度低。

参照图5,其中,

图5(a)为本发明在偏好控制参数w等于0.5条件下,对测试样本集中的场景三图像样本输出的变化检测结果图;

图5(b)为本发明在偏好控制参数w等于1.0条件下,对测试样本集中的场景三图像样本输出的变化检测结果图;

图5(c)为本发明在偏好控制参数w等于2.0条件下,对测试样本集中的场景三图像样本输出的变化检测结果图;

由图5中的三幅变化检测结果图计算查准率、召回率和F1值,结果如下表1所示:

不同的偏好控制参数得到的变化检测结果一览表

表1

从图5中可以看出,偏好控制参数w越小,白色区域面积越大,召回率越大;偏好控制参数w越大,图像细节保留越好,查准率越大。从表1中可以验证这一结论,其中偏好控制参数w为1是查准率和召回率的折中。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1