一种基于深度学习的多通道前视SAR方位超分辨成像方法

文档序号:35378967发布日期:2023-09-09 01:29阅读:21来源:国知局
本发明属于雷达成像,具体涉及一种基于深度学习的多通道前视sar方位超分辨成像方法。
背景技术
::1、雷达前视成像在自主着陆、自主导航、前视侦察制导等领域具有重要的应用,然而,现有的单基地合成孔径雷达(sar)或者多普勒波束锐化(dbs)技术,由于多普勒对称模糊及前视区域视角变化小的原因,存在前视成像盲区。双基地sar,通过收发分置能够实现接收平台的前视区域成像,然而由于需要外部辐射源的协助,成像自主性受到限制,同时,收发分置引入了复杂的同步和运动补偿问题。多通道前视sar,通过单一平台上方位多个通道接收回波,可以解决常规单基地sar前视成像中的左右模糊问题,但由于正前视区域目标角度变化小,其方位分辨率仍然较差。2、文献“卢景月,张磊,王冠勇.前视多通道合成孔径雷达解模糊成像方法.电子与信息学报报,2018,40(12):2820-2825”提出一种理想直线航迹下空域零点约束自适应波束形成的成像方法,利用有限阵列空域自由度解左右多普勒模糊,实现了前视成像,但在飞行方向,方位分辨率仍然较差。文献“蒋运辉.一种正前视宽扇区高分辨雷达扫描成像方法.电讯技术,2019,59(12):1411-1416”对正前视区域采用单脉冲方式进行成像,但由于机理限制,仅能实现波束锐化功能,且存在明显的角闪烁问题。文献“邹建武,祝明波李蔚等.用于雷达方位超分辨的l1范数正则化及其约束方法.电光与控制,2015,22(08):33-36+53”在目标稀疏先验信息下,建立了l1范数正则化模型,通过求解模型可以实现前视区域的超分辨成像,但存在正则化参数选取困难的问题。文献“zhang j,ghanem b.ista-net:interpretableoptimization-inspired deep network for image compressive sensing.ieeeconference on computer vision and pattern recognition.2018.”提出了一种将软阈值迭代算法ista与深度网络结构结合的图像重构方法,一定程度上解决了参数选取困难和计算量大的问题,但是基于一定模型假设,性能严重依赖于模型的精确程度,应用受到了极大限制。技术实现思路1、为解决上述技术问题,本发明提出了一种基于深度学习的多通道前视sar方位超分辨成像方法,旨在克服多通道sar前视成像分辨率低的问题,以及传统超分辨算法参数调整困难、计算量大的问题,实现多通道雷达前视超分辨成像。2、本发明的技术方案为:一种基于深度学习的多通道前视sar方位超分辨成像方法,具体步骤如下:3、a、多通道前视sar成像;4、首先,获取待成像区域回波数据。5、设定多通道雷达前视成像采用单发多收的通道配置,且多个接收通道同时接收;设定发射信号为线性调频脉冲,多个通道接收到的回波信号secho(yi,tr,ta)表达式如下:6、7、其中,β0表示预先设定的一个常数,kr表示距离调频率,c表示光速,λ表示发射信号的波长,tr表示快时间,ta表示慢时间,yi表示第i根接收天线的方位坐标,wr表示距离向包络,r(ta,yi)表示双程距离历史。8、观测场景中任意点p(x0,y0)到发射天线的距离历史rtx(ta)和到不同接收天线的距离历史rrx(ta,yi)表达式如下:9、10、11、其中,vr表示平台的飞行速度,h表示平台的飞行高度。12、则对于点目标,双程距离历史r(ta,yi)表示为:13、r(ta,yi)=rrx(ta,yi)+rtx(ta)           (4)14、其次,对获取的数据进行距离向脉冲压缩。设置脉冲压缩的匹配函数为sref(tr)=exp(-jπkrtr2),则脉冲压缩后的信号sc(yi,tr,ta)表示为:15、16、其中,ifft表示逆傅里叶变换算子,fft表示傅里叶变换算子17、接着,进行合成孔径方位向聚焦处理。对各个通道的距离脉冲压缩数据sc(yi,tr,ta)使用极坐标后向投影(bp)算法进行相干累加,则第i个通道重建结果fbp_i(i,ρ,γ)表示为:18、19、其中,ρ表示斜距,γ表示方位角度。20、最后,对各个通道的重建结果进行相干累加处理,得到无多普勒左右模糊的成像结果fbp(ρ,γ),表达式如下:21、22、其中,m表示通道个数。23、b、构建数据集;24、首先将场景图像按照相同尺寸随机裁切,将其作为x域图像。25、然后用步骤a中的方法对其进行多通道sar前视成像,并在此基础上按实际需求添加高斯白噪声,在保持与x域图像尺寸相同的情况下输出,将输出结果作为y域图像。26、重复以上步骤,批量化处理得到一定数量的图像对,最后按照实际需求设定比例随机划分为训练集和测试集。27、c、搭建网络模型;28、采用生成对抗网络的基本结构,利用其端到端映射的特性实现超分辨,搭建网络整体模型,主要由生成器网络和判别器网络构成。29、所述生成器网络结构包括:编码器、转换器、解码器。30、编码器利用三层卷积层从输入图像中提取特征,将整张图像压缩为特征向量;然后,通过转换器中的9个残差块将特征向量转换到另一图像域;最后,解码器通过反卷积层从特征向量中恢复低级特征,从而获得生成图像。31、整体生成器采用relu作为激活函数,增加随机失活层,采用实例标准化层,引入全局残差连接。32、所述判别器网络结构,采用patchgan的方式,通过70×70的滑动窗格遍历整个图像,来关注图像中的局部信息。使用wassertein距离代替原有的损失函数,去掉原有的sigmoid函数激活层,将所有的批标准化层替换为实例标准化层,整个网络共有5个卷积层,并使用leakyrelu作为激活函数。33、整体网络结构,整体模型结构串联起生成器模块和判别器模块,由两个反向对称回路构成。34、首先,输入的x域图像input_x经过生成器转换为y域图像generated_y,之后又经反向生成器得到重构后的x域图像cyclic_x;通过循环一致性损失表征两者差异;判别器dx和dy负责判断输入其中的图像是否符合对应图像域的原始样本分布;另一半网络对称执行相似的操作;两个回路共用生成器和判别器。35、d、训练模型;36、训练模型使损失函数最小化,此模型的损失函数包括对抗损失、循环一致性损失和同一映射损失三个方面。37、其中,对抗损失由两部分组成,对于映射ga(x):x→y,对抗损失可以表示为:38、39、其中,x和y分别表示两个图像域,ga表示映射ga(x):x→y的生成器,gb表示ga的反向映射gb(y):y→x的生成器,x和y分别表示归属于x域和y域的图像;dx和dy分别表示对应的x域和y域的判别器;pdata(x)和pdata(y)分别表示x域和y域的样本分布;表示数学期望;同理,对于映射gb(y):y→x,有相似的对抗损失lgan(gb,dx,y,x)。40、引入循环一致性损失,对x域的每一张图像,都将经过循环:x→ga(x)→gb(ga(x))。41、其中,x和gb(ga(x))的差异即为前向循环一致性损失,同样,若输入为y域图像,则称其为后向一致性损失;则此循环一致性损失表示为:42、43、同一映射损失是对循环一致性损失的补充,表示为:44、45、综上,整体损失函数表示为:46、47、其中,λ1和λ2表示权重参数,用于控制三种损失函数的相对重要性。48、训练代码基于pytorch深度学习框架,采用图像池策略,即在更新判别器网络参数时,不仅使用本次迭代生成的新样本,同时将一系列生成器生成的历史样本一同输入判别器网络,二者各占50%。49、然后,将训练集输入网络进行训练。每5轮保存一次权重参数,同时实时更新保存当前最后一轮的权重参数。训练时使用pytorch可视化工具visdom实时监测训练状况。50、e、测试模型;51、将最后一轮权重参数及测试集数据加载入网络模型,并针对测试数据集进行测试,测试网络输出的结果即为超分辨成像结果。52、本发明的有益效果:本发明的方法首先利用多通道前视sar成像算法对原始清晰图像进行前视成像,构造原始清晰图像和前视成像后图像的图像对数据集,然后搭建网络模型,调整网络参数进行模型训练,利用训练完成的权重参数进行模型测试,得到超分辨成像结果。本发明的方法克服了多通道sar前视成像时存在的航迹邻近区域成像分辨率低的问题,相较于现有超分辨算法,不存在复杂的参数调整困难、计算量大的问题。当前第1页12当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1