基于遥感影像的蝶形卫星天线形态解析方法与流程

文档序号:16670768发布日期:2019-01-18 23:34阅读:550来源:国知局
基于遥感影像的蝶形卫星天线形态解析方法与流程

本发明属于遥感图像智能处理技术领域,更为具体地讲,涉及在图像情报挖掘需求下一种基于遥感影像的蝶形卫星天线形态解析方法。



背景技术:

遥感数据已经在农业、林业、国土安全、灾害管理等行业领域有了广泛的应用,当前遥感影像智能化技术主要针对目标检测任务,然而目标检测应用范围相对局限,各类用户不仅关注目标在哪儿,而且在一定程度上更关注目标当前工作状态,因此需要对遥感影像进行语义解析。对天线目标语义解析任务来说,其主要目的在于解析得到当前天线形态数据,即俯仰角与天线角。

针对遥感语义解析开展了大量研究工作,如条件随机场等算法。以上传统语义解析算法在一定程度上实现了处理的自动化,提高了人工处理的效率,但始终无法突破准确率受限的瓶颈,无法达到业务化、自动化运行的精度要求。蝶形卫星天线主要用于对卫星数据进行接收,包括对地观测数据、电子侦察数据、通信数据等等,基于遥感影像对蝶形卫星天线形态解析有助于发现天线对接卫星型号与状态,预测天线执行任务内容,从而获取高价值情报信息。因此研究自动化、高精度的遥感天线目标形态解析技术具体深远意义。

目前已有的形态解析方法,

(1)当前常用图像解析的传统方法主要是条件随机场,但是主要实现前视摄影图像的解析,遥感影像具有幅宽大,目标尺度较小,环境较为复杂的特点,条件随机场在此类影像中应用效果较差。

(2)随着人工智能的发展,深度学习技术开始广泛应用于图像语义解析,主要采用超像素方法对影像进行分割,随后对分割后影像块采用cnn卷积神经网络进行建模,通过大量标注数据训练模型,从而实现较好的解析效果。

(3)本发明创新性地提出采用全卷积网络进行图像语义分割,对分割后结果通过轮廓拟合与轮廓角度计算的方法实现天线形态的有效解析。实验证明,本发明提出的方法相比以往的方法在天线目标解析效果上具有较大提升。



技术实现要素:

本发明的目的在于克服现有技术的不足,提出基于遥感影像的蝶形卫星天线形态解析方法,实现天线方位角与俯仰角的计算。

本发明的目的是这样实现的,本发明包括步骤:

一种基于遥感影像的蝶形卫星天线形态解析方法,包括以下步骤:

(1)获取蝶形卫星天线遥感影像;

(2)对蝶形卫星天线遥感影像进行逐像素标注得到的标注文件;

(3)构建全卷积深度学习网络;

(4)采用蝶形卫星天线遥感影像与对应的标注文件训练全卷积深度学习网络,得到深度学习模型;

(5)采用深度学习模型对待解析的蝶形卫星天线遥感影像进行语义分割,得到像素级的检测与分割结果,对像素级的检测与分割结果进行椭圆轮廓拟合,对椭圆轮廓进行角度计算得到天线的俯仰角与方位角;

完成蝶形卫星天线形态解析。

其中,步骤(3)中全卷积深度学习网络具体为:

模型分为向下和向上两段,其中向下的通路根据分类强度将vggnet原有13层卷积层改为6层,输入层经过6层卷积和池化之后得到16×16维特征热度图作为第7层;向上通路中,对第7层反卷积层进行插值上采样恢复至与第6层相同尺寸,对第7层进行上采样后融合第5层多孔卷积生成第8层;对第8层进行上采样后融合第6层多孔卷积生成第9层,对第9层的输出进行尺寸变换还原至原始遥感图像尺寸,得到检测与分割结果。

其中,步骤(5)中方位角为天线旋转方向与正北方向的夹角,采用拟合椭圆短轴与垂直方向的夹角;俯仰角为天线表面方向与地面垂直方向的夹角,计算方法为:

其中,β为俯仰角,a为椭圆短轴,b为椭圆长轴。

本发明与背景技术相比具有如下优点:

本发明首次提出采用深度学习全卷积模型结合轮廓拟合实现天线形态的解析,可以较为精准的实现方向角和俯仰角的全自动解析。

附图说明

图1是本发明的流程设计图。

图2是本发明搜集天线目标影像图。

图3是本发明中逐像素标注图。

图4是本发明中语义分割全卷积深度学习网络图。

图5是本发明中语义分割效果图。

图6是本发明中椭圆轮廓拟合图。

图7是本发明中方位角计算示意图。

图8是本发明中俯仰角计算示意图。

图9是本发明中形态解析计算结果示例图。

具体实施方式

下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。

图1是本发明基于遥感影像的蝶形卫星天线形态解析方法一种具体实施下的原理框图。

在本实施例中,如图1所示基于遥感影像的蝶形卫星天线形态解析方法包括以下步骤:

1.影像搜集

首先人工搜索整理一系列全球主要天线网址;然后采用爬虫技术根据关键词从网站上自动获取天线目标的名称和坐标,形成表格文件,表格中含有名称、经纬度坐标、地点属性等信息。根据上述信息人工筛选后得到天线经纬度坐标,在谷歌地球上确定需要下载的经纬度范围,进行该经纬度不同时间影像的下载。如图2所示。

2.影像标注与模型训练

设计逐像素标注方法,对天线遥感影像进行标注形成对应标注文件,如图3所示,为深度学习语义分割模型的训练过程提供标注数据。

3.构建全卷积深度学习网络;具体为:

模型分为向下和向上两段,其中向下的通路根据分类强度将vggnet原有13层卷积层改为6层,输入层经过6层卷积和池化之后得到16×16维特征热度图作为第7层;向上通路中,对第7层反卷积层进行插值上采样恢复至与第6层相同尺寸,对第7层进行上采样后融合第5层多孔卷积生成第8层;对第8层进行上采样后融合第6层多孔卷积生成第9层,对第9层的输出进行尺寸变换还原至原始遥感图像尺寸,得到检测与分割结果。

4.模型训练

采用逐像素标注得到的标注文件与遥感影像训练语义分割全卷积深度学习网络,得到深度学习模型。如图4所示。

5.天线检测与形态解析

采用深度学习模型对待解析的遥感影像进行语义分割,得到像素级的检测与分割结果,如图5所示。对像素级的检测与分割结果进行椭圆轮廓拟合,如图6所示。对椭圆轮廓进行角度计算得到天线的俯仰角与方位角实现天线形态解析。其中方向角为天线旋转方向与正北方向的夹角,采用拟合椭圆短轴与垂直方向的夹角。如图7所示。俯仰角为天线表面方向与地面垂直方向的夹角,如图8所示,计算方法为:

在本实施例中,选用tensorflow框架实现全卷积网络架构完成天线目标提取,采用opencv实现椭圆拟合,采用python编程实现方向角和俯仰角的计算。为了验证本发明的有效性,我们针对遥感影像进行实验验证。验证结果如图9所示。

本发明实现遥感天线目标的自动形态解析,采用计算数值与实际天线运维姿态数值进行对比得到角度偏差作为最后衡量指标。本发明中采用遥感进行天线姿态计算得到方位角误差在正负2度之内和俯仰角误差在正负1度以内,实验证明,本发明提出的方法可以较为精准的实现自动化遥感天线目标的形态解析。

尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1