一种基于多策略融合的无人机跟踪方法与流程

文档序号:21369330发布日期:2020-07-04 04:45阅读:来源:国知局

技术特征:

1.一种基于多策略融合的无人机跟踪方法,其特征在于,

包括:

基于centernet网络对无人机图像样本进行训练,生成特征图;

获取无人机信号,并对无人机信号进行分析处理后得到无人机的方向参数;

基于无人机的方向参数输出控制信号控制摄像机镜头转动,采集无人机的视频图像,得到无人机的估计位置;

对采集的视频图像进行图像块加权处理,基于视觉与频谱联合评估算法,得到无人机在视频图像里的具体位置;

基于opencv函数获取无人机的中心坐标,实时跟踪无人机。

2.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述基于centernet网络对无人机图像样本进行训练,生成特征图的具体步骤,是:

获取无人机图像输入rgb三通道,并基于卷积神经网络处理,输出预测值;

基于网络前向传播,提取特征,得到特征图。

3.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述获取无人机信号,并对无人机信号进行分析处理后得到无人机的方向参数得具体步骤,是:

检测并获取3公里范围内的无人机信号;

基于使用环境进行数据融合;

通过下变频、a/d采样、数字信道化和阵列信号处理提取无人机信号参数;

基于不同天线的参数进行幅相一体化测向处理,并与数据库比对,得到无人机型号;

基于多站测向交叉定位体制进行定位,得到无人机方向参数。

4.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述基于无人机的方向参数输出控制信号控制摄像机镜头转动,采集无人机的视频图像,得到无人机的估计位置的具体步骤,是:

读取无人机方向参数;

计算方向参数与图像中心的差值;

通过数学模型计算出云台的转动量;

通过位置pd算法进行控制云台转动,所述位置pd算法模型如下:

其中,s(n)为控制输出,kp为比例控制参数,td为微分控制参数,e(n)为当前状态值与目标值之间的差值,n为控制次数,用kd表示,则有:

s(n)=kpe(n)+kd[e(n)-e(n-1)]。

5.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述对采集的视频图像进行图像块加权处理,基于视觉与频谱联合评估算法,得到无人机在视频图像里的具体位置的具体步骤,是:

将图像分为三个图像块,并赋予加权参数;

基于centernet网络提取特征图每个类别的关键点;

对关键点进行置信度判断,获取具体位置。

6.如权利要求5所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述对关键点进行置信度判断,获取具体位置的具体步骤,是,

基于centernet算法对摄像机采集的原始图像进行第一次置信度判断,若特征图里的关键点小于阈值a,则摄像机放大固定倍数;

若特征图里的关键点大于阈值a,基于加权参数和特征响应值计算方式,使用centernet算法进行二次置信度判断;

若二次置信度判断特征峰值大于阈值b,用opencv函数画框显示,并回传无人机在图像里的中心坐标(x,y)。

7.如权利要求6所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述特征响应值计算方式的计算公式,是,

y(t)=(ω+b(n))x(t)t≥0,n≥0

其中,y(t)代表特征响应值,t代表特征点排序号,x(t)代表原始centernet算法计算的每个特征点的响应值,ω代表图像块权重,b(n)表示摄像机每放大一次倍数提高的准确度,n代表摄像机放大倍数的次数;

b(n)=(1.1)nβn≥0

其中,β为初始常量。


技术总结
本发明公开了一种基于多策略融合的无人机跟踪方法,包括以深度学习网络中的Centernet网络为结构主体,结合频谱探测模块和舵机控制模块,提出了一种新的视觉与频谱联合评估算法,能够有效计算出视频图像里的无人机位置,并通过该位置的中心点控制摄像机舵机转动,能够在3公里范围内精准跟踪飞行中的无人机,并以更加直观的视觉跟踪方式将飞行中的无人机显示出来,解决了无人机飞行时跟踪困难的问题。

技术研发人员:纪元法;何传骥;孙希延;付文涛;严素清;符强;王守华;黄建华
受保护的技术使用者:桂林电子科技大学
技术研发日:2020.02.26
技术公布日:2020.07.03
当前第2页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1