一种基于多传感器的目标态势融合感知方法和系统与流程

文档序号:20068215发布日期:2020-03-06 08:46阅读:719来源:国知局
一种基于多传感器的目标态势融合感知方法和系统与流程

本发明涉及人工智能、目标融合、态势感知等领域,尤其是涉及了一种基于多传感器的目标态势融合感知方法和系统。



背景技术:

近年来,以远程遥控和自主控制为核心的机器人技术迅猛发展,导致无人机、无人船、无人水下前潜航器等作战系统相继出现,并先后投入战场,无人化作战这一崭新作战样式正在破土而出,为了对战场环境进行完整全面的感知,无人平台安装了大量的传感器,对环境信息进行实时采集。

为了克服单个平台能力不足的问题,无人平台多形成多平台无人班组执行任务,这样的有人与无人协同控制存在技术难点,具体体现在指挥人员需要根据大量的传感器数据,对当前形势进行实时分析,有必要引入辅助态势感知系统,帮助进行信息的整合和筛选,提供参考态势信息,推送与态势和决策关联的重要信息,使指挥员的主要精力投入在决策上。

在传感器信息的整合方法上,目前大多采用引入态势感知模块的方法,即使用根据实际需求,将整体情况划分为便于理解的态势,将辅助系统的态势理解结果上报给控制中心,从而减轻作战人员的负担,其数学过程来讲,辅助控制系统中的态势感知模块是一个推理过程,目前主流技术包括:采用贝叶斯推理的方法来构建态势感知网络,网络架构层级清晰,但是在实际使用中面临先验概率难以确定的问题。一种基于模糊认知图的算法,削弱了传感器误差的影响,但缺乏对样本随机性的包含,专家系统中对专家经验的差异性也存在合理的处理方法。

尽管上述的这些研究所得到的方法具有很不错的完成任务的效果,但在实际复杂战场环境中,辅助指控系统单纯的直接对传感器信息进行态势感知是不够的,如何保证态势感知的准确性,如何进行合理的信息筛选和排序,以保证指挥干预和决策快速有效进行,是现在急需重点解决的问题。



技术实现要素:

为解决现实技术的不足,本发明提供一种基于多传感器的目标态势融合感知方法和系统,以分析敌方目标行为态势,获取敌方目标威胁度,按照威胁度等级采取压制措施。

本发明提供一种基于多传感器的目标态势融合感知方法,包括:对探测区域进行监视,获取识别环境下多目标态势情报数据;基于视觉特征,重建点云目标及三维场景模型;检测目标航迹,进行局部航迹与整体航迹配准融合;通过ds证据理论获取目标身份,实现目标敌我分群;分析敌方目标行为特征,获取敌方目标威胁度,按照威胁度等级采取压制措施;还提供一种装置包括测量与定位系统、信息融合系统、态势感知与威胁评估系统、决策系统和显示系统。本发明集成现有传感器的系统,对组合数据进行智能分析,尽可能产生丰富的势态感知,从而确定合适的行动计划;对模糊条件反应灵敏,迅速,具有较高的实用性,基于ds证据理论和目标数据多融合实现目标态势感知和威胁评估,为目标探测与识别、场景重现、航迹检测和预测、战场目标态势感知等提供精准信息。

实现本发明目的的技术方案为:

(一)对探测区域进行监视,获取识别环境下多目标态势情报数据;

(二)检测目标航迹,进行局部航迹与整体航迹配准融合;

(三)通过ds证据理论获取目标身份,实现目标敌我分群;

(四)分析敌方目标行为特征,获取敌方目标威胁度,按照威胁度等级采取压制措施。

其中,所述(一)对探测区域进行监视,获取识别环境下多目标态势情报数据,具体包括:目标信息及场景信息;所述目标,包括:位置、目标三维点云、速度、加速度、航向角、方位角、距离;所述场景,包括场景三维点云、深度图像、彩色图像;其步骤包括:

步骤1,由于利用多个传感器对多个目标进行监测,进行时间配准和空间配准,得到时间同步的三维点云数据中的探测区域和视频图像中的探测区域,相同帧时刻对探测区域配准和融合,以丰富所述区域特征,从而实现多目标区分;

步骤2,预设目标类别、特征类别,将获取的目标信息输入卷积神经网络,提取目标特征,通过在卷积层后连接上采样层、以及在池化层后增加残差结构,弥补原始输入图像经过过各个卷积层得到的新图像的分辨率的损失;

步骤3,将通过步骤2获取的目标特征进行聚类,按照多目标之间进行特征聚类,划分为共有特征和非共有特征,保留满足预设要求的非共有特征;

步骤4,基于视觉特征,重建点云目标及三维场景模型。

进一步的,所述重建点云目标及三维场景模型,其步骤如下:

步骤1,由激光雷达传感器扫描目标及场景,得到三维点云,选择当前帧与前t帧的三维点云,对点云数据进行预处理,得到点云轮廓数据,预分割目标点云;

步骤2,计算点云第t帧相对于第t-1帧的相对位移和角度,以角度的垂直方向作为点云投影方向,获取点云深度信息,构成点云深度信息矩阵;

步骤3,根据视频帧和深度图像,以所述对应的点云深度信息作为参考进行比对,在深度图像中选择候选区域,得到深度图像候选区域集合;

步骤4,在深度图像候选区域集合中,找到每帧与点云信息对应的像素点的三维空间点,获取该空间点的法向量,根据所述法向量确定形状特征;

步骤5,根据在所述深度图像候选区域中找到与视频帧图像最接近的像素点,计算rgb特征向量,得到深度图像候选区域集合对应的rgb特征向量矩阵;

步骤6,根据所述rgb特征向量矩阵与所述形状特征矩以及所述深度图像,重复上述步骤,确定由激光雷达传感器获取的检测目标及场景的特征;

步骤7,以场景的栅格失配度和置信度作为聚类算法的输入,获得表征特征的栅格聚类,将聚类结果作为重聚类初始算法的聚类种子,在设定的k邻域中搜索距离阈值约束后符合要求的聚类种子,则将该聚类种子标记,剩余非聚类种子作为噪声;将聚类种子通过icp算法配准对应到相同视角和时间帧的激光点云聚类上,以矫正优化后的关联点云进行融合重建;

所述失配度为:ηi=savg(i)-lavg(i),其中,savg(i)表示激光点云聚类,lavg(i)表示由步骤7得到的聚类种子,ηi表示第i个栅格的失配度;η表示失配度,n*m表示栅格总个数;

所述置信度为:表示i个栅格的失配度的置信度情况,k表示第k层,共有个栅格组合。

进一步的,所述获取的目标特征进行聚类,包括:在视频帧图像中,针对若干时刻的视频帧,检测出同一目标的共有特征和非共有特征,保留共有特征,对于非共有特征部分,按照非共有特征在所述特征区域的权重大小,判断重要性,预设权重阈值,若权重大于预设权重阈值,则保留非共有特征,公式如下:

其中,n表示目标类,i表示1~n之间的第i目标类;m表示特征类,j表示1~m之间的第j特征集合;ij表示i目标的j特征集合,表示在第i目标的j特征集合中1~kb的特征,rijk表示在第i目标的j特征集合中1~k的特征;w(a)表示a目标在所属目标类、特征类、特征集合的权重;

其中,fijkmax(a)表示特征a在1~k个特征中的占比最大值,即在第i目标类、第j特征集合中查找由1~k中的最大值;fijkmin(a)表示特征a在1~k个特征中的占比最小值;

预设权重值:

当满足w(a)大于w0(a)时,保留非共有特征a;则经过配准与融合后的目标特征包含共有特征和满足条件的非共有特征。

其中,所述(二)检测目标航迹,进行局部航迹与整体航迹配准融合,具体包括:对于不能将目标视为质点的情况下,通过三段法解决姿态约束的航迹规划,以目标质心跟踪模式、前端顶点跟踪模式和尾部顶点跟踪模式的运动航迹也不相同,如无人机在收翼和展翼状态;检测航迹步骤在于:

步骤1,栅格化场景的二维电子地图,划分为n*m区域块,则目标位置为(x,y,φ);分别为位置坐标和平面上的航向角;

步骤2,构建局部航迹检测包围盒,在航迹两侧,以目标最窄宽度的1/2对路径中心线构建弯曲的带状包围盒;

步骤3,将目标起点和终点处的轮廓描述为凸多边形,将路径中间段描述为圆形,利用三段法检测路径片段,通过连续帧形成的目标整体航迹。

进一步的,所述进行局部航迹与整体航迹配准融合,具体包括:

由于数据采集设备中各雷达上报数据的时间频率不相同,对于不能将目标视为质点的情况下,考虑到位置变换,还会出现姿态变换,目标在不同时刻帧的局部航迹和连续时间段的整体航迹不一定相同,因此需要进行局部航迹和整体航迹的配准,判断目标位姿,公式如下:

mp=f*ms+t(f*msv+t*msa/2)(4)

其中,t是航迹预测时间,即局部航迹的时间和整体航迹的时间的差值,mp表示目标在各个时间帧的位置,表示融合航迹中各个局部航迹的速度,表示融合航迹中各个局部航迹的加速度;

若当前时刻未检测到整体航迹,则根据局部航迹建立融合航迹;否则通过局部航迹与整体航迹进行匹配融合,形成融合轨迹;然后将航迹进行下一时刻帧的预测,包括各个目标的位置坐标和速度。

其中,所述(三)通过ds证据理论获取目标身份,实现目标敌我分群;

步骤1,建立目标身份预测的样本空间矩阵,d={l,m,h},l表示敌方、m表示我方、h表示不明身份;

步骤2,将敌我识别软件、激光雷达和合成孔径雷达输出的初步识别结果作为证据,包括:目标基本信息、电磁辐射源、辐射频率、辐射强度、气象水文、地理环境、装备性能;输出各自识别权重转换成概率得到证据m1、m2、m3,...,表示为mi,基本概率赋值表示为mi(ai);

步骤3,运用ds证据理论对m1、m2、m3进行合成,将满足合成决策规则的类作为最终结果输出,将目标身份预测作为基本命题a,计算基本概率;

利用三级最大差和三级最小差确定置信度函数与似然函数对基本概率赋值分配的影响程度;

证据支持度反映该证据被其他证据的支持程度,s(mi)值越大,表明证据之间的距离越小,该证据的支持度就越大,d(mi)是证据之间距离;

其中,smax(mi)表示证据的最大支持度,smin(mi)表示证据的最小支持度;

计算基本概率赋值:

mi(ai)=s(mi)‘′*p(mi)(6)

合成:

最终输出合成概率结果,判断该目标的身份。

其中,所述(四)分析敌方目标行为特征,获取敌方目标威胁度,具体包括:构建卷积神经网络识别目标意图,步骤1,利用激光雷达传感器和合成孔径雷达获取行为特征:目标运动速度、高度、航向角、方位角、距离、加速度等为数值参数;对数值进行归一化;步骤2,根据实际识别结果与专家系统进行判断标记意图标签,利用获取的目标特征与意图标签构建数据库,选择数据分别作为测试、训练和验证;步骤3,调整深度神经网络结构,确定隐藏层和节点数;步骤4,将训练数据输入卷积神经网络,调整网络权值,将输出意图与标签对比,计算识别精度,当识别精度满足预设要求,则进行下一步,否则继续训练;步骤5,将测试数据库中的目标特征输入到训练好的深度神经网络中,计算识别精度;步骤6,将待识别作战意图的目标特征数据输入模型,输出意图。

进一步的,所述获取敌方目标威胁度,具体包括:判断敌方实力,预测敌方意图、进行威胁度评估,

包括:对敌方目标类型、空间位置以及装备能力评估敌方目标实力;

根据敌方目标的历史行动规律以及航迹,预测敌方的意图;

通过对敌方目标的行动预测、我方重点区域备战状态以及环境态势分析,识别潜在威胁程度;

通过威胁程度,执行决策指令,对敌方目标实时干扰压制;

其中,威胁度计算公式如下:

w=(ωb*wb+ωt*wt+ωp*wp)*km*kt(8)

其中,w表示威胁度;当目标为敌方时,km=1;当目标身份不明时,km=0.5;kt表示目标行动预测的情况;ωb表示目标靠近重要区域的权重值,wb表示靠近受保护区域的威胁度等级;ωt表示敌方装备能力权重值,wt表示敌方装备能力对应的威胁度等级;ωp表示目标类型的权重值,wp表示拦截目标的紧急程度。

本发明还提供一种基于多融合传感器的目标态势融合感知装置,其特征在于,主要包括:

(1)测量与定位系统,包括敌我识别器、激光雷达传感器、合成孔径雷达;对探测区域内的目标进行监视,获取当前场景中的目标彩色图像,深度图像,点云数据,位置信息以及状态信息,构建三维场景模型,同时获取情报信息,包括雷达获取海陆空情报、敌我识别设备侦察海陆空情报、电磁情报、战场环境;

(2)信息融合系统,用于接收来自于测量与定位系统中的目标信息及状态信息;包括:信息预处理,即进行时空配准;航迹融合,即局部航迹融合、整体航迹融合;传感器测量数据的融合进行目标分类识别。

(3)态势感知与威胁评估系统,用于处理测量与定位系统中传感器搜集到的相关信息,并依据信息融合系统处理的结果,获得目标的态势信息,并计算得到目标的威胁等级,生成决策命令;

(4)决策系统,用于相应决策指令,对目标实时进行干扰压制;

(5)显示系统,包括二维显示和三维显示;所述二维显示,用于叠加显示从测量与定位系统采集的待识别目标的实时影像数据与环境数据库中获取的与当前环境相同的影像数据,即叠加显示局部地图;所述三维显示,用于叠加显示待识别目标的实时真实状态和实时周围环境信息,即从测量与定位系统中获取的待识别目标的实时影像数据,以及由三维场景重建系统中生成的三维场景的叠加显示,包括三维场景重建。

本发明与现有技术相比,其显著优点为:

针对无人控制指挥作业的交互要求与指挥所环境断续、遮挡、噪声、模糊、不完备等苛刻条件之间的矛盾,提出利用点云进行目标与场景的三维重建,基于多源数据的目标识别方法,基于深度学习的目标意图感知,可以实现部分遮挡条件下的目标识别,并依据对应规则实现较高准备率的处置决策能力,实现对目标的实时探测监视、目标判定、决策分析与干扰处置,实现对目标的干扰防御。

附图说明

图1是本发明一种基于多传感器的目标态势融合感知方法的实现流程图。

图2是本发明一种基于多传感器的目标态势融合感知方法的目标初步识别与综合处理流程图。

图3是本发明一种基于多传感器的目标态势融合感知方法的多目标航迹融合流程图。

图4是本发明一种基于多融合传感器的目标态势融合感知装置的装置结构图。

图5是本发明一种基于多传感器的目标态势融合感知方法和系统的效果展示图。

具体实施方式

需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。

图1是本发明一种基于多传感器的目标态势融合感知方法的实现流程图,主要包括:监视探测区域,获取识别环境下多目标态势情报数据;检测目标轨迹,进行局部航迹融合与整体航迹配准融合;通过ds证据理论获取目标真实身份,实现敌我目标分群;最后通过分析敌方目标特征,获取威胁度,对应采取压制措施。

图2是本发明一种基于多传感器的目标态势融合感知方法的目标初步识别与综合处理流程图。主要显示了对于海陆空目标,通过敌我识别器、合成孔径雷达、激光雷达对目标进行信息获取,得到目标应答信号、辐射信号、视频、位置信息和运动信息、点云信息等初步识别结果;然后对初步识别结果进行信息融合处理,获取目标敌我属性综合识别结果。

对探测区域进行监视,获取识别环境下多目标态势情报数据,具体包括:获取目标及场景信息,所述目标,包括:位置、目标三维点云、速度、加速度、航向角、方位角、距离;所述场景,包括场景三维点云、深度图像、彩色图像;其步骤包括:

步骤1,由于利用多个传感器对多个目标进行监测,进行时间配准和空间配准,得到时间同步的三维点云数据中的探测区域和视频图像中的探测区域,相同帧时刻对探测区域配准和融合,以丰富所述区域特征,从而实现多目标区分;

步骤2,预设目标类别、特征类别,将获取的目标信息输入卷积神经网络,提取目标特征;

通过在卷积层后连接上采样层、以及在池化层后增加残差结构,弥补原始输入图像经过过各个卷积层得到的新图像的分辨率的损失;

步骤3,将通过步骤2获取的目标特征进行聚类,按照多目标之间进行特征聚类,划分为共有特征和非共有特征,保留满足预设要求的非共有特征;

步骤4,基于视觉特征,重建点云目标及三维场景模型。

进一步的,基于视觉特征,重建点云目标及三维场景模型,其步骤如下:

步骤1,由激光雷达传感器扫描目标及场景,得到三维点云,选择当前帧与前t帧的三维点云,对点云数据进行预处理,得到点云轮廓数据,预分割目标点云;

步骤2,计算点云第t帧相对于第t-1帧的相对位移和角度,以角度的垂直方向作为点云投影方向,获取点云深度信息,构成点云深度信息矩阵;

步骤3,根据视频帧和深度图像,以所述对应的点云深度信息作为参考进行比对,在深度图像中选择候选区域,得到深度图像候选区域集合;

步骤4,在深度图像候选区域集合中,找到每帧与点云信息对应的像素点的三维空间点,获取该空间点的法向量,根据所述法向量确定形状特征;

步骤5,根据在所述深度图像候选区域中找到与视频帧图像最接近的像素点,计算rgb特征向量,得到深度图像候选区域集合对应的rgb特征向量矩阵;

步骤6,根据所述rgb特征向量矩阵与所述形状特征矩以及所述深度图像,重复上述步骤,确定由激光雷达传感器获取的检测目标及场景的特征;

步骤7,以场景的栅格失配度和置信度作为聚类算法的输入,获得表征特征的栅格聚类,将聚类结果作为重聚类初始算法的聚类种子,在设定的k邻域中搜索距离阈值约束后符合要求的聚类种子,则将该聚类种子标记,剩余非聚类种子作为噪声;将聚类种子通过icp算法配准对应到相同视角和时间帧的激光点云聚类上,以矫正优化后的关联点云进行融合重建;

所述失配度为:ηi=savg(i)-lavg(i),其中,savg(i)表示激光点云聚类,lavg(i)表示由步骤7得到的聚类种子,ηi表示第i个栅格的失配度;η表示失配度,n*m表示栅格总个数;

所述置信度为:表示i个栅格的失配度的置信度情况,k表示第k层,共有个栅格组合。

进一步的,对获取的目标特征进行聚类,包括:在视频帧图像中,针对若干时刻的视频帧,检测出同一目标的共有特征和非共有特征,保留共有特征,对于非共有特征部分,按照非共有特征在所述特征区域的权重大小,判断重要性,预设权重阈值,若权重大于预设权重阈值,则保留非共有特征,公式如下:

其中,n表示目标类,i表示1~n之间的第i目标类;m表示特征类,j表示1~m之间的第j特征集合;ij表示i目标的j特征集合,表示在第i目标的j特征集合中1~kb的特征,rijk表示在第i目标的j特征集合中1~k的特征;w(a)表示a目标在所属目标类、特征类、特征集合中的权重;

其中,fijkmax(a)表示特征a在1~k个特征中的占比最大值,即在第i目标类、第j特征集合中查找由1~k中的最大值;fijkmin(a)表示特征a在1~k个特征中的占比最小值;

预设权重值:

当满足w(a)大于w0(a)时,保留非共有特征a;则经过配准与融合后的目标特征包含共有特征和满足条件的非共有特征。

所述通过ds证据理论获取目标身份,实现目标敌我分群,其步骤如下:

步骤1,建立目标身份预测的样本空间矩阵,d={l,m,h},l表示敌方、m表示我方、h表示不明身份;

步骤2,将敌我识别软件、激光雷达和合成孔径雷达输出的初步识别结果作为证据,包括:目标基本信息、电磁辐射源、辐射频率、辐射强度、气象水文、地理环境、装备性能;输出各自识别权重转换成概率得到证据m1、m2、m3,...,表示为mi,基本概率赋值表示为mi(ai);

步骤3,运用ds证据理论对m1、m2、m3进行合成,将满足合成决策规则的类作为最终结果输出,将目标身份预测作为基本命题a,计算基本概率;

其中,(1-∑bel)表示可分配基本概率赋值;α表示置信度函数bel与似然函数pl对基本概率赋值分配的影响程度:

δmxyz(n)表示多个证据之间关于第n个特征指标的差,表示三级最小差,表示三级最大差,s(mi)表示证据支持度;

其中,证据支持度:

证据支持度反映该证据被其他证据的支持程度,s(mi)值越大,表明证据之间的距离越小,该证据的支持度就越大,d(mi)是证据之间距离;

其中,smax(mi)表示证据的最大支持度,smin(mi)表示证据的最小支持度;

计算基本概率赋值:

mi(ai)=s(mi)‘′*p(mi)(6)

合成:

最终输出合成概率结果,判断该目标的身份。

图3是本发明一种基于多传感器的目标态势融合感知方法的多目标航迹融合流程图。主要显示了基于时空配准的前提下,进行目标关联,对相同/同一目标检测航迹,获得局部航迹和整体航迹,判断是否存在整体航迹,若存在,则进行局部航迹与整体航迹的配准融合,否则根据局部航迹1建立融合航迹,其中局部航迹1,局部航迹2,...局部航迹n构成整体航迹;

若当前时刻未检测到整体航迹,则根据局部航迹建立融合航迹;否则通过局部航迹与整体航迹进行匹配融合,形成融合轨迹;然后将航迹进行下一时刻帧的预测,包括各个目标的位置坐标和速度。

所述检测目标航迹,进行局部航迹与整体航迹配准融合,具体包括:对于不能将目标视为质点的情况下,通过三段法解决姿态约束的航迹规划,以目标质心跟踪模式、前端顶点跟踪模式和尾部顶点跟踪模式的运动航迹也不相同,如无人机在收翼和展翼状态;检测航迹步骤在于:

步骤1,栅格化场景的二维电子地图,划分为n*m区域块,则目标位置为(x,y,φ);分别为位置坐标和平面上的航向角;

步骤2,构建局部航迹检测包围盒,在航迹两侧,以目标最窄宽度的1/2对路径中心线构建弯曲的带状包围盒;

步骤3,将目标起点和终点处的轮廓描述为凸多边形,将路径中间段描述为圆形,利用三段法检测路径片段,通过连续帧形成的目标整体航迹。

进一步的,所述进行局部航迹与整体航迹配准融合,具体包括:

由于数据采集设备中各雷达上报数据的时间频率不相同,对于不能将目标视为质点的情况下,考虑到位置变换,还会出现姿态变换,目标在不同时刻帧的局部航迹和连续时间段的整体航迹不一定相同,因此需要进行局部航迹和整体航迹的配准,判断目标位姿,公式如下:

mp=f*ms+t(f*msv+t*msa/2)(4)

其中,t是航迹预测时间,即局部航迹的时间和整体航迹的时间的差值,mp表示目标在各个时间帧的位置,表示融合航迹中各个局部航迹的速度,表示融合航迹中各个局部航迹的加速度。

所述分析敌方目标行为态势,获取敌方目标威胁度,具体包括:通过构建卷积神经网络识别目标意图,利用激光雷达传感器和合成孔径雷达获取行为特征:目标运动速度、高度、航向角、方位角、距离、加速度等为数值参数;对数值进行归一化;

然后根据实际识别结果与专家系统进行判断标记意图标签,利用获取的目标特征与意图标签构建数据库,选择数据分别作为测试、训练和验证;

调整深度神经网络结构,确定隐藏层和节点数;将训练数据输入卷积神经网络,调整网络权值,将输出意图与标签对比,计算识别精度,当识别精度满足预设要求,则进行下一步,否则继续训练;将测试数据库中的目标特征输入到训练好的深度神经网络中,计算识别精度;将待识别作战意图的目标特征数据输入模型,输出意图。

进一步的,所述获取敌方目标威胁度,具体包括:判断敌方实力,预测敌方意图、进行威胁度评估,包括:对敌方目标类型、空间位置以及装备能力评估敌方目标实力;根据敌方目标的历史行动规律以及航迹,预测敌方的意图;通过对敌方目标的行动预测、我方重点区域备战状态以及环境态势分析,识别潜在威胁程度;通过威胁程度,执行决策指令,对敌方目标实时干扰压制;

其中,威胁度计算公式如下:

w=(ωb*wb+ωt*wt+ωp*wp)*km*kt(8)

其中,w表示威胁度;当目标为敌方时,km=1;当目标身份不明时,km=0.5;kt表示目标行动预测的情况;ωb表示目标靠近重要区域的权重值,wb表示靠近受保护区域的威胁度等级;ωt表示敌方装备能力权重值,wt表示敌方装备能力对应的威胁度等级;ωp表示目标类型的权重值,wp表示拦截目标的紧急程度。

图4是本发明一种基于多融合传感器的目标态势融合感知装置的装置结构图,其特征在于,主要包括:

(1)测量与定位系统,包括敌我识别器、激光雷达传感器、合成孔径雷达;对探测区域内的目标进行监视,获取当前场景中的目标彩色图像,深度图像,点云数据,位置信息以及状态信息,构建三维场景模型,同时获取情报信息,包括雷达海陆空情报、敌我识别设备侦察海陆空情报、电磁情报、战场环境;

(2)信息融合系统,用于接收来自于测量与定位系统中的目标信息及状态信息;包括:信息预处理,即进行时空配准;采集信息,进行目标及场景重建;航迹融合,即局部航迹融合、整体航迹融合;传感器测量数据的融合进行目标分类识别。

(3)态势感知与威胁评估系统,用于处理测量与定位系统中传感器搜集到的相关信息,并依据信息融合系统处理的结果,获得目标的态势信息,并计算得到目标的威胁等级,生成决策命令;

(4)决策系统,用于相应决策指令,对目标实时进行干扰压制;

(5)显示系统,包括二维显示和三维显示;所述二维显示,用于叠加显示从测量与定位系统采集的待识别目标的实时影像数据与环境数据库中获取的与当前环境相同的影像数据,即叠加显示局部地图;所述三维显示,用于叠加显示待识别目标的实时真实状态和实时周围环境信息,即从测量与定位系统中获取的待识别目标的实时影像数据,以及由三维场景重建系统中生成的三维场景的叠加显示,包括三维场景重建。

图5是本发明一种基于多融合传感器的目标态势融合感知方法和装置的效果展示图,主要展示了使用本发明技术方案得到的多个目标的威胁度预测情况,图中显示的在当前时刻,落入受保护区域范围的敌机312、400以及401的威胁度预测值较大,“敌我属性”属于目标属性的“目标特征信息”、“达到方位”属于“位置信息”以及属于当前帧的“轨迹信息”,敌机310和311在当前时刻威胁度值小于312、400以及401。

对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1