一种基于证据森林的信息不确定条件目标意图识别方法

文档序号:26052163发布日期:2021-07-27 15:28阅读:76来源:国知局
一种基于证据森林的信息不确定条件目标意图识别方法

本发明属于目标意图识别技术领域,具体涉及一种基于证据森林的信息不确定条件目标意图识别方法。



背景技术:

目标意图是指目标希望达到某种目的的基本设想和预设行为,这里的预设行为是指目标计划或预定要达到的结果。战场目标战术意图识别就是在作战的特殊环境下,结合各种信息源得到的目标信息,然后对战场态势和敌方战术意图进行有效分析的过程。目标意图识别过程中,信息源得到的信息很大程度上都具有不确定性,因此如何处理这种不确定性信息是当前面临的一个问题。

在现有的机器学习算法中,决策树方法是最常用的方法之一。决策树的特点是,它可以将复杂的决策问题分解为几个简单的问题。虽然决策树很流行和有效,但它们不适合处理具有不确定性信息的问题。不确定性可能会影响分类结果,甚至会做出错误的决策。信度函数理论为处理决策树技术中的不确定性提供了一个方便的框架。信度决策树结合了决策树技术和信念函数理论的优势来解决认知不确定性的分类问题。

随机森林是使用装袋算法和随机子空间技术的决策树的组合。传统的随机森林算法使用投票或平均的方法来获得每个决策树的结果的最终类结果。当面对不确定的分类问题时,精度有限。为了更好地处理不确定性问题,提出了一种可以处理具有不确定性信息的证据森林算法,并且用于不确定性目标意图识别。



技术实现要素:

本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于证据森林的信息不确定条件目标意图识别方法。通过建立证据森林模型,将具有不确定性信息的待测数据输入到证据森林模型中,得到目标的意图识别结果,很好的解决了具有不确定性信息的目标意图识别问题,充分提高意图识别的准确性。

为解决上述技术问题,本发明采用的技术方案是:一种基于证据森林的信息不确定条件目标意图识别方法,其特征在于,包括以下步骤:

步骤一、数据预处理:

步骤101:输入n个目标训练样本,包括属性特征向量x=[x1,x2,…,xv],其中v为属性个数,xi,i=1,2,…,v表示每个属性特征的测量值,对应每个样本的意图y,y的辨识框架为θy={y1,y2,…,yw},w表示辨识框架中意图的个数;

步骤102:对每个属性特征建立高斯模糊数f[c:(μ,δ)],μ和δ表示高斯模糊数c的均值和方差,辨识框架k表示每个属性辨识框架中的类别个数,计算每个属性特征测量值xi的高斯模糊隶属度值f(xi),根据公式计算单子集m'(fj)和双子集m'(fj,fj+1),归一化得到属性的基本概率分布最终将n个样本属性测量值(x1,x2,…,xv)n转化为基本概率分布的形式

步骤103:根据公式转化为概率分布转化n个样本的全部属性特征得到

步骤104:将意图取值为yp的样本的不同属性中包含的p(fj)进行乘积组合辨识框架元素组合为组合后的意图可以表示为将所有样本组合后,属性辨识框架元素组合相同的样本的进行相加和合并得到归一化得到

步骤105:根据公式构造意图标签的多子集信度,z表示(y1,y2,…,yw1)中的意图个数,上述生成的多子集与单子集[p'(y1),p'(y2),…,p'(yw)]组成[p'(y1),p'(y2),…,p'(y1,y2,…,yw)],归一化得到意图的基本概率分布my=[m(y1),m(y2),…,m(y1,y2,…,yw)];

步骤106:属性特征辨识框架元素组合和意图的概率分布my=[m(y1),m(y2),…,m(y1,y2,…,yw)]构成n1个训练模型的数据,n1<n;

步骤二、构建信度决策树:

步骤201:根据公式计算每条训练样本的意图的概率分布,这里|y|表示y中包含的元素个数;

步骤202:根据公式计算所有训练样本的意图的平均信度,再根据公式计算意图平均信度的信息熵;

步骤203:根据公式计算属性特征的信息熵,其中表示属性xi在fj下的样本个数;

步骤204:计算属性xi取值到模糊类别fj下每条样本的意图基本概率分布[m(y1),m(y2),…,m(y1,y2,…,yw)]对[m(y1)=1],[m(y2)=1],…,[m(yw)=1]的证据距离(d1,d2,…,dw),所述的证据距离计算公式为表示两个基本概率分布m1和m2构成的向量,为2n×2n的矩阵,的行标对应m1,列标对应m2,中每个元素为a和b分别为m1和m2中的焦元,计算相似度[(1-d1),(1-d2),…,(1-dw)],计算属性xi取值到模糊类别fj下所有样本相似度的均值和方差[(μ1,δ1),(μ2,δ2),…,(μw,δw)];

步骤205:根据公式计算方差加权后的均值,归一化得到(u1,u2,…,uw),根据公式计算属性xi对意图的信息熵;

步骤206:根据公式计算第i个属性的信息增益比,计算所有v个属性的信息增益比,选择信息增益比最大的属性作为信度决策树的分裂属性;

步骤207:每次选择完一个分裂属性,重复步骤201-206,直到满足该节点只剩下一个训练样本或者多个同类别的样本,该节点作为叶子节点将存放这些样本的意图的基本概率分布;

步骤三、构建基于信度决策树的证据森林:

步骤301:采用重复采样技术,训练证据森林的每棵树都为不同的训练样本,避免过拟合;

步骤302:对于步骤301得到的训练样本,从个数为v的属性中,随机无放回的选择m1个属性,作为训练信度决策树的训练样本;

步骤303:设定证据森林中信度决策树的个数n,根据步骤二建立多棵信度决策树构成证据森林;

步骤304:计算证据森林中每棵树的权重,每棵信度决策树可以得到训练样本的识别结果ms(l)=[ms′(y1),ms′(y2),…,ms′(y1,y2,…,yw)]l,l=1,2,…,n,计算每棵树的识别结果ms(l)和样本真实意图[m(y1),m(y2),…,m(y1,y2,…,yw)]的证据距离(d1,d2,…,dn),计算相似度[(1-d1),(1-d2),…,(1-dn)],计算每棵树对所有样本的平均相似度

步骤305:根据公式归一化平均相似度,根据公式计算可能性测度,根据公式计算相必要性测度,a1∈[1,2,…,(1,2),(1,3),…,(1,2,…,n)]表示信度决策树的集合;

步骤306:求解每棵信度决策数的权重wl,根据步骤305得出的可能性测度和必要性测度,得出权重约束条件q(a2)≤[w(o1)+w(o2)+…+w(on)]≤p(a2),w(o1)+w(o2)+…+w(on)=1,其中a2=[(o1),(o2),…,(on)],融合所有树的识别结果根据步骤201中的公式计算ms中意图的概率分布betp[ms(j)],根据公式计算ms的信息熵,求解满足约束条件下使得info(ms)最小的最优权重(w1,w2,…wn)min[info(ms)]作为每棵树的权重;

步骤四、使用构建的证据森林进行意图识别:

步骤401:将待测的原始样本经过步骤102处理,得到处理后的样本其中每个属性为基本概率分布;

步骤402:将属性的辨识框架拓展为将待测样本通过辨识框架拓展为个联合焦元分布联合焦元的基本概率分布值每个联合焦元在生成的信度决策树下遍历得到对应叶子节点的意图的概率分布my=[m(y1),m(y2),…,m(y1,y2,…,yw)],令|my|表示该叶子节点下意图概率分布的个数;

步骤403:根据公式bel[mt](yp)=∑bel[mχy](yp)*m(χ),χ∈θf,计算待测样本mt关于意图yp的置信函数值,即每个联合焦元在信度决策树所对应的叶子节点中mχy对意图yp的置信函数值bel[mχy](yp)与每个联合焦元的基本概率分布值m(χ)的乘积再多个联合焦元求和,得到待测样本mt对意图yp的置信函数值,若一个联合焦元在信度决策树中对应多个叶子节点,多个叶子节点对yp的置信函数值bel[mχy](yp)=bel{m[χ1]y}(yp)∨bel{m[χ2]y}(yp),其中∨表示公式所述的置信函数计算公式为bel(a4)=∑m(b2),

步骤404:根据步骤403得到待测样本mt关于意图的置信函数bel[mt](yp),yp∈[y1,y2,…,(y1,y2),…,(y1,y2,…,yw)],根据公式将置信函数转化为基本概率分布t(y)l=[m(y1),m(y2),…,m(y1,y2,…,yw)],l=1,2,…,n,根据公式将每棵树的识别结果进行融合;

步骤405:根据公式将融合结果进行n-1次自组合,其中表示证据组合公式其中

本发明与现有技术相比具有以下优点:

1、本发明可以解决具有不确定性信息的目标意图识别问题。

2、本发明提出的基于证据相似度计算不确定信息的信息熵,可以解决具有不确定信息的信息熵的计算方法。

3、本发明提出了基于可能性理论的信度决策树权重的计算方法,更加合理计算每棵树的权重。

综上所述,本发明通过建立证据森林模型,将具有不确定性信息的待测数据输入到证据森林模型中,得到目标的意图识别结果,很好的解决了具有不确定性信息的目标意图识别问题,充分提高意图识别的准确性。

下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。

附图说明

图1为本发明的流程框图

图2为速度属性的高斯模糊数图

图3为证据森林中信度决策树的示意图

表1为一条训练数据的所有属性转化后的概率分布数据

表2为不同属性模糊类别组合后的数据

表3为属性模糊类别组合相同的所有样本相加合并后的意图。

具体实施方式

下面结合实施例对本发明的方法作进一步详细的说明。

如图1所示,本发明包括以下步骤:

步骤一、数据预处理:

步骤101:输入n个目标训练样本,包括属性特征向量x=[x1,x2,…,xv],其中v为属性个数,xi,i=1,2,…,v表示每个属性特征的测量值,对应每个样本的意图y,y的辨识框架为θy={y1,y2,…,yw},w表示辨识框架中意图的个数;

实际使用时,目标的属性特征包括{速度x1,距离x2,高度x3,航向角x4},意图的类别包括{攻击y1,侦察y2,巡航y3,撤退y4,其他y5};

步步骤102:对每个属性特征建立高斯模糊数f[c:(μ,δ)],μ和δ表示高斯模糊数c的均值和方差,辨识框架k表示每个属性辨识框架中的类别个数,计算每个属性特征测量值xi的高斯模糊隶属度值f(xi),根据公式计算单子集m′(fj)和双子集m′(fj,fj+1),归一化得到属性的基本概率分布最终将n个样本属性测量值(x1,x2,…,xv)n转化为基本概率分布的形式

实际使用时,对每个属性建立三个高斯模糊数以速度为例,建立高斯隶属度函数如图2所示,每个高斯模糊数可代表一个模糊语义,f1曲线表示速度慢,f2表示速度中,f3表示速度快。设目标的速度为280km/h,根据上述公式计算,可以用得到速度的基本概率分布为其他属性同理;

步骤103:根据公式转化为概率分布转化n个样本的全部属性特征得到

以步骤102的速度转化后的基本概率分布为例,根据公式计算可以得到速度的概率分布{p(f1)=0,p(f2)=0.069,p(f3)=0.931};

步骤104:将意图取值为yp的样本的不同属性中包含的p(fj)进行乘积组合辨识框架元素组合为组合后的意图可以表示为将所有样本组合后,属性辨识框架元素组合相同的样本的进行相加和合并得到归一化得到

表1表示一条训练数据的所有属性转化后的概率分布数据,根据上述公式,得到组合后的数据如表2所示;

步骤105:根据公式构造意图标签的多子集信度,z表示(y1,y2,…,yw1)中的意图个数,上述生成的多子集与单子集[p′(y1),p′(y2),…,p′(yw)]组成[p′(y1),p′(y2),…,p′(y1,y2,…,yw)],归一化得到意图的基本概率分布my=[m(y1),m(y2),…,m(y1,y2,…,yw)];

对所有样本相加合并,根据上述公式,得到数据如表3所示;

步骤106:属性特征辨识框架元素组合和意图的概率分布my=[m(y1),m(y2),…,m(y1,y2,…,yw)]构成n1个训练模型的数据,n1<n;

步骤二、构建信度决策树:

步骤201:根据公式计算每条训练样本的意图的概率分布,这里|y|表示y中包含的元素个数;

步骤202:根据公式计算所有训练样本的意图的平均信度,再根据公式计算意图平均信度的信息熵;

步骤203:根据公式计算属性特征的信息熵,其中表示属性xi在fj下的样本个数;

步骤204:计算属性xi取值到模糊类别fj下每条样本的意图基本概率分布[m(y1),m(y2),…,m(y1,y2,…,yw)]对[m(y1)=1],[m(y2)=1],…,[m(yw)=1]的证据距离(d1,d2,…,dw),所述的证据距离计算公式为表示两个基本概率分布m1和m2构成的向量,为2n×2n的矩阵,的行标对应m1,列标对应m2,中每个元素为a和b分别为m1和m2中的焦元,计算相似度[(1-d1),(1-d2),…,(1-dw)],计算属性xi取值到模糊类别fj下所有样本相似度的均值和方差[(μ1,δ1),(μ2,δ2),…,(μw,δw)];

步骤205:根据公式计算方差加权后的均值,归一化得到(u1,u2,…,uw),根据公式计算属性xi对意图的信息熵;

步骤206:根据公式计算第i个属性的信息增益比,计算所有v个属性的信息增益比,选择信息增益比最大的属性作为信度决策树的分裂属性;

步骤207:每次选择完一个分裂属性,重复步骤201-206,直到满足该节点只剩下一个训练样本或者多个同类别的样本,该节点作为叶子节点将存放这些样本的意图的基本概率分布;

实际使用时,生成的信度决策树如图2所示,其中m{ii},i=1,2,…,n表示存放在叶子节点中的样本的意图的基本概率分布;

步骤三、构建基于信度决策树的证据森林:

步骤301:采用重复采样技术,训练证据森林的每棵树都为不同的训练样本,避免过拟合;

步骤302:对于步骤301得到的训练样本,从个数为v的属性中,随机无放回的选择m1个属性,作为训练信度决策树的训练样本;

步骤303:设定证据森林中信度决策树的个数n,根据步骤二建立多棵信度决策树构成证据森林;

步骤304:计算证据森林中每棵树的权重,每棵信度决策树可以得到训练样本的识别结果ms(l)=[ms′(y1),ms′(y2),…,ms′(y1,y2,…,yw)]l,l=1,2,…,n,计算每棵树的识别结果ms(l)和样本真实意图[m(y1),m(y2),…,m(y1,y2,…,yw)]的证据距离(d1,d2,…,dn),计算相似度[(1-d1),(1-d2),…,(1-dn)],计算每棵树对所有样本的平均相似度

步骤305:根据公式归一化平均相似度,根据公式计算可能性测度,根据公式计算相必要性测度,a1∈[1,2,…,(1,2),(1,3),…,(1,2,…,n)]表示信度决策树的集合;

步骤306:求解每棵信度决策数的权重wl,根据步骤305得出的可能性测度和必要性测度,得出权重约束条件q(a2)≤[w(o1)+w(o2)+…+w(on)]≤p(a2),w(o1)+w(o2)+…+w(on)=1,其中a2=[(o1),(o2),…,(on)],融合所有树的识别结果根据步骤201中的公式计算ms中意图的概率分布betp[ms(j)],根据公式计算ms的信息熵,求解满足约束条件下使得info(ms)最小的最优权重(w1,w2,…,wn)min[info(ms)]作为每棵树的权重;

实际使用时,假设n=3,归一后的相似度为{s(1)=1,s(2)=0.3,s(3)=0.6},a=[(1,3)],根据上述公式可以计算出p(a)=1,g(a)=0.7,得出一个约束条件0.7≤w(1)+w(3)≤1,同理计算所有约束条件,根据优化目标求解最优解;

步骤四、使用构建的证据森林进行意图识别:

步骤401:将待测的原始样本经过步骤102处理,得到处理后的样本其中每个属性为基本概率分布;

步骤402:将属性的辨识框架拓展为将待测样本通过辨识框架拓展为个联合焦元分布联合焦元的基本概率分布值每个联合焦元在生成的信度决策树下遍历得到对应叶子节点的意图的概率分布my=[m(y1),m(y2),…,m(y1,y2,…,yw)],令|my|表示该叶子节点下意图概率分布的个数;

步骤403:根据公式bel[mt](yp)=∑bel[mχy](yp)*m(χ),χ∈θf,计算待测样本mt关于意图yp的置信函数值,即每个联合焦元在信度决策树所对应的叶子节点中mχy对意图yp的置信函数值bel[mχy](yp)与每个联合焦元的基本概率分布值m(χ)的乘积再多个联合焦元求和,得到待测样本mt对意图yp的置信函数值,若一个联合焦元在信度决策树中对应多个叶子节点,多个叶子节点对yp的置信函数值bel[mχy](yp)=bel{m[x1]y}(yp)∨bel{m[χ2]y}(yp),其中∨表示公式所述的置信函数计算公式为bel(a4)=∑m(b2),

步骤404:根据步骤403得到待测样本mt关于意图的置信函数bel[mt](yp),yp∈[y1,y2,…,(y1,y2),…,(y1,y2,…,yw)],根据公式将置信函数转化为基本概率分布t(y)l=[m(y1),m(y2),…,m(y1,y2,…,yw)],l=1,2,…,n,根据公式将每棵树的识别结果进行融合;

步骤405:根据公式将融合结果进行n-1次自组合,其中表示证据组合公式其中

例如样本拓展为联合焦元样本为两条其中m(χ1)=0.2,m(χ2)=0.8,在图2的决策树下,两条联合焦元分布对应的叶子节点的样本为i7和i4、i5。i7={m(y1)=0,m(y2)=0.4,m(y3)=0.6,m(y4)=0,m(y5)=0}i4={m(y1)=0,m(y2)=0,m(y3)=0.3,m(y4)=0.7,m(y5)=0,}i5={m(y1)=0,m(y2)=0,m(y3)=0,m(y4)=0.7,m(y5)=0.3,},因为χ2对应的叶子节点中包含两个基本概率分布,因此求平均基本概率分布根据公式计算bel[mt](y1)=0.2*0+0.8*0=0,同理计算bel[mt](y2),bel[mt](y3),bel[mt](y4),bel[mt](y5),然后转化为意图的基本概率分布,最终可以根据公式计算出证据森林的识别结果。

以上所述,仅是本发明的实施例,并非对本发明作任何限制,凡是根据本发明技术实质对以上实施例所作的任何简单修改、变更以及等效结构变化,均仍属于本发明技术方案的保护范围内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1