融合多源视觉信息的危险物体检测方法与流程

文档序号:13144013阅读:来源:国知局
技术特征:
1.一种融合多源视觉信息的危险物体检测方法,其特征在于:包括以下步骤:1】多源视觉影像采集:1.1】使用多光谱相机实时获得彩色视频影像和近红外视频影像;1.2】利用单序列深度恢复方法获得与彩色视频影像相对应的深度影像;1.3】利用相关性光流方法获得与彩色视频影像相对应的运动影像;1.4】利用线性迭代聚类方法分割运动影像中的每一帧图像,得到超像素网格;1.5】将超像素网格叠加到彩色视频影像、近红外视频影像和深度影像上;2】增量式运动一致性考量:2.1】将运动影像分界为左侧运动视频帧和右侧运动视频帧,分界线为运动影像中轴线;2.2】利用初始F帧分割得到的超像素运动模式,训练正常运动模式基A,包括左侧正常运动模式基Al和右侧正常运动模式基Ar;其中F的取值范围为5-20;2.3】在t时刻,所有通道的图像被分割成N个超像素,计算运动图像中N个超像素所对应的特征yi,其中i=1:N;2.4】构建图正则的最小软阈值均方目标式模型:[X^,U^]minX,UL(X,U),]]>L(X,U)=12||Y-AX-U||F2+λ1||U||1,1+λ22tr(XLXT),]]>其中,U为构建的高斯-拉普拉斯误差项,Y为所有yi组成的矩阵,X为所要求解的稀疏系数,L为拉普拉斯矩阵,λ1为高斯-拉普拉斯噪声稀疏项约束系数,为几何流行正则项约束系数;2.5】得到运动影像的危险置信度值计算结果:d(yi,A)=12||yi-Ax^i-u^i||22+λ1||u^i||1]]>综合左右两侧计算结果:dti=1-exp(-(ϵli-ϵri)/β)]]>其中,ϵli=d(yti,Al),ϵri=d(yti,Ar),]]>β为左右两侧的误差平衡系数;2.6】得到整个运动影像动信息考量下的危险置信度将的值利用最大-最小归一化方法归一化到[0,1]之间;3】多源视觉信息融合:3.1】利用基于图评测的显著性计算方法分别计算彩色视频影像、近红外视频影像和深度影像的显著性结果,得到彩色视频影像危险置信度近红外视频影像危险置信度和深度影像危险置信度3.2】利用显著性贝叶斯模型Pr(O|S(z))=Pr(S(z)|O)Pr(O)Pr(O)Pr(S(z)|O)+(1-Pr(O))Pr(S(z)|B)]]>融合得到运动影像、彩色视频影像、近红外视频影像和深度影像危险置信度图3.2.1】计算先验概率Pr(O):根据超像素特征在图像空间的出现频率得到元素分布图其中OPT为元素分布图索引;则先验概率为3.2.2】计算似然概率Pr(S(z)|O):将得到的二值化,计算原始视觉图像上对应的像素直方图计算背景区域在对应原始视觉图像上的落入中对应数值的像素数则目标及背景的似然概率为Pr(Sti|Ot)=NbOt(Sti(z))NBt,Pr(Sti|Bt)=NbBt(Sti(z))NBt]]>3.3】计算所有视觉信息贝叶斯化后的融合概率:StDanger=ΣiPr(Ot|Sti(z)),]]>其中,Pr(Ot|Sti(z))=Pr(Ot)p(Sti(z)|Ot)Pr(Ot)p(Sti(z)|Ot)+(1-Pr(Ot))Pr(Sti(z)|Bt)=(1-EDtOPT)Pr(Sti(z)|Ot)(1-EDtOPT)Pr(Sti(z)|Ot)+EDtOPTPr(Sti(z)|Bt)]]>4】计算检测率:对每帧影像均重复执行步骤2】-步骤3】,直至整个视频影像被处理完毕;标记视频第t帧中真实的危险物体区域为Gt,检测率为:TPR=TP/PFPR=FP/N其中,TP为检测正确的像素点个数,FP为检测错误的像素点个数,P为Gt中的目标像素点个数,N为Gt中背景像素点个数。2.根据权利要求1所述的融合多源视觉信息的危险物体检测方法,其特征在于:所述λ1取值0.05,所述取值0.005,所述β取值0.4。3.根据权利要求1或2所述的融合多源视觉信息的危险物体检测方法,其特征在于:所述步骤3.2.1】中的元素分布图索引OPT为:OPT=argminM,C,I,D{EDtM‾,EDtC‾,EDtI‾,EDtD‾
当前第2页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1