一种移动物体分类的方法

文档序号:9911583阅读:293来源:国知局
一种移动物体分类的方法
【技术领域】
[0001] 本发明涉及一种物体分类方法,尤其涉及一种移动物体分类的方法。
【背景技术】
[0002] 在配备了固定角度摄像头的道路监控系统中,需要准确的对车辆进行分类,以便 于对道路进行监控与维护,并确定车辆的类别,以便于对车辆进行识别和技术;但是传统的 分类方法的分类精度较低,且对发生了视觉碰撞的车辆块分割效率较低,并在在进行特征 分类时,对部分无效特征也进行了分类,效率较低,且降低了分类准确率。

【发明内容】

[0003] 本发明的目的就在于为了解决上述问题而提供一种移动物体分类的方法。
[0004] 本发明通过以下技术方案来实现上述目的:
[0005] -种移动物体分类的方法,通过交通监控系统提取多组车辆图像,再通过稀疏编 码算法学习得到其中一组车辆图像的特征,再提出特征选择算法对图像特征进行二次选 择,根据选择的特征对交通管理系统中提取出的车辆图像做特征提取与筛选,最后将车辆 特征作为分类器的输入特征对车辆进行分类。
[0006] 具体地,车辆图像提取包括以下工作步骤:
[0007] A1、通过均值法背景建模从固定角度摄像头拍摄的视频帧中求取背景模型;
[0008] A2、根据已得到的背景模型和视频的当前帧,通过背景差法得到近似前景;
[0009] A3、判断近似前景中是否发生有视觉碰撞,若无视觉碰撞,则得到前景车辆,若有 视觉碰撞,则对其进行碰撞分析,对发生碰撞的车辆块进行单独分割;
[0010] A4、对提取出的前景中的各个车辆均建立2D模型,并通过2D模型对交通参数进行 分析并获取。
[0011] 具体地,通过近似前景中的闭包与凸包的面积比值判断是否发生视觉碰撞,并对 其进行碰撞分析,其分析步骤如下:
[0012] B1、对前景准确提取,在灰度空间通过双阈值法获取Ti图像,在YCbCr空间通过亮 度分量Y计算获取!^图像,在蓝色色度分量Cb和红色色度分量Cr下获取T 3图像,最后通过Ti、 T2、T3的逻辑或运算得到最终前景T;
[0013] Β2、计算闭包与凸包之间的中间间隙区域,对每个间隙建立间隙的特征描述,获取 车辆之间的真实间隙;
[0014] Β3、通过真实间隙顶点间的线段作为分割线,对发生视觉碰撞的车辆块进行分割。
[0015] 具体地,^士^以的计算公式如下:
[0016]

[0017]式中:gf为当前帧灰度图像,gb为灰度背景,t〇、ti为选取的两个阀值;
[0018]
(2)
[0019] 式中:Vf和vb衷示与前帧图像和背景的亮度分量,t2表示选取阀值大小;
[0020]
〇)
[0021] 式中:Cbf和Cbb表示当前帧图像和背景的Cb分量,Crf和Crb表示图像和背景的Cr 分量;
[0022] T = TiUT2UT3 (4)
[0023] 具体地,所述真实间隙的获取包括以下步骤:
[0024] C1、定义每个间隙中的闭包上距离凸包最远的点为定点A,凸包与闭包的交点分别 为B、C;
[0025] C2、根据定义的三个角点A、B、C对每个间隙定义特征向量v和面积s,计算公式如 下:
[0029] C3、根据优化方程式,求解最优分割顶点,获取真实间隙,并以其顶点连线作为分 割线,
[0026]
[0027] (5)
[0028]
[0030]
(6)
[0031]式中:Η为所有间隙的集合;
[0032] 具体地,稀疏编码算法的优化方程式如下:
[0033]
(7)
[0034]式中:Υ为输入数据图像,YERn
[0035] Z为超完备的基向量稀疏表示,ZeRm
[0036] B 基向量矩阵,BERn*,m>n
[0037] 通过优化方程式获取Y在B下的稀疏表示Z,从子图像中学习得到图像特征。优选 地,所述分类器为卷积神经网络,并在输入分类器前对其进行特征筛选,剔除部分无效特 征,其步骤如下:
[0038] D1、对每个特征6提取到的图像表达做分类测试,得到每个特征对训练数据集图 像的分类结果ACXfO,建立优化方程计算选取的K个特征:
[0039]
(8)
[0040] 式中:F表示稀疏编码学习到的N个特征,其中K表示选取的特征个数,当yi = 1表示 选取特征fi提取特征;
[0041] D2、用学习到的N个特征分别对图像提取特征分类,并按照特征f的分类结果重新 排列f的顺序,
[0042]
(9)
[0043] D3、通过K个特征数据对N个特征数据进行定位,剔除N个特征中的部分无效特征。
[0044] 本发明的有益效果在于:
[0045] 本发明一种移动物体分类的方法对交通视频监控系统中的视觉碰撞问题和车辆 分类问题分别给出了高效的解决方案:
[0046] 对于视觉碰撞问题,通过定义车辆之间间隙的特征向量和面积,将视觉碰撞问题 转化为简单的最优化问题予以解决,在实际视频中测试发现算法不仅可以对每个车辆进行 单独分割,而且也满足实时处理的要求;
[0047] 对于车辆分类问题,通过稀疏编码算法先学习得到图像的特征,为了选择更好的 图像特征表达,文中提出了特征选择的概念,对特征进行二次选取,使得计算速度提高了数 倍,且很大程度上降低了过拟合的可能,对于小数据的分类更有优势,且能提高一定的监控 准确率。
【具体实施方式】
[0048]下面对本发明作进一步说明:
[0049] 本发明一种移动物体分类的方法,通过交通监控系统提取多组车辆图像,再通过 稀疏编码算法学习得到其中一组车辆图像的特征,再提出特征选择算法对图像特征进行二 次选择,根据选择的特征对交通管理系统中提取出的车辆图像做特征提取与筛选,最后将 车辆特征作为分类器的输入特征对车辆进行分类。
[0050] 具体地,车辆图像提取包括以下工作步骤:
[0051 ] Background estimation从视频帧中估计背景模型,由于交通监控视频中背景相 对单一,我们选择高效的均值法背景建模来求取背景图像。
[0052] Extract foreground根据已经得到的背景和视频当前帧得到前景,本方法通过背 景差法可以近似得到前景,得到了单辆车或者发生视觉碰撞的多辆车组成的车辆块。
[0053] Occlusion detect ion是检测是否发展视觉碰撞,如果没有发生视觉碰撞,则前景 车辆已经被提取出来;当发生视觉碰撞时,需要将发生视觉碰撞的车辆单独分割出来, [0054] Vehicle model对提取的前景对每个车辆建立2D模型来表示车辆。
[0055] Traffic parameters是经过对视频中所有单一车辆分析得到有价值的交通参数, 比如交通流量、交通拥挤度、车辆速度等交通信息。
[0056]通过近似前景中的闭包与凸包的面积比值判断是否发生视觉碰撞,并对其进行碰 撞分析,其分析步骤如下:
[0057] 对前景准确提取,在灰度空间通过双阈值法获取T1图像,在YCbCr空间通过亮度分 量Y计算获取T2图像,在蓝色色度分量Cb和红色色度分量Cr下获取T3图像,最后通过T1、T2、 Τ3的逻辑或运算得到最终前景Τ;
[0058] 阴影区域的亮度相对背景亮度有了很大变化,双阀值法可以很好地去掉阴影的影 响,计算Τ1
[0059]
----------- ⑴
[0000]式中:gf为当前帧灰度图像,gb为灰度背景,t0、tl为选取的两个阀值;
[0061] YCbCr颜色模型经常被用于分离图像的亮度和色度部分,T2是从图像的亮度分量 来计算得到,计算T2:
[0062] (2)
[0063] 式中:yf和yb表示当前帧图像和背景的亮度分量,t2表示选取阀值大小;
[0064] 根据图像的色度差异可以计算得到T3:
[0065] m
- 3 (3)
[0066] 式中:Cbf和Cbb表示当前帧图像和背景的Cb分量,Crf和Crb表示图像和背景的Cr 分量;
[0067] 根据得到的T1、T2、T3的逻辑或运算得到最终前景T:
[0068] T = TiUT2UT3 (4)
[0069] 真实间隙的获取包括以下步骤:
[0070] 定义每个间隙中在闭包上距离凸包最远的点为顶点A,凸包与闭
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1