一种监控视频中的人数统计方法与流程

文档序号:11432698阅读:2300来源:国知局

本发明属于智能视频监控领域。具体是基于计算机视觉的实时人数统计系统。



背景技术:

近年来,随着人们对安防重视程度的提升以及现代安防技术的发展,视频监控系统以及越来越广泛的应用在社会生活的各个方面,从银行、展览馆的安保,到广场、校园的监控,从工作环境到家庭环境,视频监控系统在社会公共安全、惩击犯罪等方面,有着无法替代的作用,保卫着社会的繁荣稳定,促进着和谐社会的发展与建设。

然而,传统的视频监控系统存在其自身的局限性。首先,它的功能比较简单,只有简单的监控视频存储和回放功能,主要作用就是事后取证分析,而对被监控场景的实时分析能力比较欠缺,不具备对所发生的异常事件提供实时预警的功能。其次,要想实现实时监控的目的,安装了监控摄像头的单位或部门,其监控室需要安防人员全天候无间断的实施监控,对人力物力资源都是很大的浪费。与此同时,安防人员在长时间连续工作的情况下,很容易产生疲劳,于是漏判、误判等情况发生的概率将会大大增加。由此可见,如果只是简单的依靠传统人力来进行监控,是无法适应现在的发展趋势的。

随着研究的深入,计算机视觉、图像模式识别等技术在近几年有了较大的发展,各种新型的算法为解决实际工程中的问题提供了理论保障。伴随着我国居民安全理念的加强,相应的摄像监控系统逐渐遍布生活中的各个角落,这一条件为本发明提出的基于监控视频的人数统计系统提供了硬件基础。如果能实现将我们的检测软件融入现有的监控摄像系统,不但可以充分利用现有资源,节约设施成本,更能有效的弥补上述人力监控系统的不足,具有广阔的应用前景。



技术实现要素:

本发明的目的在于提出一种基于现有的监控平台,有效进行实时人数统计的方法,技术方案如下:

一种监控视频中的人数统计方法,包括下列步骤:

1)建立行人样本库,对目标监控场景进行前期采样,采集包括行人各种姿态的监控场景,作为训练数据集,也就是行人样本库。

2)输入视频帧,对于每一帧视频图像,使用混合高斯背景建模的方法,结合形态学滤波,获得前景图像;

3)通过计算前景图像中前景像素的数量,得到前景面积s1,并做归一化处理,得到归一化场景面积s2;

4)对每一帧视频图像,以图像前景为模板,提取harris角点信息和surf特征点信息,分别计算每帧图像中这两种特征点的数量n1、n2,并通过单位面积中的有效特征点数量来表征场景中人群之间的遮挡程度,提取人群遮挡因子d1、d2;

5)构建第一个bp网络模型,以归一化场景面积s2、人群遮挡因子d1、d2为输入向量,以场景中的统计人数为输出向量,训练bp网络完成回归模型t1的构建;

6)提取行人样本库的hog特征,采用adaboost级联分类器训练相应的行人检测器t2;

7)将待检测图片序列输入回归模型t1,初步得到人群数量的估计r1;利用行人检测器t2检测出每个视频帧里的行人数目r2;

8)构造第二个bp神经网络t3作为组合分类器,将前两个基分类器的结果r1和r2作为组合分类器t2输入向量的一部分,并结合上述归一化前景面积和遮挡因子的特征,实现分类器融合时权重的自适应计算;

9)组合分类器的输出即为场景中的最终检测人数。

优选地,对选定场景中处于画面纵向不同位置处行人的尺寸及纵向坐标进行采样,然后对这些数据进行线性拟合,求出拟合系数,并得到拟合公式,由拟合公式推导得出任一目标位移至场景中任意其他位置时的尺寸,同一行人在视频图像的任意位置时,归一化前景面积相同,由此将前景面积s1修正为归一化前景面积s2。

附图说明

图1位本发明方法的流程图

具体实施方式

1、建立行人样本库

对目标监控场景进行前期采样,采集包括行人各种姿态的监控场景,作为训练数据集,也就是行人样本库。

2、运动前景提取

方法中运动前景的提取采用混合高斯模型法实现,与一般的多高斯法相比,此方法速度更快,并且可以保持处理质量不变。并且,这种方法还可以在得到运动前景的同时,去除一部分阴影带来的影响。

3、计算原始图像面积

遍历每一帧视频图像,计算所得前景图像中的像素点数量,得到前景面积s1。

4、计算归一化前景面积

由于“透视效应”的影响,行人在摄像机的成像平面上的尺寸随着与摄像机镜头距离的增大而逐渐缩小,因此,需要结合透视效应原理,得到行人在场景各个位置上的投影尺寸。

首先对选定场景中处于画面纵向不同位置处行人的尺寸及纵向坐标进行采样,然后对这些数据进行线性拟合,求出拟合系数,并得到拟合公式。由拟合公式可以推导得出任一目标位移至场景中任意其他位置时的尺寸。原则上,同一行人在视频图像的任意位置时,归一化前景面积相同。由此将上一步中求得的前景面积修正为归一化前景面积s2。

5、提取有效角点信息

本方法提取两个有效角点信息,一个是经典的harris角点,另一个是surf特征点。

对每一个视频帧提取surf特征点的方法如下:

第一步:构造hessian矩阵并生成尺度空间。以矩阵特征值是否是极值为判据,提取出特征点。对图像用不同尺寸的滤波器进行滤波,得到同一图像在不同尺度的一系列响应图,构成一个金字塔;

第二步:对每个特征点计算主方向。统计以特征点为中心,6倍特征点尺度值为半径,张角为60度的扇形区域内所有像素点的合成向量,逐步将扇形区域逆时针旋转,步长通常取0.1弧度,计算各方向扇形的合成向量模长的最大值,其对应角度即为特征点主方向;

第三步:建立描述子。选取以特征点为中心,方向与主方向对齐的正方形,将其分为4*4的子块,对每一子块进行haar小波变换得到4个系数,由此得到64维向量,即描述子。

得到视频帧harris角点数量n1和surf特征点数量n2。

6、计算人群遮挡因子

结合上述步骤中得到的原始前景面积s1和前景区域角点数n1和n2,分别用两者相除得到的商,来提取出遮挡因子d1和d2,即通过单位面积中的有效角点数来表征场景中人群间的遮挡程度。

7、建立回归模型

构建的是三层bp网络模型t1,其中,输入层为场景的归一化前景面积s2和单位人群密度d1、d2组成的特征矢量,输出层为场景的统计人数。测试时,输入待检测图片序列和遮挡因子d,通过回归模型得到场景的初步估计人数r1。

8、基于检测的人数统计

提取行人样本库的hog特征,采用adaboost级联分类器t2训练相应的行人检测器。检测出每个视频帧里的行人数目r2。

9、多分类器融合

采用stacking的策略构造第二个bp神经网络t3作为组合分类器,将前两个基分类器的结果r1和r2作为组合分类器的输入向量的一部分,并结合上述归一化前景面积s2和遮挡系数d1、d2的特征,构造5维输入向量,以场景中的实际人数为输出向量。训练该神经网络,测试时输入一个视频帧,提取上述5维特征向量输入分类器t3,得到场景中的最终统计人数r。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1