一种基于稀疏编码和神经网络的行人图片检测方法_2

文档序号:9911596阅读:来源:国知局

[00511最终得到准确的定位窗口。
[0052]其中,所述步骤S901中,标记检测窗口进行并进行转换具体为:
[0053] 假设Β是Η点在层图像中的坐标,Β '是Η点视频帧原图像中的坐标,坐标Α为检测窗 口左上角的坐标,计算公式如下:
[0054] B'=B_pad
[0055] A = B,+ (modelDsPad-modelDs)/2 = B+(modelDsPad-modelDs)/2-pad
[0056] 其中,modelDsPad是检测窗口对行人的扩展,modelDs为行人尺寸,pad是计算特征 时对输入图像的扩展;将检测窗口左上角坐标A除以缩放因子,得到检测窗口左上角在视频 帧原图像中对应的坐标;
[0057]窗口高度和窗口宽度除以缩放因子得到转换后的窗口高度和窗口宽度;
[0058]置信分数不变,其中置信分数为检测窗口对应特征向量距离BP-adaboost决策平 面的距离。
[0059] 本发明的有益效果是:本发明的检测方法在训练样本很大时仍能够具有计算速度 快、精确度高的优势;其中图像预处理时,采用小波滤波器,并使用HSV颜色空间变换方法, 提高了 ACF特征提取速度,而且对传统非极大值抑制方法进行改进,提高了定位窗口的准确 性。
【附图说明】
[0060] 附图1为本发明实施例的检测方法的流程图。
【具体实施方式】
[0061] 本发明实施例提供了一种基于稀疏编码和神经网络的行人图片检测方法,如图1 所示,具体为:
[0062]步骤S101:首先对样本数据集中的正样本和负样本做图像预处理,然后再提取聚 合通道特征;样本数据集为INRIA训练样本集和INRIA训练样本集的对称变换样本集,INRIA 训练样本集是目前使用最多的静态行人数据库,有着较高的清晰度,能够训练出更精确的 分类器,其中,正样本的图像中含有行人,负样本的图像中不含行人;
[0063] 步骤S102:构建BP-AdaBoost强分类器模型,并利用步骤S101得到的聚合通道特征 对BP-AdaBoost强分类器进行训练;
[0064]步骤S103:获取待检测视频帧,并对视频帧进行图像预处理,并根据缩放因子进行 不同尺度的缩放得到图片金字塔,所述图片金字塔是由视频帧的原图像和若干缩放图像组 成的层图像集;
[0065]步骤S104:利用快速图像特征金字塔计算方法结合滑动窗口检测法,对层图像集 每一层图像所处的窗口图像进行计算得出聚合通道特征,并利用训练好的BP-AdaBoost强 分类器进行分类识别;
[0066] 步骤S105:当窗口图像的检测结果为正样本,则BP-AdaBoost强分类器输出检测窗 口,将所有层图像对应的检测窗口进行融合得到准确的定位窗口;当窗口图像的检测结果 为负样本,则无输出。
[0067]其中图像预处理包括尺寸归一化处理和图像降噪处理;图像降噪处理采用的滤波 器为小波滤波器,平滑半径与检测精度的关系,r=l时检测效果最佳。小波滤波器能通过大 多数频率分量,但将某些范围的频率分量衰减到极低水平,有着较好的可调性,小波滤波可 以较快的给出结果,提高整体检测速度。
[0068]聚合通道特征包括三种通道特征:3个HSV颜色空间、6个量化的梯度方向直方图和 1个梯度强度特征。使用HSV颜色空间变换方法,HSV相比LUV颜色空间变换计算量小,避免 LUV中求立方根问题,加快了 ACF特征提取速度,变换速度相对传统方法提高了 一个数量级。
[0069] HSV颜色空间由视频帧的RGB颜色空间转换得到,具体为:
[0070] 设RGB颜色空间中红、绿和蓝颜色的坐标均为(r,g,b),r、g、b的值是在0到1之间的 实数,设max等价于r、g和b中的最大者,设min等于r、g和b中值中的最小者,设HSV空间坐标 值为(h,s,v),其中he [0° ,360° )为色调,se[0, 1]为颜色,ve [0, 1]为饱和度,计算公式 为:
[0071]
[0072]
[0073] v=max
[0074] 统计中采用了固定h和s,统计v特征,比如,划分h为16份,s为4份,v为4份,那么我 们最终会得到一个256维的特征向量,具体的维数可以相应的调整;
[0075]从RGB颜色空间转换到HSV颜色空间可使用查表法,可以预先建立从量化的RGB空 间到量化的HSV空间之间的查找表(1 ook-up tab 1 e),从而加快直方图的计算过程;
[0076]梯度强度的计算公式为:
[0077]
[0078]梯度方向直方图的计算公式为:
[0079] 0(x,y)=arctan((I(x,y+l)-I(x,y-l))/(I(x+l ,y)-I(x-l ,y)))〇
[0080] 分类器的设计步骤包括采用基于AdaBoost和BP-ΑΝΝ组合分类算法被称为是BP-AdaBoost模型,即指把BP神经网络作为弱分类器,采用AdaBoost算法反复训练BP神经网络, 最后得到由若干个BP神经网络加权形成的强分类器。在样本数目很大时目前行人检测流行 的Adboost+SVM模型难以实施训练,SVM是借助二次规划来求解支持向量,而求解二次规划 将涉及m阶矩阵的计算(m为样本的个数),当m数目很大时该矩阵的存储和计算将耗费大量 的机器内存和运算时间;传统支持向量机算法只给出了二类分类的算法,而在行人检测的 实际应用中,一般要解决多类的分类问题。BP-Adboost模型则克服了SVM中的这些缺点并且 如果训练样本选取合适其收敛速度是可以接受的。构建BP-AdaBoost强分类器具体为:
[0081 ]步骤S601:从样本数据集中随机选择m组训练数据(XI,yi) (X2,y2)…(xm,ym),其中 Xl为训练样本数据,yie{l,-l}为样本期望分类结果,其中i = l,2,'",m;初始化训练数据的 分布权值Di (i) = 1 /m,i = 1,2,…,m,根据样本输入和输出的维数确定BP神经网络的网络结 构,即输入层和输出层节点的个数;并初始化BP神经网络的其他参数值包括权值、学习效 率、隐含层节点个数和决策阈值;
[0082] 步骤S602:训练第t(t = l,2,'",m)个弱分类器时,用训练样本集训练BP神经网络, 并得到预测训练数据的网络输出,得到弱分类器序列g(t)的预测误差和ei,其计算公式为:
[0083]
[0084] 其中,g(t)为网络的实际输出,y为样本期望分类结果;
[0085] 步骤S603:根据计算出的预测误差和ei,计算弱分类器的权重&1,计算公式为:
[0086]
[0087] 步骤S604:根据权重计算结果,调整下一次训练时样本的权重,调整公式如下:
[0088]
[0089]其中 1 = 1,2,.",111,1^为归一化算子;
[0090] 步骤S605:t次迭代后,得到t组弱分类器函数f(gl,ai),并由这些弱分类器函数共 同构成了最终的BP-AdaBoost强分类器
[0091] 所述步骤S103中,所述图片金字塔通过如下方式得到:
[0092]使用缩放因子s = 2_k/8,将视频帧的原图像进行缩放得到19层的精密采样金字塔, 精密采样金字塔为由视频帧的原图像和18张缩放图像组成的层图像集,其中最小缩放图像 与滑动窗口检测法采用的窗口大小相同。
[0093]步骤S104中,快速图像特征金字塔计算方法具体为:
[0094]先计算出缩放因子为1、1/2、1/4的层图像的特征层,依据计算好的层图像的特征 层估算其左右层图像的特征层,特征估算公式为:
[0095] Cs ?R(Cs',s/s,)(s/s,)-λΩ
[0096] 其中,Cs为待估算的特征层,其缩放因子为s,s'为事先己经计算好的层中与s距离 最近的层的缩放因子,其=
蚁0,8/8')表示将(^的尺寸缩放为原来的 8/8' 倍;λΩ是取决于具体特征的常系数,事先通过训练样本估计。
[0097] 传统非极大值抑制过程中,容易抑制尺度相近的位置窗口,而难以抑制尺度差异 较大的窗口,因为真实的行人窗口周围容易残留很多误检窗口,这些窗口的尺度和检测分 数往往比真实的行人小很多,虽然存在较大的重合面积,但未达到阈值,从而产生误检。当 采用一种尺度融合的非极大值抑制算法,被抑制窗口的尺度小于抑制窗口时,应该进行更 严格的抑制。
[0098]本发明步骤S105中,融合具体为:
[0099]步骤S901、标记BP-AdaBoost强分类器输出的检测窗口并进行转换,得到与视频帧 原图像对应的位置窗口,其中检测窗口和位置窗口由四个元素组成:左上角坐标、窗口高 度、窗口宽度和分类算法计算得到的置信分数;
[0100]步骤S902、采用非极大值抑制算法将位置窗口进行融合,具体为:
[0101] 假设两个位置窗口分别为bbl和bb2,二者重合率ao计算公式如下:
[0102]
[0103]当重合率ao〈 Θ时,两个位置窗口不做任何处理,其中Θ = 〇. 5;
[0104] 当重合率ao>0时,则再计算两个位置窗口的重合面积阈值,假设抑制窗口(较大窗 口)为BBU,
当前第2页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1