一种基于AdaBoost的弱分类器内部结构调整方法

文档序号:6597192阅读:158来源:国知局
专利名称:一种基于AdaBoost的弱分类器内部结构调整方法
技术领域
本发明属于目标检测技术领域,特别是一种基于AdaBoost的弱分类器内部结构调整方法。
背景技术
目标的检测识别方法很多,大致可分为基于区域的模板匹配检测方法和基于特征的匹配检测方法。基于区域的图像模板匹配能利用目标图像中的所有信息,对目标对象的识别能力强、精度高,但对旋转和缩放(非本质变化)目标图像的识别能力较差。图像特征匹配具有稳定性好、易于实现、匹配效率高、对图像的旋转和缩放小敏感、抗噪性能好等特点,但是计算量大,检测效果与选取的特征直接相关。Boosting 方法是由 Freund 和 Schapire 在 1990 年提出的(1.Schapire R E.The Strength of Weak Learnability[J].Machine Learning, 1990, 5(2): 197-227.),是提高预测学习系统的预测能力的有效工具之一,它试图提供一种提升学习算法精度的普遍方法。随后,Freund提出了一种效率更高的Boosting算法(2.Freund Y.Boostinga weak Learning Algorithm by Majority[J].1nformation and Computation 1995,121 (2): 256-285.)。1995· 年,Freund 和 Schapire 提出了 AdaBoost 算法(3.Freund Y.,Schapire R.Ε..A Decision-Theoretic Generalization of On-Line Learning andan Application to Boosting[J].Journal of Computer and System Sciences, 1995,55(1): 119-139.),AdaBoost算法是Boosting家族的代表算法,它本身是通过改变数据分布来实现的。它根据每轮训练中每个样本的分类是否正确,以及上轮的总体分类准确率,来确定每个样本的权值。将每次训练得到的弱分类器融合起来,作为最后的决策分类器。AdaBoost算法提出后在机器学习领域受到了极大的关注,实验结果显示无论是应用于人造数据还是真实数据,AdaBoost都能显著提高学习精度。该类方法虽然实时性较好,识别率高且误识别率低,但是该类方法训练样本时,一旦选择好弱分类器,弱分类器内部结构就不再变化,无法减小性能差(正确率低、误检率高)的弱分类器对最终检测的影响,且训练样本非常大时,训练弱分类器所需时间过长。

发明内容
本发明的目的在于提供一种基于AdaBoost的弱分类器内部结构调整方法,从而减小性能差的弱分类器对最终检测的影响,提高场景分类的正确率和降低误检率。实现本发明目的的技术解决方案为:一种基于AdaBoost的弱分类器内部结构调整方法,包括以下步骤:步骤一:训练弱分类器,通过加权训练样本决定训练的弱分类器的融合权重,每个弱分类器对输入样本输出一个弱假设,所有弱分类器组成一个强分类器并输出最终结果;步骤二:对弱分类器进行内部结构调整,每个弱分类器的调整是由一个调整向量β和一个偏移向量Π决定的,它们的维数都是IXN维,N为多级弱分类器的数目,按
权利要求
1.一种基于AdaBoost的弱分类器内部结构调整方法,其特征在于包括以下步骤: 步骤一:训练弱分类器,通过加权训练样本决定训练的弱分类器的融合权重,每个弱分类器对输入样本输出一个弱假设,所有弱分类器组成一个强分类器并输出最终结果; 步骤二:对弱分类器进行内部结构调整,每个弱分类器的调整是由一个调整向量β和一个偏移向量η决定的,它们的维数都是IXN维,N为多级弱分类器的数目,按Ir (-V, y) = P- (H; (-V) - n- ),JE7 = {1,.. N}进行调整; 步骤三:对内部结构调整后的弱分类器进行最佳参数选择,利用遗传算法来选取最佳参数; 步骤四:调整过的弱分类器进行验证,即满足一个设定的阈值,具体为对于m个样本,调整验证计算方式如下:
2.根据权利要求1所述的基于AdaBoost的弱分类器内部结构调整方法,特征在于步骤一中,弱分类器训练的步骤为:首先,给定训练数据集 D=Kx1, Y1), (x2, y2),…,(xm, ym)} Xi e X,yi e ={1,..., k}, X 代表样本空间,Y代表类别标签,m为样本数量,k为类别数量;其次,给所有的训练样本赋予相同的权值,第t轮迭代过程中的权值分布为Dt,初始化权值D1(I)=IAi,第一次迭代时每个样本的权值都为Ι/m ;在训练数据集和初始权值D1Q)下训练,得到一个弱假设ht:X —Y,X代表样本空间,Y代表类别标签,t为当前迭代轮数;然后使用训练数据测试ht,计算ht的错误率ε t= Σ Dt⑴[ht (Xi) Φ Yi],如果ε t > 1/2,则T=t_l,退出循环;设ht的权重为:a t= ε t/(l_ ε t),根据公式
3.根据权利要求1所述的基于AdaBoost的弱分类器内部结构调整方法,特征在于步骤二中的内部结构调整方法为:最终的分类器由M个强分类器级联组成,每个强分类器由N个弱分类器组成, i f〉代表第q级强分类器对输入样本的响应向量,< 代表第q级强分类器中相对应的第k级弱分类器对输入样本的响应,其中,q=l,一,M,k=l, - ,N, Ck代表每个强分类器中的第k级弱分类器,内部结构调整向量八…最佳偏移向量%=〈<...,<〉,假设ht(x,y)是第t级内部结构调整过的弱分类器的分类, =1,...,Μ,则
4.根据权利要求1所述的基于AdaBoost的弱分类器内部结构调整方法,特征在于步骤三中利用遗传算法来选取最佳参数,设定调整向量β的范围为
,偏移向量η的范围为[-0.2,0.2],具体实现步骤如下: (1)初始化遗传算法参数,交叉概率Pc=0.8,变异概率Pm=0.05,群体大小Ps=400,最大迭代次数Im=50000,最小误差变化Em=10_6,初始进化种群代数t=l ; (2)生成Ps个体,并编码成染色体; (3)根据方程
全文摘要
本发明公开了一种基于AdaBoost的弱分类器内部结构调整方法,首先是训练弱分类器,通过加权训练样本决定训练的弱分类器的融合权重,每个弱分类器对输入样本输出一个弱假设,所有弱分类器组成一个强分类器并输出最终结果;其次是内部结构调整、最佳弱分类器参数选择和调整验证,然后利用遗传算法来解决最优化问题,最后是训练样本重新加权,根据训练样本的错误率高低来重新确定样本的权重。本发明在场景分类问题上有非常好的表现,分辨率高,误判率低。
文档编号G06K9/66GK103246897SQ20131020533
公开日2013年8月14日 申请日期2013年5月27日 优先权日2013年5月27日
发明者钱惟贤, 杨力, 胡楷, 周霞, 任建乐, 顾国华, 陈钱, 路东明, 隋修宝 申请人:南京理工大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1