分类器的训练方法、图像检测方法及各自系统的制作方法

文档序号:9646833阅读:343来源:国知局
分类器的训练方法、图像检测方法及各自系统的制作方法
【技术领域】
[0001] 本发明涉及图像处理领域,尤其涉及一种分类器的训练方法、图像检测方法及各 自系统。
【背景技术】
[0002] 深度估计问题是实现3D自动转换的核心问题。3D自动转换是指将传统3D左右图 格式,转换成可用于多角度3D图像生成的2D+Z(深度)格式。
[0003] -般而言,3D自动转换包括深度估计模块与深度加强模块。其中,深度估计模炔基 于所输入的左右图,生成粗差异图(低分辨率)。其输出的粗差异图(低分辨率)以块为单 位,每块包括N*N像素。
[0004] 所述3D深度加强模块则基于粗差异图以及可能的其他信息(如左右图、前一帧深 度图等),完成分类、滤波、插值等操作,生成最终的细差异图,并据此生成有效的深度图。
[0005] 其中,所述深度加强模块通常采用以下框架:
[0006] a)(坏块检测)对深度估计模块产生粗深度图进行分类处理,区分深度图中有效 块和无效块;
[0007] b)(自适应滤波)对于不同分类结果,依据前已有信息(如前一帧预测结果、相邻 块预测结果),在时域、空间域进行自适应滤波;
[0008] c)(块腐蚀)将滤波后的粗差异场按一定方法插值(如块腐蚀、或自适应块腐蚀) 得到最终的细差异场;
[0009] d)(深度转化)依据以上差异图生成对应深度图。
[0010] 由上述步骤可见,一幅3D图的立体效果是否明显,与坏块检测步骤中对有效块和 无效块的区分准确性有很大关系。
[0011] 为此,目前技术人员采用分类器的方式对差异估计块进行分类。具体如下:
[0012] 预设级联的双选分类器,采用样本特征值对所预设的强分类器中各弱分类器进行 无偏差的训练,以得到对应错误分类概率最小的弱分类器。该种方式未能考虑错误分类的 类别,导致每种类别中均含有被错分的样本,进而导致所生成的3D图像的效果不理想。
[0013] 因此,需要对现有技术进行改进。

【发明内容】

[0014] 本发明提供一种分类器的训练方法、图像检测方法及各自系统,用于解决现有技 术中分类器的训练成本过高,分类训练准确度低,以及使用现有技术中的分类器图像检测 错误率高等问题。
[0015] 基于上述目的,本发明提供一种强分类器的训练方法,其中,所述强分类器由多阶 弱分类器构成,所述训练方法包括:1)根据所接收的用于训练的各样本的数量,初始化各 样本的权重 Wl= 1/N,i= 1,...,N,其中,N为待训练的强分类器所接收的样本的数量;2) 将所得到的各权重及其样本特征值输入一弱分类器进行分类训练,使得当前弱分类器中错 误概率最小;3)基于所在强分类器偏见量比例,按当前弱分类器训练结果更新待输入下一 阶弱分类器的各样本的权重;按照所确定的各权重,重复上述步骤2)-3),以训练下一阶弱 分类器,直至最后一阶弱分类器训练完毕。
[0016] 优选地,所述步骤2)包括:2_1)将各样本按实际类别分为类1、类-1两部分;2-2) 分别按照同一特征类型的特征值顺序将类1和类-1的各样本进行排序;2-3)分别将排序 后类1、和类-1中各样本的权重逐个累加,并对应类1与类-1分别构建各累加值的离散曲 线;2-4)在分属不同类别的、相邻的累加值之间,选取当前弱分类器的候选分类阈值和候 选分类方向;2-5)比较不同候选分类方向与候选分类阈值所对应误差,选取使当前弱分类 器误差最小的分类阈值与分类方向。
[0017] 优选地,当各样本特征值分属多种特征类型时,按照每个特征类型,分别执行步骤 2-2)-2-5);以及,所述步骤2-6):比较各特征类型之间的最小误差,选择最小者为本阶弱 分类器。
[0018]优选地,所述步骤3)包括:3_1)根据弱分类器误差计算Adaboost更新系数ακ:
本阶弱分类器分类正确样本的权 重和,I本阶弱分类器分类错误样本的权重和,K为弱分类器的编号;3-2)基于所在强 分类器偏见量比例r,按本阶弱分类器对各样本的分类类别Q,计算各样本偏见量:P1 = r·ακ ·sign(Cj;3-3)更新各样本权
.,其中,yi为第i个样 本的实际分类类别。
[0019] 优选地,在按照所确定的各权重,重复上述步骤2)-3),以训练下一阶弱分类器的 步骤之前,还包括:从第二阶弱分类器开始,分别统计此前所有弱分类器对于类1、类-1分 类结果中与实际不符的概率;当所述概率小于预设阈值时,停止对后续各阶弱分类器进行 训练,并将已训练的各弱分类器作为一强分类器;反之,则按照所确定的各权重,重复上述 步骤2)-3),以训练下一阶弱分类器。
[0020] 基于上述目的,本发明还提供一种级联分类器的训练方法,所述级联分类器由若 干阶如上任一所述的强分类器串联组成,各阶强分类器预设偏见量比例,所述训练方法包 括:根据当前阶强分类器所接收的样本,来训练当前阶强分类器中的各弱分类器,并将当前 阶强分类器中各弱分类器所分类出的、误差最小的类别中的样本予以剔除,将剩余部分作 为下一阶强分类器的输入样本,直至最后一阶强分类器训练结束。
[0021 ] 优选地,相邻阶的强分类器将各自所接收的特征值偏向的分入不同类别。
[0022] 基于上述目的,本发明还提供一种图像检测方法,包括:获取多个差异估计块及所 对应的特征值;将各所述差异估计块所对应的特征值输入由如上任一所述的级联分类器, 进行偏见分类,并确定各差异估计块位于有效类别中、或无效类别中。
[0023] 基于上述目的,本发明还提供一种强分类器的训练系统,其中,所述强分类器由多 阶弱分类器构成,所述训练系统包括:初始化模块,用于根据所接收的用于训练的各样本的 数量,初始化各样本的权重化=1/N,i= 1,...,N,其中,N为待训练的强分类器所接收的 样本的数量;弱分类器训练模块,用于将所得到的各权重及其样本中的特征值输入一弱分 类器进行分类训练,使得当前弱分类器中错误概率最小;样本权重更新模块,用于基于所在 强分类器偏见量比例,按当前弱分类器训练结果更新待输入下一阶弱分类器的各样本的权 重;训练结束判断模块,用于按照所确定的各权重,重复上述弱分类器训练模块和样本权重 更新模块,以训练下一阶弱分类器,直至最后一阶弱分类器训练完毕。
[0024] 优选地,所述弱分类器训练模块包括:第一训练子模块,用于将各样本按实际类别 分为类1、类-1两部分;第二训练子模块,用于分别按照同一特征类型的特征值顺序将类1 和类-1的各样本进行排序;第三训练子模块,用于分别将排序后类1、和类-1中各样本的 权重逐个累加,并对应类1与类-1分别构建各累加值的离散曲线;第四训练子模块,用于在 分属不同类别的、相邻的累加值之间,选取当前弱分类器的候选分类阈值和候选分类方向; 第五训练子模块,用于比较不同候选分类方向与候选分类阈值所对应误差,选取使当前弱 分类器误差最小的分类阈值与分类方向。
[0025] 优选地,当各样本特征值分属多种特征类型时,按照每个特征类型,重复执行所述 第二训练子模块至第五训练子模块;对应的,所述弱分类器训练模块还包括:第六训练子 模块,用于比较各特征类型之间的最小误差,选择最小者为本阶弱分类器。
[0026] 优选地,所述样本权重更新模块包括:第一更新子模块,用于根据弱分类器误差计
算Adaboost更新系数ακ:αk=Wc_We;其中 类器分类正确样本的权重和,本阶弱分类器分类错误样本的权重和,K为弱分类器的编 号;第二更新子模块,用于基于所在强分类器偏见量比例r,按本阶弱分类器对各样本的分 类类别Q,计算各样本偏见量:Pi=r·ακ·8?〖η((^);第三更新子模块,用于更新各样本权
,其中,yi为第i个样本的实际分类类别。
[0027] 优选地,所述训练结束判断模块还用于从第二阶弱分类器开始,分别统计此前所 有弱分类器的类1、类-1分类结果中与实际不符的概率;当所述概率小于预设阈值时,停止 对后续各阶弱分类器进行训练,并将已训练的各弱分类器作为一强分类器;反之,则按照所 确定的各权重,重复上述弱分类器训练模块和样本权重更新模块,以训练下一阶弱分类器。
[0028] 基于上述目的,本发明还提供一种级联分类器的训练系统,所述级联分类器由若 干阶如上任一所述的强分类器串联组成,各阶强分类器预设偏见量比例,所述训练系统用 于根据当前阶强分类器所接收的样本,来训练当前阶强分类器中的各弱分类器,并将当前 阶强分类器中各弱分类器所分类出的、误差最小的类别中的样本予以剔除,将剩余部分作 为下一阶强分类器的输入样本,直至最后一阶强分类器训练结束。
[0029] 优选地,相邻阶的强分类器将各自所接收的特征值偏向的分入不同类别。
[0030] 基于上述目的,本发明还提供一种图像检测系统,包括:获取模块,用于获取多个 差异估计块及所对应的特征值;分类模块,用于将各所述差异估计块所对应的特征值输入 由如权利要求14-15中任一所述的训练系统训练而得的级联分类器,进行偏见分类,并确 定各差异估计块位于有效类别中、或无效类别中。
[0031] 如上所述,本发明的分类器的训练方法、图像检测方法及各自系统,具有以下有益 效果:能够利用有限的样本特征值在短时间内训练得到具有高分类性能的偏见式强分类 器,解决了现有强分类器训练时间过长、样本数据量巨大的问题;另外,每级弱分类器的样 本权重由上一级弱分类器估计而得,能够更准确的对各样本进行分类;还有,级联分类器中 的相邻强分类器的偏见量比例间隔的偏向不同类别,能有效防止各样本被连续的单一方向 偏见分类,而造成错误分类概率增加。
【附图说明】
[0032] 为了更清
当前第1页1 2 3 4 5 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1