一种元件分类方法及装置的制造方法_3

文档序号:9667784阅读:来源:国知局
[0096]可以理解,需要对元件的类别进行区分,从而在训练的时候记录元件的类别才能准确地对元件进行漏件检测。
[0097]可选地,在本发明的另一些可能的实施方式中,也可以通过其它能对元件进行区分的方式对元件进行标注。
[0098]S203、从经过标记后的元件图像中采集元件图像的样本集。
[0099]其中,元件图像的样本集是指从PCB板上采集到的用于训练卷积神经网络的元件图像。
[0100]可选地,在本发明的一些可能的实施方式中,所述采集所述元件图像的样本集之前,所述方法还包括:
[0101]利用模板匹配得到所述元件图像中元件的位置并对所述元件图像进行对齐;
[0102]对所述元件图像进行归一化,以触发执行所述采集所述元件图像的样本集的步骤。
[0103]可以理解,与利用卷积神经网络进行测试的过程类似,在采集训练卷积神经网络的样本图像时对图像进行对齐以使元件位于图像的中心位置,并对图像进行归一化,该过程称为对图像的预处理过程,对元件图像进行预处理会使训练效果更好。
[0104]可选地,在本发明的一些可能的实施方式中,为了得到较好的分类效果,所以在对卷积神经网络进行训练的时候尽可能多的采集更多的样本对卷积神经网络进行训练,由于元件图像的样本集是指从PCB板上采集到的用于训练卷积神经网络的元件图像,所以可以理解,保证PCB板采集时的多样性,将保证元件图像的多样性。
[0105]可选地,在本发明的一些可能的实施方式中,所述元件图像的样本集包括:
[0106]所述元件图像的训练样本集和所述元件图像的测试样本集。
[0107]其中,元件图像的训练样本集是用于在训练阶段训练卷积神经网络的,元件图像的测试样本集是用于在训练阶段测试经过训练本来集训练后的卷积神经网络的分类效果的样本集。
[0108]可选地,在本发明的一些可能的实施方式中,卷积神经网络的训练样本集和卷积神经网络的测试样本集在的采集方法一样,可以从所采集到的元件图像的样本集取一部分做元件图像的测试样本集。
[0109]可选地,在本发明的一些可能的实施方式中,在卷积神经网络的训练阶段,若利用卷积神经网络的测试样本集测试得到的分类效果不佳时,可对卷积神经网络进一步训练。
[0110]可以理解,在对卷积神经网络进行训练时,分别利用元件图像的训练样本集对卷积神经网络进行训练,以及利用元件图像的测试样本集对元件图像进行测试将使得对卷积神经网络的训练效果更佳。S204、利用图像识别数据库预训练卷积神经网络,得到卷积神经网络初始参数。
[0111]其中,所述图像识别数据库包含从自然界采集到的各种类别的自然图像,图像识别数据库(ImageNet)是现有的从自然界采集到的包含各种类别的图像基础数据库,虽然ImageNet并非电子元件数据集,但其包含超过22000个类别的1500万张带标注的自然图像,用于预训练卷积神经网络可学习出各层次的通用图像特征,得到较好的卷积神经网络初始参数值。
[0112]可以理解,在得到分类器之前,首先需要利用足够的样本集对卷积神经网络进行训练,而采集到的元件图像的样本集的数量一般有限,所以为了更好地训练卷积神经网络,利用现有的ImageNet首先对卷积神经网络进行预训练,得到卷积神经网络的初始参数值,再基于该初始参数,利用采集到的元件图像的样本集再对卷积神经网络进行进一步的训练,从而得到最终的分类器。
[0113]可选地,在本发明的一些可能的实施方式中,也可以不利用图像识别数据库预训练卷积神经网络,那么此时可以尽可能多地采集元件图像样本用于训练卷积神经网络。
[0114]S205、基于卷积神经网络初始参数,利用样本集进一步训练卷积神经网络以对卷积神经网络初始参数进行微调。
[0115]其中,卷积神经网络是一种深度学习网络,卷积神经网络以其局部权值共享的特殊结构在图像处理方面有着独特的优越性,其布局更接近于实际的生物神经网络,权值共享降低了网络的复杂性,特别是多维输入向量的图像可以直接输入网络这一特点避免了特征提取和分类过程中数据重建的复杂度。利用卷积神经网络对元件图像进行分类时,首先需要利用大量的样本训练元件分类器,然后再利用训练好的卷积神经网络对元件图像进行分类。由于卷积神经网络可学习到元件图像各个层次的特征,包括低层特征和高级特征,而图像的高级特征不受拍摄场景影响,也即即使在复杂的场景下拍摄的元件图像也能利用高级特征对元件图像进行识别,从而利用该特征可以准确地对元件图像进行分类识别。
[0116]可选地,在本发明的一些可能的实施方式中,在利用ImageNet首先对卷积神经网络进行预训练时,卷积神经网络最后一层的节点数为1000个,当再基于预训练后的神经网络利用元件图像的样本集进行训练时,将卷积神经网络最后一层的节点数改为元件的类别数,如元件共有N类,则将该层改为N个节点。
[0117]可选地,在本发明的一些可能的实施方式中,也可以不基于ImageNet训练后的卷积神经网络的初始参数,而是直接利用较多的元件图像样本训练卷积神经网络。
[0118]S206、将待分类的元件图像输入经过训练后的卷积神经网络,并计算所述元件图像的高级特征。
[0119]可选地,本发明实施例中所指的卷积神经网络为包含N层的卷积神经网络,其中,N为大于I的正整数。其中,该卷积神经网络的前N-1层用于计算元件图像各个层次的特征,该卷积神经网络的第N层用于根据前N-1层计算出来的元件图像的特征计算元件图像的类别。
[0120]优选地,N的值为7。
[0121]优选地,该卷积神经网络的前N-1层计算出来的元件图像的各个层次的特征包括低级特征以及高级特征。
[0122]S207、利用高级特征计算元件图像属于各个类别的概率。
[0123]可选地,在本发明的实施例中,可以用各个元件图像的概率值判断待分类的元件图像的类别。
[0124]优选地,对于有N层网络的卷积神经网络,若卷积神经网络的前N-1层用于计算元件图像的各个层次的特征,则该卷积神经网络的第N层用于根据前N-1层计算得到的特征(包括低级特征和高级特征)计算该元件图像属于各个类别的概率,再利用该概率判断元件图像的类别。
[0125]可选地,在本发明的一些可能的实施方式中,所述将元件图像输入经过训练后的卷积神经网络之前,所述方法还包括:
[0126]利用模板匹配得到所述元件图像中元件的位置并对所述元件图像进行对齐;
[0127]对所述元件图像进行归一化,以触发执行所述将元件图像输入经过训练后的卷积神经网络的步骤。
[0128]可以理解,由于元件图像是从模板图像上截取下来的一块元件图像,为了使神经网络对元件图像的计算更为准确,需要使截取到的元件图像中的元件位于图像的中心位置,并同时对图像的大小进行归一化,这样以保证后续处理的准确性。该过程称为预处理过程。
[0129]可选地,在本发明的一些可能的实施方式中,也可以不对元件图像进行预处理。
[0130]可选地,在本发明的一些可能的实施方式中,在利用卷积神经网络对元件图像进行分类时,如果在训练阶段对元件图像样本进行预处理,那么在利用训练后的卷积神经网络对元件图像分类时,也需要对元件图像进行预处理;如果在训练阶段不对元件图像进行预处理,那么在利用训练后的卷积神经网络对元件图像进行分类时,也不对元件图像进行预处理。
[0131]S208、取各个类别的概率中最大的概率对应的类别为元件图像的类别。
[0132]其中,元件图像属于各个类别的概率值表示了该元件图像属于各个类别的可能性,很显然,概率越大,表示属于该类别的可能性越大,从而取各个类别的概率中最大的概率对应的类别为元件图像的类别,将使得分类结果最为准确。
[0133]可选地,在本发明的一些可能的实施方式中,当元件图像中的元件不存在时,元件图像的类别将为其它,如PCB板上若有100个元件,若以1-100对这100个元件对应的元件图像进行分类,对于漏件的元件图像来说,类别可以为101。
[0134]可以看出,本实施例的方案中,将待分类的元件图像输入经过训练后的卷积神经网络,并计算所述元件图像的高级特征;利用所述高级特征计算所述元件图像属于各个类别的概率;取所述概率中最大的概率对应的类别为所述元件图像的类别。由于卷积神经网络能学习到元件图像的高级特征,所述本发明实施例利用卷积神经网络对元件图像进行分类时,将使元件图像的采集不受场景约束,分类效果好,准确性高。
[0135]更进一步地,由于卷积神经网络局部权值共享,所以在利用卷积神经网络对元件图像分类的过程中,可以降低计算复杂度,分类效率高。
[0136]本发明实施例还提供一种元件分类装置,该装置包括:
[0137]第一计算模块,用于将待分类的元件图像输入经过训练后的卷积神经网络,并计算所述元件图像的高级特征;
[0138]第二计算模块,利用所述高级特征计算所述元件图像属于各个类别的概率;
[0139]分类模块,用于取所述概率中最大的概率对应的类别为所述元件图像的类别。
[0140]具体的,请参见图3,图3是本发明第三实施例提供的一种元件分类装置的结构示意图,其中,如图3所示,本发明第三实施例提供的一种元件分类装置300可以包括:
[0141]第一计算模块310、第二计算模块320和分类模块330。
[0142]其中,第一计算模块310,用于将待分类的元件图像输入经过训练后的卷积神经网络,并计算所述元件图像的高级特征。
[0143]其中,卷积神经网络是一种深度学习网络,卷积神经网络以其局部权值共享的特殊结构在图像处理方面有着独特的优越性,其布局更接近于实际的生物神经网络,权值共享降低了网络的复杂性,特别是多维输入向量的图像可以直接输入网络这一特点避免了特征提取和分类
当前第3页1 2 3 4 5 6 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1