基于矢量神经网络的多角度植物识别方法与流程

文档序号:17083217发布日期:2019-03-09 00:31阅读:261来源:国知局

本发明涉及图像判断领域,特别涉及基于矢量神经网络的多角度植物识别方法。



背景技术:

千百年来植物与人类息息相关、紧密相连。随着人类文明的进步,植物却遭到了越来越严重的破坏。因此,对植物进行识别归类,建立植物数字化资源库,以助于植物的保护,具有重要的意义。而植物叶片数字化图像机器识别算法无疑会大大加快植物的分类工作。在经典的模式识别中,一般是事先提取预设的植物图像的特征(如sift,hog,lbp特征)。提取特征后,对特征进行编码,比如常用bow,fishervector等。然后将特征放到一个分类器,比如svm,进行2分类,训练出最优分类面,找到最能代表某类植物的特征,去掉对分类无关和自相关的特征。然而,这些特征的提取太过依赖人的经验和主观意识,提取到的特征的不同对分类性能影响很大,甚至提取的特征的顺序也会影响最后的植物分类性能。同时,图像预处理的好坏也会影响到提取的特征。



技术实现要素:

本发明的目的在于:提供了基于矢量神经网络的多角度植物识别方法,解决了空间上的特征语义关联问题,大大节省数据收集成本,提高识别准确率和适用范围。

本发明采用的技术方案如下:

基于矢量神经网络的多角度植物识别方法,包括,其特征在于:所述方法包括如下步骤:s1:收集植物多角度图像,通过图像采集装置采集拟识别植物不同季节的多个角度的器官局部图像,收集并整理图像资源按植物类别进行分类整理类别进行分类备用;s2:图像训练集制作,通过将步骤s1中收集采集的植物图像按已分类别进行标注,并将标注后的图像数据统一调整为大小一致的尺寸;s3:识别用矢量神经网络模型训练,通过将步骤s2中处理后的图像数据,输入到矢量神经网络中,经多次迭代后使得网络能够提取出植物图像的多维特征,并经过向量算法将特征转为向量值,其中向量的模长表示其所属类别的可能性,向量的方向表示植物的类别实体参数;s4:将步骤s3中的训练得到的矢量神经网络来识别植物种类,属于要识别的植物的图像,经网络自主提取出具有视角不变性的特征,产生最终的特征向量,并根据这个向量的模长来计算分类损失,分类计算后得出识别分类结果名称;s5:根据步骤s4中计算的分类结果名称,搜索数据库或网络资源资料,并展示搜索后的数据详细信息。

进一步地,所述步骤s1中采集的局部图像为植物的花、叶、果实和特征明显的植物器官图像。

进一步地,所述步骤s1中的分类整理为将采集的植物数据按照同种类数据放入同一文件夹中。

进一步地,所述步骤s2中的标注为将步骤s1中的分类整理后的文件进行编号,并以文本形式列出每个编号所对应的植物名称,形成了一个可用于训练所述矢量神经网络的数据集。

进一步地,所述步骤s2中的图像尺寸为128*128。

进一步地,所述步骤s3中的多维特征为经过数个主矢量单元后提取出来,具有多个维度的特征。

进一步地,所述步骤s3中的向量算法为向量间路由算法。

进一步地,所述步骤s3中的实体参数有叶片纹理、叶脉分布、形状信息,实体参数通过机器自主学习进行特征提取。

综上所述,由于采用了上述技术方案,本发明的有益效果是:

1.本发明基于矢量神经网络的多角度植物识别方法,建立大样本数据库,同时引入无效值选项,使用人工智能深度学习模型,从样本库图像中自动学习并提取特征信息,从而能够分析出样本库图像中描述的植物种类。

2.本发明基于矢量神经网络的多角度植物识别方法,与训练图像不相关的图片将自动识别为无效值,实际要识别的图片多样性较高

3.本发明基于矢量神经网络的多角度植物识别方法,建立多样性样本库,在不同条件下采集图片,只要符合基本要求全部采取,以提高抗干扰能力,以防在临床上应用时的遇到各类干扰出现

具体实施方式

本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。

实施例1

基于矢量神经网络的多角度植物识别方法,包括,其特征在于:所述方法包括如下步骤:s1:收集植物多角度图像,通过图像采集装置采集拟识别植物不同季节的多个角度的器官局部图像,收集并整理图像资源按植物类别进行分类整理类别进行分类备用;s2:图像训练集制作,通过将步骤s1中收集采集的植物图像按已分类别进行标注,并将标注后的图像数据统一调整为大小一致的尺寸;s3:识别用矢量神经网络模型训练,通过将步骤s2中处理后的图像数据,输入到矢量神经网络中,经多次迭代后使得网络能够提取出植物图像的多维特征,并经过向量算法将特征转为向量值,其中向量的模长表示其所属类别的可能性,向量的方向表示植物的类别实体参数;s4:将步骤s3中的训练得到的矢量神经网络来识别植物种类,属于要识别的植物的图像,经网络自主提取出具有视角不变性的特征,产生最终的特征向量,并根据这个向量的模长来计算分类损失,分类计算后得出识别分类结果名称;s5:根据步骤s4中计算的分类结果名称,搜索数据库或网络资源资料,并展示搜索后的数据详细信息。

本发明的工作原理/工作过程为:首先通过图像采集装置采集拟识别植物不同季节的多个角度的器官局部图像,收集并整理图像资源按植物类别进行分类整理类别进行分类备用,然后在进行图像训练集制作,通过将步骤s1中收集采集的植物图像按已分类别进行标注,并将标注后的图像数据统一调整为大小一致的尺寸,然后训练图像输入,转化像素特征将处理后的数据逐一成批(每一批的大小根据具体计算机显存的大小确定)的输入网络,网络中的像素卷积单元对原始的输入图像进行卷积操作。这个像素卷积单元由256个9*9的卷积核组成,每个卷积核以9*9的感受区域,步长为1的间隔卷积图像,然后通过一个常用的relu激活函数进行一个非线性变换,这样便把像素亮度转化成了多个局部特征(这里有256个卷积核,便能产生256个基础局部特征),像素卷积单元中得到的多个局部特征送入到主矢量单元,在这个单元中进一步提取出能用于分类的语义特征。此单元是由多通道的卷积操作的组合而成,32个通道,每个通道有一个8维卷积,卷积核为9*9,步长为2。对送入的特征值进一步使用卷积操作,卷积之后会得到多个输出向量。为了更好的体现向量的表达能力,对于输出的向量做归一化压缩处理,使得短的向量被压缩到几乎为零,所有长度都不超过1。如公式一其中vj是该j单元的输出向量,sj是它的全部输入,公式一为:

得到归一化的输出向量后向下一层,下一层是主矢量单元或特征矢量单元,使用特征位置相关性传导方法来传导参数,具体如下:如公式二,除了第一层的像素卷积单元,主矢量sj的全部输入是对低一层输出向量uj|i的加权求和。这些向量都是由低一层的单元产生,通过单元的输出ui和一个权重矩阵wij相乘得来。其中cij是由特征传导过程决定的关联系数。单元i和其上一层中所有单元的关联系数的和为1,这个系数越大,说明之间的关联度就越大。公式二为:

关联系数cij由公式三决定,其中bij的初始值为0,在每次计算前都会将两个特征向量间的关联值即向量间点积加上去,即bij=bij+vj·ui|j,这样便得到了关联系数cij。

将主矢量单元中提取的向量传入特征矢量单元,这是一个全连接单元,在这个单元中是若干个与分类类别相对应的16维向量(如要识别100种植物,这里就设置成100个向量),根据向量的模长判定结果,并与标记的真实值对比,算出损失(真实值与预测值间的差值),计算公式如公式4:

lk=tkmax(0,m+-‖vk‖)2+λ(1-tk)max(0,‖vk‖-m-)2(公式四)

其中,预测值与真实标注值一致时,tk=1,反之,tk=0。根据分类实际分类数量和训练效果调整m+、m-和λ三个参数,本发明中推荐三个参数一次为0.9、0.1、0.5。

本申请文件中,还涉及到矢量神经网络,用于对输入图像的基本像素特征的提取,所述矢量神经网络由一个像素卷积单元、一个特征矢量单元和若干主矢量单元构成。像素卷积单元负责接收原始待识别图像,主矢量单元接收像素卷积单元和其他主矢量单元的输出向量。多层网络结构都是从图像的基本像素特征开始提取,然后在更高层中进一步提取语义特征,卷积核可根据需要自定义调节,输出为向量。主矢量单元:接收来自底层的特征向量,进一步抽象高级特征,获取植物的高级语义特征。在此单元是由多通道的卷积操作的组合而成。特征矢量单元,该单元接收最后一层主矢量层抽象的特征,形成实例化向量用于分类计算其特征所属的植物类别。

所述步骤s1中采集的局部图像为植物的花、叶、果实和特征明显的植物器官图像。采集这些特征明显的植物器官图像,便于的特征提取,便于进行识别。

所述步骤s1中的分类整理为将采集的植物数据按照同种类数据放入同一文件夹中。将同种类的数据放入一个文件夹中后,能够在进行机器学习时,获取同一植物的特征数据,不会将数据进行交错。

所述步骤s2中的标注为将步骤s1中的分类整理后的文件进行编号,并以文本形式列出每个编号所对应的植物名称,形成了一个可用于训练所述矢量神经网络的数据集。所述步骤s2中的图像尺寸为128*128。所述步骤s3中的多维特征为经过数个主矢量单元后提取出来,具有多个维度的特征。所述步骤s3中的向量算法为向量间路由算法。所述步骤s3中的实体参数有叶片纹理、叶脉分布、形状信息,实体参数通过机器自主学习进行特征提取。

以上所述,仅为本发明的优选实施方式,但本发明的保护范围并不局限于此,任何熟悉本领域的技术人员在本发明所揭露的技术范围内,可不经过创造性劳动想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书所限定的保护范围为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1