一种用于图像识别的神经网络模型的制作方法

文档序号:16037671发布日期:2018-11-24 10:12阅读:502来源:国知局

本发明属于人工智能技术领域,尤其是一种用于图像识别的神经网络模型。

背景技术

随着电子计算机技术逐渐成熟,数字图像技术被广泛应用于工农业生产和日常生活的各个领域。数字图像技术领域中图像的传输和存储技术已经非常成熟,而且应用广泛,而图像的分析和理解无论是理论还是应用与前者相比还有着很大的差距。

图像的识别作为图像分析和理解的核心问题一直是当前领域的热点与难点。图像识别技术的目的就是根据观测的图像,对其中的物体进行辨别与分类。一般来说,一个图像识别系统由三个部分组成:图像分割、图像特征提取和分类器的识别分类。图像切割是将图像划分为多个关键的区域,然后将每个区域的图像进行特征提取,最后对提取的特征进行判断,进而进行相应的分类工作。其中,图像分割与特征提取一直是图像处理领域的研究重点。在图像识别技术的发展过程中,先后出现过统计识别、结构识别、模糊识别的识别方法。但是这些方法大都存在着对结构复杂的模式难以抽取特征、干扰与噪声影响太大、难以建立隶属函数等缺点,导致识别的效果不佳。

深度学习是近几年来人工智能领域取得的重大突破之一,在图像识别、自然语言处理等诸多领域都取得了巨大的成功。卷积神经网络(convolutionalneuralnetwork,cnn)隶属于深度学习模型,是一种按误差逆向传播训练的多层前馈神经网络,能够通过反向传播不断调整网络的权值和阈值,是近年发展起来的一种高效识别方法。与传统模式识别方法不同的是,卷积神经网络能够从大量数据中自动学习特征,而非传统的手工设计特征。由于训练数据中可能包含成千上万的参数,手工设计出有效的特征将耗费很多时间。而卷积神经网络可以从新的训练数据自发而快速地学习到有效的特征表示。由于其具有很强的学习能力、高效的特征提取能力、分布式存储记忆等诸多优点,在图像识别领域具有广泛应用。最近几年,人工神经网络发展十分迅速,涌现出许多优秀的网络模型。但由于该技术目前还处于起步阶段,许多模型还处于丰富和完善中,目前能够投入实际应用的模型还不够多。

通过检索,尚未发现与本发明相关的专利公开文献。



技术实现要素:

本发明的目的在于克服现有技术的不足,提出一种设计合理、精度高且性能稳定的用于图像识别的神经网络模型。

本发明解决其技术问题是采取以下技术方案实现的:

一种用于图像识别的神经网络模型,由多个神经元连接在一起构成多层网络,所述多层网络包括卷积层、池化层和全连接层,卷积层用于提取特征向量,池化层对特征向量进一步筛选,全连接层进行最后的分类,各层之间通过激活函数连接在一起,并通过训练算法不断改进网络参数。

进一步,所述神经元是神经网络结构对应的公式为:

其中,y表示x神经元的输出,f(x)表示激活函数,wi表示第i个输入的权重,θ表示x神经元的阈值。

进一步,所述激活函数使用relu函数作为激活函数。

进一步,所述卷积层采用3×3的卷积核,其内积的计算公式为:

其中f(x)表示激活函数,wm,n表示第m行n列的权重,wb表示卷积核的阈值。

进一步,所述卷积层卷积层包括第一层卷积层、第二层卷积层和第三层卷积层;所述池化层池化层包括第一层池化层、第二层池化层和第三层池化层;所述全连接层包括第一层全连接层和第二层全连接层,各层的基本参数如下:

输入:128×128大小的图片,3通道;

第一层卷积层:8×8卷积核,输出向量长度为16;

第一层池化层:2×2的核;

第二层卷积层:5×5卷积核,输出向量长度为32;

第二层池化层:2×2的核;

第三层卷积层:5×5卷积核,输出向量长度为128;

第三层池化层:2×2的核;

第一层全连接层:将第三层池化层的输出连接成一个长度为1024的向量;

第二层全连接层:将第一层全连接层的输出连接成一个长度为1024的向量。

本发明的优点和积极效果是:

本发明设计合理,其通过卷积层提取特征向量,池化层对向量进一步筛选,全连接层进行最后的分类,通过激活函数用于建立各层之间的连接关系并通过训练算法不断改进网络参数,提高图像中目标的识别率,为网络模型的设计、训练算法的选择提供新思路,可广泛用于图像识别领域。

附图说明

图1为本发明中神经元的结构模型图。

图2为本发明中激活函数的函数图像。

图3为本发明中卷积算法示例图。

图4为本发明中池化算法示例图。

图5为本发明中神经网络的结构模型图。

具体实施方式

以下结合附图对本发明实施例做进一步详述。

一种用于图像识别的神经网络模型,由多个神经元连接在一起构成多层网络,多层网络包括卷积层、池化层和全连接层,卷积层用于提取特征向量,池化层对特征向量进一步筛选,全连接层进行最后的分类,各层之间通过激活函数连接在一起,并通过训练算法不断改进网络参数,从而提高识别率。

下面对神经网络模型的各个部分分别进行说明:

所述神经元是神经网络的基本组成部分,每个神经元与其他神经元相连,神经元收到来自其他n个神经元的输入信号,将总输入值与神经元的阈值进行比较,然后通过“激活函数”产生输出。神经元结构如图1所示,对应的公式如下:

其中,y表示x神经元的输出,f(x)表示激活函数,wi表示第i个输入的权重,θ表示x神经元的阈值。

所述激活函数用于建立各层之间的连接关系。在神经网络中,每一层的输出的都是上一层输入的线性函数,所以无论是怎样的网络结构,输出都是输入的线性组合。然而大多数据往往都不是线性可分的,引入激活函数的目的是为了提升神经网络模型的表达能力,引入非线性因素,解决线性模型不能解决的问题。本模型中使用relu函数作为激活函数,函数图像如图2所示,对应公式如下:

f(x)=max(0,x)(2)

所述卷积层卷积层包括第一层卷积层、第二层卷积层和第三层卷积层。卷积层负责特征的提取,通过卷积核对图像的每个小分区进行内积,提取特征向量。由于图像上每一部分的统计特性是相通的,所以对于每个小分区,我们都使用同一个卷积核进行特征提取,如图3所示,假设使用大小为3×3的卷积核,内积的计算公式为:

其中f(x)表示激活函数,本例中使用relu函数,wm,n表示第m行n列的权重,wb表示卷积核的阈值。

所述池化层池化层包括第一层池化层、第二层池化层和第三层池化层。池化层用于对卷积层的结果进行采样,筛选重要的样本,本发明采用maxpooling进行采样,即是取出n×n大小样本中的最大值,如图4所示。

所述全连接层包括第一层全连接层和第二层全连接层。全连接层中的每个神经元的输入都与上一层的所有神经元相连,输出与下一层的全部神经元相连,全连接层在整个网络中起到分类的作用,将之前提取的特征向量高度提纯,计算出图像最终所属的分类标签。

本网络模型各层的结构如图5所示,每层的基本参数如下:

输入:128×128大小的图片,3通道

第一层卷积层:8×8卷积核,输出向量长度为16

第一层池化层:2×2的核

第二层卷积层:5×5卷积核,输出向量长度为32

第二层池化层:2×2的核

第三层卷积层:5×5卷积核,输出向量长度为128

第三层池化层:2×2的核

第一层全连接层:将第三层池化层的输出连接成一个长度为1024的向量

第二层全连接层:将第一层全连接层的输出连接成一个长度为1024的向量

本神经网络模型采用如下训练算法进行神经网络的训练用于改进网络参数算法:

神经网络的训练过程属于有监督学习。训练算法的目的是根据网络在训练过程中的实际输出与期望输出之间的对比来调节各个神经元的权值。本发明使用梯度下降算法(gradientdescent)进行训练,假设误差函数为:

其中y为实际结果,f(∑wixi)为预测结果。当δc为最小时,就得到了最优的wi,其推导过程如下:

在训练网络时,首先输入训练数据进行前向传播,在已知实际结果和得出预测结果后,使用训练算法计算误差,再将误差反向传播回输入层,更新权值。

需要强调的是,本发明所述的实施例是说明性的,而不是限定性的,因此本发明包括并不限于具体实施方式中所述的实施例,凡是由本邻域技术人员根据本发明的技术方案得出的其他实施方式,同样属于本发明保护的范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1