卷积神经网络模型及其训练方法和装置、巡检方法和装置与流程

文档序号:18743075发布日期:2019-09-21 02:01阅读:181来源:国知局
卷积神经网络模型及其训练方法和装置、巡检方法和装置与流程

本发明涉及卷积神经网络技术领域,具体涉及一种卷积神经网络模型及其训练方法和装置、巡检方法和装置。



背景技术:

卷积神经网络是深度学习的一种,它通过组合低层特征形成更加抽象的高层,从而发现数据的分布式特征表示。近年来,在图像识别等计算机视觉领域的研究和应用中,卷积神经网络较为流行,相比于传统算法,其识别率在图像分类任务上已取得了优异的表现。

目前加快卷积神经网络训练的主要方法是通过缩小卷积神经网络模型实现的。例如:1、网络剪枝,可以将卷积神经网络模型变得更小,以便快速迭代,但该类方法不够稳定,需要经过调参才能达到良好效果;2、量化操作,即将卷积神经网络模型中的浮点数变成二值化数字,该方法虽然容易实现,但效果不明显。

因此,如何提高卷积神经网络模型的训练速度,是本领域技术人员亟待解决的技术问题。



技术实现要素:

有鉴于此,本发明的目的在于提供一种卷积神经网络模型及其训练方法和装置、巡检方法和装置,以提高卷积神经网络模型的训练速度。

为实现以上目的,本发明提供一种卷积神经网络模型的训练方法,包括:

对获取的训练数据集进行卷积处理,得到所述训练数据集对应的特征映射数据;

基于预设的边缘卷积规则,提取所述特征映射数据的有效特征数据;

将所述有效特征数据输入待训练卷积神经网络模型,进行特征训练,得到训练的卷积神经网络模型。

进一步地,上述所述的卷积神经网络模型的训练方法中,所述将所述有效特征数据输入待训练卷积神经网络模型,进行特征训练,得到训练的卷积神经网络模型,包括:

基于所述训练数据集对应的优化算法和所述训练数据集对应的损失函数,对所述有效特征数据进行特征训练,得到训练结果;

检测所述训练结果是否表示收敛;

若所述训练结果表示收敛,构建所述训练的卷积神经网络模型。

进一步地,上述所述的卷积神经网络模型的训练方法中,所述基于所述训练数据集对应的优化算法和所述训练数据集对应的损失函数,对所述有效特征数据进行特征训练,得到训练结果之前,还包括:

确定所述训练数据集的数据类型;

从预设的数据类型与损失函数的关联关系中,确定所述数据类型的关联损失函数作为所述训练数据集对应的损失函数;

从预设的数据类型与优化算法的关联关系中,确定所述数据类型的关联优化算法作为所述训练数据集对应的优化算法。

进一步地,上述所述的卷积神经网络模型的训练方法中,所述基于预设的边缘卷积规则,提取所述特征映射数据的有效特征数据,包括:

基于预设的边缘卷积算子,对所述特征映射数据沿第一预设方向进行边缘卷积,得到第一特征参数;

基于所述边缘卷积算子,对所述特征映射数据沿第二预设方向进行边缘卷积,得到第二特征参数;

基于预设的求和算法,将所述第一特征参数和所述第二特征参数进行求和,得到所述有效特征数据。

进一步地,上述所述的卷积神经网络模型的训练方法中,所述边缘卷积算子包括Sobel边缘卷积算子、Prewitt边缘卷积算子或Scharr边缘卷积算子。

本发明还提供一种巡检方法,包括:

获取目标对象的巡检图像;

将所述巡检图像输入预先训练的卷积神经网络模型,输出所述巡检图像的识别信息;

其中,所述卷积神经网络模型是根据上述所述的卷积神经网络模型的训练方法得到的。

进一步地,上述所述的巡检方法,还包括:

检测所述识别信息与预设的危害信息是否相匹配;

若所述识别信息与所述危害信息相匹配,输出报警信息。

本发明还提供一种卷积神经网络模型的训练装置,包括:

卷积模块,用于对获取的训练数据集进行卷积处理,得到所述训练数据集对应的特征映射数据;

边缘提取模块,用于基于预设的边缘卷积规则,提取所述特征映射数据的有效特征数据;

训练模块,用于将所述有效特征数据输入待训练卷积神经网络模型,进行特征训练,得到训练的卷积神经网络模型。

本发明还提供一种卷积神经网络模型,包括:

卷积层,用于对获取的训练数据集进行卷积处理,得到所述训练数据集对应的特征映射数据;

边缘池化层,用于基于预设的边缘卷积规则,提取所述特征映射数据的有效特征数据;

主池化层,用于将所述有效特征数据输入待训练卷积神经网络模型,进行特征训练,得到训练的卷积神经网络模型。

本发明还提供一种巡检装置,包括:

获取模块,用于获取目标对象的巡检图像;

识别模块,用于将所述巡检图像输入预先训练的卷积神经网络模型,输出所述巡检图像的识别信息;

其中,所述卷积神经网络模型是根据上述所述的卷积神经网络模型的训练方法得到的。

本发明的卷积神经网络模型及其训练方法和装置,通过对获取的训练数据集进行卷积处理,得到训练数据集对应的特征映射数据;基于预设的边缘卷积规则,提取特征映射数据的有效特征数据;将特征映射数据的有效特征数据输入待训练卷积神经网络模型,进行特征训练,实现了对无用特征数据进行过滤,从而利用有效特征数据对待训练卷积神经网络模型进行训练,使得训练过程能够快速收敛,得到训练后的卷积神经网络模型。采用本发明的技术方案,能够提高卷积神经网络模型的训练速度。

本实施例的巡检方法和装置,通过获取目标对象的巡检图像,并将目标对象的巡检图像输入预先训练的卷积神经网络模型,输出巡检图像的识别信息,实现了快速对目标对象的巡检。采用本发明的技术方案,能够对目标对象的巡检图像中无用特征数据进行过滤,从而利用预先训练的卷积神经网络模型对有效特征数据进行识别,使得识别过程能够快速收敛,提高巡检效率。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明的卷积神经网络模型的训练方法实施例一的流程图;

图2为本发明的卷积神经网络模型的训练方法实施例二的流程图;

图3为在Lenet模型下对Mnist数据集未通过Edge pooling提取有效特征数据时损失函数的收敛结果示意图;

图4为在Lenet模型下对Mnist数据集通过Sobel pooling提取有效特征数据时损失函数的收敛结果示意图;

图5为在Lenet模型下对Mnist数据集通过Prewitt pooling提取有效特征数据时损失函数的收敛结果示意图;

图6为在Lenet模型下对Mnist数据集通过Scharr pooling提取有效特征数据时损失函数的收敛结果示意图;

图7为在Lenet模型下对Cifar数据集未通过Edge pooling提取有效特征数据时损失函数的收敛结果示意图;

图8为在Lenet模型下对Cifar数据集通过Sobel pooling提取有效特征数据时损失函数的收敛结果示意图;

图9为在Lenet模型下对Cifar数据集通过Prewitt pooling提取有效特征数据时损失函数的收敛结果示意图;

图10为在Lenet模型下对Cifar数据集通过Scharr pooling提取有效特征数据时损失函数的收敛结果示意图;

图11为在LeNet模型下对Car数据集未通过Edge pooling提取有效特征数据时损失函数的收敛结果示意图;

图12为在LeNet模型下对Car数据集通过Sobel pooling提取有效特征数据时损失函数的收敛结果示意图

图13为在AlexNet模型下对Car数据集未通过Edge pooling提取有效特征数据时损失函数的收敛结果示意图;

图14为在AlexNet模型下对Car数据集通过Sobel pooling提取有效特征数据时损失函数的收敛结果示意图。

图15为本发明的巡检方法实施例的流程图;

图16为本发明的卷积神经网络模型的训练装置实施例一的结构示意图;

图17为本发明的巡检装置实施例的结构示意图;

图18为本发明的卷积神经网络模型实施例的结构示意图。

具体实施方式

为使本发明的目的、技术方案和优点更加清楚,下面将对本发明的技术方案进行详细的描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施方式,都属于本发明所保护的范围。

图1为本发明的卷积神经网络模型的训练方法实施例一的流程图,如图1 所示,本实施例的卷积神经网络模型的训练方法具体可以包括如下步骤:

100、对获取的训练数据集进行卷积处理,得到训练数据集对应的特征映射数据;

在一个具体实现过程中,可以从公共数据集Cifar-10、Mnist以及小车跑道的模拟数据集Car等数据集中下载相应的训练数据集。其中,训练数据集包括训练样本数据集、测试样本数据集和与测试样本数据集对应的标注数据;训练样本数据集、测试样本数据集之比应该大于1:1。

在获取到训练数据集后,可以对获取的训练数据集进行卷积处理,得到训练数据集对应的特征映射数据。

101、基于预设的边缘卷积规则,提取特征映射数据的有效特征数据;

卷积神经网络是一种专门为处理高维数据而设计的网络,其中的卷积层分为卷积和池化两个操作,卷积的过程为图像特征的提取过程,而池化层(pooling 层)则是对卷积后的图像进行了信息压缩。常用的池化操作有最大池化层(Max pooling)、平均池化层(AVE pooling)以及求和池化层(SUM pooling);Max pooling指的是取局部接受域中值最大的点,它能减小卷积层参数误差造成估计均值的偏移;AVE pooling指的是对局部接受域中的所有值求均值,此方法能减小领域大小受限造成的估计值方差增大;SUM pooling指的是对局部接受域中的所有值求和,其本质与AVE pooling一样。而Max pooling使损失函数收敛速度要优于SUM pooling和AVE pooling。

池化层是在卷积层的基础上,提取重要信息的操作,从人眼敏感性的角度看,局部最大值往往也是人眼看到的最有用的信息。因此,为了提高卷积神经网络的训练速度,本实施例优选在Max pooling之前添加了边缘池化层(Edge pooling),通过Edge pooling将卷积后得到的训练数据对应的特征映射数据中的边缘信息提取出来,使其能够过滤掉部分无用特征,从而将训练数据对应的特征映射数据中的有效特征数据进行提取,进而提高神经网络模型在训练时的收敛速度。

例如,本实施例的边缘卷积规则包括边缘卷积算子以及求和算法。本实施例中,可以基于预设的边缘卷积算子,对特征映射数据沿第一预设方向进行边缘卷积,得到第一特征参数;基于边缘卷积算子,对特征映射数据沿第二预设方向进行边缘卷积,得到第二特征参数;基于预设的求和算法,将第一特征参数和第二特征参数进行求和,得到有效特征数据。

具体地,边缘卷积算子是由微分的原理得到,本文选取了Sobel边缘卷积算子、Prewitt边缘卷积算子或Scharr边缘卷积算子,因为这些方法对噪声并不是非常的敏感,同时还具有位移不变性和各向同性。其中,Sobel边缘卷积算子为公式(1)和(2):

Prewitt边缘卷积算子为公式(3)和(4)

Scharr边缘卷积算子为公式(5)和(6)

首先用Gx对输入的图片沿x方向进行卷积,得到特征映射数据沿x方向的第一特征参数Gx,其中,卷积步长设为step=1,将图片进行全零填充,然后对 Gy卷积核进行类似的操作,得到第二特征参数Gy,最后将两个卷积所得到的参数进行相加,如公式(7)如下。

公式(7)可近似的表达为公式(8):

G=|Gx|+|Gy| (8)

102、将特征映射数据的有效特征数据输入待训练卷积神经网络模型,进行特征训练,得到训练的卷积神经网络模型。

在一个具体实现过程中,在得到的特征映射数据的有效特征数据后,将有效特征数据输入待训练卷积神经网络模型,进行特征训练,得到训练的卷积神经网络模型。

在此特征训练过程为:对训练样本数据集中的特征映射数据的有效特征数据进行训练,通过对这些有效特征数据进行训练从而顺向更新所有层参数向量的系数,完成卷积神经网络模型的训练,从而获得训练后的卷积神经网络模型;然后将训练数据集中的测试样本数据集中的特征映射数据的有效特征数据输入到训练后的卷积神经网络模型中进行分类识别,获取输出的分类识别结果;计算分类标注数据与测试样本数据集对应的标注数据的匹配概率,判断相互匹配的概率是否大于预设阈值,在这里预设阈值优选为99.9%,若是,则训练结束;若否,采用反向传播算法对训练后的卷积神经网络模型所有层参数向量的系数进行重置,并采用训练样本数据集中的特征映射数据的有效特征数据进行重新训练,直至收敛。

本实施例的卷积神经网络模型的训练方法,通过对获取的训练数据集进行卷积处理,得到训练数据集对应的特征映射数据;基于预设的边缘卷积规则,提取特征映射数据的有效特征数据;将特征映射数据的有效特征数据输入待训练卷积神经网络模型,进行特征训练,实现了对无用特征数据进行过滤,从而利用有效特征数据对待训练卷积神经网络模型进行训练,使得训练过程能够快速收敛,得到训练后的卷积神经网络模型。采用本发明的技术方案,能够提高卷积神经网络模型的训练速度。

图2为本发明的卷积神经网络模型的训练方法实施例二的流程图,如图2 所示,本实施例的卷积神经网络模型的训练方法在图1所示实施例的基础上,进一步地更加详细地对本发明的技术方案进行描述。

如图2所示,本实施例的卷积神经网络模型的训练方法具体可以包括如下步骤:

200、获取训练数据集;

201、确定训练数据集的数据类型;

由于本实施例针对的是图片的识别问题,因此要使得神经网络模型输出的识别结果与对应的图片的原始标签label差距越小越好。而实际应用中,不同的数据在进行训练过程中,所对应的损失函数和相关优化算法是不同的,因此,本实施例中,可以根据训练数据集的来源,来确定训练数据集的数据类型,以便选取合适的损失函数和优化算法。例如,训练数据集的数据类型可以划分为Cifar-10数据集、Mnist数据集、Car数据集等。

202、从预设的数据类型与损失函数的关联关系中,确定数据类型的关联损失函数作为训练数据集对应的损失函数;

在一个具体实现过程中,可以根据实际经验,预先设定数据类型与损失函数的关联关系,并在确定训练数据集的数据类型后,可以从数据类型与损失函数的关联关系中,确定训练数据集的数据类型的关联损失函数作为训练数据集对应的损失函数。

例如,在深度学习中对于整个卷积神经网络模型的训练就是对参数θ=[θ1T,θ2T,...θnT]T的训练,其中θ包含模型的所有参数,在Car数据集中,使用均方误差(Mean Squared Erro,MSE)作为网络的损失函数,因为使用MSE 能够最小化预测值yi(X,θi)与原始标签之间的差值,其中X为输入样本,yi(·)表示网络的输出值,表示样本标签,从而得到θ的最优解。 MSE损失函数公式如(9)所示:

对于Mnist数据集和Cifar数据集使用的损失函数则是交叉熵损失函数,因为使用交叉熵能够提高精度和训练速度,交叉熵公式如(10)所示:

203、从预设的数据类型与优化算法的关联关系中,确定数据类型的关联优化算法作为训练数据集对应的优化算法;

在一个具体实现过程中,可以根据实际经验,预先设定数据类型与优化算法的关联关系,并在确定训练数据集的数据类型后,可以从数据类型与优化算法的关联关系中,确定训练数据集的数据类型的关联优化算法作为训练数据集对应的损失函数。

例如,本实施例中对Mnist数据集使用的是GradientDescent优化算法, GradientDescent优化算法能够使损失函数最小化,网络模型使用的是LeNet模型;对Cifar数据集使用的是Adam优化算法,其对应的学习率为0.0001,网络模型使用的是LeNet模型;对Car数据集使用的是Adam优化算法,其对应的学习率为0.000001,使用的网络模型分别为Lenet模型和AlexNet模型。

需要说明的是,本实施例并不限定步骤202和步骤203之间执行顺序,也就是说可以先执行步骤202,再执行步骤203,也可以先执行步骤203,再执行步骤202。

204、对获取的训练数据集进行卷积处理,得到训练数据集对应的特征映射数据;

本实施例的实现方式与图1中步骤100的实现原理相同,详细请参考上述相关记载,在此不再赘述。

需要说明的是,本实施例中并不限定步骤204与步骤201-203之间的顺序,也就是说,执行步骤200后,可以先执行步骤204,再执行步骤201-203,也可以先执行步骤201-203,再执行步骤204。

205、基于训练数据集对应的优化算法和训练数据集对应的损失函数,对有效特征数据进行特征训练,得到训练结果;

在确定训练数据集对应的优化算法和训练数据集对应的损失函数后,可以对输入待训练卷积神经网络模型的有效特征数据进行特征训练,得到训练结果。

具体地,对训练样本数据集中的特征映射数据的有效特征数据进行训练,通过对这些有效特征数据进行训练从而顺向更新所有层参数向量的系数,完成卷积神经网络模型的训练,从而获得当前卷积神经网络模型作为训练结果。

206、检测训练结果是否表示收敛;若是,执行步骤207,若否,返回步骤 205;

例如,可以将训练数据集中的测试样本数据集中的特征映射数据的有效特征数据输入到训练后的卷积神经网络模型中进行分类识别,获取输出的分类识别结果;计算分类标注数据与测试样本数据集对应的标注数据的匹配概率,判断相互匹配的概率是否大于预设阈值,在这里预设阈值优选为99.9%,若是,则训练结果表示收敛,执行步骤207;若否,则重新执行步骤205,如,采用反向传播算法对训练后的卷积神经网络模型所有层参数向量的系数进行重置,并采用训练样本数据集中的特征映射数据的有效特征数据进行重新训练,直至训练结果表示收敛。

207、构建训练的卷积神经网络模型。

若检测出训练结果表示收敛,则对待训练卷积神经网络模型完成训练,从而构建训练的卷积神经网络模型。

本实施例的卷积神经网络模型的训练方法,实现了对无用特征数据进行过滤,从而利用有效特征数据对待训练卷积神经网络模型进行训练,使得训练过程能够快速收敛,得到训练后的卷积神经网络模型。采用本发明的技术方案,能够提高卷积神经网络模型的训练速度。

下面以具体示例对本发明的技术方案进行描述。

图3为在Lenet模型下对Mnist数据集未通过Edge pooling提取有效特征数据时损失函数的收敛结果示意图,图4为在Lenet模型下对Mnist数据集通过 Sobel pooling提取有效特征数据时损失函数的收敛结果示意图,图5为在Lenet 模型下对Mnist数据集通过Prewitt pooling提取有效特征数据时损失函数的收敛结果示意图,图6为在Lenet模型下对Mnist数据集通过Scharr pooling提取有效特征数据时损失函数的收敛结果示意图。其中,横坐标为收敛速度,纵坐标为损失函数。

由图3-图6可以看出用Mnist数据集的实验结果为:加edge pooling的结果(图4-图6)比不使用edge pooling的结果(图3)收敛速度大约快2倍。

图7为在Lenet模型下对Cifar数据集未通过Edge pooling提取有效特征数据时损失函数的收敛结果示意图,图8为在Lenet模型下对Cifar数据集通过 Sobel pooling提取有效特征数据时损失函数的收敛结果示意图,图9为在Lenet 模型下对Cifar数据集通过Prewitt pooling提取有效特征数据时损失函数的收敛结果示意图,图10为在Lenet模型下对Cifar数据集通过Scharr pooling提取有效特征数据时损失函数的收敛结果示意图。其中,横坐标为收敛速度,纵坐标为损失函数。

由图7-图10可以看出用Cifar数据集的实验结果为:加edge pooling的结果(图8-图10)比不使用edge pooling的结果(图7)收敛速度更快。

图11为在LeNet模型下对Car数据集未通过Edge pooling提取有效特征数据时损失函数的收敛结果示意图,图12为在LeNet模型下对Car数据集通过 Sobel pooling提取有效特征数据时损失函数的收敛结果示意图。其中,横坐标为收敛速度,纵坐标为损失函数。

由图11和图12可以看出LeNet模型下用Car数据集的实验结果为:加edge pooling的结果(图12)比不使用edge pooling的结果(图11)收敛速度更快。

图13为在AlexNet模型下对Car数据集未通过Edge pooling提取有效特征数据时损失函数的收敛结果示意图,图14为在AlexNet模型下对Car数据集通过Sobel pooling提取有效特征数据时损失函数的收敛结果示意图。其中,横坐标为收敛速度,纵坐标为损失函数。

由图13-图14可以看出用Car数据集的实验结果为:加edge pooling的结果(图14)比不使用edge pooling的结果(图13)收敛速度更快。

图15为本发明的巡检方法实施例的流程图,如图15所示,本实施例的巡检方法具体可以包括如下步骤:

150、获取目标对象的巡检图像;

例如,以目标对象为危化品仓库为例对本发明的技术方案进行描述。危化品仓库中的自主巡检车是保证危化品存储安全的有效工具,而自主巡检车对仓库的路径识别是智能小车的关键技术之一,因此,自主巡检车会通过摄像头、红外传感器等获取到可视范围内仓库的图像作为巡检图像。

需要说明的是,本实施例中目标对象还可以为其它场所,本实施例并不限定危化品仓库。

151、将目标对象的巡检图像输入预先训练的卷积神经网络模型,输出巡检图像的识别信息;

其中,卷积神经网络模型是根据上述实施例的卷积神经网络模型的训练方法得到的。

本实施例的巡检方法,通过获取目标对象的巡检图像,并将目标对象的巡检图像输入预先训练的卷积神经网络模型,输出巡检图像的识别信息,实现了快速对目标对象的巡检。采用本发明的技术方案,能够对目标对象的巡检图像中无用特征数据进行过滤,从而利用预先训练的卷积神经网络模型对有效特征数据进行识别,使得识别过程能够快速收敛,提高巡检效率。

进一步地,上述实施例中,在输出巡检图像的识别信息后,可以检测识别信息与预设的危害信息是否相匹配;若检测出识别信息与危害信息相匹配,输出报警信息,从而提醒相关人员采取相应措施。

图16为本发明的卷积神经网络模型的训练装置实施例一的结构示意图,如图16所示,本实施例的卷积神经网络模型的训练装置包括卷积模块10、边缘提取模块11和训练模块12。

卷积模块10,用于对获取的训练数据集进行卷积处理,得到训练数据集对应的特征映射数据;

边缘提取模块11,用于基于预设的边缘卷积规则,提取特征映射数据的有效特征数据;

训练模块12,用于将特征映射数据的有效特征数据输入待训练卷积神经网络模型,进行特征训练,得到训练的卷积神经网络模型。

本实施例的卷积神经网络模型的训练装置,通过对获取的训练数据集进行卷积处理,得到训练数据集对应的特征映射数据;基于预设的边缘卷积规则,提取特征映射数据的有效特征数据;将特征映射数据的有效特征数据输入待训练卷积神经网络模型,进行特征训练,实现了对无用特征数据进行过滤,从而利用有效特征数据对待训练卷积神经网络模型进行训练,使得训练过程能够快速收敛,得到训练后的卷积神经网络模型。采用本发明的技术方案,能够提高卷积神经网络模型的训练速度。

在一个具体实现过程中,训练模块12还用于确定训练数据集的数据类型;从预设的数据类型与损失函数的关联关系中,确定数据类型的关联损失函数作为训练数据集对应的损失函数;从预设的数据类型与优化算法的关联关系中,确定数据类型的关联优化算法作为训练数据集对应的优化算法。基于训练数据集对应的优化算法和训练数据集对应的损失函数,对有效特征数据进行特征训练,得到训练结果;检测训练结果是否表示收敛;若训练结果表示收敛,构建训练的卷积神经网络模型。若训练结果表示未收敛,重新基于训练数据集对应的优化算法和训练数据集对应的损失函数,对有效特征数据进行特征训练,得到训练结果。

进一步地,上述实施例中,边缘提取模块11,具体用于基于预设的边缘卷积算子,对特征映射数据沿第一预设方向进行边缘卷积,得到第一特征参数;基于边缘卷积算子,对特征映射数据沿第二预设方向进行边缘卷积,得到第二特征参数;基于预设的求和算法,将第一特征参数和第二特征参数进行求和,得到有效特征数据。其中,边缘卷积算子包括Sobel边缘卷积算子、Prewitt边缘卷积算子或Scharr边缘卷积算子。

图17为本发明的巡检装置实施例的结构示意图,如图17所示,本实施例的巡检装置包括获取模块20和识别模块21。

获取模块20,用于获取目标对象的巡检图像;

识别模块21,用于将巡检图像输入预先训练的卷积神经网络模型,输出巡检图像的识别信息;

其中,卷积神经网络模型是根据上述实施例的卷积神经网络模型的训练方法得到的。

本实施例的巡检装置,通过获取目标对象的巡检图像,并将目标对象的巡检图像输入预先训练的卷积神经网络模型,输出巡检图像的识别信息,实现了快速对目标对象的巡检。采用本发明的技术方案,能够对目标对象的巡检图像中无用特征数据进行过滤,从而利用预先训练的卷积神经网络模型对有效特征数据进行识别,使得识别过程能够快速收敛,提高巡检效率。

进一步地,上述实施例中,识别模块21,还用于在输出巡检图像的识别信息后,检测识别信息与预设的危害信息是否相匹配;若检测出识别信息与危害信息相匹配,输出报警信息,从而提醒相关人员采取相应措施。

关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。

图18为本发明的卷积神经网络模型实施例的结构示意图,如图18所示,本实施例的卷积神经网络模型包括卷积层30、边缘池化层31和主池化层32。

卷积层30,用于对获取的训练数据集进行卷积处理,得到训练数据集对应的特征映射数据;

边缘池化层31,用于基于预设的边缘卷积规则,提取特征映射数据的有效特征数据;

主池化层32,用于将有效特征数据输入待训练卷积神经网络模型,进行特征训练,得到训练的卷积神经网络模型。

关于上述实施例中的卷积神经网络模型,其中各个层执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。

本发明还提供一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如上实施例的卷积神经网络模型的训练方法或者巡检方法。

可以理解的是,上述各实施例中相同或相似部分可以相互参考,在一些实施例中未详细说明的内容可以参见其他实施例中相同或相似的内容。

需要说明的是,在本发明的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明的描述中,除非另有说明,“多个”的含义是指至少两个。

流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。

应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA) 等。

本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。

此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。

上述提到的存储介质可以是只读存储器,磁盘或光盘等。

在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。

尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1