一种基于裁剪的卷积神经网络的确定方法及装置与流程

文档序号:17444181发布日期:2019-04-17 05:16阅读:161来源:国知局
一种基于裁剪的卷积神经网络的确定方法及装置与流程

本发明涉及图像识别技术领域,特别是涉及一种基于裁剪的卷积神经网络的确定方法及装置。



背景技术:

随着计算机深度学习技术的发展,为了医生更加方便、细致的观察,通常使用计算机辅助方法的识别病理图像,减轻病理医师的工作负担。

现有的计算机辅助方法通过将病理图像的样本训练出卷积神经网络,然后将待识别病理图像输入训练好的卷积神经网络,用于识别待识别病理图像的标签所属标注的病症。

卷积神经网络的是由多个卷积层构成,每个卷积层包含多个通道,现有技术将卷积神经网络的多个通道的设置相等的初始权重,然后使用病理图像的样本训练卷积神经网络。

卷积神经网络各个卷积层的通道较多,训练出的卷积神经网络内部结构也较为复杂,而许多通道对于病理图像的样本学习的特征较少,导致将待识别病理图像输入训练好的卷积神经网络,用于识别待识别病理图像的标签类别的时间较长。



技术实现要素:

本发明实施例的目的在于提供一种基于裁剪的卷积神经网络的确定方法及装置,以提高识别待识别病理图像的标签类别的效率,具体技术方案如下:

第一方面,本发明实施例提供的一种基于裁剪的卷积神经网络的确定方法,包括:

针对样本集中的一个样本,将该样本输入预设的卷积神经网络,利用卷积神经网络,通过卷积神经网络的卷积层的各个通道输出的该样本特征图的矩阵;样本的特征图的矩阵数目与卷积神经网络的卷积层的通道数目相同;

针对卷积层的一个通道输出的样本的特征图的矩阵,将该矩阵进行压缩成数字,基于数字,利用sigmoid函数,确定卷积神经网络的卷积层各个通道的激励因子,激励因子与卷积层通道的重要程度相关;

基于卷积神经网络的卷积层各个通道的激励因子及样本集中的样本数目,确定卷积神经网络的卷积层各个通道的权重;

针对预设卷积神经网络的一个卷积层,在该卷积层中选择通道的权重低于权重阈值的通道进行裁剪,将裁剪后的卷积神经网络作为已训练卷积神经网络。

其中,可以将卷积层的预设可调参数、各个通道的权重的均值及权重的标准差的和,确定为权重阈值。

可选的,针对卷积层的一个通道输出的样本的特征图的矩阵,将该矩阵进行压缩成数字,基于数字,利用sigmoid函数,确定卷积神经网络的卷积层各个通道的激励因子,包括:

针对卷积层的一个通道输出的样本的特征图的矩阵,将该矩阵输入卷积神经网络中挤压和激发se模块中的池化层,通过池化层对该矩阵进行压缩成数字,数字代表样本的特征图的矩阵平均值;

将数字输入se模块中的第一个全连接层,将se模块中的第一个全连接层输出作为se模块中激活层的输入,确定se模块中激活层的输出;激活层的输出与激活层的输入呈非线性关系;

将se模块中激活层的输出输入se模块中第二个全连接层,通过se模块中第二个全连接层输出与卷积层中各个通道的数目相等的数字;

将第二个全连接层输出的与卷积层中各个通道的数目相等的数字输入至se模块中sigmoid层,通过sigmoid层输出预设卷积神经网络的卷积层各个通道的激励因子,池化层与第一个全连接层相连,第一个全连接层与激活层相连,激活层与第二个全连接层相连,第二个全连接层与sigmoid层相连。

可选的,其特征在于,针对卷积层的一个通道输出的样本的特征图的矩阵,将该矩阵进行压缩成数字,基于数字,利用sigmoid函数,确定卷积神经网络的卷积层各个通道的激励因子,包括:

将压缩后的数字输入se模块中的第一个全连接层,将第一个全连接层预设的参数与压缩后的数字相乘的结果,确定为se模块中的第一个全连接层输出;

将se模块中的第一个全连接层输出输入se模块中激活层,利用se模块中的激活层函数,输出压缩后的数字的非线性矩阵;

将非线性矩阵输入se模块中的第二个全连接层,将第二个全连接层预设的参数与非线性矩阵相乘的结果,确定为第二个全连接层的输出;

将第二个全连接层的输出输入se模块中sigmoid层,利用sigmoid层的sigmoid函数,输出的卷积层各个通道的激励因子。

可选的,其特征在于,基于卷积神经网络的卷积层各个通道的激励因子及样本集中的样本数目,确定卷积神经网络的卷积层各个通道的权重,包括:

针对预设卷积神经网络的卷积层的一个通道,将样本集中的各个样本输入该通道的激励因子求和,获得求和结果;

将求和结果与样本集中的样本数目的比值,确定为通道的权重。

本发明第一方面提供的一种基于裁剪的卷积神经网络的确定方法,还包括:

将待识别病理图像输入已训练卷积神经网络,利用已训练卷积神经网络输出待识别病理图像的标签类别。

第二方面,本发明提供了一种基于裁剪的卷积神经网络的确定装置,包括:

矩阵输出模块,用于针对样本集中的一个样本,将该样本输入预设的卷积神经网络,利用卷积神经网络,通过卷积神经网络的卷积层的各个通道输出的该样本特征图的矩阵;样本的特征图的矩阵数目与卷积神经网络的卷积层的通道数目相同;

激励因子模块,用于针对卷积层的一个通道输出的样本的特征图的矩阵,将该矩阵进行压缩成数字,基于数字,利用sigmoid函数,确定卷积神经网络的卷积层各个通道的激励因子,激励因子与卷积层通道的重要程度相关;

权重确定模块,用于基于卷积神经网络的卷积层各个通道的激励因子及样本集中的样本数目,确定卷积神经网络的卷积层各个通道的权重;

网络确定模块,用于针对预设卷积神经网络的一个卷积层,在该卷积层中选择通道的权重低于权重阈值的通道进行裁剪,将裁剪后的卷积神经网络作为已训练卷积神经网络。

可选的,激励因子模块具体用于:

针对卷积层的一个通道输出的样本的特征图的矩阵,将该矩阵输入卷积神经网络中挤压和激发se模块中的池化层,通过池化层对该矩阵进行压缩成数字,数字代表样本的特征图的矩阵平均值;

将数字输入se模块中的第一个全连接层,将se模块中的第一个全连接层输出作为se模块中激活层的输入,确定se模块中激活层的输出;激活层的输出与激活层的输入呈非线性关系;

将se模块中激活层的输出输入se模块中第二个全连接层,通过se模块中第二个全连接层输出与卷积层中各个通道的数目相等的数字;

将第二个全连接层输出的与卷积层中各个通道的数目相等的数字输入至se模块中sigmoid层,通过sigmoid层输出预设卷积神经网络的卷积层各个通道的激励因子,池化层与第一个全连接层相连,第一个全连接层与激活层相连,激活层与第二个全连接层相连,第二个全连接层与sigmoid层相连。

可选的,激励因子模块具体用于:

将压缩后的数字输入se模块中的第一个全连接层,将第一个全连接层预设的参数与压缩后的数字相乘的结果,确定为se模块中的第一个全连接层输出;

将se模块中的第一个全连接层输出输入se模块中激活层,利用se模块中的激活层函数,输出压缩后的数字的非线性矩阵;

将非线性矩阵输入se模块中的第二个全连接层,将第二个全连接层预设的参数与非线性矩阵相乘的结果,确定为第二个全连接层的输出;

将第二个全连接层的输出输入se模块中sigmoid层,利用sigmoid层的sigmoid函数,输出的卷积层各个通道的激励因子。

可选的,权重确定模块具体用于:

针对预设卷积神经网络的卷积层的一个通道,将样本集中的各个样本输入该通道的激励因子求和,获得求和结果;

将求和结果与样本集中的样本数目的比值,确定为通道的权重。

本发明第二方面提供的一种基于裁剪的卷积神经网络的确定装置,还包括:

权重阈值确定模块,用于将卷积层的预设可调参数、各个通道的权重的均值及权重的标准差的和,确定为权重阈值。

本发明第二方面提供的一种基于裁剪的卷积神经网络的确定装置,还包括:

识别模块,用于将待识别病理图像输入已训练卷积神经网络,利用已训练卷积神经网络输出待识别病理图像的标签类别。

在本发明实施的又一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述任一所述的一种基于裁剪的卷积神经网络的确定方法。

在本发明实施的又一方面,本发明实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一所述的一种基于裁剪的卷积神经网络的确定方法。

本发明实施例提供的一种基于裁剪的卷积神经网络的确定方法及装置,针对样本集中的一个样本,将该样本输入预设的卷积神经网络,利用卷积神经网络,通过卷积神经网络的卷积层的各个通道输出的该样本特征图的矩阵;针对卷积层的一个通道输出的样本的特征图的矩阵,将该矩阵进行压缩成数字,基于数字,利用sigmoid函数,确定卷积神经网络的卷积层各个通道的激励因子,基于卷积神经网络的卷积层各个通道的激励因子及样本集中的样本数目,确定卷积神经网络的卷积层各个通道的权重;针对预设卷积神经网络的一个卷积层,在该卷积层中选择通道的权重低于权重阈值的通道进行裁剪,将裁剪后的卷积神经网络作为已训练卷积神经网络。相比于现有技术,本发明实施例通过确定预设卷积神经网络中卷积层的各个通道的激励因子,从而确定卷积层各个通道的权重,对权重低于权重阈值的通道进行裁剪,降低了卷积神经网络内部结构的复杂度,减少将待识别病理图像输入已训练的卷积神经网络,用于识别待识别病理图像的标签类别的时间。当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。

图1为本发明实施例提供的一种基于裁剪的卷积神经网络的确定方法的流程图;

图2为是现有技术中不含se模块的卷积神经网络的结构图;

图3为本发明实施例提供的已训练卷积神经网络的内部结构图;

图4为本发明实施例提供的se模块内部结构的示意图;

图5为本发明实施例提供的通过se模块确定激励因子的结构图;

图6为本发明实施例提供的裁剪卷积层通道后的结果示意图;

图7为本发明实施例提供的一种基于裁剪的卷积神经网络的确定装置的结构图;

图8为本发明实施例提供的一种电子设备的结构图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行描述。

本发明实施例提供的一种基于裁剪的卷积神经网络的确定方法及装置,针对样本集中的一个样本,将该样本输入预设的卷积神经网络,利用卷积神经网络,通过卷积神经网络的卷积层的各个通道输出的该样本特征图的矩阵;针对卷积层的一个通道输出的样本的特征图的矩阵,将该矩阵进行压缩成数字,基于数字,利用sigmoid函数,确定卷积神经网络的卷积层各个通道的激励因子,基于卷积神经网络的卷积层各个通道的激励因子及样本集中的样本数目,确定卷积神经网络的卷积层各个通道的权重;针对预设卷积神经网络的一个卷积层,在该卷积层中选择通道的权重低于权重阈值的通道进行裁剪,将裁剪后的卷积神经网络作为已训练卷积神经网络。相比于现有技术,降低了卷积神经网络内部结构的复杂度。

下面首先对本发明实施例提供的一种基于裁剪的卷积神经网络的确定方法作介绍。

第一方面,如图1所示,本发明实施例提供的一种基于裁剪的卷积神经网络的确定方法,包括:

s101,针对样本集中的一个样本,将该样本输入预设的卷积神经网络,利用卷积神经网络,通过卷积神经网络的卷积层的各个通道输出的该样本特征图的矩阵;样本的特征图的矩阵数目与卷积神经网络的卷积层的通道数目相同;

s102,针对卷积层的一个通道输出的样本的特征图的矩阵,将该矩阵进行压缩成数字,基于数字,利用sigmoid函数,确定卷积神经网络的卷积层各个通道的激励因子,

其中,激励因子与卷积层通道的重要程度相关;激励因子与卷积层通道的重要程度呈正比例。

为了降低卷积神经网络的复杂度,上述s102可以通过至少一种实施方式确定卷积神经网络的卷积层各个通道的激励因子:

在一种可能的实时方式中,可以通过以下步骤确定卷积神经网络的卷积层各个通道的激励因子:

步骤一:针对卷积层的一个通道输出的样本的特征图的矩阵,将该矩阵输入卷积神经网络中挤压和激发se模块中的池化层,通过池化层对该矩阵进行压缩成数字,数字代表样本的特征图的矩阵平均值;

步骤二:将数字输入se模块中的第一个全连接层,将se模块中的第一个全连接层输出作为se模块中激活层的输入,确定se模块中激活层的输出;激活层的输出与激活层的输入呈非线性关系;

步骤三:将se模块中激活层的输出输入se模块中第二个全连接层,通过se模块中第二个全连接层输出与卷积层中各个通道的数目相等的数字;

步骤四:将所述第二个全连接层输出的与所述卷积层中各个通道的数目相等的数字输入至se模块中sigmoid层,通过所述sigmoid层输出预设卷积神经网络的卷积层各个通道的激励因子。

其中,池化层与第一个全连接层相连,第一个全连接层与激活层相连,激活层与第二个全连接层相连,第二个全连接层与sigmoid层相连。

参考图2、图3及图4,图2中是现有技术中不含se模块的卷积神经网络的结构,图3是本发明实施例提供的卷积神经网络的结构,卷积神经网络的卷积层输出输入至每一个se模块,每个卷积层包含多个通道。图4是se模块的具体结构,从左至右,每个se模块包括池化层、全连接层、激活层、全连接层及sigmoid层。

将一个样本输入至卷积神经网络,卷积神经网络的卷积层的每个通道输出样本的特征图的矩阵,将该矩阵输入se模块中的池化层,通过池化层对该矩阵进行压缩成数字,将数字输入se模块中的第一个全连接层,将se模块中的第一个全连接层输出作为se模块中激活层的输入,确定se模块中激活层的输出;全连接层的输出向量经过激活层引入非线性,因此激活层的输出与所激活层的输入呈非线性关系,将se模块中激活层的输出输入se模块中第二个全连接层,通过se模块中第二个全连接层输出与卷积层中各个通道的数目相等的数字,主要目的在于恢复第一个全连接层输出的压缩后的数字,为提高得到激励因子的准确率。

在另一种可能的实时方式中,可以通过以下步骤确定卷积神经网络的卷积层各个通道的激励因子:

步骤一:将压缩后的数字输入se模块中的第一个全连接层,将第一个全连接层预设的参数与压缩后的数字相乘的结果,确定为se模块中的第一个全连接层输出;

参考图5,se模块中的每个全连接层都有自己的参数,用m表示,全连接层的函数为:fκ(z)=mz,第一个全连接层的参数为m1,第二个全连接层的参数为m2,z代表压缩后的数字的集合。

步骤二:将se模块中的第一个全连接层输出输入se模块中激活层,利用se模块中的激活层函数,输出压缩后的数字的非线性矩阵;

参考图5,se模块中的激活层函数称为激活函数(activationfunction),通常指代以斜坡函数及其变种为代表的非线性函数,斜坡函数f(α)=max(0,α),激活层函数σrelu(α)=max(0,α),α代表激活层的输入。

步骤三:将非线性矩阵输入se模块中的第二个全连接层,将第二个全连接层预设的参数与非线性矩阵相乘的结果,确定为第二个全连接层的输出;

步骤四:将第二个全连接层的输出输入se模块中sigmoid层,利用sigmoid层的sigmoid函数,输出的卷积层各个通道的激励因子。

参考图5,一个卷积层第λ通道输出样本的特征图的矩阵xλ,x=[x1,x2,...,xc],x∈rw×h×c,x代表特征图的矩阵的集合,r代表实数域,xλ代表第λ通道输出的特征图的矩阵,w代表特征图的矩阵xλ的宽,h代表特征图的矩阵xλ的高,xλ(i,j)代表特征图的矩阵xλ中的在(i,j)位置的值,i代表特征图的矩阵的行,j代表特征图的矩阵的列。首先se模块的池化层将w×h维的一个特征图的矩阵压缩至一个数字,fsq为池化层函数,z=[z1,z2,...,zc],zλ代表池化层输出的第λ个通道压缩后的数字,sigmoid层函数为σsigmoid(ε)=1/(1+e-ε),ε代表sigmoid层的输入,sλ=σsigmoid(ffc(σrelu(ffc(zλ))))=σsigmoid(m2(σrelu(m1zλ)))),s=[s1,s2,...,sc],s∈r1×1×c,λ=1,2,...,c,c代表通道的总数,sλ代表第λ个通道的激励因子,s代表激励因子的集合。

本实施方式通过se模块中各层的函数,学习卷积层各个通道的激励因子,可以提高确定各个通道的激励因子的效率。

s103,基于卷积神经网络的卷积层各个通道的激励因子及样本集中的样本数目,确定卷积神经网络的卷积层各个通道的权重;

在一种可能的实时方式中,上述s103可以通过至少一种实施方式确定卷积层各个通道的权重:

在一种可能的实施方式中,针对预设卷积神经网络的卷积层的一个通道,将样本集中的各个样本输入该通道的激励因子求和,获得求和结果;将求和结果与样本集中的样本数目的比值,确定为通道的权重。

其中,通过统计整个训练集上的激励因子来计算通道权重。设训练集中样本的数目为n,对于一个训练样本n,为某卷积层的各个通道的激励因子,则该卷积层第λ个通道的权重为该卷积层各个通道权重w=[w1,w2,...,wc],λ=1,2,...,c。

s104,针对预设卷积神经网络的一个卷积层,在该卷积层中选择通道的权重低于权重阈值的通道进行裁剪,将裁剪后的卷积神经网络作为已训练卷积神经网络。

在一种可能的实施方式中,将卷积层的预设可调参数、各个通道的权重的均值及权重的标准差的和,确定为权重阈值。

对于第m个卷积层,权重阈值thr=μ+σ-k,其中μ为该卷积层通道权重的均值,σ为该卷积层内通道权重的标准差,k是范围在0.1至0.5的预设可调参数,k值越小,权重阈值thr越高。

参考图6,裁剪前的第m个卷积层包含1到c个通道,假设权重阈值为0.7,然后裁剪掉通道权重低于权重阈值0.7的通道,通道裁剪结果如图6所示。

相比于现有技术,本发明实施例通过确定预设卷积神经网络中卷积层的各个通道的激励因子,从而确定卷积层各个通道的权重,对权重低于权重阈值的通道进行裁剪,降低了卷积神经网络内部结构的复杂度,减少将待识别病理图像输入已训练的卷积神经网络,用于识别待识别病理图像的标签类别的时间。

在一种可能的实时方式中,上述s104可以通过至少一种实施方式确定已训练卷积神经网络:

在一种可能的实施方式中,针对所述预设卷积神经网络的一个卷积层,在该卷积层中选择通道的权重低于权重阈值的通道进行裁剪,将裁剪后的卷积神经网络作为待定网络,对待定网络进行训练,将训练后的待定网络作为已训练卷积神经网络,以提高已训练卷积神经网络的准确率。

在一种可能的实时方式中,可以采用如下步骤对待定网络进行训练:

步骤一:将已识别的病理图像作为测试样本,将该测试样本输入待定网络,利用待定网络输出测试样本的标签类别;

步骤二:判断待定网络输出的测试样本的标签类别与测试样本的原标签类别是否相同;

步骤三:若待定网络输出的测试样本的标签类别与测试样本的原标签类别相同,则将待定网络作为已训练卷积神经网络;

步骤四:若待定网络输出的测试样本的标签类别与测试样本的原标签类别不相同,则利用梯度下降算法在梯度下降的方向,调整待定网络中卷积层通道的权重,直至待定网络的损失函数最小,将调整完权重后待定网络确定为已训练卷积神经网络。

本实施方式通过将已识别的病理图像输入待定网络,测试待定网络的输出结果是否与已识别的病理图像的标签类别相同,从而在不相同的情况下,重新调整待定网络卷积层通道的权重,直至待定网络的损失函数最小,确定已训练卷积神经网络,可以提高确定已训练卷积神经网络的准确率。

本发明第一方面提供的一种基于裁剪的卷积神经网络的确定方法还包括:

将待识别病理图像输入已训练卷积神经网络,利用已训练卷积神经网络输出待识别病理图像的标签类别。

其中,病理图像的标签类别包括:病变组织和非病变组织。

本发明实施方式通过将待识别病理图像输入已训练卷积神经网络,用于识别病理图像的标签类别,可以快速的获得病理图像的标签类别,提高用户体验。

第二方面,如图7所示,本发明提供了一种基于裁剪的卷积神经网络的确定装置,包括:

矩阵输出模块701,用于针对样本集中的一个样本,将该样本输入预设的卷积神经网络,利用卷积神经网络,通过卷积神经网络的卷积层的各个通道输出的该样本特征图的矩阵;样本的特征图的矩阵数目与卷积神经网络的卷积层的通道数目相同;

激励因子模块702,用于针对卷积层的一个通道输出的样本的特征图的矩阵,将该矩阵进行压缩成数字,基于数字,利用sigmoid函数,确定卷积神经网络的卷积层各个通道的激励因子,激励因子与卷积层通道的重要程度相关;

权重确定模块703,用于基于卷积神经网络的卷积层各个通道的激励因子及样本集中的样本数目,确定卷积神经网络的卷积层各个通道的权重;

网络确定模块704,用于针对预设卷积神经网络的一个卷积层,在该卷积层中选择通道的权重低于权重阈值的通道进行裁剪,将裁剪后的卷积神经网络作为已训练卷积神经网络。

可选的,激励因子模块具体用于:

针对卷积层的一个通道输出的样本的特征图的矩阵,将该矩阵输入卷积神经网络中挤压和激发se模块中的池化层,通过池化层对该矩阵进行压缩成数字,数字代表样本的特征图的矩阵平均值;

将数字输入se模块中的第一个全连接层,将se模块中的第一个全连接层输出作为se模块中激活层的输入,确定se模块中激活层的输出;激活层的输出与激活层的输入呈非线性关系;

将se模块中激活层的输出输入se模块中第二个全连接层,通过se模块中第二个全连接层输出与卷积层中各个通道的数目相等的数字;

将第二个全连接层输出的与卷积层中各个通道的数目相等的数字输入至se模块中sigmoid层,通过sigmoid层输出预设卷积神经网络的卷积层各个通道的激励因子,池化层与第一个全连接层相连,第一个全连接层与激活层相连,激活层与第二个全连接层相连,第二个全连接层与sigmoid层相连。

可选的,激励因子模块具体用于:

将压缩后的数字输入se模块中的第一个全连接层,将第一个全连接层预设的参数与压缩后的数字相乘的结果,确定为se模块中的第一个全连接层输出;

将se模块中的第一个全连接层输出输入se模块中激活层,利用se模块中的激活层函数,输出压缩后的数字的非线性矩阵;

将非线性矩阵输入se模块中的第二个全连接层,将第二个全连接层预设的参数与非线性矩阵相乘的结果,确定为第二个全连接层的输出;

将第二个全连接层的输出输入se模块中sigmoid层,利用sigmoid层的sigmoid函数,输出的卷积层各个通道的激励因子。

可选的,权重确定模块具体用于:

针对预设卷积神经网络的卷积层的一个通道,将样本集中的各个样本输入该通道的激励因子求和,获得求和结果;

将求和结果与样本集中的样本数目的比值,确定为通道的权重。

本发明第二方面提供的一种基于裁剪的卷积神经网络的确定装置,还包括:

权重阈值确定模块,用于将卷积层的预设可调参数、各个通道的权重的均值及权重的标准差的和,确定为权重阈值。

本发明第二方面提供的一种基于裁剪的卷积神经网络的确定装置,还包括:

识别模块,用于将待识别病理图像输入已训练卷积神经网络,利用已训练卷积神经网络输出待识别病理图像的标签类别。

本发明实施例还提供了一种电子设备,如图8所示,包括处理器801、通信接口802、存储器803和通信总线804,其中,处理器801,通信接口802,存储器803通过通信总线804完成相互间的通信,

存储器803,用于存放计算机程序;

处理器801,用于执行存储器803上所存放的程序时,实现如下步骤:

针对样本集中的一个样本,将该样本输入预设的卷积神经网络,利用卷积神经网络,通过卷积神经网络的卷积层的各个通道输出的该样本特征图的矩阵;样本的特征图的矩阵数目与卷积神经网络的卷积层的通道数目相同;

针对卷积层的一个通道输出的样本的特征图的矩阵,将该矩阵进行压缩成数字,基于数字,利用sigmoid函数,确定卷积神经网络的卷积层各个通道的激励因子,激励因子与卷积层通道的重要程度相关;

基于卷积神经网络的卷积层各个通道的激励因子及样本集中的样本数目,确定卷积神经网络的卷积层各个通道的权重;

针对预设卷积神经网络的一个卷积层,在该卷积层中选择通道的权重低于权重阈值的通道进行裁剪,将裁剪后的卷积神经网络作为已训练卷积神经网络。

上述电子设备提到的通信总线可以是外设部件互连标准(peripheralcomponentinterconnect,简称pci)总线或扩展工业标准结构(extendedindustrystandardarchitecture,简称eisa)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。

通信接口用于上述电子设备与其他设备之间的通信。

存储器可以包括随机存取存储器(randomaccessmemory,简称ram),也可以包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。

上述的处理器可以是通用处理器,包括中央处理器(centralprocessingunit,简称cpu)、网络处理器(networkprocessor,简称np)等;还可以是数字信号处理器(digitalsignalprocessing,简称dsp)、专用集成电路(applicationspecificintegratedcircuit,简称asic)、现场可编程门阵列(field-programmablegatearray,简称fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。

在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的一种基于裁剪的卷积神经网络的确定方法。

在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的一种基于裁剪的卷积神经网络的确定方法。

在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(dsl))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,dvd)、或者半导体介质(例如固态硬盘solidstatedisk(ssd))等。

需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置/电子设备/计算机可读存储介质/计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。

以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1