一种数据处理方法及装置与流程

文档序号:14176037阅读:146来源:国知局
一种数据处理方法及装置与流程

本发明涉及数据处理技术领域,具体涉及一种数据处理方法及装置。



背景技术:

深度神经网络在计算机视觉、自然语言处理、语言识别和机器翻译等领域已经展现出巨大的应用能力。因其良好的表现能力,让深度神经网络在智能手机、嵌入式系统和自动驾驶等移动设备上得到广泛的应用。但是,这种精度的上升是由网络模型在深度和广度上的堆叠产生的,因此,使得计算机的硬盘存储、内存消耗和gpu的显存消耗急剧上升。此外,随着技术发展实际需要,深度神经网络模型在移动设备上的应用引起广泛的关注。但是诸多的移动设备如笔记本、手机或者嵌入式硬件应用、汽车嵌入式设备等计算能力和存储能力都非常有限。并且,深度神经网络的在视频监控、场景分析等应用需要的实时效果要求高,因此,如何解决对深度神经网络模型的压缩和网络前置计算加速的问题亟待解决。



技术实现要素:

本发明实施例提供了一种数据处理方法及装置,可以解决对深度神经网络模型的压缩和网络前置计算加速,提升了数据处理速度。

本发明实施例第一方面提供了一种数据处理方法,包括:

获取第一神经网络模型,并确定所述第一神经网络模型的第一特征映射图集;

根据稀疏表示理论确定所述第一特征映射图集的冗余参数;

根据所述冗余参数对所述第一特征映射图集进行第一压缩处理,得到第二特征映射图集,并根据所述第二特征映射图集生成第二神经网络模型;

根据所述第二神经网络模型对待处理数据进行训练,得到训练结果。

本发明实施例第二方面提供了数据处理装置,包括:

获取单元,用于获取第一神经网络模型,并确定所述第一神经网络模型的第一特征映射图集;

确定单元,用于根据稀疏表示理论确定所述第一特征映射图集的冗余参数;

第一压缩单元,用于根据所述冗余参数对所述第一特征映射图集进行第一压缩处理,得到第二特征映射图集,并根据所述第二特征映射图集生成第二神经网络模型;

训练单元,用于根据所述第二神经网络模型对待处理数据进行训练,得到训练结果。

第三方面,本发明实施例提供了一种移动终端,包括:处理器和存储器;以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置成由所述处理器执行,所述程序包括用于如第一方面中所描述的部分或全部步骤的指令。

第四方面,本发明实施例提供了一种计算机可读存储介质,其中,所述计算机可读存储介质用于存储计算机程序,其中,所述计算机程序使得计算机执行如本发明实施例第一方面中所描述的部分或全部步骤的指令。

第五方面,本发明实施例提供了一种计算机程序产品,其中,所述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,所述计算机程序可操作来使计算机执行如本发明实施例第一方面中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。

实施本发明实施例,具有如下有益效果:

可以看出,通过本发明实施例,获取第一神经网络模型,并确定第一神经网络模型的第一特征映射图集,根据稀疏表示理论确定第一特征映射图集的冗余参数,根据冗余参数对第一特征映射图集进行第一压缩处理,得到第二特征映射图集,并根据第二特征映射图集生成第二神经网络模型,根据第二神经网络模型对待处理数据进行训练,得到训练结果,从而,可以根据神经网络模型的冗余参数,对其进行压缩处理,一方面实现了对神经网络模型的压缩和网络前置计算加速,另一方面,也提升了数据处理速度。

附图说明

为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是本发明实施例提供的一种数据处理方法的第一实施例流程示意图;

图2是本发明实施例提供的一种数据处理方法的第二实施例流程示意图;

图3a是本发明实施例提供的一种数据处理装置的实施例结构示意图;

图3b是本发明实施例提供的图3a所描述的数据处理装置的第一压缩单元的结构示意图;

图3c是本发明实施例提供的图3a所描述的数据处理装置的确定单元的结构示意图;

图3d是本发明实施例提供的图3a所描述的数据处理装置的又一结构示意图;

图3e是本发明实施例提供的图3d所描述的数据处理装置的第二压缩单元的结构示意图;

图4是本发明实施例提供的一种数据处理装置的实施例结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本发明的说明书和权利要求书及所述附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。

在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置展示该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。

本发明实施例所描述数据处理装置可以包括智能手机(如android手机、ios手机、windowsphone手机等)、平板电脑、视频矩阵、监控平台、车载设备、卫星、掌上电脑、笔记本电脑、移动互联网设备(mid,mobileinternetdevices)或穿戴式设备等,上述仅是举例,而非穷举,包含但不限于上述装置,当然,上述数据处理装置还可以为服务器。本发明实施例中的待处理数据可以为以下至少一种:视频数据、图片数据、语音数据等等。本发明实施例中的待处理数据的属性信息可以包括以下至少一种:内存大小、数据类型、数据格式、数据来源等等。需要说明的是,本发明实施例中的神经网络模型在诸多机器视觉任务,如分类、识别、检测等,都表现出具有强大的实现能力。并且实验表明,随着网络深度和广度的增加,模型的表现能力有很大的提升。但这也随之出现计算量增大,模型参数剧增等问题。本发明实施例中的神经网络模型可以用于实现以下至少一种功能:人脸识别、车牌识别、车型识别等等。

以视频数据为例,本发明实施例中的数据处理装置可与多个摄像头连接,每一摄像头均可用于抓拍视频图像,每一摄像头均可有一个与之对应的位置标记,或者,可有一个与之对应的编号。通常情况下,摄像头可设置在公共场所,例如,学校、博物馆、十字路口、步行街、写字楼、车库、机场、医院、地铁站、车站、公交站台、超市、酒店、娱乐场所等等。摄像头在拍摄到视频图像后,可将该视频图像保存到数据处理装置所在系统的存储器。摄像头拍摄的每一帧视频图像均对应一个属性信息,在待处理数据为视频数据时,其属性信息可以为以下至少一种:视频图像的拍摄时间、视频图像的位置、视频图像的属性参数(格式、大小、分辨率等)、视频图像的编号和视频图像中的人物特征属性。上述视频图像中的人物特征属性可包括但不仅限于:视频图像中的人物个数、人物位置、人物角度等等。上述角度信息可包括但不仅限于:水平转动角度、俯仰角或者倾斜度。例如,水平转动角度不超过±30°、俯仰角不超过±20°、倾斜角不超过±45°。建议水平转动角度不超过±15°、俯仰角不超过±10°、倾斜角不超过±15°。例如,还可对人脸图像是否被其他物体遮挡进行筛选,通常情况下,饰物不应遮挡脸部主要区域,饰物如深色墨镜、口罩和夸张首饰等,当然,也有可能摄像头上面布满灰尘,导致人脸图像被遮挡。本发明实施例中的视频图像的图片格式可包括但不仅限于:bmp,jpeg,jpeg2000,png等等,其大小可以在10-40kb之间。

请参阅图1,为本发明实施例提供的一种数据处理方法的第一实施例流程示意图。本实施例中所描述的数据处理方法,包括以下步骤:

101、获取第一神经网络模型,并确定所述第一神经网络模型的第一特征映射图集。

其中,第一神经网络模型可以为深度神经网络模型。可以确定第一神经网络模型的第一特征映射图集,该第一特征映射图集可以包含多个第一特征映射图,该第一特征映射图集可为以为特征点的映射图集,或者,特征轮廓的映射图集。

可选地,上述第一神经网络模型为包括卷积层、归一化层、激活层和池化层等模块的网络架构,另外,可以选取卷积核参数,例如,1*1、3*3大小和激活函数prelu。

可选地,在执行上述步骤101之前,可以对训练集进行数据增强再作为网络输入,以批量的随机梯度下降法训练神经网络,当训练的误差稳定并达到指定阈值时,终止网络训练,获取原始网络模型数据,即第一神经网络模型。

102、根据稀疏表示理论确定所述第一特征映射图集的冗余参数。

其中,由于第一特征映射图集中存在一定的冗余度,因此,可以通过冗余度对第一特征映射图集进行压缩,本发明实施例中采用稀疏表示理论确定所述第一特征映射图集的冗余参数,上述冗余参数用于表示第一特征映射图集的冗余度。

可选地,在本发明实施例中,可以通过通道的稀疏编码,去除冗余的通道信息,降低特征的通道数。在保证输出特征映射图c不变的情况下,通过稀疏表示获取特征映射图b中最具表现能力的特征通道,去除那些冗余特征和其对应的卷积核,达到降低通道特征的目的,上述特征映射图c和特征映射图b均为上述第一特征映射图集中的任一映射图。

假设,某层原始输入数据x,尺寸为n×c×kh×kw,卷积核参数w,维度为n×c×kh×kw,则输出特征映射图y的维度为n×n。此处,n表示样本数,n表示卷积滤波个数,也是输出通道数,c为输入的通道数,kh,kw分别是卷积核的大小。为了降低输入通道从c到c'(0≤c'≤c),采用稀疏编码理论对输入特征通道进行稀疏表示,公式表示为:

||·||f表示弗罗贝尼乌斯范数,xi表示第i(i=1,.....,c)通道的n×khkw矩阵,wi表示第i通道的n×khkw矩阵。α表示长度为c的通道稀疏向量。如果αi=0,则表示该通道对输出的通道特征影响不大,可以移除,同时相应的卷积核通道也可以移除。这就在一定的程度上降低了各个通道特征的相关性,同时保留的卷积核特征相关性也减少,但提取的特征信息不变。这降低了输入通道数和卷积核数,达到通道稀疏的作用。

为求解通道稀疏系数α,需要将式(1)改为最优化求解形式:

惩罚参数γ控制α的零个数来决定压缩比例,另外是防止出现无效解。最优化理论中,稀疏表示求解是分成两个步骤,固定w更新α,然后固定α更新w。但是这种解法需要多次的重复迭代,不断调整两个参数的值,这不仅耗时且达不到最优解。

所以,本发明实施例中通道稀疏表示求解方式为以下步骤a和步骤b:

a、首先,将原始未压缩模型中的卷积核权值w固定,稀疏求解系数α作为通道筛选系数。系数α的求解采用lasso回归算法多次迭代求解:

如果α中的某个元素值αi=0,则表示i对应的通道特征可移除,同时对应的卷积核也可去掉。在实际的稀疏求解中,首先是初始化γ为0,然后逐渐增加并不断迭代更新α的值,直到||α||0非零个数稳定且满足||α||0≤c'。

b、在得到通道稀疏系数α之后,为提高求解的效率,权值更新只需要一次迭代,便可进行模型的压缩。卷积权值的更新为:

w={γiwi}(4)

可选地,上述步骤102中根据稀疏表示理论确定所述第一特征映射图集的冗余参数,可包括如下步骤:

21、获取所述待处理数据的属性信息;

22、从预先存储的多个稀疏表示算法中选取与所述属性信息对应的目标稀疏表示算法;

23、根据所述目标稀疏表示算法对确定所述第一特征映射图集的冗余参数。

其中,上述属性信息可以以下至少一个:待处理数据的内存大小,待处理数据的数据类型,待处理数据的时长,待处理数据的格式等等。数据处理装置中可以预先存储属性信息与稀疏表示算法之间的映射关系,进而,可以根据该映射关系确定待处理数据的属性信息对应的稀疏表示算法,根据该稀疏表示算法确定第一特征映射图集的冗余参数。

103、根据所述冗余参数对所述第一特征映射图集进行第一压缩处理,得到第二特征映射图集,并根据所述第二特征映射图集生成第二神经网络模型。

其中,不同的冗余参数对第一特征映射图集实现压缩处理的压缩程度不一样,本发明实施例中根据冗余参数对第一特征映射图集进行第一压缩处理,得到第二特征映射图集,并根据第二特征映射图集生成第二神经网络模型。

可选地,上述步骤103根据所述冗余参数对所述第一特征映射图集进行第一压缩处理,可包括如下步骤:

31、根据所述冗余参数确定第一阈值和第二阈值;

32、根据所述第一阈值对所述第一特征映射图集进行筛选操作,并根据所述第二阈值对所述筛选操作后的第一特征映射图集进行删除操作,并对所述删除操作后的第一特征映射图集进行重组操作。

其中,数据处理装置中可以预先存储第一阈值与冗余参数之间的第一映射关系,以及第二阈值与冗余参数之间的第二映射关系,进而,可以根据该第一映射关系确定步骤103中冗余参数对应的第一阈值,以及根据第二映射关系确定步骤103中冗余参数对应的第二阈值。进一步地,根据第一阈值对第一特征映射图集进行筛选操作,筛选操作的目的在于筛选掉一些特征少的映射图,根据第二阈值对筛选操作后的第一特征映射图集进行删除操作,即删除操作的目的在于删除一些冗余的映射图,最后,对删除操作后的第一特征映射图集进行重组操作。

104、根据所述第二神经网络模型对待处理数据进行训练,得到训练结果。

其中,第二神经网络模型由于是基于第一神经网络模型进行了一系列压缩操作,因此,其冗余度低,可以提升数据处理速度,本发明实施例中,根据第二神经网络模型对待处理数据进行训练,得到训练结果。

可选地,在上述步骤103与步骤104之间,还可以包括如下步骤:

采用增量式逐步量化方法对所述第二神经网络模型进行第二压缩处理;

则,上述步骤104,根据所述第二神经网络模型对待处理数据进行训练,可以按照如下步骤实施:

根据所述第二压缩处理后的第二神经网络模型对所述待处理数据进行训练。

其中,上述采用增量式逐步量化方法,可以实现对第二神经网络模型进行第二压缩处理,大大降低了第二神经网络模型的冗余度,提升了数据处理速度。

可选地,采用增量式逐步量化方法对所述第二神经网络模型进行第二压缩处理,可包括如下步骤s1-s5:

s1、获取处理器的运行环境参数;

s2、根据所述运行环境参数确定量化压缩加速比例;

s3、获取所述第二神经网络模型的权值,得到多个权值;

s4、迭代执行如下步骤a和b:

a、根据所述量化压缩加速比例对所述多个权值进行分组,得到多组权值;

b、将所述多组权值中的一组权值进行量化并固定,以及除了所述一组权值之外的权值进行重训练,并根据指定参数对所述重训练之后的精度损失进行补偿;

s5在所述重训练之后的精度处于预设范围,则执行所述根据所述第二压缩处理后的第二神经网络模型对所述待处理数据进行训练的步骤。

其中,上述处理器的运行环境参数可以包括但不仅限于:内存大小、主频、外频、倍频、接口、缓存、多媒体指令集、制造工艺、电压、封装形、核数等等。数据处理装置中可以预先存储运行环境参数与量化压缩加速比例之间的映射关系,进而,可以确定运行环境参数确定量化压缩加速比例,获取第二神经网络模型的权值,得到多个权值,迭代执行如下步骤a和b:a、根据所述量化压缩加速比例对所述多个权值进行分组,得到多组权值;b、将所述多组权值中的一组权值进行量化并固定,以及除了所述一组权值之外的权值进行重训练,并根据指定参数对所述重训练之后的精度损失进行补偿。上述指定参数可以由用户自行设置,或者,系统默认,指定参数可以为以下至少一种:sigmoid激活函数,神经元个数,卷积核大小,卷积核种类,采样区域,采样种类等等。上述预设范围可以由用户自行设置,或者,系统默认。

具体地,在通道特征裁剪之后仍会保持原始较为丰富的特征。但是在深度和广度都很大的网络模型,前向计算量和存储量还会有较大的开销,为进一步降低模型的需求,需要对模型的进一步压缩。稀疏后通道的模型的权值在存储和前置计算时仍然会消耗较大的设备空间,故本文采用逐步动态量化网络模型权值。可按如下操作:根据量化压缩加速比例,选择动态权值分组,然后根据量化级别n,将一组权值量化并固定,n为大于1的整数,其余的未量化的权值参数组通过重训练方法,补偿量化后产生的精度损失,两个步骤迭代进行,直到把权值重新训练量化,从而,把全精度权值量化到特定精度并保持精度或者在可接受的精度损失范围。

可以看出,通过本发明实施例,本发明实施例提出了一种基于稀疏表示理论的深度网络特征映射图重建的模型压缩方法,获取第一神经网络模型,并确定第一神经网络模型的第一特征映射图集,根据稀疏表示理论确定第一特征映射图集的冗余参数,根据冗余参数对第一特征映射图集进行第一压缩处理,得到第二特征映射图集,并根据第二特征映射图集生成第二神经网络模型,根据第二神经网络模型对待处理数据进行训练,得到训练结果,从而,可以根据神经网络模型的冗余参数,对其进行压缩处理,一方面实现了对神经网络模型的压缩和网络前置计算加速,另一方面,也提升了数据处理速度,并结合增量式逐步量化方法对权值模型进行深度压缩和加速,可进一步提升数据处理速度。

与上述一致地,请参阅图2,为本发明实施例提供的一种数据处理方法的第二实施例流程示意图。本实施例中所描述的数据处理方法,包括以下步骤:

201、获取待处理数据。

202、在所述待处理数据的内存大小大于预设内存阈值时,获取第一神经网络模型,并确定所述第一神经网络模型的第一特征映射图集。

其中,上述预设内存阈值可以由用户自行设置,或者,系统默认,例如,若待处理数据内存较大,则处理时间较长,因此,可以采用上述本发明实施例所提供的方法。

203、根据稀疏表示理论确定所述第一特征映射图集的冗余参数。

204、根据所述冗余参数对所述第一特征映射图集进行第一压缩处理,得到第二特征映射图集,并根据所述第二特征映射图集生成第二神经网络模型。

205、根据所述第二神经网络模型对所述待处理数据进行训练,得到训练结果。

其中,上述步骤202-步骤205的具体描述可参照图1所描述的数据处理方法的对应步骤101-步骤104,在此不再赘述。

可以看出,通过本发明实施例,获取待处理数据,在待处理数据的内存大小大于预设内存阈值时,获取第一神经网络模型,并确定第一神经网络模型的第一特征映射图集,根据稀疏表示理论确定第一特征映射图集的冗余参数,根据冗余参数对第一特征映射图集进行第一压缩处理,得到第二特征映射图集,并根据第二特征映射图集生成第二神经网络模型,根据第二神经网络模型对待处理数据进行训练,得到训练结果,从而,可以根据神经网络模型的冗余参数,对其进行压缩处理,一方面实现了对神经网络模型的压缩和网络前置计算加速,另一方面,也提升了数据处理速度。

与上述一致地,以下为实施上述数据处理方法的装置,具体如下:

请参阅图3a,为本发明实施例提供的一种数据处理装置的实施例结构示意图。本实施例中所描述的数据处理装置,包括:获取单元301、确定单元302、第一压缩单元303和训练单元304,具体如下:

获取单元301,用于获取第一神经网络模型,并确定所述第一神经网络模型的第一特征映射图集;

确定单元302,用于根据稀疏表示理论确定所述第一特征映射图集的冗余参数;

第一压缩单元303,用于根据所述冗余参数对所述第一特征映射图集进行第一压缩处理,得到第二特征映射图集,并根据所述第二特征映射图集生成第二神经网络模型;

训练单元304,用于根据所述第二神经网络模型对待处理数据进行训练,得到训练结果。

可选地,如图3b,图3b为图3a中所描述的数据处理装置中的第一压缩单元303的具体细化结构,所述第一压缩单元303可包括:第一确定模块3031和处理模块3032,具体如下:

第一确定模块3031,用于根据所述冗余参数确定第一阈值和第二阈值;

处理模块3032,用于根据所述第一阈值对所述第一特征映射图集进行筛选操作,并根据所述第二阈值对所述筛选操作后的第一特征映射图集进行删除操作,并对所述删除操作后的第一特征映射图集进行重组操作。

可选地,如图3c,图3c为图3a中所描述的数据处理装置中的确定单元302的具体细化结构,所述确定单元302可包括:第一获取模块3021、选取模块3022和第二确定模块3023,具体如下:

第一获取模块3021,用于获取所述待处理数据的属性信息;

选取模块3022,用于从预先存储的多个稀疏表示算法中选取与所述属性信息对应的目标稀疏表示算法;

第二确定模块3023,用于根据所述目标稀疏表示算法对确定所述第一特征映射图集的冗余参数。

可选地,如图3d,图3d为图3a中所描述的数据处理装的又一变型结构,图3d与图3a相比较,其还包括:第二压缩单元305,具体如下:

第二压缩单元305,用于采用增量式逐步量化方法对所述第二神经网络模型进行第二压缩处理;

所述训练单元304具体用于:

根据所述第二压缩处理后的第二神经网络模型对所述待处理数据进行训练。

可选地,如图3e,图3e为图3d中所描述的数据处理装置中的第二压缩单元305的具体细化结构,所述第二压缩单元305可包括:第二获取模块3051、第三确定模块3052和迭代模块3053,具体如下:

第二获取模块3051,用于获取处理器的运行环境参数;

第三确定模块3052,用于根据所述运行环境参数确定量化压缩加速比例;

第二获取模块3051,还用于获取所述第二神经网络模型的权值,得到多个权值;

迭代模块3053,用于迭代执行如下步骤a和b:

a、根据所述量化压缩加速比例对所述多个权值进行分组,得到多组权值;

b、将所述多组权值中的一组权值进行量化并固定,以及除了所述一组权值之外的权值进行重训练,并根据指定参数对所述重训练之后的精度损失进行补偿;由所述训练单元304在所述重训练之后的精度处于预设范围,则执行所述根据所述第二压缩处理后的第二神经网络模型对所述待处理数据进行训练的步骤。

可以看出,通过本发明实施例所描述的数据处理装置,获取第一神经网络模型,并确定第一神经网络模型的第一特征映射图集,根据稀疏表示理论确定第一特征映射图集的冗余参数,根据冗余参数对第一特征映射图集进行第一压缩处理,得到第二特征映射图集,并根据第二特征映射图集生成第二神经网络模型,根据第二神经网络模型对待处理数据进行训练,得到训练结果,从而,可以根据神经网络模型的冗余参数,对其进行压缩处理,一方面实现了对神经网络模型的压缩和网络前置计算加速,另一方面,也提升了数据处理速度。

与上述一致地,请参阅图4,为本发明实施例提供的一种数据处理装置的实施例结构示意图。本实施例中所描述的数据处理装置,包括:至少一个输入设备1000;至少一个输出设备2000;至少一个处理器3000,例如cpu;和存储器4000,上述输入设备1000、输出设备2000、处理器3000和存储器4000通过总线5000连接。

其中,上述输入设备1000具体可为触控面板、物理按键或者鼠标。

上述输出设备2000具体可为显示屏。

上述存储器4000可以是高速ram存储器,也可为非易失存储器(non-volatilememory),例如磁盘存储器。上述存储器4000用于存储一组程序代码,上述输入设备1000、输出设备2000和处理器3000用于调用存储器4000中存储的程序代码,执行如下操作:

上述处理器3000,用于:

获取第一神经网络模型,并确定所述第一神经网络模型的第一特征映射图集;

根据稀疏表示理论确定所述第一特征映射图集的冗余参数;

根据所述冗余参数对所述第一特征映射图集进行第一压缩处理,得到第二特征映射图集,并根据所述第二特征映射图集生成第二神经网络模型;

根据所述第二神经网络模型对待处理数据进行训练,得到训练结果。

可选地,上述处理器3000根据所述冗余参数对所述第一特征映射图集进行第一压缩处理,包括:

根据所述冗余参数确定第一阈值和第二阈值;

根据所述第一阈值对所述第一特征映射图集进行筛选操作,并根据所述第二阈值对所述筛选操作后的第一特征映射图集进行删除操作,并对所述删除操作后的第一特征映射图集进行重组操作。

可选地,上述处理器3000根据稀疏表示理论确定所述第一特征映射图集的冗余参数,包括:

获取所述待处理数据的属性信息;

从预先存储的多个稀疏表示算法中选取与所述属性信息对应的目标稀疏表示算法;

根据所述目标稀疏表示算法对确定所述第一特征映射图集的冗余参数。

可选地,上述处理器3000还具体用于:

采用增量式逐步量化方法对所述第二神经网络模型进行第二压缩处理;

所述根据所述第二神经网络模型对待处理数据进行训练,包括:

根据所述第二压缩处理后的第二神经网络模型对所述待处理数据进行训练。

可选地,上述处理器3000采用增量式逐步量化方法对所述第二神经网络模型进行第二压缩处理,包括:

获取处理器的运行环境参数;

根据所述运行环境参数确定量化压缩加速比例;

获取所述第二神经网络模型的权值,得到多个权值;

迭代执行如下步骤a和b:

a、根据所述量化压缩加速比例对所述多个权值进行分组,得到多组权值;

b、将所述多组权值中的一组权值进行量化并固定,以及除了所述一组权值之外的权值进行重训练,并根据指定参数对所述重训练之后的精度损失进行补偿;

在所述重训练之后的精度处于预设范围,则执行所述根据所述第二压缩处理后的第二神经网络模型对所述待处理数据进行训练的步骤。

本发明实施例还提供一种计算机存储介质,其中,该计算机存储介质可存储有程序,该程序执行时包括上述方法实施例中记载的任何一种数据处理方法的部分或全部步骤。

本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,所述计算机程序可操作来使计算机执行如上述方法实施例中记载的任何一种数据处理方法的部分或全部步骤。

尽管在此结合各实施例对本发明进行了描述,然而,在实施所要求保护的本发明过程中,本领域技术人员通过查看所述附图、公开内容、以及所附权利要求书,可理解并实现所述公开实施例的其他变化。在权利要求中,“包括”(comprising)一词不排除其他组成部分或步骤,“一”或“一个”不排除多个的情况。单个处理器或其他单元可以实现权利要求中列举的若干项功能。相互不同的从属权利要求中记载了某些措施,但这并不表示这些措施不能组合起来产生良好的效果。

本领域技术人员应明白,本发明的实施例可提供为方法、装置(设备)、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。计算机程序存储/分布在合适的介质中,与其它硬件一起提供或作为硬件的一部分,也可以采用其他分布形式,如通过internet或其它有线或无线电信系统。

本发明是参照本发明实施例的方法、装置(设备)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

尽管结合具体特征及其实施例对本发明进行了描述,显而易见的,在不脱离本发明的精神和范围的情况下,可对其进行各种修改和组合。相应地,本说明书和附图仅仅是所附权利要求所界定的本发明的示例性说明,且视为已覆盖本发明范围内的任意和所有修改、变化、组合或等同物。显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1