机器学习网络处理方法、设备、处理器和存储介质与流程

文档序号:17239248发布日期:2019-03-30 08:30阅读:143来源:国知局
机器学习网络处理方法、设备、处理器和存储介质与流程

本发明涉及计算机领域,尤其涉及机器学习网络处理方法、设备、处理器和存储介质。



背景技术:

近年来,机器学习(machinelearning,简称ml)被大规模地应用在人工智能领域,特别是在图像、语音、自然语言处理等领域均取得了突破性的进展和良好的效果。通过构建机器学习网络,并对机器学习网络进行训练,调整机器学习网络内部大量节点之间相互连接的关系,从而达到处理信息的目的。

目前的机器学习网络训练通常使用启发式算法或近似方法进行训练,但是当机器学习网络具有较强的约束条件时,利用启发式算法或近似方法对机器学习网络进行训练,运算效率低,精确度低。



技术实现要素:

本发明实施例提供一种机器学习网络处理方法、设备、处理器和存储介质,可以提高训练机器学习网络的运算效率和精度。

根据本发明实施例的一方面,提供一种机器学习网络处理方法,包括:

接收计算指令,计算指令包括待处理优化问题的机器学习网络的训练函数和训练函数的原始约束空间;

设置新的约束空间,并利用训练函数和新的约束空间构建新的机器学习网络,其中,新的约束空间的取值范围包含原始约束空间的取值范围;

在对新的机器学习网络求解的过程中,逐步缩小新的约束空间进行迭代处理,直到新的约束空间的取值范围等于原始约束空间的取值范围,得到机器学习网络的连接权重。

根据本发明实施例的另一方面,提供一种处理器,包括:

取值单元,用于接收计算指令,计算指令包括机器学习网络的训练函数和训练函数的原始约束空间;

控制单元,用于设置新的约束空间,并利用训练函数和新的约束空间构建新的机器学习网络,其中,新的约束空间的取值范围包括原始约束空间的取值范围;

计算单元,用于在对新的机器学习网络求解的过程中,逐步缩小新的约束空间进行迭代处理,直到新的约束空间的取值范围等于原始约束空间的取值范围,得到机器学习网络的连接权重。

根据本发明实施例的再一方面,提供一种机器学习网络处理设备,包括:存储器和处理器;该存储器用于存储程序;该处理器用于读取存储器中存储的可执行程序代码以执行上述的机器学习网络处理方法。

根据本发明实施例的又一方面,提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当指令在计算机上运行时,使得计算机执行上述各方面所述的机器学习网络处理方法。

根据本发明实施例的还一方面,提供一种处理器,该处理器用于加载机器学习网络完成深度学习处理,其中,机器学习网络被配置为经过机器学习网络处理,机器学习网络处理方法包括:

接收计算指令,计算指令包括机器学习网络的训练函数和训练函数的原始约束空间;

设置新的约束空间,并利用训练函数和新的约束空间构建新的机器学习网络,其中,新的约束空间的取值范围包含原始约束空间的取值范围;

在对新的机器学习网络求解的过程中,逐步缩小新的约束空间进行迭代处理,直到新的约束空间的取值范围等于原始约束空间的取值范围,得到机器学习网络的连接权重。

根据本发明实施例中的机器学习网络处理方法、设备、处理器和存储介质,通过渐进式地约束对机器学习网络进行处理,从而快速准确地得到该机器学习网络的连接权重,提高了运算效率并节约系统耗电量。

附图说明

为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是根据本发明一实施例的机器学习网络处理方法的流程图;

图2是根据本发明实施例的处理器的架构示意图;

图3是根据本发明另一实施例的处理器的结构示意图;

图4是示出能够实现根据本发明实施例的机器学习网络处理方法的计算设备的示例性硬件架构的结构示意图。

具体实施方式

下面将详细描述本发明的各个方面的特征和示例性实施例,为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细描述。应理解,此处所描述的具体实施例仅被配置为解释本发明,并不被配置为限定本发明。对于本领域技术人员来说,本发明可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本发明的示例来提供对本发明更好的理解。

需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在。

本发明实施例提供一种机器学习网络处理方法、设备、处理器和存储介质,对机器学习网络进行训练,以提高机器学习网络的训练效率和精度。为了更好的理解本发明,下面将结合附图,详细描述根据本发明实施例的机器学习网络处理方法、设备、处理器和存储介质。应注意,这些实施例并不是用来限制本发明公开的范围。

本发明实施例中的处理器可以是基于x86架构的处理器,也可以是基于高级精简指令集处理器(arm)架构的处理器,还可以是基于无内部互锁流水级的微处理器(mips)架构的处理器。

在一些实施例中,该处理器可以包括中央处理器(cpu),或者特定集成电路(asic),或者可以被配置成本发明实施例的一个或多个集成电路。

需要说明的是,本发明实施例中的处理器可以不仅限于单体计算设备或服务器,还可以是云计算场景中利用布置在多台机器设备上的具有较强计算能力的计算组件。

在一个实施例中,可以通过分布式计算平台,利用布置在多台机器设备上的具有计算能力的计算组件,通过分布式数据处理实现本发明实施例的机器学习网络处理。

图1示出了本发明实施例提供的机器学习网络处理方法的流程示意图。如图1所示,在本发明实施例中,机器学习网络处理方法100可以包括:

步骤s110,处理器接收计算指令,其中,该计算指令包括机器学习网络的训练函数和该训练函数的原始约束空间。

在本发明实施例中,可以预先构建机器学习网络的带有约束条件的训练函数,该训练函数的约束空间可以用于表示该训练函数的约束条件的取值范围或选择区间。

示例性的,本发明实施例的机器学习网络可以表示为:f(w),其中,w={w1,w2,...,wd},wi可以表示机器学习网络的第i层连接权重。

其中,连接权重是用来衡量机器学习网络中的上一层神经元和下一层神经元之间连接强弱关系的数值。作为一个示例,w2表示机器学习网络的第2层的连接权重,可以用来衡量机器学习网络中的第1层神经元和第2层神经元之间连接强弱关系。

在一个实施例中,假设该机器学习网络为二值机器学习网络,其连接权重初始值为-1和1。那么可以通过下述公式(1)表示预先构建的该二值机器学习网络的带有约束条件的训练函数:

在上述公式(1)中,e.t.w∈c={-1,1}表示连接权重w的取值被约束在连接权重空间c中,并且连接权重空间c包括-1和+1,即连接权重w的取值被限定为+1或-1两个数。

在本发明实施例中,处理器可以基于约束优化问题求解思想对具有约束条件的机器学习网络进行处理。具体来说,可以将机器学习网络概括成一种数学模型,并基于训练函数和约束条件进行约束优化求解,得到机器学习网络的连接权重。

在一些实施例中,如果机器学习网络的连接权重的取值被约束在一个离散的约束空间,或者机器学习网络的连接权重的取值被约束在一个取值范围有限的连续空间,则该约束空间对机器学习网络中的训练函数也是一个较强的约束。

需要说明的是,本发明实施例中,对机器学习网络的训练函数不做具体限定,机器学习网络的训练函数可以是一个凸函数,也可以是一个非凸的函数;以及本发明实施例不限于针对离散机器学习网络的处理,也可以针对非离散机器学习网络进行处理。

可以理解的是,离散机器学习网络对应的约束条件可以用等式进行表示,非离散机器学习网络对应的约束条件可以用不等式进行表示。

在本发明实施例中,基于训练函数和约束空间进行约束优化求解时,如果约束空间对机器学习网络的训练函数是一个较强的约束,往往会导致约束优化求解过程收敛慢且不稳定,收敛慢且不稳定会使上述对机器学习网络的处理需要更大量的运算,并且计算得到的连接权重无法达到预期的精度误差,从而导致运算效率低,运算系统耗电量大且运算精度较低。

基于此,本发明实施例提供一种数据网络处理方法、设备、处理器和存储介质。在本发明实施例中,处理器可以首先对计算指令中的训练函数的原始约束空间的强约束进行松弛,得到松弛的约束空间,在后续的处理中再通过渐进式缩小松弛的约束空间逐步增加约束的强度,从而得到精度较高的连接权重,提高机器学习网络的运算效率并节约耗电量。

步骤s120,该处理器设置新的约束空间,并利用训练函数和新的约束空间构建新的机器学习网络,其中,新的约束空间的取值范围包含原始约束空间的取值范围。

在本发明实施例中,初始设置的新的约束空间可以是一个包含原始约束空间的足够大的约束空间。也就是说,初始设置的新的约束空间的取值范围可以大于原始约束空间的取值范围,机器学习网络的训练函数中连接权重的取值为可以是新的约束空间内的任一实数。

作为一个示例,在原始约束空间中连接权重w的取值被限定为-1或+1两个数,即原始约束条件的边界为-1和+1,设置新的约束空间,该新的约束空间的边界可以是-2和+2,并且,该新的约束空间可以是连续的,在新的约束空间中连接权重w的取值被限定为可以取-2到+2这个连续空间内的所有实数。

作为另一个示例,如果原始约束条件要求连接权重w的取值被限定为-2、-1、0、+1和+2,即原始约束条件的边界为-2和+2,则可以初始设置新的约束空间的边界为-4和+4,取-4到+4这个连续空间内的所有实数。

在上述公式(1)中,机器学习网络的训练函数的约束条件要求w的取值限定为+1或-1两个数。处理器可以设置新的约束空间为[-2,2],表示新的约束空间为所有大于等于-2且小于等于2的实数。

步骤s130,该处理器在对新的训练函数求解的过程中,逐步缩小新的约束空间进行迭代处理,直到新的约束空间的取值范围等于原始约束空间的取值范围,从而得到机器学习网络的连接权重。

在一个实施例中,逐步缩小新的约束空间的步骤具体可以包括:

步骤s131,获取新的约束空间的负数空间,逐步缩小该负数空间,缩小的负数空间包括原始约束空间的负数取值。

步骤s132,获取新的约束空间的正数空间,逐步缩小该正数空间,缩小的正数空间包括原始约束空间的正数取值。

在该实施例中,步骤s131和步骤s132可以不分先后顺序,也可以同步进行。

在本发明实施例中,如果原始约束空间是一个离散空间,首先可以设置一个新的约束空间,该新的约束空间可以是连续的,并且该新的约束空间的取值范围,以及后续逐步缩小的新的约束空间的取值范围可以包括原始约束空间中的全部取值。

在该实施例中,在新的约束空间的约束下对训练函数进行优化求解,并且可以通过分段的连续空间逐步缩小新的约束空间,逐步加强对机器学习网络的训练函数的约束,直到逐步缩小后的新的约束空间的取值范围等于原始约束空间的取值范围。

作为一个示例,机器学习网络的训练函数的约束条件要求w的取值限定为+1或-1两个数。处理器可以设置新的约束空间为[-2,2],在新的约束空间[-2,2]的约束下对机器学习网络的训练函数进行求解,并逐步缩小[-2,2]的约束空间,例如可以将该约束空间的负数空间压缩到[-1.2,-0.8],即新的约束空间的负数空间为所有大于等于-1.2且小于等于-0.8的实数,并同时将该约束空间的正数空间压缩到[0.8,1.2],即新的约束空间的正数空间为所有大于等于0.8且小于等于1.2的实数。

按照该示例中渐进式缩小约束空间的方法,逐步增加约束的强度,最后得到只有+1和-1两个数的原始约束空间。

在一个实施例中,将初始设置的新的约束空间逐步缩小到原约束空间时历经的缩小次数,以及每次增加约束强度时对当前新的约束空间的缩小幅度,该缩小次数和缩小幅度是可以由用户自定义的。在实际应用场景中,该压缩次数和该压缩幅度可以是经验值,或者可以根据求解过程进行实时调整。

根据本发明提供的实施例的机器学习网络处理方法,可以将机器学习网络建模成离散约束优化问题,通过上述实施例中的机器学习网络处理方法训练具有较强原始约束空间的机器学习网络。

在本发明实施例中,处理器根据计算指令中机器学习网络的训练函数和该训练函数的原始约束空间训练机器学习网络时,由于原始约束空间的强约束条件,在原始约束空间的强约束下对机器学习网络进行训练是比较困难的。本发明实施例通过设置一个较大的新的约束空间,使得机器学习网络在训练的过程中逐渐收敛,收敛到一定程度时,将该新的约束空间缩小一点,并在缩小的新的约束空间继续训练该离散机器学习网络,再次收敛到一定程度时,将该缩小的新的约束空间再缩小一点,……,直到将新的约束空间缩小与原始约束空间相同,从而得到机器学习网络的连接权重,提高运算的精度和效率。

在本发明实施例中,处理器可以加载本发明实施例的机器学习网络处理方法可以用于对图像识别任务进行处理。

作为一个示例,根据本发明实施例的机器学习网络处理方法,处理器可以获取预先根据要完成的图像识别任务构建机器学习网络例如深度机器学习网络,并获取深度机器学习网络的训练函数和原始约束空间,并基于约束优化问题求解的思路,根据本发明实施例的方法对该机器学习网络进行处理。

具体地,处理器可以将该深度机器学习网络的训练函数作为目标函数,深度机器学习网络的连接权重作为目标函数的变量,并获取原始约束空间,利用本发明实施例的机器学习网络处理方法对目标函数进行求解,从而得到深度机器学习网络的连接权重,从而得到一个具有较高精度的连接权重的深度机器学习网络。

在一些实施例中,为了从几百万张图像中学习数以千计的物体,需要构建一个学习能力更强和准确度更好的深度机器学习网络。作为一个示例,图像识别数据集imagenet作为一个具有超过上千万图像样本的数据集,在处理图像检测和图像分类等图像识别任务时,通过本发明实施例的机器学习网络处理方法对图像识别任务的深度机器学习网络进行训练,得到该深度机器学习网络的连接权重。在处理器中加载通过imagenet训练得到的深度机器学习网络,在处理不同的图像检测任务或图像分类时,均表现出运算速度和精度等处理性能的提升。

在另一个实施例中,机器学习网络处理方法还可以用于处理指派问题、组合优化问题等离散约束优化问题。

以指派问题为例,首先,对该指派问题进行如下分析:设n个人被分配去做n件工作,规定每个人只做一件工作,每件工作只有一个人去做。已知第i个人去做第j件工作时的时间和费用为cij(i=1,2,…,n;j=1,2,…,n),并且假设cij≥0,求解如何分配可以使总效率最高。

接着,设定决策变量w,并且通过下面的公式(2)表示该决策变量:

然后,可以通过下述公式(3)建立该机器学习网络的带有约束条件的训练函数:

在上述公式(3)中,minf(w)为该机器学习网络的训练函数,决策变量wij为该机器学习网络的连接权重,wij需要满足的条件为机器学习网络的训练函数的约束条件。如果在该原始的约束空间的基础上直接运算时,该指派问题的机器学习网络不收敛或收敛速度非常慢,训练得到的连接权重误差较大。

在本发明实施例中,处理器可以利用本发明实施例中的机器学习网络处理方法对该指派问题构建的机器学习网络进行处理,对原始约束空间进行松弛,使该机器学习网络在新的约束空间得到训练,并逐步缩小新的约束空间,直到新的约束空间等于原始约束空间时,得到机器学习网络的连接权重。从而在处理器中加载训练得到的机器学习网络处理指派任务时,可以快速得到一个较为精确的结果,指派的方案使得总工作效率最佳。

根据本发明实施例的机器学习网络处理方法,处理器首先可以对机器学习网络中训练函数的原始约束空间进行松弛,即设置一个包含原始约束空间的新的约束空间,并渐进式缩小新的约束空间,逐步增加约束的强度,从而得到该非凸离散约束优化问题的最优解,即可以得到该机器学习网络的连接权重。

因此,利用本发明实施例的机器学习网络处理方法对该机器学习网络进行训练,训练得到机器学习网络的连接权重的精度更高,从而提高运算的效率并节约耗电量。

在另一个实施例中,处理器200根据接收的计算指令,对本发明实施例中的机器学习网络进行处理时,如果机器学习网络的连接权重的约束空间为2的幂次方,例如-1和1,作为一个示例,处理器可以设置新的约束空间[-4,4],并且在新的约束空间中,机器学习网络的连接权重的取值也可以为2的幂次方,例如-4、-2、-1、0、1、2、4,则上述新的约束空间可用4位有符号的定点整数表示,相较于32位单精度浮点数形式,该机器学习网络的约束空间实现了8倍存储空间的压缩,使得整个机器学习网络的模型占用的存储空间也较小。

在本发明实施例中,处理器中可以对上述经过存储空间压缩的机器学习网络进行训练,并且由于该机器学习网络的连接权重为2的幂次方,处理器200可以将该机器学习网络模型的计算中的乘法运算转化为移位运算,并且渐进地缩小新的约束空间,从而在每次逐步缩小的新的约束空间中训练该机器学习网络模型,加快该机器学习网络的训练速度。

作为一个示例,本发明实施例的机器学习网络处理方法可以适用于主流的学习框架例如tensorflow或者自定义的深度学习框架。

图2是示出根据本发明一实施例提供的处理器的架构示意图。

如图2所示,处理器200包括取值单元210、控制单元220和计算单元230。其中,控制单元220可以分别与取值单元210和计算单元230耦合。

在一些实施例中,处理器200可以布置在指定的机器设备上,并且处理器的处理结果可以保存到指定的数据库中。

在一些实施例中,处理器200可以包括中央处理器(cpu),或者特定集成电路(asic),或者可以被配置成实施本发明实施例的一个或多个集成电路。

在一些实施例中,本发明实施例提供的处理器可以是基于x86架构的处理器,也可以是基于高级精简指令集处理器(arm)架构的处理器,还可以是基于无内部互锁流水级的微处理器(mips)架构的处理器。

在一个实施例中,取值单元210,可以用于接收计算指令,计算指令可以包括待处理优化问题的机器学习网络的训练函数和训练函数的原始约束空间。

在一个实施例中,该机器学习网络可以是根据机器学习网络进行建模得到的离散约束优化模型。也就是说,可以将机器学习网络的训练当成优化问题进行求解。

在该实施例中,控制单元220,可以用于设置新的约束空间,并利用训练函数和新的约束空间构建新的机器学习网络,其中,新的约束空间的取值范围包括原始约束空间的取值范围,并且变量的取值为新的约束空间内的实数。

在该实施例中,计算单元230,可以用于在对新的机器学习网络求解的过程中,逐步缩小新的约束空间进行迭代处理,直到新的约束空间的取值范围等于原始约束空间的取值范围,得到机器学习网络的连接权重。

具体地,计算单元230还可以用于:获取新的约束空间的负数空间,逐步缩小负数空间,其中,缩小的负数空间包括原始约束空间的负数取值;获取新的约束空间的正数空间,在逐步缩小负数空间的同时缩小正数空间,并且其中,缩小的正数空间包括原始约束空间的正数取值。

在一些实施例中,对约束空间的压缩次数可以根据经验值确定或根据实际情况进行调整,即逐步缩小新的约束空间的次数是用户自定义的。

在一些实施例中,通过该处理器进行处理的机器学习网络的连接权重在原始约束空间的取值为正1或负1。

在一些实施例中,将离散机器学习网络的训练当成优化问题进行求解时,根据不同的网络结构,初始设置的新的约束空间以及逐步缩小约束空间的缩小范围可以不同。

根据本发明实施例的处理器,可以将离散机器学习网络的训练当成离散优化问题来求解,求解过程中,可以将原始约束空间的较强约束进行松弛,再将松弛的约束条件逐渐变紧,直到最后变成原始的强约束,是离散机器学习网络的训练更加平滑和稳定。

需要说明的是,本发明实施例中的处理器可以不仅限于单体计算设备或服务器,还可以是云计算场景中利用布置在多台机器设备上的具有较强计算能力的一个或多个计算组件。

作为一个示例,作为多个计算组件中的一个,该计算组件可以包括本发明实施例中的取值单元210、控制单元220和计算单元230。在该示例中,可以在分布式计算平台,利用布置在多台机器设备上的具有计算能力的一个或多个计算组件,对本发明实施例的机器学习网络进行分布式处理。

图3是示出根据本发明另一实施例提供的处理器的结构示意图。如图3所示,本发明实施例中的处理器300可以包括:

取值单元310,可以用于接收计算指令,计算指令包括机器学习网络的训练函数和训练函数的原始约束空间。

控制单元320,可以用于设置新的约束空间,并利用训练函数和新的约束空间构建新的机器学习网络,其中,新的约束空间的取值范围包括原始约束空间的取值范围,并且训练函数中的变量的取值为新的约束空间内的实数。

计算单元330,用于在对新的机器学习网络求解的过程中,逐步缩小新的约束空间进行迭代处理,直到新的约束空间的取值范围等于原始约束空间的取值范围,得到机器学习网络的连接权重。

具体地,计算单元330还用于获取新的约束空间的负数空间,逐步缩小负数空间,其中,缩小的负数空间包括原始约束空间的负数取值;获取新的约束空间的正数空间,在逐步缩小负数空间的同时缩小正数空间,并且其中,缩小的正数空间包括原始约束空间的正数取值。

在一些实施例中,对约束空间的压缩次数可以根据经验值确定或根据实际情况进行调整,即逐步缩小新的约束空间的次数可以是用户自定义的。

在一些实施例中,通过该处理器进行处理的机器学习网络的连接权重在原始约束空间的取值为正1或负1。

本发明实施例中的处理器可以包括中央处理器(cpu),或者特定集成电路(asic),或者可以被配置成实施本发明实施例的一个或多个集成电路。

在一些实施例中,本发明实施例提供的处理器可以是基于x86架构的处理器,也可以是基于高级精简指令集处理器(arm)架构的处理器,还可以是基于无内部互锁流水级的微处理器(mips)架构的处理器。

需要说明的是,本发明实施例中的处理器可以不仅限于单体计算设备或服务器,还可以是云计算场景中利用布置在多台机器设备上的具有较强计算能力的一个或多个计算组件。

在一些实施例中,处理器可以用于加载机器学习网络完成深度学习处理,该机器学习网络可以被配置为经过本发明实施例的机器学习网络处理,具体地,机器学习网络处理方法包括:

接收计算指令,计算指令包括机器学习网络的训练函数和训练函数的原始约束空间;

设置新的约束空间,并利用训练函数和新的约束空间构建新的机器学习网络,其中,新的约束空间的取值范围包含原始约束空间的取值范围;

在对新的机器学习网络求解的过程中,逐步缩小新的约束空间进行迭代处理,直到新的约束空间的取值范围等于原始约束空间的取值范围,得到机器学习网络的连接权重。

根据本发明实施例的处理器的其他细节与以上结合图1描述的根据本发明实施例的机器学习网络处理方法类似,在此不再赘述。

图4示出了能够实现根据本发明实施例的机器学习网络处理方法的计算设备的示例性硬件架构的结构图。

如图4所示,计算设备400包括输入设备401、输入接口402、中央处理器403、存储器404、输出接口405、以及输出设备406。其中,输入接口402、中央处理器403、存储器404、以及输出接口405通过总线410相互连接,输入设备401和输出设备406分别通过输入接口402和输出接口405与总线410连接,进而与计算设备400的其他组件连接。

具体地,输入设备401接收来自外部的输入信息,并通过输入接口402将输入信息传送到中央处理器403;中央处理器403基于存储器404中存储的计算机可执行指令对输入信息进行处理以生成输出信息,将输出信息临时或者永久地存储在存储器404中,然后通过输出接口405将输出信息传送到输出设备406;输出设备406将输出信息输出到计算设备400的外部供用户使用。

也就是说,图4所示的计算设备也可以被实现为一种机器学习网络处理设备,该机器学习网络处理设备可以包括:存储有计算机可执行指令的存储器;以及处理器,该处理器在执行计算机可执行指令时可以实现图1描述的机器学习网络处理方法。

本发明实施例还提供一种计算机可读存储介质,该计算机存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现本发明实施例提供的机器学习网络处理方法。

根据本发明实施例提供的机器学习网络处理方法、设备、处理器和存储介质,可以通过渐进式地离散约束方法来解决传统离散约束方法精度不高,运算效率低的问题,处理器通过加载根据本发明实施例的机器学习网络处理方法,对机器学习网络进行训练,可以较快和准确的得到该机器学习网络的连接权重,通过处理器加载该训练后的机器学习网络进行深度学习的处理时,具有更好的准确度和识别精度。

在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品或计算机可读存储介质的形式实现。所述计算机程序产品或计算机可读存储介质包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(dsl))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,dvd)、或者半导体介质(例如固态硬盘solidstatedisk(ssd))等。

需要明确的是,本发明并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本发明的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本发明的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。

以上所述,仅为本发明的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1