构建神经网络的方法、装置和计算机可读介质与流程

文档序号:17466526发布日期:2019-04-20 05:32阅读:176来源:国知局
构建神经网络的方法、装置和计算机可读介质与流程

本公开的实施例涉及人工智能领域,并且更具体地,涉及构建神经网络的方法、装置和计算机可读介质。



背景技术:

近几年来,机器学习技术正在不断地发展,在计算机视觉、语音处理、人工智能等众多领域取得了巨大的突破,显著地提高了机器算法在图像分类、目标检测、语音识别、机器翻译、内容过滤等多个任务中的性能,并且在互联网、视频监控等不同行业中得到了广泛应用。

神经网络模型基于参数集来处理输入数据。在对神经网络模型的训练过程中,训练样本的数量和质量直接决定模型的经训练的参数集是否准确,进而影响神经网络模型的最终输出。在实际应用中,通过人工或众包的方式对样本进行标注的成本较为昂贵,并且其获得的标签的准确度也难以被保证。因此,如何基于有限的样本进行充分的训练以得到更优的神经网络模型成为了当前关注的焦点。



技术实现要素:

本公开的实施例提供一种用于构建神经网络的方案。

根据本公开的第一方面,提出了一种构建神经网络的方法。该方法包括:从用于训练神经网络的样本集选择样本组,样本组至少包括两正样本和一负样本,两正样本中包括第一样本;利用神经网络的参数集的当前值来分别处理样本组中的相应样本,以获得对应的特征表示;确定第一样本相对应的第一特征表示分别与样本组中余下的至少一正样本和一负样本相对应的特征表示的相应相关度;以及基于相应相关度,确定参数集的更新值。

根据本公开的第二方面,提出了一种用于构建神经网络的装置。该装置包括:选择模块,被配置为从用于训练神经网络的样本集选择样本组,样本组至少包括两正样本和一负样本,两正样本中包括第一样本;处理模块,被配置为利用神经网络的参数集的当前值来分别处理样本组中的相应样本,以获得对应的特征表示;相关度确定模块,被配置为确定第一样本相对应的第一特征表示分别与样本组中余下的至少一正样本和一负样本相对应的特征表示的相应相关度;以及更新值确定模块,被配置为基于相应相关度,确定参数集的更新值。

在本公开的第三方面,提供了一种计算机可读存储介质。该计算机可读存储介质具有存储在其上的计算机可读程序指令,所述计算机可读程序指令用于执行根据第一方面所描述的方法。

提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。

附图说明

通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。

图1图示了可以用来实施本公开实施例的环境的示意图;

图2图示了根据本公开实施例的构建神经网络的方法的流程图;

图3图示了根据本公开实施例的获取样本集的方法的流程图;

图4图示了根据本公开实施例的构建神经网络系统的示意图;

图5图示了根据本公开的一些实施例的更新参数集的方法的流程图;

图6图示了根据本公开的另一实施例的更新参数集的方法的流程图;

图7图示了根据本公开的实施例的用于构建神经网络的装置的示意框图;以及

图8图示了可以用来实施本公开内容的实施例的示例设备的示意性框图。

具体实施方式

下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。

在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。

如上文所讨论的,训练样本的数量和质量直接决定模型的经训练的参数集是否准确,进而影响神经网络模型的最终输出。在实际应用中,通过人工或众包的方式对样本进行标注的成本较为昂贵,并且其获得的标签的准确度也难以被保证。例如,在众包标注的情况中,通过众包标注所获得的样本数量往往是有限的。此外,当标注过程没有绝对标准时,对于同样的一个样本,不同的标注者可能存在不同的判断。例如,在在线教育领域中,可能希望对视频中学生回答问题是否流利进行标注。此时,不同的标注者可能存在不同的判断标准,从而对同一段视频片段会给出不同的标注结果。因此,通过众包标注所获得的样本还存在大量的标签不一致的情形,从而难以用于高效的神经网络训练。

根据本公开的实施例,提供了一种训练神经网络的方案。在该方案中,从用于训练神经网络的样本集选择样本组,样本组至少包括两正样本和一负样本,两正样本中包括第一样本。随后,利用神经网络的参数集的当前值来分别处理样本组中的相应样本,以获得对应的特征表示。然后,确定第一样本相对应的第一特征表示分别与样本组中余下的至少一正样本和一负样本相对应的特征表示的相应相关度。基于相应相关度,确定参数集的更新值。基于这样的方法,可以基于有限的训练样本来获得更优的神经网络模型,从而得到更优的特征表示。

图1示出了可以用于实施本公开的方法的环境100的示意图。如图1所示,环境100包括计算设备130,其可以用于实施本公开的多种实现中的神经网络的训练。计算设备130能够接收待训练的神经网络110以及样本数据库120中的样本集122,以便于根据样本集120来执行关于该网络110的训练。计算设备130可以输出经训练的参数集140,该参数集140可以进而被提供给神经网络110或其他未示出的任何合适的神经网络。

神经网络110是能够从已有数据中学习到一定的知识和能力用于处理新数据。神经网络110可以被设计用于执行各种任务,诸如图像分类、目标检测、语音识别、机器翻译、内容过滤等等。神经网络110的示例包括但不限于各类深度神经网络(dnn)、支持向量机(svm)、决策树、随机森林模型等等。在本公开的实现,神经网络也可以被称为“机器学习模型”。在下文中,术语“神经网络”、“学习模型”、“学习网络”、“模型”和“网络”可替换地使用。

图1中将神经网络110示出为一种深度神经网络。深度神经网络具有分层架构,每一网络层具有一个或多个处理节点(称为神经元或滤波器),基于相应的参数对输入进行处理。在深度神经网络中,前一层执行处理后的输出是下一层的输入,其中架构中的第一层接收网络输入用于处理,而最后一层的输出被提供为网络输出。如图1所示,神经网络110包括网络层112-1和112-2等,其中网络层112-1接收网络输入,网络层112-2提供网络输出。神经网络110的所有处理节点处理所用的参数构成神经网络110的参数集。这样的参数集的具体取值需要通过训练过程来确定。

应当理解,图1示出的神经网络的架构以及其中的网络层和处理节点的数目均是示意性的。在不同的应用中,根据需要,神经网络可以被设计为具有其他架构。

以下将结合图2-图6描述根据本公开实施例的训练神经网络的方案。图2图示了根据本公开实施例的训练神经网络的方法200的流程图。方法200可以被由图1中的计算设备130实施。以下将结合图1所述的环境100来描述方法200中所涉及的动作。

在框202,计算设备130从用于训练神经网络110的样本集120选择样本组,样本组至少包括两正样本和一负样本,两正样本中包括第一样本。在一些实施例中,正样本表示针对特定特征被标记为“正”的样本。例如,对于判断视频片段中学生回答是否流利,正样本标识学生回答是流利的,而负样本标识学生回答不流利。

在一些实施例中,样本集120可以是通过众包标注的方式所获得的。以下将结合图3描述根据本公开实施的获取样本集的方法300的过程。

在框302,计算设备130可以获取候选样本的多个众包标签,其中多个众包标签是由多个用户提供的将候选样本标记为正或负的标签。例如,对于同一个样本x,同时存在5个标注者对样本x进行标注。例如,样本x的众包标签可以表示为(1,1,1,0,0),其中1指示标注者将该样本标注为正样本,而0指示标注者该样本标注为负样本。在本文中,被标记为正样本的一个样本也可以直接被简称为正样本。类似地,被标记为负样本的一个样本也可以直接被简称为负样本。

在框304,计算设备130确定多个众包标签中将候选样本标记为正的占比是否高于占比阈值?。继续先前的示例,当样本x的众包标签为(1,1,1,0,0)时,其被标记为正样本的比例为3/5。在一些实施例中,比例阈值可以被预先设定。例如,可以将比例阈值设置为0.5,即当一半以上的标注者将该样本标注为正样本时,则可以将该样本添加到样本集中以作为正样本。

响应于在框304确定该比例高于比例阈值,方法300进行到框306,即将候选样本添加为样本集120中的一正样本。例如,对于众包标签为(1,1,1,0,0)的样本x1,其被标记为正样本的比例高于预定阈值,则样本x1将被确定为样本集120中的正样本。否则,方法300进行到框308,将候选样本添加为样本集120中的一负样本。例如,对于众包标签为(1,0,0,0,0)的样本x2,其被标记为正样本的比例低于预定阈值,则样本x2将被确定为样本集120中负样本。通过如图3所示的众包标注的方法,样本集120中的每个样本可以具有与之相对应的多个众包标签。

在一些实施例中,样本集120中可以包括多个正样本和多个负样本。在选择一个样本组时,计算设备130可以从多个正样本中选取一对正样本。计算设备130还可以从多个负样本中随机选取一个或多个负样本。

继续参考图2,在框204,计算设备130利用神经网络110的参数集的当前值来分别处理样本组中的相应样本,以获得对应的特征表示。在训练的初始阶段,神经网络110的参数集可以被设置初始值。初始值可以以随机方式或者以其他方式、诸如预训练过程等来确定。在训练过程中,可以利用方法200对参数集的取值进行迭代更新。在一次迭代中,参数集的当前值为前一次迭代完成后参数集的更新值。

图4示出了根据本公开实施例的训练神经网络110的架构400的示意图。如图4所示,计算设备130选择的包括被标记为正样本的第一样本412-1和不同于第一样本412-1的样本412-2(为了方便描述,下文称为第二样本),以及被标记为负样本的多个样本414-1、414-2至414-n(为了方便描述,下文中其单独或统一被称为“第三样本414”)。例如,样本组410也可以被表示为:gi=<xi+,xj+,x1-,x2-,…xk->,其中xi+指示第一样本412-1,xj+指示第二样本412-2,x1-,x2-,…xk-指示k个第三样本。基于这样的方式,计算设备130可以从有限数量的样本集120中获取大量的不同样本组410,从而解决训练样本有限的缺陷。

继续图4的示例,如图4所示,神经网络420接收样本组410,并获得与样本组中的各样本(412-1、412-2、414-1、414-2至414-k)相对应的特征表示(412-1、412-2、414-1、414-2至414-k)。图4中将神经网络420被示出为一种深度神经网络。如图4所示,神经网络420可以包括多个图1中所示的神经网络110,每个神经网络可以接收样本组中的单个样本,并利用参数集对单个样本进行处理以获得对应的特征向量。应当理解,图4示出的神经网络的架构以及其中的网络层和处理节点的数目均是示意性的。在不同的应用中,根据需要,神经网络模型可以被设计为具有其他架构。

继续参考图2,在框206,计算设备130确定第一样本相对应的第一特征表示分别与样本组中余下的至少一正样本和一负样本相对应的特征表示的相应相关度。

继续图4的示例,第一样本412-1的特征表示432-1可以被表示为fi+,第二样本412-2的特征表示432-2可以被表示为fj+,类似地,第三样本412(414-1、414-2至414-k)的特征表示(434-1、434-2至434-k)可以被表示为f1-、f2-至fk-。在一些实施例中,两个特征表示之间的相关度r(xi+,x*)可以被计算为两个特征表示之间的夹角的余弦值:r(xi+,x*)=consine(fi+,f*)。在一些实施例中,也可以采用余弦值的指数值来标识两个特征表示之间的相关度:因此,在更新参数集的过程中,计算设备130不仅考虑两个正样本之间的相关度,还考虑了正样本与负样本的之间的相关度。通过计算这些相关度,计算设备130可以更新参数集以使得第一样本与另一正样本之间的相关度大于第一样本与其他负样本的相关度。以下将结合图5和图6具体描述框206的一些具体实现。

如以上提及的,方法200可以被迭代执行,利用此方法来不断更新和优化神经网络110的参数集,直至达到收敛条件。在方法200的每次迭代中,在框202中选择的样本组可以相同或者不同。每次要更新的参数集的当前值为前一次获得更新值。

图5示出了根据本公开的一些实施例的更新参数值的过程500的流程图。在框502,计算设备130通过加和相应相关度来确定相关度总和。继续图4的示例,计算设备130可以加和第二样本的特征表示412-2与第一样本的特征表示412-1之间的相关度440-1以及第三样本的特征表示(434-1、434-2至434-k)与第一样本的特征表示412-1之间的相关度440-2至440-m,以得到相关度总和。在一些实施例中,还可以通过指数和的形式来指示该相关度总和,例如其可以被表示为:其中η表示预设的平滑参数。

在框504,计算设备130确定正样本相关度,正样本相关度指示第一特征表示与样本组中余下的至少一正样本相对应的特征表示的相应相关度。继续图4的示例,正样本相关度440-2可以被表示为r(xi+,xj+)。在一些实施例中,也可以将正样本相关度表示为exp(η·r(xi+,xj+)),其中η表示预设的平滑参数。

在框506,计算设备130基于正样本相关度与相关度总和的比值,确定参数集的更新值。例如,继续图4的示例,计算设备130可以将目标函数460设置为正样本相关度与相关度总和的比值,例如,其可以被表示为:

在该等式中,xi+表示第一正样本412-1的特征表示432-1,x*表示第二正样本412-2的特征表示432-2,η表示预设的平滑参数。在一些实施例中,基于该目标函数,计算设备130可以利用梯度下降方法使得该目标函数的值降低,从而确定参数集的更新值。

在一些实施例中,计算设备130可以基于该比值来确定神经网络420的训练是否已经收敛。在一些实施例中,计算设备130可以将该比值与预定的比值阈值进行比较。如果确定该比值大于预定的比值阈值,计算设备130确定神经网络420的训练达到收敛。在一些实施例中,计算设备130也可以计算本次迭代中所计算的比值与先前迭代中所计算的比值的差值是否小于预定的差值阈值。如果确定该差值小于预定的差值阈值,计算设备130确定神经网络420的训练达到收敛。在一些实施例中,计算设备130也可以计算多次迭代中确定的比值变化的平均值,并基于该每次迭代对该平均值的改变是否小于预定的阈值来确定神经网络420的训练是否收敛。在确定神经网络420的训练达到收敛后,计算设备130可以输出参数集的当前值。

在一些实施例中,计算设备130也可以一次向神经网络传入n个样本组,并且可以将目标函数460设置为:

其中ω表示待训练的参数集,n表示输入的样本组的数目。具体地,计算设备130可以使用梯度下降方法来使得在迭代过程中目标函数(2)的值降低,并且在新的一迭代中目标函数(2)的值与先前迭代中的值之间的差异小于预定的阈值时,将参数集的当前值输出,从而完成对神经网络的训练。

在一些实施例中,计算设备130也可以在迭代过阈值次数后停止迭代,并且将经更新的参数集输出,以作为神经网络的经训练的参数集以供使用。

在一些实施例中,计算设备130还可以利用每个样本的众包标签来提高参数的准确度。具体地,图6示出了根据本公开的另一实施例的更新参数集的方法600的流程图。

在框602,计算设备130基于与样本组中余下的至少一正样本和负样本相关联的多个众包标签,确定与至少一正样本和至少一负样本相关联的置信度,多个众包标签是由多个用户提供的将候选样本标记为正或负的标签。如上文所示,可以通过众包的方式来获取样本集120,使得样本集120中的样本可以具有多个众包标签。在一些实施例中,计算设备130可以基于给定样本的众包标签中被标记为正样本或负样本的比例来确定置信度。例如,对于众包标签为(1,1,1,0,0)的正样本,计算设备130可以计算极大似然估计来作为其置信度:

其中d表示标注者的数目,yi,j表示第i个样本的第j众包标签。

在一些实施例中,计算设备130还可以采用贝叶斯置信度作为每个样本的置信度:

其中α和β表示对于样本集中正负样本分布的先验知识,例如α可以为已知的样本集中正样本数目所占百分比乘以d,β可以为已知的样本集中负样本数目所占百分比乘以d。

在框604,计算设备130基于置信度,对第一特征表示与样本组中余下的至少一正样本和负样本对应的特征表示的相关度进行加权。如图4所示,计算设备130可以对相关度440-1至440-m进行加权,得到经加权后的相关度450-1至450-m。在一些实施例中,计算设备130可以基于每个样本是否具有众包标签来确定是否对与该样本对应的相关度进行加权。例如当某个样本为专家标定的样本,其不具有众包标签,则其置信度可以被默认置为1。

在框606,计算设备130基于经加权的相关度,确定参数集的更新值。继续图4的示例,在考虑置信度之后,公式(1)可以被更新为新的目标函数:

其中δ表示相应的置信度。应当理解,公式(2)也可以被相应的更新。在一些实施例中,基于新的目标函数,计算设备130可以利用梯度下降方法使得该目标函数的值降低,从而确定参数集的更新值。通过引入基于上述方式计算的置信度,计算设备130在训练过程中可以充分考虑众包标签的信息,加大众包标签投票较为一致的样本的权重,降低众包标签投票较不一致的样本的权重,从而使得神经网络训练所获得的参数更为准确,进而能够通过神经网络获得更为精准的特征表示。

在一些实施例中,计算设备130可以基于目标函数公式(6)来确定神经网络420的训练是否已经收敛。在一些实施例中,计算设备130可以将该比值与预定的比值阈值进行比较。如果确定该比值大于预定的比值阈值,计算设备130确定神经网络420的训练达到收敛。在一些实施例中,计算设备130也可以计算本次迭代中所计算的比值与先前迭代中所计算的比值的差值是否小于预定的差值阈值。如果确定该差值小于预定的差值阈值,计算设备130确定神经网络420的训练达到收敛。在一些实施例中,计算设备130也可以计算多次迭代中确定的比值变化的平均值,并基于该每次迭代对该平均值的改变是否小于预定的阈值来确定神经网络420的训练是否收敛。在确定神经网络420的训练达到收敛后,计算设备130可以输出参数集的当前值。

在一些实施例中,在完成神经网络110的训练后,计算设备130可以将经训练的参数集140输出到神经网络110或者另一神经网络,以获得经训练的神经网络。经训练的神经网络可以利用经训练的参数集140来将模型输入(例如,语音、视频、文字、图片等)转换为特征表示,并进而可以通过逻辑回归模型确定该模型输入是否为正的结论。

基于本文描述的训练神经网络的方案,该方案可以通过将正负样本组合成样本对进行训练,从而解决了训练样本集中的训练样本有限的问题。此外,在训练过程中,不仅仅考虑正样本与正样本之间的相关度,还进一步考虑正样本与负样本之间的相关度,通过使得正样本之间的相关度足够大来更新参数,从而使得神经网络的参数更为准确,进而能够通过神经网络获得更为精准的特征表示。

图7根据本公开的实施例的用于数据访问的装置700的方框图。装置700可以被包括在图1的计算设备130中或者被实现为计算设备130。如图7所示,装置700包括选择模块710,被配置为从用于训练神经网络的样本集选择样本组,样本组至少包括两正样本和一负样本,两正样本中包括第一样本。装置700还包括处理模块720,被配置为利用神经网络的参数集的当前值来分别处理样本组中的相应样本,以获得对应的特征表示。装置700还包括相关度确定模块730,被配置为确定第一样本相对应的第一特征表示分别与样本组中余下的至少一正样本和一负样本相对应的特征表示的相应相关度。此外,装置700还包括更新值确定模块740,被配置为基于相应相关度,确定参数集的更新值。

在一些实施例中,装置700还包括样本集确定模块,样本集确定模块包括:获取模块,被配置为获取候选样本的多个众包标签,多个众包标签是由多个用户提供的将候选样本标记为正或负的标签;占比确定模块,被配置为确定候选样本的多个众包标签中的将候选样本标记为正的标签的占比是否高于占比阈值;正样本添加模块,被配置为响应于占比高于占比阈值,将候选样本添加为样本集中的一正样本;以及负样本添加模块,被配置为响应于占比小于或等于占比阈值,将候选样本添加为样本集中的一负样本。

在一些实施例中,其中更新值确定模块740包括:总和确定模块,被配置为通过加和相应相关度来确定相关度总和;正样本相关度确定模块,被配置为确定正样本相关度,正样本相关度指示第一特征表示与样本组中余下的至少一正样本相对应的特征表示的相应相关度;以及第一更新值确定模块,被配置为基于正样本相关度与相关度总和的比值,确定参数集的更新值。

在一些实施例中,装置700还包括:第一收敛确定模块,被配置为基于正样本相关度与相关度的比值,确定神经网络的训练是否收敛;以及第一输出模块,被配置为响应于确定神经网络的训练收敛,输出参数集的当前值。

在一些实施例中,其中更新值确定模块740包括:置信度确定模块,被配置为基于与样本组中余下的至少一正样本和负样本相关联的多个众包标签,确定与至少一正样本和至少一负样本相关联的置信度,多个众包标签是由多个用户提供的将候选样本标记为正或负的标签;加权模块,被配置为基于置信度,对第一特征表示与样本组中余下的至少一正样本和负样本对应的特征表示的相关度进行加权;以及第二更新值确定模块,被配置为基于经加权的相关度,确定参数集的更新值。

在一些实施例中,其中置信度包括贝叶斯置信度。

在一些实施例中,装置700还包括:第二收敛确定模块,被配置为基于经加权的相关度,确定神经网络的训练是否收敛;以及第二输出模块,被配置为响应于确定神经网络的训练收敛,输出参数集的当前值。

图8示出了可以用来实施本公开内容的实施例的示例设备800的示意性框图。例如,如图1所示的计算设备130由设备800来实施。如图所示,设备800包括中央处理单元(cpu)801,其可以根据存储在只读存储器(rom)802中的计算机程序指令或者从存储单元808加载到随机访问存储器(ram)803中的计算机程序指令,来执行各种适当的动作和处理。在ram803中,还可存储设备800操作所需的各种程序和数据。cpu801、rom802以及ram803通过总线804彼此相连。输入/输出(i/o)接口805也连接至总线804。

设备800中的多个部件连接至i/o接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。

上文所描述的各个过程和处理,例如方法200、方法300、方法500和/或方法600,可由处理单元801执行。例如,在一些实施例中,方法200、方法300、方法500和/或方法600可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由rom802和/或通信单元807而被载入和/或安装到设备800上。当计算机程序被加载到ram803并由cpu801执行时,可以执行上文描述的方法200、方法300、方法500和/或方法600的一个或多个动作。

本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。

计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是--但不限于--电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、静态随机存取存储器(sram)、便携式压缩盘只读存储器(cd-rom)、数字多功能盘(dvd)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。

这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。

用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(isa)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如smalltalk、c++等,以及常规的过程式编程语言—诸如“c”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(fpga)或可编程逻辑阵列(pla),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。

这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。

这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。

也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。

附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

以上已经描述了本公开的各实施方式,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施方式。在不偏离所说明的各实施方式的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施方式的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其他普通技术人员能理解本文披露的各实施方式。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1