知识表示、机器学习模型训练、预测方法、装置以及电子设备与流程

文档序号:16856911发布日期:2019-02-12 23:25阅读:296来源:国知局
知识表示、机器学习模型训练、预测方法、装置以及电子设备与流程

本说明书涉及机器学习技术领域,尤其涉及知识表示、机器学习模型训练、预测方法、装置以及电子设备。



背景技术:

在当今互联网时代,人们的生活发生着翻天覆地的变化。在利用各种数据实现电子信息化的新形式下,便利了人们日常生活中的各个方面,例如:支付、交通和健康管理等。同时,海量与用户相关的数据也由此产生,也就是通常所说的大数据。

在现有技术中,机器学习模型是大数据领域经常使用的工具,在训练机器学习模型或者利用机器学习模型对原始数据进行数据预测时,往往将原始数据直接输入机器学习模型进行对应的处理操作。

基于现有技术,需要能够保障原始数据的隐私性的方案。



技术实现要素:

本说明书实施例提供知识表示、机器学习模型训练、预测方法、装置以及电子设备,用于解决以下技术问题:需要能够保障原始数据的隐私性的方案。

为解决上述技术问题,本说明书实施例是这样实现的:

本说明书实施例提供的知识表示方法,包括:

将原始数据输入深度神经网络;

获取训练好的所述深度神经网络的隐层针对所述原始数据输出的特征,作为所述原始数据对应的知识表示,该知识表示被用于训练机器学习模型,或者用于训练好的机器学习模型进行数据预测。

本说明书实施例提供的机器学习模型训练方法,包括:

获取原始数据对应的知识表示,所述原始数据对应的知识表示根据深度神经网络的隐层针对所述原始数据输出的特征得到;

利用所述原始数据对应的知识表示,对机器学习模型进行训练。

本说明书实施例提供的机器学习模型预测方法,包括:

获取待预测数据;

将所述待预测数据输入用于知识表示的深度神经网络进行处理,所述深度神经网络利用训练数据训练得到;

获取所述深度神经网络的隐层针对所述待预测数据输出的特征,作为所述待预测数据对应的知识表示;

将所述待预测数据对应的知识表示输入机器学习模型,得到预测结果,所述机器学习模型利用所述深度神经网络对所述训练数据的知识表示训练得到。

本说明书实施例提供的机器学习模型训练装置,包括:

第一输入模块,将原始数据输入深度神经网络;

第一获取模块,获取训练好的所述深度神经网络的隐层针对所述原始数据输出的特征,作为所述原始数据对应的知识表示,该知识表示被用于训练机器学习模型,或者用于训练好的机器学习模型进行数据预测。

本说明书实施例提供的机器学习模型训练装置,包括:

第二获取模块,获取原始数据对应的知识表示,所述原始数据对应的知识表示根据深度神经网络的隐层针对所述原始数据输出的特征得到;

第二训练模块,利用所述原始数据对应的知识表示,对机器学习模型进行训练。

本说明书实施例提供的机器学习模型预测装置,包括:

第二预测获取模块,获取待预测数据;

第二预测处理模块,将所述待预测数据输入用于知识表示的深度神经网络进行处理,所述深度神经网络利用训练数据训练得到;

第二预测提取模块,获取所述深度神经网络的隐层针对所述待预测数据输出的特征,作为所述待预测数据对应的知识表示;

第二预测输出模块,将所述待预测数据对应的知识表示输入机器学习模型,得到预测结果,所述机器学习模型利用所述深度神经网络对所述训练数据的知识表示训练得到。

本说明书实施例提供的一种电子设备,包括:

至少一个处理器;以及,

与所述至少一个处理器通信连接的存储器;其中,

所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:

为将原始数据输入深度神经网络;

获取训练好的所述深度神经网络的隐层针对所述原始数据输出的特征,作为所述原始数据对应的知识表示,该知识表示被用于训练机器学习模型,或者用于训练好的机器学习模型进行数据预测。

本说明书实施例提供的另一种电子设备,包括:

至少一个处理器;以及,

与所述至少一个处理器通信连接的存储器;其中,

所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:

为获取原始数据对应的知识表示,所述原始数据对应的知识表示根据深度神经网络的隐层针对所述原始数据输出的特征得到;

利用所述原始数据对应的知识表示,对机器学习模型进行训练。

本说明书实施例提供的再一种电子设备,包括:

至少一个处理器;以及,

与所述至少一个处理器通信连接的存储器;其中,

所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:

为获取待预测数据;

将所述待预测数据输入用于知识表示的深度神经网络进行处理,所述深度神经网络利用训练数据训练得到;

获取所述深度神经网络的隐层针对所述待预测数据输出的特征,作为所述待预测数据对应的知识表示;

将所述待预测数据对应的知识表示输入机器学习模型,得到预测结果,所述机器学习模型利用所述深度神经网络对所述训练数据的知识表示训练得到。

本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:输入原始数据到深度神经网络,获得深度神经网络的隐层的输出作为知识表示,用知识表示替代原始数据,有利于保障该原始数据的隐私性。

附图说明

为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1为本说明书的方案在一种实际应用场景下涉及的一种整体架构示意图;

图2为本说明书实施例提供的一种知识表示方法的流程示意图;

图3为本说明书实施例提供的一种深度神经网络训练过程的示意图;

图4为本说明书实施例提供的一种知识表示获取过程的示意图;

图5为本说明书实施例提供的一种机器学习模型训练方法的流程示意图;

图6为本说明书实施例提供的一种机器学习模型训练过程的示意图;

图7为本说明书实施例提供的一种机器学习模型预测方法的流程示意图;

图8为本说明书实施例提供的一种机器学习模型预测方法的原理示意图;

图9为本说明书实施例提供的一种知识表示装置的结构示意图;

图10为本说明书实施例提供的一种机器学习模型训练装置的结构示意图;

图11为本说明书实施例提供的一种机器学习模型预测装置的结构示意图。

具体实施方式

本说明书实施例提供知识表示、机器学习模型训练、预测方法、装置以及电子设备。

为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本说明书实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。

图1为本说明书的方案在一种实际应用场景下涉及的一种整体架构示意图。该整体架构的工作流程主要包括:输入原始数据到深度神经网络设备,将该深度神经网络的隐层输出的特征作为该原始数据对应的知识表示,进一步地,将该知识表示通过网络发送给机器学习模型设备,用于训练机器学习模型,或者用于训练好的机器学习模型进行数据预测。

在本说明书的方案中,涉及对深度神经网络的训练,以及对机器学习模型的训练。为了防止混淆,以下各实施例可将训练机器学习模型所利用的训练数据称为“第一训练数据”,将训练深度神经网络所利用的训练数据称为“第二训练数据”。

基于该整体架构,下面对本说明书的方案进行详细说明。

本说明书实施例提供了一种知识表示方法,如图2所示,图2为该知识表示方法的流程示意图,该流程可以包括以下步骤:

s202:将原始数据输入深度神经网络。

所述深度神经网络包括输入层、输出层和隐层。

深度神经网络可以通过预构建得到,如此便于迅速应对其他业务主体(比如,机器学习模型的训练方,或者其他需要使用知识表示的业务主体等)对于通过该深度神经网络可得到的知识表示的需求;

也可以在接到明确的针对某类型原始数据的使用需求后或其知识表示的使用需求后,再构建该深度神经网络,比如,当机器学习模型的使用方索取原始数据时,再构建该深度神经网络,以便于获取原始数据对应的知识表示,并将该知识表示代替该原始数据交付给该使用方。

原始数据可以是相应的业务数据(比如,图片、文本或者业务数据表中的记录等),业务数据可以进一步地表示为向量,以便于神经网络处理。

s204:获取训练好的所述深度神经网络的隐层针对所述原始数据输出的特征,作为所述原始数据对应的知识表示,该知识表示可以被用于训练机器学习模型,或者用于训练好的机器学习模型进行数据预测。

深度神经网络中一般包含多个隐层,隐层输出的特征是对所述原始数据进行非线性变换得到的。

对于输入的任意原始数据,可以对应得到一个或多个隐层输出的特征,由于该特征包含有该原始数据的主要信息,因此,可以将所述一个或多个隐层输出的特征作为该原始数据对应的知识表示。

在实际应用中,隐层的维度可以小于原始数据对应的维度,如此,既有利于防止原始数据在特征稀疏的情况下对后续学习过程带来的不利影响,也有利于降低保存知识表示所花费的成本。

原始数据的所有方和机器学习模型的训练方往往不是同一方,而且原始数据可能是不能对外公开的信息,因此,原始数据的所有方可以将该原始数据对应的知识表示作为第一训练数据提供给训练方,训练方则利用该第一训练数据代替该原始数据训练机器学习模型,从而有利于保障原始数据对于训练方的隐私性。

此外,在利用机器学习模型对原始数据进行预测时,可以用原始数据对应的知识表示来代替原始数据,进而利用训练好的机器学习模型实现对原始数据对应的知识表示进行预测,同样有利于在预测过程中实现对原始数据的隐私性保护。

进一步地,步骤s204中所述的隐层具体可以指高隐层。一般地,高隐层可以指靠近输出层的一个或多个隐层。优选地,高隐层可以是对应的深度神经网络的最后一个隐层,也即,最靠近输出层的隐层。

一般地,隐层的数量越多,则对输入的原始数据的变换次数也越多,如此,对应得到的知识表示与该原始数据相比变化也越大,进而更有利于保护该原始数据的隐私性。

在本说明书实施例中,对于步骤s202,所述深度神经网络通过训练得到,具体可以包括:将训练数据(具体为第二训练数据)输入神经网络对其进行训练;所述训练数据为矩阵形式,该矩阵的行表示一条训练样本,列表示各条训练样本的特征或标签。

所述原始数据可以作为第二训练数据被用于训练深度神经网络。第二训练数据可以为矩阵形式,其中,该第二训练数据矩阵的行表示一条训练样本,列表示各条训练样本的特征或标签;所述第二训练数据对应的知识表为列数小于该第二训练数据矩阵的列数的矩阵。

所述第二训练数据具体可以为由训练样本的特征构成的第二训练数据矩阵,一般地,该第二训练数据矩阵的行(可以视为行向量)可以表示训练样本,列可以表示训练样本的特征。

例如,在该第二训练数据矩阵中,每行分别表示一个训练样本,每列分别表示训练样本的一个特征,该样本的维度即为该训练样本的特征数量。

具体结合图3进行说明,图3为本说明书实施例提供的一种深度神经网络训练过程的示意图。

在图3中,深度神经网络的训练数据为一个n行d列的第二训练数据矩阵,该第二训练数据矩阵的每行分别表示一个训练样本,每列分别表示训练样本的一个特征。所述标签可以是第二训练数据矩阵对应的机器学习问题的目标输出,具体到图3,该标签是由第二训练数据矩阵包含的各训练样本对应的目标输出组成的一个n维列向量。

图3中对应的深度神经网络的训练过程主要可以包括:

将该第二训练数据矩阵输入到指定的一个神经网络进行处理,该神经网络包含两个隐层,将最靠近的输出层的其中一个隐层作为高隐层;

根据该神经网络对第二训练数据矩阵的处理结果,以及该第二训练数据矩阵对应的标签,对该神经网络进行训练,训练好的该神经网络即可以作为上述的用于知识表示的深度神经网络。

图4为本说明书实施例提供的一种知识表示获取过程的示意图,该过程可以包括:

利用通过图3的训练过程训练好的深度神经网络处理原始数据矩阵,根据该深度神经网络的高隐层对应输出的特征,得到一个n行p列的矩阵(称为知识表示矩阵),作为该原始数据矩阵对应的知识表示。

知识表示矩阵与原始数据矩阵中的行是一一对应的,每行分别对应于一个原始数据。这里,原始数据矩阵的列数d优选地可以大于知识表示矩阵的列数p,如此,通过对原始数据矩阵进行降维得到知识表示,该知识表示具有存储成本低、保密性好的优点。

基于相同的思路,本说明书还提供了一种机器学习模型训练方法,图5为一种机器学习模型训练方法的流程示意图,图5中的流程可以包括以下步骤:

s502:获取原始数据对应的知识表示,所述原始数据对应的知识表示根据深度神经网络的隐层针对所述原始数据输出的特征得到;

s504:利用所述原始数据对应的知识表示,对机器学习模型进行训练。

下面结合图6对上述机器学习模型进行训练方法进行说明。

图6为本说明书实施例提供的一种机器学习模型训练过程的示意图,该训练过程可以包括:利用如图4所示得到的知识表示作为第一训练数据,对机器学习模型进行训练,得到所需的机器学习模型。在实际应用中,也可以采用知识表示对应的原始数据直接训练机器学习模型,但是,在本说明书的方案中,优选地采用知识表示作为第一训练数据代替其对应的原始数据对机器学习模型进行训练,可以避免将原始数据直接暴露给机器学习模型的训练方,有利于保护训练数据的隐私性。

对于深度神经网络对原始数据进行处理得到的知识表示,可以将该知识表示作为第一训练数据代替原有的原始数据,用于训练机器学习模型。其优点在于:由于知识表示是利用深度神经网络对原有的原始数据进行非线性的、比较复杂的变换得到的,因此,将其用于训练机器学习模型时,不会暴露原有的原始数据,从而有利于提高原有的原始数据的隐私性,也有利于提高机器学习模型训练过程的安全性。

进一步地,所述隐层具体为高隐层,所述高隐层为所述深度神经网络的最后一个隐层,也就是最靠近输出层的隐层。

进一步地,可以使用训练好的机器学习模型进行数据预测。

所述数据预测的过程比如可以包括以下步骤:

获取待预测数据;将所述待预测数据输入所述深度神经网络进行处理;获取所述深度神经网络的隐层针对所述待预测数据输出的特征,作为所述待预测数据对应的知识表示;将所述待预测数据对应的知识表示输入训练好的所述机器学习模型,得到预测结果。

根据前面的说明可知,通过将知识表示作为第一训练数据训练机器学习模型有利于保护对应的第一训练数据的隐私性,基于同样的思路,在利用训练好的机器学习模型进行数据预测时,也可以先对待预测数据进行知识表示,以用于进行数据预测,如此有利于保护待预测数据的隐私性。

基于同样的思路,本说明书还提供了一种机器学习模型预测方法,该方法的流程图如图7所示。

图7为本说明书实施例提供的一种机器学习模型预测方法的流程示意图,该方法可以包括以下步骤:

s702:获取待预测数据。

s704:将所述待预测数据输入用于知识表示的深度神经网络进行处理,所述深度神经网络利用训练数据训练得到;

s706:获取所述深度神经网络的隐层针对所述待预测数据输出的特征,作为所述待预测数据对应的知识表示。

s708:将所述待预测数据对应的知识表示输入机器学习模型,得到预测结果,所述机器学习模型利用所述深度神经网络对所述训练数据的知识表示训练得到。

为了更清楚的理解上述方法,可以参考图8所示的原理示意图。

图8为本说明书实施例提供的一种机器学习模型预测方法的原理示意图。

基于图3、图4和图6所示的机器学习模型的训练过程得到所需的机器学习模型,进一步地,利用该训练好的机器学习模型对待预测数据进行预测的主要过程可以包括:

输入待预测数据矩阵,通过训练好的深度神经网络对该待预测数据矩阵进行处理;从该深度神经网络中提取高隐层输出的特征作为知识表示,该知识表示的列数p小于待预测数据矩阵的列数d;然后,输入该知识表示到该机器学习模型(该机器学习模型对应于图8中所示的模型),获得对待预测数据的预测结果。

通过利用深度神经网络对待预测数据进行变换得到知识表示,实现对待预测数据特征的降维,有利于降低对知识表示的存储成本,还有利于提升对待预测数据的隐私保护的效果。

基于同样的思路,本说明书实施例还提供了一种知识表示装置,如图9所示。该装置可以包括:

第一输入模块101,将原始数据输入深度神经网络;

第一获取模块102,获取训练好的所述深度神经网络的隐层针对所述原始数据输出的特征,作为所述原始数据对应的知识表示,该知识表示被用于训练机器学习模型,或者用于训练好的机器学习模型进行数据预测。

进一步地,所述隐层具体为高隐层。所述高隐层为所述深度神经网络的最后一个隐层。

其中,高隐层可以是所述深度神经网络中的多个隐层的最后一个隐层,也即最靠近输出层的隐层。

进一步地,所述深度神经网络按照如下方式得到,具体可以包括:

所述第一输入模块101,将所述原始数据输入指定的神经网络对其进行训练;所述训练数据为矩阵形式,该矩阵的行表示一条训练样本,列表示各条训练样本的特征或标签。

所述原始数据对应的知识表示为列数小于所述训练数据矩阵的列数的矩阵。

由于该知识表示通过深度神经网络对训练数据进行复杂的、非线性的处理后得到的,并且,所述知识表示为列数小于所述训练数据矩阵的列数的矩阵,所述列数表示特征的维度,通过对训练数据进行降维得到知识表示,该知识表示具有存储成本低、保密性好的优点。

基于同样的思路,本说明书实施例还提供了一种机器学习模型训练装置,如图10所示。

图10为本说明书实施例提供的一种机器学习模型预测装置的结构示意图,该装置具体可以包括:

第二获取模块201,获取原始数据对应的知识表示,所述原始数据对应的知识表示根据深度神经网络的隐层针对所述原始数据输出的特征得到;

第二训练模块202,利用所述原始数据对应的知识表示,对机器学习模型进行训练。

第二获取模块201,通过将原始数据替换为通过深度神经网络得到的知识表示(对应前文所述第一训练数据),该第一训练数据比原始数据具有更好的隐私保护效果,可以避免将原始数据直接暴露给机器学习模型的训练方。

进一步地,所述隐层具体为高隐层,进一步地,所述高隐层为所述深度神经网络的最后一个隐层。

在本说明书实施例中,在利用原始数据对应的知识表示,对机器学习模型训练完后,可以使用训练好的机器学习模型进行数据预测,进行数据预测的装置可以包括以下模块:

第一预测获取模块,获取待预测数据;

第一预测处理模块,将所述待预测数据输入所述深度神经网络进行处理;

第一预测提取模块,获取所述深度神经网络的隐层针对所述待预测数据输出的特征,作为所述待预测数据对应的知识表示;

第一预测输出模块,将所述待预测数据对应的知识表示输入训练好的所述机器学习模型,得到预测结果。

该知识表示通过深度神经网络对待预测数据进行复杂、非线性处理后得到的,可以具有较好的隐私保护的效果。

基于同样的思路,本说明书实施例还提供了一种机器学习模型预测装置,具体可以参考图11。

图11为本说明书实施例提供的一种机器学习模型预测装置的结构示意图,具体可以包括:

第二预测获取模块301,获取待预测数据;

第二预测处理模块302,将所述待预测数据输入深度神经网络进行处理;所述深度神经网络通过训练得到用于生成对应所述待预测数据的知识表示;

第二预测提取模块303,获取所述深度神经网络的隐层针对所述待预测数据输出的特征,作为所述待预测数据对应的知识表示;

第二预测输出模块304,将所述待预测数据对应的知识表示输入机器学习模型,得到预测结果;所述机器学习模型根据所述深度神经网络输出的知识表示训练得到。

进一步地,所述隐层具体为高隐层。

进一步地,所述高隐层为所述深度神经网络中多个隐层的最后一层。

高隐层可以是所述深度神经网络中多个隐层的最后一层,也可以是所述深度神经网络中多个隐层中倒数第二层的隐层等其他隐层。一般地,隐层的数量越多,训练机器学习模型的效果越好。

基于同样的思路,本说明实施例还提供了一种电子设备,包括:

至少一个处理器;以及,

与所述至少一个处理器通信连接的存储器;其中,

所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:

为将原始数据输入深度神经网络;

获取训练好的所述深度神经网络的隐层针对所述原始数据输出的特征,作为所述原始数据对应的知识表示,该知识表示被用于训练机器学习模型,或者用于训练好的机器学习模型进行数据预测。

基于同样的思路,本说明实施例还提供了另一种电子设备,包括:

至少一个处理器;以及,

与所述至少一个处理器通信连接的存储器;其中,

所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:

为获取原始数据对应的知识表示,所述原始数据对应的知识表示根据深度神经网络的隐层针对所述原始数据输出的特征得到;

利用所述原始数据对应的知识表示,对机器学习模型进行训练。

基于同样的思路,本说明实施例还提供了再一种电子设备,包括:

至少一个处理器;以及,

与所述至少一个处理器通信连接的存储器;其中,

所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:

为获取待预测数据;

将所述待预测数据输入用于知识表示的深度神经网络进行处理;所述深度神经网络利用训练数据训练得到;

获取所述深度神经网络的隐层针对所述待预测数据输出的特征,作为所述待预测数据对应的知识表示;

将所述待预测数据对应的知识表示输入机器学习模型,得到预测结果;所述机器学习模型利用所述深度神经网络对所述训练数据的知识表示训练得到。

上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。

本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备、非易失性计算机存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。

本说明书实施例提供的装置、电子设备、非易失性计算机存储介质与方法是对应的,因此,装置、电子设备、非易失性计算机存储介质也具有与对应方法类似的有益技术效果,由于上面已经对方法的有益技术效果进行了详细说明,因此,这里不再赘述对应装置、电子设备、非易失性计算机存储介质的有益技术效果。

在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(programmablelogicdevice,pld)(例如现场可编程门阵列(fieldprogrammablegatearray,fpga))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片pld上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logiccompiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(hardwaredescriptionlanguage,hdl),而hdl也并非仅有一种,而是有许多种,如abel(advancedbooleanexpressionlanguage)、ahdl(alterahardwaredescriptionlanguage)、confluence、cupl(cornelluniversityprogramminglanguage)、hdcal、jhdl(javahardwaredescriptionlanguage)、lava、lola、myhdl、palasm、rhdl(rubyhardwaredescriptionlanguage)等,目前最普遍使用的是vhdl(very-high-speedintegratedcircuithardwaredescriptionlanguage)与verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。

控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(applicationspecificintegratedcircuit,asic)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:arc625d、atmelat91sam、microchippic18f26k20以及siliconelabsc8051f320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。

上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。

为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书一个或多个实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。

本领域内的技术人员应明白,本说明书实施例可提供为方法、系统、或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。

本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

在一个典型的配置中,计算设备包括一个或多个处理器(cpu)、输入/输出接口、网络接口和内存。

内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flashram)。内存是计算机可读介质的示例。

计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitorymedia),如调制的数据信号和载波。

还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。

本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。

本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。

以上所述仅为本说明书实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1