一种数据处理方法及装置与流程

文档序号:17642216发布日期:2019-05-11 00:45阅读:176来源:国知局
一种数据处理方法及装置与流程

本发明实施例涉及机器学习技术领域,尤其涉及一种数据处理方法及装置。



背景技术:

语音交互在逐渐成为新的交互方式,智能语音技术包括语音识别、自然语言理解等环节。基于深度学习的自然语音理解模型的基础是大规模的高质量语料数据。智能设备和人交互的过程中,要理解用户的意图,首先要对用户问答能够识别,其次才能对问答进行理解。而对问答进行理解的前提是需要对大规模的高质量语料数据进行学习。

目前主要是通过人工和机器结合生产的手段来获取大量优质文本数据作为语料,但是这是一种耗时耗力成本极高的过程,效率比较低。



技术实现要素:

本发明实施例提供一种数据处理方法及装置,用以提高对用户问答泛化的效率。

本发明实施例提供的一种数据处理方法,包括:

在本地词库中获取待处理的第一实体词,所述本地词库中包括所述第一实体词和所述第一实体词对应的上下文信息;

在第三方词库中,确定出与所述第一实体词的词向量距离满足设定条件的第一泛化词;

将所述第一实体词对应的上下文信息,确定为所述第一泛化词对应的上下文信息。

上述技术方案中,通过在第三方词库中,根据词向量距离,寻找与已泛化好的第一实体词近似的需要问答泛化的词,将该已泛化好的第一实体词的上下文信息作为该需要问答泛化的词的上下文信息,就可以完成对该需要问答泛化的词的泛化。由于没有人工干涉,极大的提高了问答泛化的效率,从而提高的语言模型识别的准确率。

可选的,在第三方词库中,确定出与所述第一实体词的词向量距离满足设定条件的第一泛化词,包括:

在所述第三方词库中,选择与所述第一实体词的词向量距离最近的词,确定为满足所述设定条件的第一泛化词;或者

在所述第三方词库中,选择与所述第一实体词的词向量距离满足设定阈值的词,确定为满足所述设定条件的第一泛化词。

可选的,在将所述第一实体词对应的上下文信息,确定为所述第一泛化词对应的上下文信息之后,还包括:

将所述第一泛化词以及所述第一泛化词对应的上下文信息存储至所述本地词库。

上述技术方案中,将泛化完成的词存储在本地词库中,可以丰富和泛化本地词库。

可选的,在将所述第一实体词对应的上下文信息,确定为所述第一泛化词对应的上下文信息之后,还包括:

将所述第一实体词和所述第一泛化词建立映射关系。

可选的,所述方法还包括:

将包括所述第一泛化词以及所述第一泛化词对应的上下文信息的数据,确定为训练数据;

基于所述训练数据,对asr(automaticspeechrecognition,自动语音识别)模型和/或nlu(naturallanguageunderstanding,自然语言理解)模型进行训练。

上述技术方案中,将已经泛化好的词作为训练数据,可以提高训练数据的基础量,提高训练模型的准确度。

相应的,本发明实施例还提供了一种数据处理方法,所述方法包括:

获取待处理的第二实体词;

在第三方词库中,确定出与所述第二实体词的词向量距离满足设定条件的第三实体词;

若在本地词库中查询到所述第三实体词,从所述本地词库中获取所述第三实体词对应的上下文信息;

将所述第三实体词对应的上下文信息,确定为所述第二实体词对应的上下文信息。

上述技术方案中,通过在第三方词库中确定需要增加的实体词,寻找与该实体词的词向量阈值满足设定条件且在本地词库中已泛化好的词,将该已泛化好的词的上下文信息作为该泛化词的上下文信息,就可以完成对该需要问答泛化的实体词的问答泛化,进而完成新增词的问答泛化。由于没有人工干涉,极大的提高了问答泛化的效率,从而提高的语言模型识别的准确率。

可选的,在第三方词库中,确定出与所述第二实体词的词向量距离满足设定条件的第三实体词,包括:

在所述第三方词库中,选择与所述第二实体词的词向量距离最近的词,确定为满足所述设定条件的第三实体词;或者

在所述第三方词库中,选择与所述第二实体词的词向量距离满足设定阈值的词,确定为满足所述设定条件的第三实体词。

可选的,在所述将所述第三实体词对应的上下文信息,确定为所述第二实体词对应的上下文信息之后,还包括:

将所述第二实体词以及所述第二实体词对应的上下文信息存储至所述本地词库。

可选的,在所述将所述第三实体词对应的上下文信息,确定为所述第二实体词对应的上下文信息之后,还包括:

将所述第二实体词和所述第三实体词建立映射关系。

可选的,所述方法还包括:

将包括所述第二实体词以及所述第二实体词对应的上下文信息的数据,确定为训练数据;

基于所述训练数据,对asr模型和/或nlu模型进行训练。

相应的,本发明实施例还提供了一种数据处理装置,包括:

获取单元,用于在本地词库中获取待处理的第一实体词,所述本地词库中包括所述第一实体词和所述第一实体词对应的上下文信息;

处理单元,用于在第三方词库中,确定出与所述第一实体词的词向量距离满足设定条件的第一泛化词;以及将所述第一实体词对应的上下文信息,确定为所述第一泛化词对应的上下文信息。

可选的,所述处理单元具体用于:

在所述第三方词库中,选择与所述第一实体词的词向量距离最近的词,确定为满足所述设定条件的第一泛化词;或者

在所述第三方词库中,选择与所述第一实体词的词向量距离满足设定阈值的词,确定为满足所述设定条件的第一泛化词。

可选的,所述处理单元还用于:

在将所述第一实体词对应的上下文信息,确定为所述第一泛化词对应的上下文信息之后,将所述第一泛化词以及所述第一泛化词对应的上下文信息存储至所述本地词库。

可选的,所述处理单元还用于:

在将所述第一实体词对应的上下文信息,确定为所述第一泛化词对应的上下文信息之后,将所述第一实体词和所述第一泛化词建立映射关系。

可选的,所述处理单元还用于:

将包括所述第一泛化词以及所述第一泛化词对应的上下文信息的数据,确定为训练数据;

基于所述训练数据,对asr模型和/或nlu模型进行训练。

相应的,本发明实施例还提供了一种数据处理装置,包括:

获取单元,用于获取待处理的第二实体词;

处理单元,用于在第三方词库中,确定出与所述第二实体词的词向量距离满足设定条件的第三实体词;若在本地词库中查询到所述第三实体词,从所述本地词库中获取所述第三实体词对应的上下文信息;以及将所述第三实体词对应的上下文信息,确定为所述第二实体词对应的上下文信息。

可选的,所述确定单元具体用于:

在所述第三方词库中,选择与所述第二实体词的词向量距离最近的词,确定为满足所述设定条件的第三实体词;或者

在所述第三方词库中,选择与所述第二实体词的词向量距离满足设定阈值的词,确定为满足所述设定条件的第三实体词。

可选的,所述处理单元还用于:

在所述将所述第三实体词对应的上下文信息,确定为所述第二实体词对应的上下文信息之后,将所述第二实体词以及所述第二实体词对应的上下文信息存储至所述本地词库。

可选的,所述处理单元还用于:

在所述将所述第三实体词对应的上下文信息,确定为所述第二实体词对应的上下文信息之后,将所述第二实体词和所述第三实体词建立映射关系。

可选的,所述处理单元还用于:

将包括所述第二实体词以及所述第二实体词对应的上下文信息的数据,确定为训练数据;

基于所述训练数据,对asr模型和/或nlu模型进行训练。

相应的,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使所述计算机执行上述任一数据处理方法。

相应的,本发明实施例还提供了一种计算设备,包括:

存储器,用于存储程序指令;

处理器,用于调用所述存储器中存储的程序指令,按照获得的程序执行上述任一数据处理方法。

附图说明

为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明实施例提供的一种系统架构的示意图;

图2为本发明实施例提供的一种数据处理方法的流程示意图;

图3为本发明实施例提供的一种数据处理方法的流程示意图;

图4为本发明实施例提供的一种问答泛化的示意图;

图5为本发明实施例提供的一种数据处理装置的结构示意图;

图6为本发明实施例提供的一种数据处理装置的结构示意图;

图7为本发明实施例提供的一种电子设备的流程示意图。

具体实施方式

为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。

图1为本发明实施例提供的数据处理方法所适用的系统架构。参考图1所示,该系统架构可以为服务器100,包括处理器110、通信接口120和存储器130。

其中,通信接口120用于与终端设备进行通信,收发该终端设备传输的信息,实现通信。

处理器110是服务器100的控制中心,利用各种接口和线路连接整个服务器100的各个部分,通过运行或执行存储在存储器130内的软件程序/或模块,以及调用存储在存储器130内的数据,执行服务器100的各种功能和处理数据。可选地,处理器110可以包括一个或多个处理单元。

存储器130可用于存储软件程序以及模块,处理器110通过运行存储在存储器130的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器130可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据业务处理所创建的数据等。此外,存储器130可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。

需要说明的是,上述图1所示的结构仅是一种示例,本发明实施例对此不做限定。

基于上述描述,图2示例性的示出了本发明实施例提供的一种数据处理的流程,该流程可以由数据处理装置执行,该装置可以是上述服务器。

如图2所示,本实施例中描述了基于第三方词库,对本地词库中实体词的同义词、近义词等,进行问答泛化的实现方案,具体包括如下过程:

步骤201,在本地词库中获取待处理的第一实体词。

本地词库中包含实体词以及实体词的上下文信息,其中,每个实体词都可以通过词向量(word-vec)来表示的,词向量是指将来自词汇表中的单词映射到一个稠密、低维的实数向量,词向量中的每一维表示了词的一个潜在特征,该特征捕获了有用的句法和语义特征。词向量的特点就是将词的不同句法和语义特征等分布到它的每一个维度上去表示,其是通过神经网络语言模型进行训练得到的。一般词库中的词向量分为50维、100维、200维等。例如:词向量为:[0.792,-0.177,-0.107,0.109,-0.542,…]。本地词库中的实体词都是已经确定出上下文信息的词,也就是说,前期针对词库中的实体词已经拥有丰富的上下文信息,比如针对“nlp”,关于该“nlp”的问答泛化信息可以有“nlp是什么意思”“什么是nlp”“我想了解nlp”等。其中,位于nlp之前(前缀)或之后(后缀)的信息就是该实体词的上下文信息。

步骤202,在第三方词库中,确定出与所述第一实体词的词向量距离满足设定条件的第一泛化词。

在获取待处理的第一实体词后,就可以在第三方词库中确定该第一实体词与第三方词库中的词之间的距离。在本发明实施例中可以为欧式距离为例,也就是欧几里得距离,来确定两个词之间的距离。例如,实体词w1的词向量为:[v11,v12,v13,…,v1n],实体词w2的词向量为:[v21,v22,v23,…,v2n],其中,n为词向量的维数,v是词向量中的特征。然后通过下述公式(1)来计算实体词w1和实体词w2之间的距离。

该公式(1)为:

其中,dis表示实体词w1和泛化词w2之间的距离。

通过上述公式可以得到实体词w1和第三方词库中每一个实体词w2之间的距离,距离最近的两个词,相似度最高,这样就可以将与第一实体词的词向量距离满足设定条件的泛化词,确定为第一泛化词。词向量之间的距离显示出词义、词性的相近程度。因此,该第一泛化词为第一实体词的近义词或同义词,或者是近似词义的词、或者是近似类型的词。例如,某歌手的名字,相应的,另一个歌手的名字就可以作其近似的词。

具体的,可以在第三方词库中,选择与该第一实体词的词向量距离最近的词,确定为满足设定条件的第一泛化词。词向量距离最近的两个词,也是相似度最高的两个词,此时第一实体词的上下文信息也与该第一泛化词更匹配,更适宜泛化。

在确定该第一泛化词时,也可以是在第三方词库中,选择与该第一实体词的词向量距离满足设定阈值的词,确定为满足设定条件的第一泛化词。其中,该设定阈值可以依据经验设置。可选的,与该第一实体词的词向量距离满足设定阈值的词可以为一个或多个(即两个或两个以上),当存在多个满足设定阈值的词时,可以基于该第一实体词的上下文信息对每一个满足设定阈值的词都进行问答泛化,并存储于本地词库,从而更加丰富了本地词库的内容,极大的提高了问答泛化的效率。

需要说明的是,在确定实体词和泛化词之间的距离时,并不限于上述方法,常用的衡量向量距离的方式还有:明科夫斯基距离、切比雪夫距离、曼哈顿距离、马哈拉诺比斯距离、余弦夹角等,本发明实施例不再一一举例说明。

由于有些时候在表示一种语义时,可以使用不同相近似的词,例如,“快乐”和“高兴”这就是一组近义词,当然也可以使用英文“happy”。又例如“nlp”作为实体词,但并不是唯一说法,还可以称为“自然语言处理”“自然语言理解”等。甚至对于某些词、随着不同群体的使用演化,会有更多的说法,第三方词库一般是能够及时的更新不同说法的词库。词向量之间的距离显示出词义、词性的相近程度。因此,该第一泛化词为第一实体词的近义词或同义词。

步骤203,将所述第一实体词对应的上下文信息,确定为所述第一泛化词对应的上下文信息。

在确定出第一泛化词之后,就可以将第一实体词对应的上下文信息作为该第一泛化词对应的上下文信息,从而完成对该第一泛化词的问答泛化。

例如,通过上述步骤202可以确定出实体词“nlp”的相近的泛化词有“自然语言处理”或“自然语言理解”。而该“nlp”的上下文信息有“nlp是什么意思”“什么是nlp”“我想了解nlp”。那么将其与“自然语言处理”或“自然语言理解”结合后,就可以得到“自然语言处理是什么意思”、“什么是自然语言处理”、“我想了解自然语言处理”和“自然语言理解是什么意思”、“什么是自然语言理解”、“我想了解自然语言理解”这两组泛化信息。

需要说明的是,由于第三方词库中的词向量与本地词库的词向量可能存在差异,因此,在得到该第一泛化词的上下文信息之后,还需要将该第一实体词和该第一泛化词建立映射关系,以使第一实体词与该第一泛化词关联。同时也可以将该第一泛化词和该第一泛化词对应的上下文信息存储在本地词库,以丰富和泛化本地词库。

可选的,还可以将该第一泛化词以及该第一泛化词对应的上下文信息的数据,作为训练数据,然后基于该训练数据,对asr模型和/或nlu模型进行训练,从而增大了基础训练数据,提高了asr模型和/或nlu模型的准确度,使得智能语言更能理解用户的意图。

上述实施例表明,在本地词库中获取待处理的第一实体词,本地词库中包括第一实体词和第一实体词对应的上下文信息,在第三方词库中,确定出与第一实体词的词向量距离满足设定条件的第一泛化词,将第一实体词对应的上下文信息,确定为第一泛化词对应的上下文信息。通过在第三方词库中,根据词向量距离,寻找与已泛化好的第一实体词近似的需要问答泛化的词,将该已泛化好的第一实体词的上下文信息作为该需要问答泛化的词的上下文信息,就可以完成对该需要问答泛化的词的泛化。由于没有人工干涉,极大的提高了问答泛化的效率,从而提高的语言模型识别的准确率。

作为一种可能的实现方式,图3示例性的示出了另一种数据处理的流程。本实施例中描述了基于第三方词库和本地词库,对新增词进行问答泛化的实现方案。

如图3所示,具体包括如下过程:

步骤301,获取待处理的第二实体词。

该待处理的第二实体词是待处理的新增词,也就是需要进行问答泛化的实体词。该待处理的第二实体词是位于第三方词库中的词。

步骤302,在第三方词库中,确定出与所述第二实体词的词向量距离满足设定条件的第三实体词。

在第三方词库中,可以通过计算该第二实体词与第三方词库中的词的词向量距离,确定出与该第二实体词的词向量距离满足设定条件的第三实体词。

需要说明的是,计算两个词之间的词向量距离的方式已在上述实施例中详细描述,在此不再赘述。

具体的,当得到该第二实体词与第三方词库中各词的词向量距离之后,就可以在第三方词库中,选择与该第二实体词的词向量距离最近的词,确定为满足设定条件的第三实体词,也可以是选择与该第二实体词的词向量距离满足设定阈值的词,确定为满足设定条件的第三实体词。满足设定阈值的词可以为一个或多个。

步骤303,若在本地词库中查询到所述第三实体词,从所述本地词库中获取所述第三实体词对应的上下文信息。

先在第三方词库中找到与该第二实体词的词向量距离满足设定阈值的第三实体词,再判断本地词库中是否存在该第三实体词,若存在,就可以在本地词库中获取该第三实体词对应的上下文信息,若不存在,则不进行处理。

当与该第二实体词的词向量距离满足设定阈值的第三实体词为多个时,针对每一个第三实体词执行:判断在本地词库中是否存在该第三实体词,如果存在就可以获取该第三实体词对应的上下文信息,如果不存在,则不进行处理。

步骤304,将所述第三实体词对应的上下文信息,确定为所述第二实体词对应的上下文信息。

在获取第三实体词对应的上下文信息之后,就可以将第三实体词对应的上下文信息作为该第二实体词对应的上下文信息,从而完成对该第二实体词的问答泛化。本发明实施例是对新增词进行问答泛化,例如,本地词库中的有关于“张三”“李四”这些人名实体词的问答,但是并没有关于“王五”的相关问题,此时从第三方词库中可以查询到“王五”,然后确定距离“王五”最近的词是“张三”,而“张三”在本地词库中存在,就可以将与“张三”相关问答的所有上下文信息转用在“王五”上,从而得到关于“王五”的问答的所有上下文信息。进一步的丰富和泛化了问答库,也就是语料库,继而进行语言模型或自然语言理解模型训练。

相应的,在得到第二实体词对应的上下文信息之后,也可以将该第二实体词以及该第二实体词对应的上下文信息存储在本地词库,以丰富和泛化本地词库。还可以将该第二实体词以及该第二实体词对应的上下文信息作为训练数据,然后就与该训练数据,对asr模型和/或nlu模型进行训练,从而增大了基础训练数据,提高了asr模型和/或nlu模型的准确度,使得智能语言更能理解用户的意图。

上述实施例表明,获取待处理的第二实体词,在第三方词库中,确定出与第二实体词的词向量距离满足设定阈值的第三实体词,若在本地词库中查询到第三实体词,从本地词库中获取第三实体词对应的上下文信息,将第三实体词对应的上下文信息,确定为第二实体词对应的上下文信息。通过在第三方词库中确定需要增加的实体词,寻找与该实体词的词向量阈值满足设定条件且在本地词库中已泛化好的词,将该已泛化好的词的上下文信息作为该泛化词的上下文,就可以完成对该需要问答泛化的词的泛化,进而完成新增词的问答泛化。由于没有人工干涉,极大的提高了问答泛化的效率,从而提高的语言模型识别的准确率。

为了更直观的表示上述实施例,图4示例性的示出了问答泛化的过程,如图4所示,在本地词库中可以的“aaa”从第三方词库中可以确定出“a1a1a1”与该“aaa”为同义或近义词。就可以将“aaa”的上下文信息用在“a1a1a1”上。本地词库中的“ccc”与“ddd”距离最近,则将“ccc”的上下文信息用在“ddd”上。

上述由外词库到内词库、由内词库到外词库的两种问答泛化方式,可以最大限度使用第三方词库的词向量,达到泛化本地词库语料库的目的。

基于相同的技术构思,图5示例性的示出了本发明实施例提供的一种数据处理装置,该装置可以执行数据处理的流程。

如图5所示,该装置具体包括:

获取单元501,用于在本地词库中获取待处理的第一实体词,所述本地词库中包括所述第一实体词和所述第一实体词对应的上下文信息;

处理单元502,用于在第三方词库中,确定出与所述第一实体词的词向量距离满足设定条件的第一泛化词;以及将所述第一实体词对应的上下文信息,确定为所述第一泛化词对应的上下文信息。

可选的,所述处理单元502具体用于:

在所述第三方词库中,选择与所述第一实体词的词向量距离最近的词,确定为满足所述设定条件的第一泛化词;或者

在所述第三方词库中,选择与所述第一实体词的词向量距离满足设定阈值的词,确定为满足所述设定条件的第一泛化词。

可选的,所述处理单元502还用于:

在将所述第一实体词对应的上下文信息,确定为所述第一泛化词对应的上下文信息之后,将所述第一泛化词以及所述第一泛化词对应的上下文信息存储至所述本地词库。

可选的,所述处理单元502还用于:

在将所述第一实体词对应的上下文信息,确定为所述第一泛化词对应的上下文信息之后,将所述第一实体词和所述第一泛化词建立映射关系。

可选的,所述处理单元502还用于:

将包括所述第一泛化词以及所述第一泛化词对应的上下文信息的数据,确定为训练数据;

基于所述训练数据,对asr模型和/或nlu模型进行训练。

基于相同的技术构思,图6示例性的示出了本发明实施例提供的一种数据处理装置,该装置可以执行数据处理的流程。

如图6所示,该装置具体包括:

获得单元601,用于获取待处理的第二实体词;

确定单元602,用于在第三方词库中,确定出与所述第二实体词的词向量距离满足设定条件的第三实体词;若在本地词库中查询到所述第三实体词,从所述本地词库中获取所述第三实体词对应的上下文信息;以及将所述第三实体词对应的上下文信息,确定为所述第二实体词对应的上下文信息。

可选的,所述确定单元602具体用于:

在所述第三方词库中,选择与所述第二实体词的词向量距离最近的词,确定为满足所述设定条件的第三实体词;或者

在所述第三方词库中,选择与所述第二实体词的词向量距离满足设定阈值的词,确定为满足所述设定条件的第三实体词。

可选的,所述确定单元602还用于:

在所述将所述第三实体词对应的上下文信息,确定为所述第二实体词对应的上下文信息之后,将所述第二实体词以及所述第二实体词对应的上下文信息存储至所述本地词库。

可选的,所述确定单元602还用于:

在所述将所述第三实体词对应的上下文信息,确定为所述第二实体词对应的上下文信息之后,将所述第二实体词和所述第三实体词建立映射关系。

可选的,所述确定单元602还用于:

将包括所述第二实体词以及所述第二实体词对应的上下文信息的数据,确定为训练数据;

基于所述训练数据,对asr模型和/或nlu模型进行训练。

基于相同的技术构思,本发明实施例还提供了一种计算设备,包括:

存储器,用于存储程序指令;

处理器,用于调用所述存储器中存储的程序指令,按照获得的程序执行上述任一数据处理方法。

基于相同的技术构思,本发明实施例还提供了一种计算机可读非易失性存储介质,包括计算机可读指令,当计算机读取并执行所述计算机可读指令时,使得计算机执行上述任一数据处理方法。

基于相同的技术构思,本发明实施例提供了一种电子设备,如图7所示,包括至少一个处理器701,以及与至少一个处理器连接的存储器702,本发明实施例中不限定处理器701与存储器702之间的具体连接介质,图7中处理器701和存储器702之间通过总线连接为例。总线可以分为地址总线、数据总线、控制总线等。

在本发明实施例中,存储器702存储有可被至少一个处理器701执行的指令,至少一个处理器701通过执行存储器702存储的指令,可以执行前述的数据处理方法中所包括的步骤。

其中,处理器701是电子设备的控制中心,可以利用各种接口和线路连接电子设备的各个部分,通过运行或执行存储在存储器702内的指令以及调用存储在存储器702内的数据,从而实现数据处理。可选的,处理器701可包括一个或多个处理单元,处理器701可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器701中。在一些实施例中,处理器701和存储器702可以在同一芯片上实现,在一些实施例中,它们也可以在独立的芯片上分别实现。

处理器701可以是通用处理器,例如中央处理器(cpu)、数字信号处理器、专用集成电路(applicationspecificintegratedcircuit,asic)、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本发明实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合数据处理的实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。

存储器702作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器702可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(randomaccessmemory,ram)、静态随机访问存储器(staticrandomaccessmemory,sram)、可编程只读存储器(programmablereadonlymemory,prom)、只读存储器(readonlymemory,rom)、带电可擦除可编程只读存储器(electricallyerasableprogrammableread-onlymemory,eeprom)、磁性存储器、磁盘、光盘等等。存储器702是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本发明实施例中的存储器702还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。

本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。

显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1