故事创作的方法、系统和终端与流程

文档序号:14686990发布日期:2018-06-15 04:10阅读:224来源:国知局

本发明涉及通信技术领域,尤其涉及一种故事创作的方法、系统和终端。



背景技术:

目前,故事机基本上都是通过用户的点播,然后根据点播内容进行查询,匹配搜索,找到指定的音频或者文本内容进行播放(点播);或者,在庞大的对话数据库中查找对应问题的答案进行返回(聊天式)。这种模式的故事机仅仅是将已有的故事搬运给用户,是一种单项的操作,并不能根据用户的输入主动进行互动。久而久之,用户会对这种单项的、非互动的交互模式产生厌倦。

为了保证故事机可以吸引用户,消除用户对单项交互的厌倦心理,需要让故事机能够与用户主动地进行交互和互动。



技术实现要素:

本发明实施例提供一种故事创作的方法、系统和终端,以解决现有技术中的以上的一个或多个技术问题,或至少提供一种有益的选择。

第一方面,本发明实施例提供了一种故事创作的方法,所述方法包括:

接收用户输入的内容文本;

根据所述内容文本调用创作模型,计算得到与内容文本相映射的创作文本;

向用户输出所述内容文本和所述创作文本。

结合第一方面,本发明在第一方面的第一种实施方式中,根据所述内容文本调用创作模型,计算得到与所述内容文本相映射的创作文本包括:

将所述内容文本中的字符串进行切分,以形成多个字符单元;

对多个所述字符单元分别进行词向量训练,以得到各个字符单元的词向量;

确定各个词向量的序列号;

根据序列号,查找映射表,以获得与序列号所对应的创作字符;

输出全部的创作字符,以形成所述创作文本。

结合第一方面、第一方面的第一种实施方式,本发明在第一方面的第二种实施方式中,所述创作模型包括第一长短期记忆网络层、第二长短期记忆网络层和回归函数层,

确定各个词向量的序列号的步骤包括:

将所述内容文本中的各个字符单元的词向量,输入至所述创作模型的第一长短期记忆网络层,进行学习和计算;

将通过所述第一长短期记忆网络层学习和计算得到的输出值,输入至所述第二长短期记忆网络层,进行深层学习和计算;

将通过所述第二长短期记忆网络层学习和计算得到的输出值,输入至所述回归函数层并映射出各个词向量的映射值,选择出最大映射值并得到其所占位置的序列号;

在根据序列号,查找映射表,以获得与序列号所对应的创作字符之后,所述方法还包括:

将所述创作字符输入至所述第一长短期记忆网络层、所述第二长短期记忆网络层和回归函数层,进行迭代,直到获得的创作字符为结束字符。

结合第一方面及上述任一种实施方式,本发明在第一方面的第三种实施方式中,所述方法还包括映射表的形成步骤:

对可获得的故事文本中的字符串进行切分,以形成多个字符单元;

对各个所述字符单元进行编号,使得每个字符单元对应唯一编号;

对多个所述字符单元分别进行词向量训练;

将所得到的各个词向量分别输入至所述第一长短期记忆网络层,进行学习和计算;

将通过所述第一长短期记忆网络层学习和计算得到的输出值,输入至所述第二长短期记忆网络层,进行深层学习和计算;

将通过所述第二长短期记忆网络层学习和计算得到的输出值,输入至所述回归函数层并映射出各个词向量的映射值,选择出最大映射值并得到其所占位置的序列号;

根据映射值所占位置的序列号,查找到与序列号对应的编号,并返回编号所对应的故事文本中的字符单元,以形成创作字符;以及

根据序列号与创作字符之间的对应关系,形成映射表。

优选地,在根据映射值所占位置的序列号,查找到与序列号对应的编号,并返回编号所对应的字符单元之前,所述映射表的形成步骤包括:

将映射值所占位置的序列号输入至所述第二长短期记忆网络层和所述第一长短期记忆网络层,进行反馈,以调整所得到的序列号。

优选地,在对可获得的故事文本中的字符串进行切分之前,所述构建方法包括:

从可获得的故事文本中进行预处理,以筛选故事内容和去除广告。

结合第一方面及上述任一种实施方式,本发明在第一方面的第四种实施方式中,在接收用户输入的内容文本之后,还包括:

判断所述内容文本中是否包括结束性提示;

当所述内容文本中不包括结束性提示时,根据所述内容文本调用创作模型,计算得到与所述内容文本相映射的创作文本;

向用户输出所述内容文本和所述创作文本;以及

当所述内容文本中包括结束性提示时,结束创造,向用户输出全部的所述内容文本和所述创作文本。

第二方面,本发明实施例提供了一种故事创作的系统,包括:

输入接收单元,配置用于接收用户所输入的内容文本;

文本创作单元,配置用于根据所述内容文本调创作模型,计算得到与内容文本相映射的创作文本;以及

单次输出单元,配置用于向用户输出所述内容文本和所述创作文本。

结合第二方面,本发明在第二方面的第一种实施方式中,根据所述内容文本调用创作模型,计算得到与所述内容文本相映射的创作文本包括:

将所述内容文本中的字符串进行切分,以形成多个字符单元;

对多个所述字符单元分别进行词向量训练,以得到各个字符单元的词向量;

确定各个词向量的序列号;

根据序列号,查找映射表,以获得与序列号所对应的创作字符;

输出全部的创作字符,以形成所述创作文本。

结合第二方面、第二方面的第一种实施方式,本发明在第二方面的第二种实施方式中,所述创作模型包括第一长短期记忆网络层、第二长短期记忆网络层和回归函数层,

确定各个词向量的序列号的步骤包括:

将所述内容文本中的各个字符单元的词向量,输入至所述创作模型的第一长短期记忆网络层,进行学习和计算;

将通过所述第一长短期记忆网络层学习和计算得到的输出值,输入至所述第二长短期记忆网络层,进行深层学习和计算;

将通过所述第二长短期记忆网络层学习和计算得到的输出值,输入至所述回归函数层并映射出各个词向量的映射值,选择出最大映射值并得到其所占位置的序列号;

所述方法还包括:

将所述创作字符输入至所述第一长短期记忆网络层、所述第二长短期记忆网络层和回归函数层,进行迭代,直到获得的创作字符为结束字符。

结合第二方面及本发明在第二方面的第一种实施方式,本发明在第二方面的第三种实施方式中,所述映射表的形成步骤包括:

对可获得的故事文本中的字符串进行切分,以形成多个字符单元;

对各个所述字符单元进行编号,使得每个字符单元对应唯一编号;

对多个所述字符单元分别进行词向量训练;

将所得到的各个词向量分别输入至所述第一长短期记忆网络层,进行学习和计算;

将通过所述第一长短期记忆网络层学习和计算得到的输出值,输入至所述第二长短期记忆网络层,进行深层学习和计算;

将通过所述第二长短期记忆网络层学习和计算得到的输出值,输入至所述回归函数层并映射出各个词向量的映射值;

根据映射值所占位置的序列号,查找到与序列号对应的编号,并返回编号所对应的故事文本中的字符单元,以形成创作字符;以及

根据序列号与创作字符之间的对应关系,形成映射表。

结合第二方面及上述任一种实施方式,本发明在第二方面的第四种实施方式中,所述系统还包括:

内容判断单元,配置用于判断所述内容文本中是否包括结束性提示;以及

整体输出单元,配置用于向用户输出全部的所述内容文本和所述创作文本;

其中,当所述内容文本中不包括结束性提示时,所述文本创作单元根据所述内容文本调用创作模型,计算得到与所述内容文本相映射的创作文本;所述单次输出单元向用户输出所述内容文本和所述创作文本;

当所述内容文本中包括结束性提示时,结束创造,所述整体输出单元向用户输出全部的所述内容文本和所述创作文本。

第三方面,本发明实施例提供了一种故事创作的终端,所述终端包括:

一个或多个处理器;

存储器,用于存储一个或多个程序;

当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现上述任一所述的方法。

所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。

上述技术方案中的一个技术方案具有如下优点或有益效果:通过本发明的故事创作的方法,用户可以主动地与故事机进行交互和互动,用户可以与故事机一起参与到创作中。

上述概述仅仅是为了说明书的目的,并不意图以任何方式进行限制。除上述描述的示意性的方面、实施方式和特征之外,通过参考附图和以下的详细描述,本发明进一步的方面、实施方式和特征将会是容易明白的。

附图说明

在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本发明公开的一些实施方式,而不应将其视为是对本发明范围的限制。

图1示出了根据本发明一个实施例的故事创作的方法100的流程图;

图2示出了根据本发明一个实施例的故事创作的方法200的流程图;

图3示出了根据本发明一个实施例的创作模型的调用方法300的流程图;

图4示出了应用本发明的故事创作的方法200的故事机的用法示意图;

图5示出了根据本发明一个实施例的映射表的形成步骤的流程图;

图6示出了根据本发明另一个实施例的映射表的形成步骤的流程图;

图7示出了根据本发明一个实施例的故事创作的系统400的结构框图;

图8示出了根据本发明另一个实施例的故事创作的系统500的结构框图;以及

图9示出了根据本发明的终端设备的示意图。

具体实施方式

在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本发明的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。

下面结合图1至图8所示,对本发明的故事创作的方法、系统和终端进行描述。

参见图1所示,本发明一个实施例的故事创作的方法100,包括步骤S101、步骤S103和步骤S104。

在开始创作后,进入接收步骤S101,接收用户第t次所输入的内容文本。其中,可以直接通过接收步骤S101,在接收到用户输入的内容文本后,认定用户开始创作。当然,也可以在接收步骤S101之前,设定开始步骤S101’,通过用户输入的触发词,例如:开始创作、一起写故事等,开始创作等,开始进入创作。

接着,进入到创作步骤S103。在创作步骤S103中,根据第t次的内容文本调用创作模型,计算得到与第t次的内容文本相映射的第t次的创作文本。优选地,创作模型可以根据所能获得的故事文本,通过训练而构成。

在形成创作文本之后,可以进行单次输出步骤S104,向用户输出第t次的内容文本和映射得到的创作文本。其中,每次输出的创作文本的长度可以在20-50字之间。

参见图2所示,本发明一个实施例的故事创作的方法200,包括步骤S101至步骤S105。

其中,步骤S101已在上文进行说明,在这里不再赘述。

在接收到用户第t次所输入的内容文本后,进入判断步骤S102。在判断步骤S102中,需要判断第t次的内容文本中是否包括结束性提示。其中,结束性提示可以是一些带有结束意义的词语或字符,例如:结束创造,完成创造,写完了,全文输出等。

当第t次的内容文本中不包括结束性提示时,进入到创作步骤S103。在创作步骤S103中,根据第t次的内容文本调用创作模型,计算得到与第t次的内容文本相映射的第t次的创作文本。优选地,创作模型可以根据所能获得的故事文本,通过训练而构成。

在形成创作文本之后,可以进行单次输出步骤S104,向用户输出第t次的内容文本和映射得到的创作文本。在单次输出步骤S104后,可以再次接收用户第t+1次所输入的内容文本,并进行以上步骤S102至步骤S104。

当第t+1次的内容文本中包括结束性提示时,进入到整体输出步骤S105。在进行整体输出步骤S105时,用户结束创作,向用户输出第1次至第t+1次的全部的内容文本及创作文本。从而,用户可以得到根据其输入的内容文本相映射的整体故事。

根据本发明的故事创作的方法100和方法200,能够基于用户的输入文本,计算得到与其相映射的创作文本,并完成故事创作。通过本发明的故事创作的方法,在理解用户输入的内容文本的基础上,结合用户输入的内容文本创作故事,提高了与用户之间的交互和互动能力,使用户能一起参与到故事创作中,极大的满足了用户的好奇心。

在步骤S101-步骤S105中t≥1,且为整数。

本发明的创作模型包括第一长短期记忆网络(LSTM)层、第二长短期记忆网络(LSTM)层和回归函数层。优选地,回归函数选用softmax函数,创作模型可以由开源软件库Tensorflow或卷积神经网络框架(caffe)或深度学习开源平台(paddlepaddle)进行搭建,但并不仅限于此。

参见图3所示,创作模型的调用方法300,即,根据第t次的内容文本调用创作模型,计算得到第t次的创作文本,包括步骤S1031至步骤S1038。

切词步骤S1031,将第t次的内容文本中的字符串进行切分,以形成多个字符单元。切词所采用的工具在这里不做限制,现有技术中所能够用于切词操作的工具均可以应用于此。

词向量训练步骤S1032,对多个字符单元分别进行词向量训练,以得到各个字符单元的词向量。词向量训练可以将词语可度量化,使相近的词汇在向量空间中的表示也相近。词向量的算法和所采用的工具在这里不做限制,现有技术中所能够用于词向量训练的算法和工具均可以应用于此。

第一层学习步骤S1033,将第t次的内容文本中的各个字符单元的词向量,输入至创作模型的第一长短期记忆网络层,进行学习和计算。

第二层学习步骤S1034,将通过第一长短期记忆网络层学习和计算得到的输出值,输入至第二长短期记忆网络层,进行更深层的学习和计算。通过两层的长短期记忆网络学习,可以学习到自然语言的深层特征。

映射步骤S1035,将通过第二长短期记忆网络层学习和计算得到的输出值,输入至回归函数层并映射出各个词向量的映射值。从各个映射值之中,选择出最大映射值并得到其所占位置的序列号。

创作字符形成步骤S1036,根据序列号,查找映射表。从而,获得与序列号所对应的创作字符。其中,映射表可以预先形成,也可以由其他方法获得。

迭代步骤S1037,将创作字符输入至第一长短期记忆网络层、第二长短期记忆网络层和回归函数层,进行迭代。通过迭代可以使得每次得到的创作字符之间建立联系和逻辑,从而可以保证最后得到的创作文本质量。

创作文本形成步骤S1038,当获得的创作字符为结束字符时,输出全部的创作字符,从而可以形成创作文本。其中,结束字符可以是句号、问好、感叹号和问号等,但并不仅限于此。

其中,步骤S1033至步骤S1035为确定各个词向量的序列号的步骤,当然,词向量的序列号也可以通过其他方式获得。

下面结合图1至图4对本发明的故事创作的方法200和创作模型的调用方法300,进行详细描述。

参见图4所示,示出了应用本发明的故事创作的方法200的故事机的用法示意图。其中,图4中界面右侧的内容为用户的输入文本,界面左侧的内容为通过本发明的方法所输入的内容文本和创作文本。

用户:开始创作

故事机:好的,我们重新开始我们的故事吧!

用户:今天阳光明媚

故事机:今天阳光明媚,白雪公主在沙滩上晒太阳。

用户:突然一个匹诺曹走了过来

故事机:突然一个匹诺曹走了过来,匹诺曹鼻子长了他们过上了幸福的生活。

用户:创作完成

故事机:今天阳光明媚,白雪公主在沙滩上晒太阳。突然一个匹诺曹走了过来,匹诺曹鼻子长了他们过上了幸福的生活。

当用户输入“开始创作”时,进入开始步骤S101’,通过触发词“开始创作”,进入创作。在开始创作后,进入接收步骤S101,接收到用户输入的内容文本“今天阳光明媚”,并通过判断步骤S102判断内容文本“今天阳光明媚”是否包括结束性提示。当内容文本“今天阳光明媚”中不包括结束性提示时,可以调用创作模型,进入到创作步骤S103。

其中,在切词步骤S1031中,可以将内容文本“今天阳光明媚”字符串进行切分,以形成多个字符单元,例如:今天,阳光,明媚。之后,进行步骤S1032至步骤S1035,可以得到序列号“8”。并且,进行步骤S1036,根据预先形成的映射表(映射表的形成将在下文进行描述),查找到与序列号“8”相对应的创作字符“白雪公主”。然后,进行步骤S1037,将创作字符“白雪公主”输入至第一长短期记忆网络层、第二长短期记忆网络层和回归函数层,进行迭代。从而,继续得到序列号“10”,查找到与序列号“10”相对应的创作字符“在沙滩上”,并再次进行步骤S1037,进行迭代。当获得的创作字符为句号时,进行创作文本形成步骤S1038,输出全部的创作字符,形成创作文本,即,“白雪公主在沙滩上晒太阳。”。

在形成创作文本之后,可以进行单次输出步骤S104,并向用户输出内容文本和创作文本“今天阳光明媚,白雪公主在沙滩上晒太阳。”。

接着,当用户再次输入内容文本“突然一个匹诺曹走了过来”时,再次循环进行步骤S102至步骤S104。此时,内容文本“突然一个匹诺曹走了过来”中并不包括结束性提示,可以调用创作模型,进入步骤S103。

同样,在切词步骤S1031中,可以将内容文本“突然一个匹诺曹走了过来”字符串进行切分,以形成多个字符单元,例如:突然,一个,匹诺曹,走了,过来。之后,进行步骤S1032至步骤S1036,可以得到创作字符“匹诺曹”。然后,进行步骤S1037,将创作字符“匹诺曹”输入至第一长短期记忆网络层、第二长短期记忆网络层和回归函数层,进行迭代。从而,继续生成创作字符“鼻子”,并再次进行步骤S1037,进行迭代。当获得的创作字符为句号时,进行创作文本形成步骤S1038,输出全部的创作字符,形成创作文本,即,“匹诺曹鼻子长了他们过上了幸福的生活。”。

再次形成创作文本之后,可以进行单次输出步骤S104,并向用户输出内容文本和创作文本“突然一个匹诺曹走了过来,匹诺曹鼻子长了他们过上了幸福的生活。”。

进一步,当用户再次输入内容文本“创作完成”时,再次循环进行步骤S101至步骤S102。此时,在进行步骤S102时,判断出用户输入的内容文本“创作完成”中,包括结束性提示,跳转至整体输出步骤S105。从而,向用户输出多次的内容文本,以及根据内容文本而创作出的多个创作文本的集合,即,整体故事,“今天阳光明媚,白雪公主在沙滩上晒太阳。突然一个匹诺曹走了过来,匹诺曹鼻子长了他们过上了幸福的生活。”。

参见图1至图4所示,故事机在理解用户输入的内容文本的基础上,结合用户输入的内容文本创作故事,提高了与用户之间的交互和互动能力,使用户能一起参与到故事创作中,极大的满足了用户的好奇心。

参见图5所示,映射表的形成包括步骤S201至步骤S208。

切词步骤S201,对可获得的故事文本进行切词。将故事文本中的字符串进行切分,以形成多个字符单元。例如:故事文本中的“我们在一起,过着幸福的日子”,通过切词步骤S201,可以切分成:我们,在,一起,过着,幸福,的,日子。其中,可获得的故事文本可以包括现有的、可以获得到的所有的故事文本。切词所采用的工具在这里不做限制,现有技术中所能够用于切词操作的工具均可以应用于此。

进一步地,可以将切分后的字符单元进行词频统计,并按照频数从高到低排序,对于频数较少(例如少于5次)的字符单元去除。

文本编号步骤S202,对全部的故事文本中,各个字符单元进行编号,使得每个字符单元对应唯一编号。例如:可以将故事文本中的“我们在一起,过着幸福的日子”,其中,“,”分配编号1;“我们”,分配编号5;“过着”,分配编号7。

词向量训练步骤S203,对多个字符单元分别进行词向量训练。词向量训练可以将词语可度量化,使相近的词汇在向量空间中的表示也相近。词向量的算法和所采用的工具在这里不做限制,现有技术中所能够用于词向量训练的算法和工具均可以应用于此。

第一层学习步骤S204,将所得到的各个词向量分别输入至第一长短期记忆网络层,进行学习和计算。

第二层学习步骤S205,将通过第一长短期记忆网络层学习和计算得到的输出值,输入至第二长短期记忆网络层,进行深层学习和计算。

映射步骤S206,将通过第二长短期记忆网络层学习和计算得到的输出值,输入至回归函数层并映射出各个词向量的映射值,选择出最大映射值并得到其所占位置的序列号。例如:当输入“我们在一起”进行上述步骤S201至步骤S206,可以选择出的最大的映射值“0.8”,而“0.8”所占的位置是第7位,那么其序列号是“7”。

对应编号步骤S207,根据映射值所占位置的序列号,查找到与序列号对应的编号,并返回编号所对应的故事文本中的字符单元,以形成创作字符。例如:可以根据序列号“7”,返回查找到编号为“7”的故事文本中的字符单元“过着”,以形成创作字符“过着”。

形成映射表步骤S208,根据序列号与创作字符之间的对应关系,形成映射表。例如:序列号“7”在映射表中所对应的创作字符为“过着”。那么,当下一次输入“我们在一起”时,可以根据映射表获得到创作字符“过着”。通过对全部所能够获得的故事文本进行输入,计算和分析,能够得到序列号与创作字符之间,更加完善的映射表。

参见图6所示,如果在进行步骤S207后,发现对应得到的创作字符并不是故事文本中的最优的文本。例如:在所获得的故事文本中,与“我们在一起”所结合的最优文本是“过着幸福的日子”,其中,“过着”在映射表中对应的序列号是“7”。而在输入“我们在一起”,经过步骤S201至步骤S207,进行计算和学习后,得到的序列号是“11”,此时,需要进行反馈调整使得到的序列号是“7”。优选地,在根据映射值所占位置的序列号,查找到与序列号对应的编号,并返回编号所对应的字符单元之前,映射表的形成步骤包括:将映射值所占位置的序列号输入至第二长短期记忆网络层和第一长短期记忆网络层,进行反馈,以调整所得到的序列号。

优选地,在对可获得的故事文本中的字符串进行切分之前,构建方法包括步骤S201’。

筛选S201’步骤,从可获得的故事文本中进行预处理,以筛选故事内容和去除广告。优选地,可以设定去除的关键字,例如,网址链接等。从而,将带有关键字(网址链接)的文本删除,以保证所获得到的故事文本的质量。

参见图7所示,一种故事创作的系统400,包括:输入接收单元401、文本创作单元403和单次输出单元404。

输入接收单元401,配置用于接收用户第t次所输入的内容文本。其中,输入接收单元401可以直接通过接收用户输入的内容文本,认定用户开始创作。当然,输入接收单元401也可以通过用户输入的触发词,例如:开始创作、一起写故事等,开始创作等。

文本创作单元403,配置用于根据第t次的内容文本调用创作模型,计算得到与第t次的内容文本相映射的第t次的创作文本。

单次输出单元404,配置用于向用户输出第t次的内容文本和创作文本。

具体地,图7所示的故事创作的系统400与图1所示的故事创作的方法100相对应。图7所示的系统的具体实现方式参照图1所示的方法和图3的故事机的实施例中的描述。

参见图8所示,一种故事创作的系统500,包括:输入接收单元401、内容判断单元402、文本创作单元403、单次输出单元404和整体输出单元405。

其中,其中,步输入接收单元401已在上文进行说明,在这里不再赘述。

内容判断单元402,配置用于判断第t次的内容文本中是否包括结束性提示。

文本创作单元403,配置用于当第t次的内容文本中不包括结束性提示时,根据第t次的内容文本调用创作模型,计算得到与第t次的内容文本相映射的第t次的创作文本。

单次输出单元404,配置用于向用户输出第t次的内容文本和创作文本。

整体输出单元405,配置用于当第t+1次的内容文本中包括结束性提示时,结束创作,向用户输出第1次至第t+1次的全部的内容文本和创作文本。

其中,t≥1,且为整数。

具体地,图8所示的故事创作的系统500与图2所示的故事创作的方法200相对应。图8所示的系统的具体实现方式参照图2所示的方法和图3的故事机的实施例中的描述。

参见图9所示,一种故事创作的终端包括存储器610和处理器620。存储器610内存储有可在处理器620上运行的计算机程序。处理器620执行计算机程序时实现上述实施例中的故事创作的方法。存储器610和处理器620的数量可以为一个或多个。

该服务器还包括:

通信接口630,用于与外界设备进行通信,进行数据交互传输。

存储器610可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。

如果存储器610、处理器620和通信接口630独立实现,则存储器610、处理器620和通信接口630可以通过总线相互连接并完成相互间的通信。总线可以是工业标准体系结构(ISA,Industry Standard Architecture)总线、外部设备互连(PCI,Peripheral Component)总线或扩展工业标准体系结构(EISA,Extended Industry Standard Component)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图9中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。

可选的,在具体实现上,如果存储器610、处理器620及通信接口630集成在一块芯片上,则存储器610、处理器620及通信接口630可以通过内部接口完成相互间的通信。

在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。

此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。

流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。

在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。

应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。

本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。

此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中。所述存储介质可以是只读存储器,磁盘或光盘等。

以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1