文本的生成方法和装置与流程

文档序号:28107735发布日期:2021-12-22 13:31阅读:103来源:国知局
文本的生成方法和装置与流程

1.本公开涉及计算机技术领域,尤其涉及一种文本的生成方法和装置。


背景技术:

2.transformer是在17年6月提出的nlp(nature language processing)即自然语言处理的经典之作,在机器翻译任务上的表现超过了rnn,cnn,只用encoder

decoder和attention机制就能达到很好的效果,最大的优点是可以高效地并行化。transformer的编码器有6层,解码器有6层,研究表明,层数对生成效果具有决定性影响。原因在于,低层负责文本的初级特征抽取与构建比如语法特征,高层负责文本的高级特征抽取比如语义特征,最终使得模型效果出色。但是目前transformer在编码器与解码器之间的注意力交互仅仅存在于编码器的最高一层,所有的解码器层均只与编码器的最高一层进行交互,这样解码器便只能对输入文本的高级语义特征进行交互,缺乏对编码器低层语法信息的关注。因而,在文本生成的过程中存在信息损失,导致文本生成的效果不佳。


技术实现要素:

3.本公开提供一种文本的生成方法和装置,用以解决现有技术中文本生成过程中信息损失和准确度不高的缺陷,实现对语法信息的关注,提高文本生成的准确度。
4.第一方面,本公开提供一种文本的生成方法,包括:
5.获取用于生成文本的素材;
6.将所述素材输入至文本生成模型的编码器中,生成文本生成模型中的各个编码层的编码结果;其中,所述文本生成模型包括编码器和解码器,所述编码器包括多个编码层,所述解码器包括多个解码层;
7.基于各个编码层的编码结果对应的权重,确定输出至解码器的各个解码层的编码向量;
8.确定每个解码层的查询向量,基于所述编码向量和查询向量,确定所述每个所述解码层的输出结果,并将所述解码层的输出结果生成所述文本。
9.根据本公开提供的一种文本的生成方法,其中,所述将所述素材输入至文本生成模型的编码器中,生成文本生成模型中的各个编码层的编码结果,具体包括:
10.获取所述素材的词嵌入向量;
11.将所述词嵌入向量输入至所述文本生成模型的第一层编码器中,的所述第一层编码层的编码结果;
12.获取前一个编码层的编码结果输入至后一个编码层中得到所述后一个编码层的输出结果。
13.根据本公开提供的一种文本的生成方法,其中,所述基于各个编码层的编码结果对应的权重,确定输出至解码器的各个解码层的编码向量,包括:
14.确定一个解码层与所述各个编码层之间的交互权重;
15.根据所述交互权重和所述各个编码层的编码结果确定输出至解码器的各个解码层的编码向量。
16.根据本公开提供的一种文本的生成方法,其中,所述根据所述交互权重和所述各个编码层的编码结果确定输出至解码器的各个解码层的编码向量,具体包括:
17.根据所述一个解码层与一个所述编码层的交互权重和所述编码层的编码结果确定所述编码层对所述解码层的加权后的编码结果;
18.根据所述编码层对所述解码层的加权后的编码结果确定输出至解码器的各个解码层的编码向量。
19.根据本公开提供的一种文本的生成方法,其中,所述根据所述一个解码层与一个所述编码层的交互权重和所述编码层的编码结果确定所述编码层对所述解码层的加权后的编码结果,具体包括:
20.将编码层与所述解码层之间的交互权重与所述编码层的编码结果的乘积作为所述编码层对所述解码层的加权后的编码结果。
21.根据本公开提供的一种文本的生成方法,其中,所述根据所述编码层对所述解码层的加权后的编码结果确定输出至解码器的各个解码层的编码向量,具体包括:
22.将所有编码层对所述解码层的加权后的编码结果进行加和处理,得到的总和作为输出至解码器的各个解码层的编码向量。
23.第二方面,本公开提供一种文本的生成装置,包括:
24.素材生成模块,用于获取用于生成文本的素材;
25.编码结果生成模块,用于将所述素材输入至文本生成模型的编码器中,生成文本生成模型中的各个编码层的编码结果;其中,所述文本生成模型包括编码器和解码器,所述编码器包括多个编码层,所述解码器包括多个解码层;
26.编码向量生成模块,用于基于各个编码层的编码结果对应的权重,确定输出至解码器的各个解码层的编码向量;
27.文本生成模块,用于确定每个解码层的查询向量,基于所述编码向量和查询向量,确定所述每个所述解码层的输出结果,并将所述解码层的输出结果生成所述文本。
28.根据本公开提供一种文本的生成装置,其中,所述编码结果生成模块,具体用于:
29.获取所述素材的词嵌入向量;
30.将所述词嵌入向量输入至所述文本生成模型的第一层编码器中,的所述第一层编码层的编码结果;
31.获取前一个编码层的编码结果输入至后一个编码层中得到所述后一个编码层的输出结果。
32.第三方面,本公开还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述一种文本的生成方法的步骤。
33.第四方面,本公开还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述一种文本的生成方法的步骤。
34.本公开提供的一种文本的生成方法和装置,通过获取用于生成文本的素材;再将所述素材输入至文本生成模型的编码器中,生成文本生成模型中的各个编码层的编码结
果;其中,所述文本生成模型包括编码器和解码器,所述编码器包括多个编码层,所述解码器包括多个解码层;进而,基于各个编码层的编码结果对应的权重,确定输出至解码器的各个解码层的编码向量;即将各个编码层的输出结果与解码层建立注意力交互,从而将编码器的低层编码层的信息传输至解码层中。再确定每个解码层的查询向量,基于所述编码向量和查询向量,确定所述每个所述解码层的输出结果,并将所述解码层的输出结果生成所述文本。本公开通过上述步骤在解码器端与编码器进行交互的时候,让解码器端对输入文本的低层语法与高层语义信息都进行关注,避免仅对输入文本语义特征进行关注从而导致模型信息损失的问题,从而提升文本生成的效果。
附图说明
35.为了更清楚地说明本公开或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
36.图1是现有技术中文本生成方法的的流程示意图;
37.图2是本公开提供的文本的生成方法的流程示意图之一;
38.图3是本公开提供的文本的生成方法的流程示意图之二;
39.图4是本公开提供的文本的生成方法装置的结构示意图;
40.图5是本公开提供的电子设备的结构示意图。
具体实施方式
41.为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开实施例一部分实施例,而不是全部的实施例。基于本公开实施例中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开实施例保护的范围。
42.下面结合图1

图3描述本公开实施例提供的一种文本的生成方法,包括:
43.步骤100:获取用于生成文本的素材;
44.具体地,生成任务与判别任务是自然语言处理领域中最具有代表性的研究与工程落地方向。文本生成即是机器生成流畅且富有意义的文案,具体到电商领域文本生成的落地场景很多,比如智能客服的自动回复生成,营销文案的自动生成等等。在本公开实施例中,在进行文本生成时,需要有相应的素材,因此,在本公开中首先获取用于生成文本的素材。可以是文档格式、也可以是图片格式或者语音等等不同的格式。
45.步骤200:将所述素材输入至文本生成模型的编码器中,生成文本生成模型中的各个编码层的编码结果;其中,所述文本生成模型包括编码器和解码器,所述编码器包括多个编码层,所述解码器包括多个解码层;
46.具体地,文本生成模型transformer是采用encoder

decoder(即编码

解码)架构。编码器是由多层编码层构成,比如采用6层encoder堆叠在一起的,解码器是也是由多层解码层构成,比如采用6层decoder堆叠在一起。一个encoder层是由self

attention(自注意
力机制层)和feed forward(前向神经网络层)组成,而decoder层比encoder层多了一层encoder

decoder attention,该层目的是接收encoder层的结果。值得注意的是,decoder与encoder的self

attention并不完全相同,decoder采用的是masked self

attention(掩码自注意力)。本公开中通过将素材输入至文本生成模型中,可以得到编码器中各个编码层的编码结果。
47.步骤300:基于各个编码层的编码结果对应的权重,确定输出至解码器的各个解码层的编码向量;
48.具体地,transformer的encoder有6层,decoder有6层,研究表明,层数对生成效果具有决定性影响。原因在于,低层负责文本的初级特征抽取与构建比如语法特征,高层负责文本的高级特征抽取比如语义特征,最终使得模型效果出色。但是在现有技术中transformer在encoder与decoder之间的attention交互仅仅存在于encoder的最高一层,即如图1所示,所有的decoder层均只与encoder的最高一层进行交互,这样decoder便只能对输入文本的高级语义特征进行交互,缺乏对encoder低层语法信息的关注。
49.结合图3所示,本公开实施例中,在decoder端与encoder进行交互的时候,设法让decoder端对输入文本的低层语法与高层语义信息都进行关注,避免仅对输入文本语义特征进行关注从而导致模型信息损失的问题,从而提升文本生成的效果。本公开实施例中通过采用模型训练的方法,确立文本生成模型中各个编码层相对于每一个解码层的权重。进而根据所述权重确定每个编码层对一个解码层的输出结果。
50.步骤400:确定每个解码层的查询向量,基于所述编码向量和查询向量,确定所述每个所述解码层的输出结果,并将所述解码层的输出结果生成所述文本。
51.具体地,由于在解码层中进行的处理是根据编码层的encoder的输出向量(feature embedding)和随机向量即查询向量(object queris)作为decoder输入向量x。
52.然后,输入向量x同样经过多头自注意力机制(multi

head attention)处理和残差连接与归一化。
53.这一步的encoder

decoder attention,其中v、k是来自于encoder层的结果,而q是本身上一层的结果。
54.接下来几步和上面encoder的步骤是一样的,最后得到结果向量,作为decoder第二层的输入向量。然后依次进行以上步骤,直到6层decoder全部计算结束。进而,输出结果生成所对应的文本。
55.transformer的整个运行过程,其主要核心就是self

attention机制,而其在encoder层和decoder层又是不同实现的。其主要原因是encoder层是相当于学习到输入图像的特征信息,所以需要将不同位置的特征都包含进来计算,而decoder层相当于进行预测分类,因而只需要关注局部信息,而将其他区域的特征都盖住。
56.attention使用的是点积(dot

product),并在点积后进行了scale的处理以避免因点积结果过大进入softmax的饱和区域。
57.编码层和解码层的交互注意力encoder

decoder attention的输入为encoder的输出和decoder的self

attention输出,其中encoder的self

attention作为key and value,decoder的self

attention作为query查询向量。其中,采用attention公式计算。
[0058][0059]
其中,dk就是k的维度,q是查询向量,k是键向量,v是值向量。
[0060]
本公开实施例提供的一种文本的生成方法,通过获取用于生成文本的素材;再将所述素材输入至文本生成模型的编码器中,生成文本生成模型中的各个编码层的编码结果;其中,所述文本生成模型包括编码器和解码器,所述编码器包括多个编码层,所述解码器包括多个解码层;进而,基于各个编码层的编码结果对应的权重,确定输出至解码器的各个解码层的编码向量;即将各个编码层的输出结果与解码层建立注意力交互,从而将编码器的低层编码层的信息传输至解码层中。再确定每个解码层的查询向量,基于所述编码向量和查询向量,确定所述每个所述解码层的输出结果,并将所述解码层的输出结果生成所述文本。本公开通过上述步骤在解码器端与编码器进行交互的时候,让解码器端对输入文本的低层语法与高层语义信息都进行关注,避免仅对输入文本语义特征进行关注从而导致模型信息损失的问题,从而提升文本生成的效果。
[0061]
根据本公开实施例提供的一种文本的生成方法,其中,所述将所述素材输入至文本生成模型的编码器中,生成文本生成模型中的各个编码层的编码结果,具体包括:
[0062]
获取所述素材的词嵌入向量;
[0063]
将所述词嵌入向量输入至所述文本生成模型的第一层编码器中,的所述第一层编码层的编码结果;
[0064]
获取前一个编码层的编码结果输入至后一个编码层中得到所述后一个编码层的输出结果。
[0065]
具体地,和通常的自然语言处理nlp任务一样,首先使用词嵌入算法(embedding algorithm),将每个词转换为一个词向量。然后词向量通过三个权值矩阵w
q
,w
k
,w
v
转变成为计算attention值所需的query,keys,values向量。其中,编码器的工作流程如下:
[0066]
获取输入的素材每个特征向量(feature embedding)加上对应的位置向量(positional embedding)得到编码器的输入向量x。
[0067]
输入向量通过多头自注意力机制(multi

head attention)得到的向量与输入向量进行残差连接与归一化(add&normalize)。其中,多层注意力层进行一系列的矩阵运算把特征拆分成多个维度并行输出,它的作用主要是允许模型在不同位置共同关注着来自不同表示子空间的信息。让模型捕捉更多的信息,将特征变得更丰富些,提升transformer的建模能力。运算过程是一个输入向量x乘以不同的权重系数得到多组q、k、v,x与q、k、v之间进行矩阵运算从而得到多个z,将多个z拼接成一个大矩阵,乘以权重矩阵wo,得到最后的结果向量z。残差连接就是将输入向量加上输出向量后传给下一层。例如:假设一个输入向量x,经过一个网络结构,得到输出向量f(x),即:x

>f(x),这时加上残差连接,相当于在输出向量中加入输入向量,输出结构变为f(x)+x。作用:避免了梯度消失的问题,因为对x求偏导时,总会有一个常数项1。因此,add&normalize层的实质是,输出向量经过残差连接与输入向量相加然后通过layernorm进行归一化,将最后结果传给下一层。
[0068]
将归一化得到的每个特征的向量继续做前向神经网络(feed forward)。feed forward neural network(前馈神经网络)包含两层,第一层是relu激活函数,第二层是一
个线性激活函数。
[0069]
最后再进行一次残差连接与归一化(add&normalize)此时一层encoder层结束,将得到的结果向量当成输入向量继续传给第二层的encoder,依次传递计算,直到6层encoder计算结束,将最后结果向量保留,之后会传给decoder层计算。
[0070]
根据本公开实施例提供的一种文本的生成方法,其中,所述基于各个编码层的编码结果对应的权重,确定输出至解码器的各个解码层的编码向量,包括:
[0071]
确定一个解码层与所述各个编码层之间的交互权重;
[0072]
根据所述交互权重和所述各个编码层的编码结果确定输出至解码器的各个解码层的编码向量。
[0073]
具体地,本公开中通过获取模型训练的方式确定每个编码层与解码层之间的交互权重,交互权重用于判断每一层编码层的输出结果对于该解码层的重要程度。
[0074]
由于在解码层进行处理的数据来自于编码层的所有层级,因此根据不同编码层对所述解码层的重要性确定所述编码器对所述解码层的输出结果。
[0075]
根据本公开实施例提供的一种文本的生成方法,其中,所述根据所述交互权重和所述各个编码层的编码结果确定输出至解码器的各个解码层的编码向量,具体包括:
[0076]
根据所述一个解码层与一个所述编码层的交互权重和所述编码层的编码结果确定所述编码层对所述解码层的加权后的编码结果;
[0077]
根据所述编码层对所述解码层的加权后的编码结果确定输出至解码器的各个解码层的编码向量。
[0078]
根据本公开实施例提供的一种文本的生成方法,其中,所述根据所述一个解码层与一个所述编码层的交互权重和所述编码层的编码结果确定所述编码层对所述解码层的加权后的编码结果,具体包括:
[0079]
将编码层与所述解码层之间的交互权重与所述编码层的编码结果的乘积作为所述编码层对所述解码层的加权后的编码结果。
[0080]
具体地,首先将encoder不同层的表征取出,记为e1

e6;认为低层表征如e1,e2包含文本的语法特征,高层表征如e5,e6包含文本的语义特征。
[0081]
首先,初始化decoder层与encoder层的交互权重w
mn
,w
mn
是一个标量,w
m1
表示第m层decoder与第1层encoder的权重系数,同理w
mn
则表示第m层decoder与第n层encoder的权重系数。进而根据模型训练的方法,确定是的模型生成结果的效果最好时对应的交互权重。进而,将v
mn
与第n层的encoder结果进行相乘操作,便得到了某一层encoder加权后的encoder结果。得到的乘积结果即作为所述编码层对所述解码层的加权后的编码结果。
[0082]
根据本公开实施例提供的一种文本的生成方法,其中,所述根据所述编码层对所述解码层的加权后的编码结果确定输出至解码器的各个解码层的编码向量,具体包括:
[0083]
将所有编码层对所述解码层的加权后的编码结果进行加和处理,得到的总和作为输出至解码器的各个解码层的编码向量。
[0084]
具体地,如图3所示,确定不同编码层的输出结果为e1、e2、e3、
……
e
n
,每一个编码层对于第m层解码层的交互权重分别为w
m1
、w
m2
、w
m3
……
w
mn
,因此整个编码器对于第m层的输出编码向量为e1*w
m1
+e2*w
m2
+e3*w
m3
+
……
+e
n
*w
mn

[0085]
结合图4,本公开实施例提供一种文本的生成装置,包括:
[0086]
素材生成模块41,用于获取用于生成文本的素材;
[0087]
编码结果生成模块42,用于将所述素材输入至文本生成模型的编码器中,生成文本生成模型中的各个编码层的编码结果;其中,所述文本生成模型包括编码器和解码器,所述编码器包括多个编码层,所述解码器包括多个解码层;
[0088]
编码向量生成模块43,用于基于各个编码层的编码结果对应的权重,确定输出至解码器的各个解码层的编码向量;
[0089]
文本生成模块44,用于确定每个解码层的查询向量,基于所述编码向量和查询向量,确定所述每个所述解码层的输出结果,并将所述解码层的输出结果生成所述文本。
[0090]
由于本发明实施例提供的装置,可以用于执行上述实施例所述的方法,其工作原理和有益效果类似,故此处不再详述,具体内容可参见上述实施例的介绍。
[0091]
本公开提供的一种文本的生成装置,通过获取用于生成文本的素材;再将所述素材输入至文本生成模型的编码器中,生成文本生成模型中的各个编码层的编码结果;其中,所述文本生成模型包括编码器和解码器,所述编码器包括多个编码层,所述解码器包括多个解码层;进而,基于各个编码层的编码结果对应的权重,确定输出至解码器的各个解码层的编码向量;即将各个编码层的输出结果与解码层建立注意力交互,从而将编码器的低层编码层的信息传输至解码层中。再确定每个解码层的查询向量,基于所述编码向量和查询向量,确定所述每个所述解码层的输出结果,并将所述解码层的输出结果生成所述文本。本公开通过上述步骤在解码器端与编码器进行交互的时候,让解码器端对输入文本的低层语法与高层语义信息都进行关注,避免仅对输入文本语义特征进行关注从而导致模型信息损失的问题,从而提升文本生成的效果。
[0092]
根据本公开实施例提供一种文本的生成装置,其中,所述编码结果生成模块42,具体用于:
[0093]
获取所述素材的词嵌入向量;
[0094]
将所述词嵌入向量输入至所述文本生成模型的第一层编码器中,的所述第一层编码层的编码结果;
[0095]
获取前一个编码层的编码结果输入至后一个编码层中得到所述后一个编码层的输出结果。
[0096]
根据本公开实施例提供的一种文本的生成装置,其中,所述编码向量生成模块43,具体用于:
[0097]
确定一个解码层与所述各个编码层之间的交互权重;
[0098]
根据所述交互权重和所述各个编码层的编码结果确定输出至解码器的各个解码层的编码向量。
[0099]
根据本公开实施例提供的一种文本的生成装置,其中,编码向量生成模块43,还具体用于:
[0100]
根据所述一个解码层与一个所述编码层的交互权重和所述编码层的编码结果确定所述编码层对所述解码层的加权后的编码结果;
[0101]
根据所述编码层对所述解码层的加权后的编码结果确定输出至解码器的各个解码层的编码向量。
[0102]
根据本公开实施例提供的一种文本的生成装置,其中,所述编码向量生成模块43,
还具体用于:
[0103]
将编码层与所述解码层之间的交互权重与所述编码层的编码结果的乘积作为所述编码层对所述解码层的加权后的编码结果。
[0104]
根据本公开实施例提供的一种文本的生成装置,其中,所述编码向量生成模块43,还具体用于:
[0105]
将所有编码层对所述解码层的加权后的编码结果进行加和处理,得到的总和作为输出至解码器的各个解码层的编码向量。
[0106]
图5示例了一种电子设备的实体结构示意图,如图5所示,该电子设备可以包括:处理器(processor)510、通信接口(communications interface)520、存储器(memory)530和通信总线540,其中,处理器510,通信接口520,存储器530通过通信总线540完成相互间的通信。处理器510可以调用存储器530中的逻辑指令,以执行本公开提供一种文本的生成方法,该方法包括:获取用于生成文本的素材;将所述素材输入至文本生成模型的编码器中,生成文本生成模型中的各个编码层的编码结果;其中,所述文本生成模型包括编码器和解码器,所述编码器包括多个编码层,所述解码器包括多个解码层;基于各个编码层的编码结果对应的权重,确定输出至解码器的各个解码层的编码向量;确定每个解码层的查询向量,基于所述编码向量和查询向量,确定所述每个所述解码层的输出结果,并将所述解码层的输出结果生成所述文本。
[0107]
此外,上述的存储器530中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本公开实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read

only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0108]
另一方面,本公开还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的一种文本的生成方法,该方法包括:获取用于生成文本的素材;将所述素材输入至文本生成模型的编码器中,生成文本生成模型中的各个编码层的编码结果;其中,所述文本生成模型包括编码器和解码器,所述编码器包括多个编码层,所述解码器包括多个解码层;基于各个编码层的编码结果对应的权重,确定输出至解码器的各个解码层的编码向量;确定每个解码层的查询向量,基于所述编码向量和查询向量,确定所述每个所述解码层的输出结果,并将所述解码层的输出结果生成所述文本。
[0109]
又一方面,本公开还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各提供一种文本的生成方法,该方法包括:获取用于生成文本的素材;将所述素材输入至文本生成模型的编码器中,生成文本生成模型中的各个编码层的编码结果;其中,所述文本生成模型包括编码器和解码器,所述编码器包括多个编码层,所述解码器包括多个解码层;基于各个编码层的编码结果对应的权重,
确定输出至解码器的各个解码层的编码向量;确定每个解码层的查询向量,基于所述编码向量和查询向量,确定所述每个所述解码层的输出结果,并将所述解码层的输出结果生成所述文本。
[0110]
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
[0111]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
[0112]
最后应说明的是:以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1