一种模型训练方法及装置与流程

文档序号:31051266发布日期:2022-08-06 07:20阅读:55来源:国知局
一种模型训练方法及装置与流程

1.本说明书涉及搜索技术领域,尤其涉及一种模型训练方法及装置。


背景技术:

2.在搜索场景下,通常基于相关度模型输出的搜索结果与用户搜索时输入的查询文本的相关度,对各搜索结果进行排序。
3.由于人工标注成本高,能够用于对相关度模型进行训练的人工标注的训练样本较少,因此,目前基于历史搜索日志生成相关度模型的训练样本的标签。通常是将历史搜索日志中记录的用户点击过的搜索结果作为正样本,并将该搜索结果与其对应的查询文本相关作为标签。负样本则通过随机采样确定,其标签则为不相关。
4.然而,用户在点击搜索结果时,考虑的因素较多,查询文本与搜索结果的相关度仅是决定用户是否点击搜索结果的其中一个因素。若仅基于用户是否点击搜索结果区分正负样本,容易误导相关度模型认为用户基于相关度外的其他因素点击的搜索结果与查询文本的相关度较高,导致模型对相关度的识别不准确。


技术实现要素:

5.本说明书提供一种模型训练方法及装置,以部分的解决现有技术存在的上述问题。
6.本说明书采用下述技术方案:
7.本说明书提供了一种模型训练方法,双塔结构的相关度模型包括查询塔以及结果塔,所述查询塔与所述结果塔共用参数,所述方法包括:
8.根据各查询文本的搜索结果集,确定各第一样本,所述第一样本由查询文本及其对应的一对搜索结果组成;
9.针对每个第一样本,将该第一样本中的各搜索结果分别输入所述结果塔,得到各搜索结果分别对应的第一特征;
10.将该第一样本中的查询文本输入所述查询塔,确定所述查询文本分别对应的两个第二特征;
11.分别根据各第一样本中第一特征间的特征距离以及各第二特征间的特征距离,确定对比损失,并根据所述对比损失对所述相关度模型进行预训练;
12.当预训练完成后,根据各查询文本与其每个搜索结果组合得到的各第二样本,以及根据各第二样本中查询文本与搜索结果的相关度确定的各第二样本的标注,继续训练所述相关度模型,所述相关度模型用于确定用户输入的查询文本对应的搜索结果排序。
13.可选地,将该第一样本中的查询文本输入所述查询塔,确定所述查询文本分别对应的两个第二特征,具体包括:
14.通过所述查询塔,根据该第一样本中的查询文本,确定所述查询文本的两个相似文本;
15.确定所述两个相似文本分别对应的特征,作为各第二特征。
16.可选地,分别根据各第一样本中第一特征间的特征距离以及各第二特征间的特征距离,确定对比损失,具体包括:
17.针对每个第一样本,确定该第一样本内各第一特征间的特征距离,作为第一距离,并确定该第一样本的各第一特征分别与其他第一样本的第一特征两两间的特征距离,作为各第二距离;
18.根据所述第一距离以及各第二距离,确定该第一样本对应的结果损失,其中,所述第一距离与所述结果损失正相关,所述第二距离与所述结果损失负相关;
19.确定该第一样本内各第二特征间的特征距离,作为第三距离,并确定该第一样本的各第二特征分别与其他第一样本的第二特征两两间的特征距离,作为各第四距离;
20.根据所述第三距离以及各第四距离,确定该第一样本对应的查询损失,其中,所述第三距离与所述查询损失正相关,所述第四距离与所述查询损失负相关;
21.根据各第一样本对应的结果损失以及各第一样本对应的查询损失,确定对比损失。
22.可选地,根据所述第一距离以及各第二距离,确定该第一样本对应的结果损失,具体包括:
23.针对该第一样本中每个搜索结果,确定该搜索结果对应的结果文本,并根据所述结果文本,生成该搜索结果对应的各困难样本;
24.将各困难样本分别输入所述结果塔,确定各困难样本对应的第三特征;
25.针对该第一样本的每个第一特征,确定该第一特征分别与该第一样本的各第三特征间的特征距离,作为各第五距离;
26.根据该第一样本对应的所述第一距离、各第二距离以及各第五距离,确定该第一样本对应的结果损失;
27.其中,所述第五距离与所述结果损失负相关。
28.可选地,针对该第一样本中每个搜索结果,确定该搜索结果对应的结果文本,并根据所述结果文本,生成该搜索结果对应的各困难样本,具体包括:
29.确定该第一样本的查询文本中主体所属的类型,作为所述查询文本的类型;
30.针对该第一样本中每个搜索结果,确定该搜索结果的结果文本,并确定所述结果文本包含的该第一样本中查询文本的相关文本;
31.确定与该第一样本的查询文本属于同一类型的各其他查询文本;
32.针对每个其他查询文本,将所述相关文本替换为该其他查询文本,得到替换文本;
33.将各替换文本作为该搜索结果对应的各困难样本。
34.可选地,针对该第一样本中每个搜索结果,确定该搜索结果对应的结果文本,并根据所述结果文本,生成该搜索结果对应的各困难样本,具体包括:
35.确定该第一样本的查询文本中主体所属的类型,作为所述查询文本的类型,并确定与该第一样本中的查询文本属于同一类型的各其他查询文本;
36.针对该第一样本中每个搜索结果,确定该搜索结果的结果文本,并将所述结果文本分别替换为各其他查询文本,得到各代替文本;
37.将各代替文本作为该搜索结果对应的各困难样本。
38.可选地,根据各查询文本与其每个搜索结果组合得到的各第二样本,以及根据各第二样本中查询文本与搜索结果的相关度确定的各第二样本的标注,继续训练所述相关度模型,具体包括:
39.针对每个查询文本,将该查询文本与该查询文本对应的每个搜索结果的结果文本分别组合,得到该查询文本对应的各第二样本;
40.针对每个第二样本,将人工确定的该第二样本中查询文本与搜索结果的结果文本间的相关度,作为该第二样本的标注;
41.将该第二样本输入预训练后的所述相关度模型,得到该第二样本中查询文本与结果文本分别对应的特征,以及该第二样本中查询文本与结果文本间的相关度;
42.根据预训练后的所述相关度模型输出的各第二样本的相关度与对应的标注的差异,以及各第二样本对应的各特征,确定混合损失,并以所述混合损失最小为目标,继续训练所述相关度模型。
43.可选地,根据预训练后的所述相关度模型输出的各第二样本的相关度与对应的标注的差异,以及各第二样本对应的各特征,确定混合损失,具体包括:
44.针对每个第二样本,确定预训练后的所述相关度模型输出的该第二样本对应的相关度与该第二样本的标注间的差异;
45.根据各第二样本对应的差异,确定第三损失;
46.根据各第二样本对应的各特征,确定各第二样本内查询文本与结果文本间的特征距离以及各第二样本间查询文本与结果文本间的特征距离,以根据确定出的各特征距离,确定第四损失;
47.根据所述第三损失以及所述第四损失,确定混合损失。
48.本说明书提供了一种模型训练装置,双塔结构的相关度模型包括查询塔以及结果塔,所述查询塔与所述结果塔共用参数,所述装置包括:
49.第一样本确定模块,用于根据各查询文本的搜索结果集,确定各第一样本,所述第一样本由查询文本及其对应的一对搜索结果组成;
50.第一特征确定模块,用于针对每个第一样本,将该第一样本中的各搜索结果分别输入所述结果塔,得到各搜索结果分别对应的第一特征;
51.第二特征确定模块,用于将该第一样本中的查询文本输入所述查询塔,确定所述查询文本分别对应的两个第二特征;
52.第一训练模块,用于分别根据各第一样本中第一特征间的特征距离以及各第二特征间的特征距离,确定对比损失,并根据所述对比损失对所述相关度模型进行预训练;
53.第二训练模块,用于当预训练完成后,根据各查询文本与其每个搜索结果组合得到的各第二样本,以及根据各第二样本中查询文本与搜索结果的相关度确定的各第二样本的标注,继续训练所述相关度模型,所述相关度模型用于确定用户输入的查询文本对应的搜索结果排序。
54.本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述模型训练方法。
55.本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述模型训练方法。
56.本说明书采用的上述至少一个技术方案能够达到以下有益效果:
57.在本说明书提供的模型训练方法中,在预训练阶段,针对一个搜索结果及其对应的一对搜索结果确定第一训练样本,并通过双塔结构的相关度模型,确定该第一样本中各搜索结果的第一特征以及查询文本对应的两个第二特征,基于各第一样本的第一特征间的特征距离以及第二特征间的特征距离,确定对比损失,以对相关度模型进行预训练。再将查询文本与其对应的各搜索结果分别组合得到各第二样本,将第二样本中查询文本与搜索结果的相关度作为标注,继续训练相关度模型。
58.从上述方法中可以看出,本方法能够在预训练阶段通过对比学习使相关度模型能够准确表征查询文本与搜索结果的结果文本的特征,并再基于标注的相关度进一步对相关度模型进行训练,使相关度模型能够准确输出相关度。
附图说明
59.此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
60.图1为本说明书中一种模型训练方法的流程示意图;
61.图2为本说明书提供的一种阶段训练示意图;
62.图3为本说明书提供的一种阶段训练示意图;
63.图4为本说明书提供的一种模型训练装置示意图;
64.图5为本说明书提供的一种电子设备的结构示意图。
具体实施方式
65.对于相关度模型,通常是基于监督训练的方法对其进行训练。为了使训练后的相关度模型具有更好的性能,则需要大量的人工标注的训练样本作为支持。然而人工标注成本高,对相关度进行标注的训练样本通常较少。
66.目前,基于自动标注的方法可在一定程度上解决人工标注的训练样本少的问题。通常是将用户历史点击过的搜索结果作为正样本,将该搜索结果与其对应的查询文本间相关作为标签。负样本则通过随机采样确定,其标签则为不相关。
67.然而,用户在点击搜索结果时,考虑的因素较多,用户查询文本与搜索结果的相关度仅是决定用户是否点击搜索结果的其中一个因素,用户在点击搜索结果时,还可能考虑搜索结果的品类、价格、排名等其他因素。若仅基于用户是否点击搜索结果区分正负样本,容易误导相关度模型认为用户基于相关度外的其他因素点击的搜索结果与查询文本的相关度较高,导致相关度模型对相关度的识别不准确。即,对模型的训练存在较大噪声,导致训练得到的相关度模型对相关度的识别不准确。
68.为了至少部分解决上述问题,基于本说明书提供的模型训练方法,分别通过两个阶段对相关度模型进行训练。在第一阶段通过无监督学习对相关度模型进行训练后,还可在第一阶段训练的得到的相关度模型的参数的基础上,在第二阶段基于人工标注的训练样本进一步对相关度模型进行训练,实现对其参数的微调,进一步使得训练得到的相关度模型具有更好的性能,使其输出的相关度更准确。
69.在本说明书中,在第一阶段,通过对比学习的方法,对相关度模型进行预训练。基于对比学习的方法,无需对训练样本进行标注即可基于训练样本对相关度模型进行训练。并且,在第一阶段,本说明书基于对比损失调整相关度模型的参数,对比损失的构建不依赖查询文本与搜索结果对应的结果文本间的相似度。而是针对每个查询文本,确定该查询文本的两个相似文本,并基于相关度模型输出的相似文本间特征的相似度(即,本说明书中的特征距离),以及查询文本对应的用户点击的两个搜索结果的结果文本的特征间的相似度,确定对比损失。即查询文本与搜索结果的特征间不存在交互。
70.在本说明书中,由于查询文本与结果文本间不存在交互,且目的在于拉近一个查询文本的两个相似文本的特征在特征空间的距离,以及拉近查询文本的两个搜索结果的结果文本在特征空间的距离。并非将查询文本与结果文本捆绑,将查询文本与用户点击的搜索结果的结果文本对比,而是将用户点击的两个搜索结果的特征进行对比,将用户的一个查询文本的两个相似文本的特征进行对比。因此,能够使得模型在学习过程中能够学到如何更准确表征各文本,并能够减少其他因素对相关度的确定的干扰,减少训练噪声。
71.在第二阶段,由于模型的最终目的还是输出查询文本与搜索结果间的相关度,因此,训练样本由查询文本与用户点击的搜索结果确定。且训练样本的标注(相关度)由人工确定。并且,在第二阶段,基于训练样本的标签,结合对比损失确定第二阶段的损失,以弥补人工标注的训练样本数量不足的问题,进一步保证训练得到的相关度模型的准确性。
72.如此,能够使相关度模型能够在第一阶段更好地学习表征不同文本的特征,以使得能够经过第二阶段的训练,相关度模型可更准确地基于不同文本的特征确定查询文本与搜索结果间的相关度,能够使得训练得到的相关度模型具有更好的性能。
73.为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
74.以下结合附图,详细说明本说明书各实施例提供的技术方案。
75.图1为本说明书中一种模型训练方法的流程示意图,具体包括以下步骤:
76.s100:根据各查询文本的搜索结果集,确定各第一样本,所述第一样本由查询文本及其对应的一对搜索结果组成。
77.在本说明书中,该模型训练方法可应用于搜索场景下。该模型训练方法可由提供搜索业务的业务平台的服务器执行,基于该模型训练方法可对用于输出搜索结果与查询文本的相关度的相关度模型进行训练。在本说明书一个或多个实施例中,该相关度模型为双塔结构,该相关度模型包括查询塔以及结果塔。查询塔对应查询文本,用于基于输入的查询文本,确定其对应的特征。结果塔则对应搜索结果,用于基于输入的搜索结果的结果文本,确定其对应的特征。
78.在本说明书一个或多个实施例中,首先,在第一阶段对相关度模型进行训练时,该服务器可根据该业务平台的历史搜索日志,确定各查询文本以及各查询文本分别对应的各搜索结果。其中,针对每个查询文本,该查询文本的各搜索结果为用户点击的搜索结果,该查询文本的各搜索结果构成该查询文本对应的一个搜索结果集。查询文本即用户在搜索时输入的文本,对应自然语言处理领域的查询(query)概念,搜索结果的文本则对应文件
(document,doc)概念。
79.需要说明的是,对“点击”操作的含义不做限制,例如,点击可以是指用户点击搜索结果以获取详情的操作,或者,也可以是点击下单、点击收藏等操作,本说明书在此不做限制。
80.在本说明书一个或多个实施例中,在确定出各查询文本及其对应的搜索结果集后,该服务器可根据各查询文本的搜索结果集,确定各第一样本。针对每个第一样本,该第一样本由查询文本及其对应的一对搜索结果组成。具体的,该服务器可针对每个查询文本,将该查询文本的搜索结果集中各搜索结果两两组合,得到各结果组,并针对每个结果组,将该结果组与该查询文本作为一个训练样本,即一个第一样本。
81.s102:针对每个第一样本,将该第一样本中的各搜索结果分别输入所述结果塔,得到各搜索结果分别对应的第一特征。
82.在本说明书一个或多个实施例中,在确定出第一样本后,该服务器可针对每个第一样本,将该第一样本中的各搜索结果分别输入该相关度模型的结果塔,得到各搜索结果分别对应的第一特征。
83.由于该第一样本的各搜索结果皆为用户在输入同一查询文本后点击的搜索结果,则该第一样本的各搜索结果间存在促使用户点击的相似之处。基于该第一样本的各第一特征,可使得该相关度模型能够学习如何准确表征相似的搜索结果的结果文本。
84.s104:将该第一样本中的查询文本输入所述查询塔,确定所述查询文本分别对应的两个第二特征。
85.在本说明书一个或多个实施例中,该服务器可将该第一样本中的查询文本输入该相关度模型的查询塔,确定该查询文本分别对应的两个第二特征。
86.具体的,该服务器可通过该查询塔,根据该第一样本中的查询文本,确定该查询文本的两个相似文本。之后,确定该两个相似文本分别对应的特征,作为各第二特征。
87.其中,该查询塔具有冻结(dropout)机制,基于该dropout机制,将该查询文本输入该查询塔,可随机冻结该查询塔中的部分神经元,以实现将该查询文本中的部分字符添加掩码,得到该查询文本对应的一个相似文本。将该查询文本输入该冻结模块两次,则可得到该查询文本对应的两个相似文本。
88.在本说明书一个或多个实施例中,该相关度模型的查询塔与结果塔可分别对应一个基于变压器的双向编码器表征(bidirectional encoder representation from transformers,bert)模型。即,一个bert模型对应该相关度模型的查询塔,一个bert模型对应该相关的模型的结果塔。
89.s106:分别根据各第一样本中第一特征间的特征距离以及各第二特征间的特征距离,确定对比损失,并根据所述对比损失对所述相关度模型进行预训练。
90.在本说明书一个或多个实施例中,在得到各第一样本对应的第一特征以及第二特征后,该服务器可分别根据各第一样本中第一特征间的特征距离以及各第二特征间的特征距离,确定对比损失,并根据确定出的对比损失,以该对比损失最小为目标,对该相关度模型进行预训练。
91.在本说明书一个或多个实施例中,在确定对比损失时,具体的,该服务器可针对每个第一样本,确定该第一样本内各第一特征间的特征距离,作为第一距离,并确定该第一样
本的各第一特征分别与其他第一样本的第一特征两两间的特征距离,作为各第二距离。并根据该第一样本对应的该第一距离以及各第二距离,确定该第一样本对应的结果损失。
92.其中,该第一距离与该结果损失正相关,该第二距离与该结果损失负相关。
93.并且,该服务器可确定该第一样本内各第二特征间的特征距离,作为第三距离,并确定该第一样本的各第二特征分别与其他第一样本的第二特征两两间的特征距离,作为各第四距离。并根据该第三距离以及各第四距离,确定该第一样本对应的查询损失。
94.其中,该第三距离与该查询损失正相关,该第四距离与该查询损失负相关。
95.在确定出各第一样本对应的查询损失与结果损失后,该服务器可根据各第一样本对应的结果损失以及各第一样本对应的查询损失,确定对比损失。
96.在本说明书一个或多个实施例中,该相关度模型还可包括输出层,该输出层用于基于该查询塔以及该结果塔输出的特征,确定特征距离。
97.该输出层可包括激活层以及回归层。在确定特征距离时,以第一距离为例,将各第一特征输入该输出层的激活层,分别确定各第一特征对应的激活特征,根据各激活特征,通过该回归层,可确定各激活特征的内积,作为第一距离。
98.其中,该激活层可以是s形激活函数(sigmoid)层,该回归层则为内积层。
99.在本说明书一个或多个实施例中,该服务器可根据各第一样本对应的结果损失,确定第一损失,并根据各第一样本对应的查询损失,确定第二损失。之后,根据该第一损失以及该第二损失,确定对比损失。
100.在本说明书一个或多个实施例中,确定第一损失的公式可具体如下:
101.ld=-(l1+l2)
[0102][0103][0104]
其中,ld即第一损失,a=exp(δ(f(d1),f(d2))/t),a即将一个第一样本对应的第一距离作为exp函数的输入得到的指数特征距离,t为预设的温度系数。f(d1)表示该第一样本中第一个结果文本的第一特征对应的激活特征,f(d2)表示该第一样本中第二个结果文本的第一特征对应的激活特征。δ(f(d1),f(d2))表示将f(d1)与f(d2)输入回归层后得到的特征距离。d1表示该第一样本中,第一个搜索结果的结果文本,d2表示该第一样本中,第二个搜索结果的结果文本。即该第一样本中其中一个结果文本对应的损失,即该第一样本中另一个结果文本对应的损失。与之和即该第一样本对应的结果损失。
[0105]
b=∑
j∈d exp(δ(f(d1),f(dj))/t)。b表示该第一样本对应的各第一特征分别与其他第一样本的第一特征间的指数特征距离之和。d表示由其他第一样本对应的结果文本构成的集合。
[0106]
exp(δ(f(d1),f(dj))/t)即一个第二距离对应的指数特征距离。f(dj)即其他第一样本中第j个第一样本的第一特征。其中,b与l1负相关。
[0107]
c=exp(δ(f(d2),f(d1))/t)且c=a。f=∑
j∈d exp(δ(f(d2),f(dj))/t)。δ(f(d2),f(dj))表示将f(d2)与f(dj)输入回归层后得到的特征距离。
[0108]
在本说明书一个或多个实施例中,确定第二损失的公式可具体如下:
[0109]
lq=-(l3+l4)
[0110][0111][0112]
其中,lq即第二损失。g=exp(δ(f(q1),f(q2))/t),t仍为温度系数。g即一个第一样本中查询文本的两个第二特征间的特征距离对应的指数特征距离。h=∑
i∈e
exp(δ(f(q1),f(qi))/t)。e表示由其他第一样本的查询文本对应的相似文本构成的集合。δ(f(q1),f(qi))/t,即该第一样本中第一个相似文本与集合e中第i个相似文本的第二特征间的特征距离,即第四距离。h即该第一样本中第一个相似文本对应的各第四距离之和。q1表示该第一样本对应的第一个相似文本,q2表示该第一样本对应的第二个相似文本。即该第一样本中其中一个相似文本对应的损失,即该第一样本中另一个相似文本对应的损失。与之和即该第一样本对应的查询损失。
[0113]
i=exp(δ(f(q2),f(q1))/t),且i=g。j=∑
i∈e exp(δ(f(q2),f(qi))/t)。
[0114]
在本说明书一个或多个实施例中,可直接将第一损失与第二损失求和得到对比损失。或者,可通过将第一损失与第二损失加权求和的方式,确定对比损失。
[0115]
则,确定对比损失的公式可具体如下:
[0116]
l=α*lq+ld[0117]
其中,α为预设的权重,可根据需要设置。
[0118]
s108:当预训练完成后,根据各查询文本与其每个搜索结果组合得到的各第二样本,以及根据各第二样本中查询文本与搜索结果的相关度确定的各第二样本的标注,继续训练所述相关度模型,所述相关度模型用于确定用户输入的查询文本对应的搜索结果排序。
[0119]
在本说明书一个或多个实施例中,在第一阶段对该相关度模型预训练完成后,该服务器可在第二阶段,根据各查询文本与其每个搜索结果组合得到的各第二样本,以及根据各第二样本中查询文本与搜索结果的相关度确定的各第二样本的标注,继续训练该相关度模型。
[0120]
该相关度模型可用于确定用户输入的查询文本对应的各搜索结果的排序。
[0121]
在第二阶段对该相关度模型进一步进行训练时,具体的,该服务器可针对每个查询文本,将该查询文本与该查询文本对应的每个搜索结果的结果文本分别组合,得到该查询文本对应的各第二样本。之后,针对每个第二样本,将人工确定的该第二样本中查询文本与搜索结果的结果文本间的相关度,作为该第二样本的标注。并将该第二样本输入预训练后的该相关度模型,得到该第二样本中查询文本与结果文本分别对应的特征,以及该第二
样本中查询文本与结果文本间的相关度。然后,该服务器可根据预训练后的该相关度模型输出的各第二样本的相关度与对应的标注的差异,以及各第二样本对应的各特征,确定混合损失,并以该合损失最小为目标,继续训练该相关度模型。
[0122]
需要说明的是,在训练的第一阶段,结果塔的冻结比例为0,在第二阶段结果塔与查询塔的冻结比例皆为0,即不对输入进行dropout处理。
[0123]
基于图1所示的模型训练方法,在预训练阶段,针对一个搜索结果及其对应的一对搜索结果确定第一训练样本,并通过双塔结构的相关度模型,确定该第一样本中各搜索结果的第一特征以及查询文本对应的两个第二特征,基于各第一样本的第一特征间的特征距离以及第二特征间的特征距离,确定对比损失,以对相关度模型进行预训练。再将查询文本与其对应的各搜索结果分别组合得到各第二样本,将第二样本中查询文本与搜索结果的相关度作为标注,继续训练相关度模型。
[0124]
从上述方法中可以看出,本方法能够在预训练阶段,基于第一样本,通过对比学习使相关度模型能够准确表征查询文本与搜索结果的结果文本的特征,并准确表征不同的查询文本以及不同的搜索结果的结果文本,并再基于第二样本及人工标注的相关度进一步对相关度模型进行训练,使相关度模型能够基于准确的特征,准确输出查询文本与搜索结果间的相关度。并且,在预训练后进一步对相关度模型进行训练时,除了基于训练样本的标注与相关度模型输出的相关度间的差异确定损失,还结合了对比损失得到混合损失,使得能够弥补人工标注的训练样本数量少的不足,保证了相关度模型的性能,使相关度模型输出的相关度更准确。
[0125]
另外,由于在搜索场景下,基于用户的一个查询文本通常可确定出多个搜索结果,各搜索结果对应的结果文本通常语义相近。因此,为了使模型能够更好区分不同的结果文本,并识别其语义,更好地表征不同的结果文本的特征,在本说明书提供的一个或多个实施例中,可针对每个第一样本,根据该第一样本的各搜索结果,确定各搜索结果对应的难负例,即困难样本。
[0126]
则,在步骤s106确定结果损失时,该服务器还可针对该第一样本中每个搜索结果,确定该搜索结果对应的结果文本,并根据该结果文本,生成该搜索结果对应的各困难样本。并将各困难样本分别输入该相关度模型的结果塔,确定各困难样本分别对应的特征,作为各第三特征。
[0127]
之后,针对该第一样本的每个第一特征,确定该第一特征分别与该第一样本的各第三特征间的特征距离,作为各第五距离,并根据该第一样本对应的第一距离、各第二距离以及各第五距离,确定该第一样本对应的结果损失。其中,该第五距离与该结果损失负相关。
[0128]
具体的,在确定困难样本时,该服务器可确定该第一样本的查询文本中的主体,并确定该第一样本的查询文本中主体所属的类型,作为该查询文本的类型。该查询文本的主体,即该查询文本中描述的对象。例如,查询文本为“可乐”时,可乐即主体,查询文本为“炸鸡翅”时,鸡翅即为主体。
[0129]
之后,该服务器可针对该第一样本中每个搜索结果,确定该搜索结果的结果文本,并确定该结果文本包含的该第一样本中查询文本的相关文本。之后,确定与该第一样本的查询文本属于同一类型的各其他查询文本,并针对每个其他查询文本,将该相关文本替换
为该其他查询文本,得到替换文本。然后,将各替换文本作为该搜索结果对应的各困难样本。
[0130]
其中,相关文本即与查询文本语义相同或相近的文本。相关文本可以是与查询文本相同的词,或者可以是查询文本的近义词、同义词等。例如,查询文本为“火锅”,则当结果文本中存在“火锅”字符时,该字符即相关文本。当结果文本中存在“铜锅”或“涮羊肉”等字符时,也可作为查询文本的相关文本。由于查询文本中未必仅包含名词,因此,也可基于查询文本中的主体,确定相关文本。当然,上述仅为示例,对搜索场景的具体应用场景不做限制,例如,搜索结果可以是商品、商家等。
[0131]
在本说明书一个或多个实施例中,在确定困难样本时,该服务器还可确定该第一样本的查询文本中主体所属的类型,作为该查询文本的类型,并确定与该第一样本中的查询文本属于同一类型的各其他查询文本。之后,针对该第一样本中每个搜索结果,确定该搜索结果的结果文本,并将该结果文本分别替换为各其他查询文本,得到各代替文本。最后,将各代替文本作为该搜索结果对应的各困难样本。
[0132]
在本说明书一个或多个实施例中,在确定与该第一样本的查询文本属于同一类型的各其他查询文本时,可根据预设的困难样本数量确定。
[0133]
当然,在确定困难样本时,也可既确定相关文本又确定代替文本,并基于相关文本以及代替文本确定各困难样本。
[0134]
其中,该苦难样本数量可根据需要设置,例如,可以是10个,也可以是其他数值,本说明书在此不做限制。
[0135]
在本说明书一个或多个实施例中,确定第一损失的公式还可如下所示:
[0136]
ld=-(l5+l6)
[0137][0138][0139]
其中,ld即第一损失,且
[0140][0141][0142]
其中,p为第一样本中第一个结果文本d1对应的困难样本构成的集合。dh即该集合p中第h个困难样本。t为该第一样本中第二个结果文本d2对应的困难样本构成的集合。dv即该集合d中第v个困难样本。与之和即该第一样本对应的结果损失。
[0143]
a=exp(δ(f(d1),f(d2))/t)
[0144]
[0145]
c=exp(δ(f(d2),f(d1))/t)
[0146][0147]
即,a、b、c、f与上述不基于困难样本确定第一损失的实施例中的a、b、c、f相同,公式中的对应字符的含义可参考上述对公式的说明,本说明书在此不做赘述。
[0148]
在本说明书中,基于困难样本对该相关度模型进行训练,能够使得该相关度模型能够更准确表征相似但不同的文本,使得对相关度的确定更准确。
[0149]
在本说明书一个或多个实施例中,在步骤s108确定混合损失时,该服务器可针对每个第二样本,确定预训练后的该相关度模型输出的该第二样本对应的相关度与该第二样本的标注间的差异。之后,根据各第二样本对应的差异,确定第三损失。并根据各第二样本对应的各特征,确定各第二样本内查询文本与结果文本间的特征距离以及各第二样本间查询文本与结果文本间的特征距离,以根据确定出的各特征距离,确定第四损失。最后,根据该第三损失以及该第四损失,确定混合损失。
[0150]
其中,标注的相关度可包括:相关、一般相关以及不相关,可分别用0、1、2表示。第二样本内查询文本与结果文本间的特征距离即该第二样本对应的相关度。
[0151]
则,在第二阶段对该相关度模型进行训练时,损失函数可包括两种,一种是基于标注与模型输出的相关度间的差异对应的第三损失,一种是基于对比学习的第四损失。如此,能够基于噪声较少的人工确定的标注对相关度模型进行训练,使相关度模型的准确性得到进一步提升。并且,在第三损失的基础上结合第四损失,能够使得在人工标注的训练样本数量较少的情况下,保障模型的训练效果。
[0152]
需要说明的是,在第一阶段以及第二阶段进行训练时,该服务器可以一个样本集合(对应机器学习领域的batch概念)确定一个混合损失。且第二阶段中,相关度模型输出的相关度为一个分值,基于该分值,可确定对应的查询文本与结果文本对应的搜索结果间的相关度为相关、一般相关还是不相关。
[0153]
其中,在第二阶段,经过相关模型的输出层中,回归层输出的查询文本与结果文本对应的特征距离,即二者的相关度。
[0154]
另外,由于训练样本的质量会影响模型的训练效果,而当训练样本中存在一些高频查询文本时,会干扰相关度模型的训练。为了使第一样本中的查询文本尽可能多样化且比例均衡,在步骤s100和/或s108确定各查询文本时,可先基于历史搜索日志确定各查询文本的出现频率,并根据各出现频率对各查询文本进行均匀采样。之后,再基于采样得到的各查询文本,确定作为训练样本的第一样本和/或第二样本。需要说明的是,在进行采样时,未必采样各查询文本的数量相同,使不同查询文本的数量差异控制在预设范围内即可。例如,在各查询文本中存在十个查询文本1、五个查询文本2以及40个查询文本3。比例为2:1:8。在采样时,为了降低高频查询文本(即减少查询文本3)的干扰,减少其数量,则不按照该比例进行采样,也未必按照1:1:1的比例进行采样,可以降低三者差异为目标进行采样,例如,可以按照2:1:4的比例进行采样。
[0155]
在本说明书一个或多个实施例中,在确定第三损失时,具体的,该服务器可针对每个第二样本,根据该第二样本的标注,确定该第二样本对应的标注特征值,之后,确定相关
度模型输出的该第二样本的相关度与该第二样本的标注特征值间的差异的绝对值。并根据该绝对值与预设的边缘值(margin)间的差值,确定输出特征值。之后,该服务器可根据该输出特征值与预设的边界特征值中的最大值,确定该第二样本对应的损失。将各第二样本对应的损失求和,可确定第三损失。
[0156]
在本说明书一个或多个实施例中,可将第三损失与第四损失求和,得到混合损失。或者,也可采取加权求和的方式,确定混合损失。
[0157]
在本说明书一个或多个实施例中,确定混合损失的公式可具体如下:
[0158]
l
mix
=l
mar
+β*lc[0159]
其中,l
mix
即混合损失,l
mar
即第三损失,lc即第四损失。β为预设的权重。
[0160]
并且,
[0161]
l
mar
=∑max(0,(|y
pred-y|-margin))
[0162]
lc=-l
s1-l
s2
[0163]
其中,0即边界特征值,margin即边缘值,用于使对应不同相关度的训练样本的输出相关度之间存在缝隙,便于区分。y
pred
即相关度模型输出的相关度对应的分值且y
pred
=δ(f(q),f(d))。f(q)即第二样本中查询文本对应的激活特征,f(d)即第二样本中结果文本对应的激活特征,y
pred
通过对二者求内积后得到。y即标注特征值,且y
label
即标注。
[0164][0165][0166]
q表示一个第二样本中的查询文本,d表示该第二样本中的搜索结果的结果文本。d

表示由其他第二样本的结果文本构成的集合。e

则表示由其他第二样本的查询文本构成的集合。
[0167]
δ(f(q),f(d))/t表示一个第二样本对应的特征距离。
[0168]
δ(f(q),f(dj))/t则表示该第二样本中查询文本与集合d

中第j个查询文本的特征距离。δ(f(d),f(qi))/t则表示该第二样本中结果文本与集合e

中第i个查询文本间的特征距离。表示一个第二样本中查询文本对应的损失,l
s1
则表示各第二样本中查询文本对应的损失之和。表示该第二样本中结果文本对应的损失,l
s2
则表示各第二样本中结果文本对应的损失之和。
[0169]
需要说明的是,在确定lc的公式中,各字符的含义,诸如t、exp(δ(f(d),f(qi))/t)可参考上述对第一阶段中对比损失的公式的解释,本说明书在此不做赘述。
[0170]
为了方便理解,本说明书还提供了阶段训练的示意图。如图2、3所示。
[0171]
图2与图3为本说明书提供的一种阶段训练示意图。图2为第一阶段,图3为第二阶段。如图2,在第一阶段,将第一样本的查询文本输入相关度模型的查询塔后可得到该查询
文本的各第二特征。将该第一样本的一对结果文本分别输入结果塔后,可得到各结果文本分别对应的第一特征。将该第一样本的各第一特征以及第二特征输入输出层,则可确定该第一样本对应的各特征距离。基于各第一样本对应的特征距离,则可确定第一损失以及第二损失,以确定对比损失。需要说明的是,一个第一样本中的各结果文本为分别输入结果塔的,图2中为了便于说明一个第一样本对应的输入相关度模型的内容与第二阶段中一个第二样本输入相关度模型的内容的区别,将一对结果文本的输入过程同时展示。
[0172]
图3可见,将第二样本中的查询文本输入查询塔后可得到查询文本对应的特征。将该第二样本中搜索结果的结果文本输入结果塔后,可得到结果文本对应的特征。将该第二样本的各特征输入输出层后,可得到该第二样本对应的激活特征,以及相关度。将各第二样本分别输入该相关度模型后,可得到各第二样本对应的激活特征以及相关度。基于各第二样本的相关度与对应的标注的差异,可确定第三损失。基于各第二样本的激活特征,可确定不同第二样本间查询文本与结果文本间的特征距离。基于各特征距离,可确定第四损失。基于第三损失以及第四损失,则可确定混合损失。
[0173]
在本说明书中,构成第一阶段的对比损失的第一损失与第二损失两项皆为不同的对比损失(contrastive loss)。第三损失则为一种边缘损失(margin loss)。第四损失也为对比损失(contrastive loss)的一种。
[0174]
以上为本说明书的一个或多个实施例提供的模型训练方法,基于同样的思路,本说明书还提供了相应的模型训练装置,如图4所示。
[0175]
图4为本说明书提供的一种模型训练装置示意图,双塔结构的相关度模型包括查询塔以及结果塔,所述查询塔与所述结果塔共用参数,该装置包括:
[0176]
第一样本确定模块200,用于根据各查询文本的搜索结果集,确定各第一样本,所述第一样本由查询文本及其对应的一对搜索结果组成;
[0177]
第一特征确定模块201,用于针对每个第一样本,将该第一样本中的各搜索结果分别输入所述结果塔,得到各搜索结果分别对应的第一特征;
[0178]
第二特征确定模块202,用于将该第一样本中的查询文本输入所述查询塔,确定所述查询文本分别对应的两个第二特征;
[0179]
第一训练模块203,用于分别根据各第一样本中第一特征间的特征距离以及各第二特征间的特征距离,确定对比损失,并根据所述对比损失对所述相关度模型进行预训练;
[0180]
第二训练模块204,用于当预训练完成后,根据各查询文本与其每个搜索结果组合得到的各第二样本,以及根据各第二样本中查询文本与搜索结果的相关度确定的各第二样本的标注,继续训练所述相关度模型,所述相关度模型用于确定用户输入的查询文本对应的搜索结果排序。
[0181]
可选地,所述第二特征确定模块202,还用于通过所述查询塔,根据该第一样本中的查询文本,确定所述查询文本的两个相似文本,确定所述两个相似文本分别对应的特征,作为各第二特征。
[0182]
可选地,所述第一训练模块203,还用于针对每个第一样本,确定该第一样本内各第一特征间的特征距离,作为第一距离,并确定该第一样本的各第一特征分别与其他第一样本的第一特征两两间的特征距离,作为各第二距离,根据所述第一距离以及各第二距离,确定该第一样本对应的结果损失,其中,所述第一距离与所述结果损失正相关,所述第二距
离与所述结果损失负相关,确定该第一样本内各第二特征间的特征距离,作为第三距离,并确定该第一样本的各第二特征分别与其他第一样本的第二特征两两间的特征距离,作为各第四距离,根据所述第三距离以及各第四距离,确定该第一样本对应的查询损失,其中,所述第三距离与所述查询损失正相关,所述第四距离与所述查询损失负相关,根据各第一样本对应的结果损失以及各第一样本对应的查询损失,确定对比损失。
[0183]
可选地,所述第一训练模块203,还用于针对该第一样本中每个搜索结果,确定该搜索结果对应的结果文本,并根据所述结果文本,生成该搜索结果对应的各困难样本,将各困难样本分别输入所述结果塔,确定各困难样本对应的第三特征,针对该第一样本的每个第一特征,确定该第一特征分别与该第一样本的各第三特征间的特征距离,作为各第五距离,根据该第一样本对应的所述第一距离、各第二距离以及各第五距离,确定该第一样本对应的结果损失,其中,所述第五距离与所述结果损失负相关。
[0184]
可选地,所述第一训练模块203,还用于确定该第一样本的查询文本中主体所属的类型,作为所述查询文本的类型针对该第一样本中每个搜索结果,确定该搜索结果的结果文本,并确定所述结果文本包含的该第一样本中查询文本的相关文本,确定与该第一样本的查询文本属于同一类型的各其他查询文本,针对每个其他查询文本,将所述相关文本替换为该其他查询文本,得到替换文本,将各替换文本作为该搜索结果对应的各困难样本。
[0185]
可选地,所述第一训练模块203,还用于确定该第一样本的查询文本中主体所属的类型,作为所述查询文本的类型,并确定与该第一样本中的查询文本属于同一类型的各其他查询文本,针对该第一样本中每个搜索结果,确定该搜索结果的结果文本,并将所述结果文本分别替换为各其他查询文本,得到各代替文本,将各代替文本作为该搜索结果对应的各困难样本。
[0186]
可选地,所述第二训练模块204,还用于针对每个查询文本,将该查询文本与该查询文本对应的每个搜索结果的结果文本分别组合,得到该查询文本对应的各第二样本,针对每个第二样本,将人工确定的该第二样本中查询文本与搜索结果的结果文本间的相关度,作为该第二样本的标注,将该第二样本输入预训练后的所述相关度模型,得到该第二样本中查询文本与结果文本分别对应的特征,以及该第二样本中查询文本与结果文本间的相关度,根据预训练后的所述相关度模型输出的各第二样本的相关度与对应的标注的差异,以及各第二样本对应的各特征,确定混合损失,并以所述混合损失最小为目标,继续训练所述相关度模型。
[0187]
可选地,所述第二训练模块204,还用于针对每个第二样本,确定预训练后的所述相关度模型输出的该第二样本对应的相关度与该第二样本的标注间的差异,根据各第二样本对应的差异,确定第三损失,根据各第二样本对应的各特征,确定各第二样本内查询文本与结果文本间的特征距离以及各第二样本间查询文本与结果文本间的特征距离,以根据确定出的各特征距离,确定第四损失,根据所述第三损失以及所述第四损失,确定混合损失。
[0188]
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的模型训练方法。
[0189]
本说明书还提供了图5所示的电子设备的结构示意图。如图5示,在硬件层面,该电子设备包括处理器、内部总线、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上
述图1提供的模型训练方法。
[0190]
需要说明的是,本说明书中所有获取信号、信息或数据的动作都是在遵照所在地国家相应的数据保护法规政策的前提下,并获得由相应装置所有者给予授权的情况下进行的。
[0191]
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
[0192]
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(programmable logic device,pld)(例如现场可编程门阵列(field programmable gate array,fpga))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片pld上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(hardware description language,hdl),而hdl也并非仅有一种,而是有许多种,如abel(advanced boolean expression language)、ahdl(altera hardware description language)、confluence、cupl(cornell university programming language)、hdcal、jhdl(java hardware description language)、lava、lola、myhdl、palasm、rhdl(ruby hardware description language)等,目前最普遍使用的是vhdl(very-high-speed integrated circuit hardware description language)与verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
[0193]
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(application specific integrated circuit,asic)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:arc 625d、atmel at91sam、microchip pic18f26k20以及silicone labs c8051f320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
[0194]
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可
以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
[0195]
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
[0196]
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0197]
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0198]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0199]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0200]
在一个典型的配置中,计算设备包括一个或多个处理器(cpu)、输入/输出接口、网络接口和内存。
[0201]
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram)。内存是计算机可读介质的示例。
[0202]
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
[0203]
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包
括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
[0204]
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0205]
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
[0206]
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
[0207]
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1