文本相似度的计算方法、装置、电子设备及存储介质与流程

文档序号:31873735发布日期:2022-10-21 20:32阅读:55来源:国知局
文本相似度的计算方法、装置、电子设备及存储介质与流程

1.本技术涉及人工智能技术领域,特别涉及一种文本相似度的计算方法、装置、电子设备及存储介质。


背景技术:

2.随着智能客服、对话机器人等人工智能技术的飞速发展,且智能问答为该人工智能技术的重要影响因素,因此如何提升智能问答识别的准确性尤为重要。其中,文本相似度识别是实现智能问答的关键之一,而用户输入信息表达多样,如部分词语省略、词语倒叙等,均会对文本相似度带来一定的难度。
3.相关技术中,通过人工构建特征的方式对比文本间的语义相似度,在提取出这些人造特征后使用传统的机器学习模型计算文本相似度。然而,相关技术中对于文本间的交互操作模糊,无法明确文本之间的相互影响的信息,容易丢失语义焦点,大大降低文本相似度识别的精度,用户体验不佳。


技术实现要素:

4.本技术提供一种文本相似度的计算方法、装置、电子设备及存储介质,以解决相关技术中对于文本间的交互操作模糊,导致语义焦点丢失,降低文本相似度识别的准确性,用户体验较差等问题。
5.本技术第一方面实施例提供一种文本相似度的计算方法,包括以下步骤:获取用户输入的第一文本和第二文本;将所述第一文本和所述第二文本输入训练完成的词性分析模型中,输出所述第一文本的第一词性信息和所述第二文本的第二词性信息,其中,所述词性分析模型基于携带有词性标签的第一训练样本训练得到;将所述第一词性信息和所述第二词性信息输入训练完成的相似度预测模型中,输出所述第一文本和所述第二文本之间的文本相似度结果,其中,所述相似度预测模型基于携带文本相似度标签的第二训练样本训练得到。
6.根据上述技术手段,本技术实施例可以基于词性信息帮助模型确定语义焦点,实现文本相似度快速准确的识别,从而可以明确对于文本间的交互操作,避免文本语义焦点丢失的情况,有效提升文本相似度识别的精度,并且可以基于模型识别词性和相似度,提升识别的速度,提高用户的使用体验。
7.可选地,在本技术的一个实施例中,所述将所述第一文本和所述第二文本输入训练完成的词性分析模型中,输出所述第一文本的第一词性信息和所述第二文本的第二词性信息,包括:从垂直域中提取所述第一文本和所述第二文本的至少一个目标关键词;识别每个目标关键词的实际词性,并对所述每个目标关键词进行词性标注,得到所述第一词性信息和所述第二词性信息。
8.根据上述技术手段,本技术实施例可以从垂直域中提取文本信息的目标关键词并识别实际词性,通过对关键词进行标注得到文本的词性信息,可靠性和准确性更高。
9.可选地,在本技术的一个实施例中,所述词性分析模型基于携带有词性标签的第一训练样本训练得到,包括:获取携带有词性标签的第一训练样本;从垂直域中提取所述第一训练样本的至少一个目标关键词;识别每个目标关键词的实际词性,并对所述每个目标关键词进行词性标注,直到标注的关键词数量满足预设数量时,得到所述词性分析模型。
10.根据上述技术手段,本技术实施例可以从垂直区域提取到携带有词性标签的训练样本的目标关键词,通过识别每个目标关键词的实际词性并进行标注满足预设数量时,得到词性分析模型,计算量小,准确率高。
11.可选地,在本技术的一个实施例中,所述将所述第一词性信息和所述第二词性信息输入训练完成的相似度预测模型中,输出所述第一文本和所述第二文本之间的文本相似度结果,包括:将所述第一词性信息和所述第二词性信息输入句子编码网络,输出所述第一词性信息的第一句子编码结果和所述第二词性信息的第二句子编码结果;将所述第一句子编码结果和所述第二句子编码结果输入词性注意力网络,输出所述第一句子编码结果的第一特征向量和所述第二句子编码结果的第二特征向量;拼接所述第一特征向量和所述第二特征向量,得到拼接结果,并将所述拼接结果输入全连接层进行分类,并根据分类结果匹配得到所述文本相似度结果。
12.根据上述技术手段,本技术实施例可以利用词性信息对句子进行编码,使得模型能够更好的把握语义焦点,提升模型效果的同时却不增加太多模型推理时间,且具备落地能力,从而无需使用大型的预训练模型,即可在兼顾推理速度的同时获得良好的相似度计算效果。
13.可选地,在本技术的一个实施例中,所述相似度预测模型基于携带文本相似度标签的第二训练样本训练得到,包括:获取携带文本相似度标签的第二训练样本,其中,所述第二训练样本包括第一训练文本的词性信息和第二训练文本的词性信息;将所述第一训练文本的词性信息和所述第二训练文本的词性信息输入句子编码网络,输出所述第一训练文本的词性信息的第一句子编码结果和所述第二训练文本的词性信息的第二句子编码结果;将所述第一句子编码结果和所述第二句子编码结果输入词性注意力网络,输出所述第一句子编码结果的第一特征向量和所述第二句子编码结果的第二特征向量;拼接所述第一特征向量和所述第二特征向量,得到拼接结果,并将所述拼接结果输入全连接层进行分类,并根据分类结果匹配得到所述文本相似度结果,直到满足训练迭代终止条件,得到所述相似度预测模型。
14.根据上述技术手段,本技术实施例可以将携带文本相似度标签的训练样本增加词性注意力网络,使得网络可以利用传入的词性先验知识基于词性进行句子编码,得到拼接结果并输入全连接层进行分类,匹配得到文本相似度结果,进行多训练,得到相似度预测模型,准确性高,使得模型能够更好的把握语义焦点,提高了文本相似度计算的效率。
15.本技术第二方面实施例提供一种文本相似度的计算装置,包括:获取模块,用于获取用户输入的第一文本和第二文本;分析模块,用于将所述第一文本和所述第二文本输入训练完成的词性分析模型中,输出所述第一文本的第一词性信息和所述第二文本的第二词性信息,其中,所述词性分析模型基于携带有词性标签的第一训练样本训练得到;计算模块,用于将所述第一词性信息和所述第二词性信息输入训练完成的相似度预测模型中,输出所述第一文本和所述第二文本之间的文本相似度结果,其中,所述相似度预测模型基于
携带文本相似度标签的第二训练样本训练得到。
16.可选地,在本技术的一个实施例中,所述分析模块包括:提取单元,用于从垂直域中提取所述第一文本和所述第二文本的至少一个目标关键词;识别单元,用于识别每个目标关键词的实际词性,并对所述每个目标关键词进行词性标注,得到所述第一词性信息和所述第二词性信息。
17.可选地,在本技术的一个实施例中,还包括:第一训练模块,用于获取携带有词性标签的第一训练样本,从垂直域中提取所述第一训练样本的至少一个目标关键词,识别每个目标关键词的实际词性,并对所述每个目标关键词进行词性标注,直到标注的关键词数量满足预设数量时,得到所述词性分析模型。
18.可选地,在本技术的一个实施例中,所述计算模块包括:第一生成单元,用于将所述第一词性信息和所述第二词性信息输入句子编码网络,输出所述第一词性信息的第一句子编码结果和所述第二词性信息的第二句子编码结果;第二生成单元,用于将所述第一句子编码结果和所述第二句子编码结果输入词性注意力网络,输出所述第一句子编码结果的第一特征向量和所述第二句子编码结果的第二特征向量;拼接单元,用于拼接所述第一特征向量和所述第二特征向量,得到拼接结果,并将所述拼接结果输入全连接层进行分类,并根据分类结果匹配得到所述文本相似度结果。
19.可选地,在本技术的一个实施例中,还包括:第二训练模块,用于获取携带文本相似度标签的第二训练样本,其中,所述第二训练样本包括第一训练文本的词性信息和第二训练文本的词性信息;将所述第一训练文本的词性信息和所述第二训练文本的词性信息输入句子编码网络,输出所述第一训练文本的词性信息的第一句子编码结果和所述第二训练文本的词性信息的第二句子编码结果;将所述第一句子编码结果和所述第二句子编码结果输入词性注意力网络,输出所述第一句子编码结果的第一特征向量和所述第二句子编码结果的第二特征向量;拼接所述第一特征向量和所述第二特征向量,得到拼接结果,并将所述拼接结果输入全连接层进行分类,并根据分类结果匹配得到所述文本相似度结果,直到满足训练迭代终止条件,得到所述相似度预测模型。
20.本技术第三方面实施例提供一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如上述实施例所述的文本相似度的计算方法。
21.本技术第四方面实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行,以用于实现如上述实施例所述的文本相似度的计算方法。
22.由此,本技术至少具有如下有益效果:
23.1、本技术实施例可以基于词性信息帮助模型确定语义焦点,实现文本相似度快速准确的识别,从而可以明确对于文本间的交互操作,避免文本语义焦点丢失的情况,有效提升文本相似度识别的精度,并且可以基于模型识别词性和相似度,提升识别的速度,提高用户的使用体验。
24.2、本技术实施例可以从垂直域中提取文本信息的目标关键词并识别实际词性,通过对关键词进行标注得到文本的词性信息,可靠性和准确性更高。
25.3、本技术实施例可以从垂直区域提取到携带有词性标签的训练样本的目标关键词,通过识别每个目标关键词的实际词性并进行标注满足预设数量时,得到词性分析模型,
计算量小,准确率高。
26.4、本技术实施例可以利用词性信息对句子进行编码,使得模型能够更好的把握语义焦点,提升模型效果的同时却不增加太多模型推理时间,且具备落地能力,从而无需使用大型的预训练模型,即可在兼顾推理速度的同时获得良好的相似度计算效果。
27.5、本技术实施例可以将携带文本相似度标签的训练样本增加词性注意力网络,使得网络可以利用传入的词性先验知识基于词性进行句子编码,得到拼接结果并输入全连接层进行分类,匹配得到文本相似度结果,进行多训练,得到相似度预测模型,准确性高,使得模型能够更好的把握语义焦点,提高了文本相似度计算的效率。
28.本技术附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本技术的实践了解到。
附图说明
29.本技术上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
30.图1为根据本技术实施例提供的一种文本相似度的计算方法的流程图;
31.图2为根据本技术实施例提供的文本相似度的计算方法的组成示意图;
32.图3为根据本技术实施例提供的改进后的esim模型具体网络结构图;
33.图4为根据本技术实施例提供的一种文本相似度的计算装置的方框示意图;
34.图5为根据本技术实施例提供的电子设备的结构示意图。
35.附图标记说明:获取模块-100、分析模块-200、计算模块-300、存储器-501、处理器-502、通信接口-503。
具体实施方式
36.下面详细描述本技术的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本技术,而不能理解为对本技术的限制。
37.下面参考附图描述本技术实施例的一种文本相似度的计算方法、装置、电子设备及存储介质。针对上述背景技术中提到的文本间的交互操作模糊,无法明确文本之间的相互影响的信息,容易丢失语义焦点,大大降低文本相似度识别的精度,用户体验不佳的问题,本技术提供了一种文本相似度的计算方法,在该方法中,通过获取用户输入的第一文本和第二文本,将用户输入的文本信息输入训练完成的词性分析模型,得到第一文本的第一词性信息和所述第二文本的第二词性信息,并将词性信息输入训练完成的相似度预测模型,从而得到第一文本和第二文本之间的相似度结果。通过使用词性分析模型和相似度预测模型,能够更好的把握语义焦点,提升模型效果的同时却不增加太多模型推理时间。由此,解决了相关技术中对于文本间的交互操作模糊,导致语义焦点丢失,降低文本相似度识别的准确性,用户体验较差等问题。
38.具体而言,图1为本技术实施例所提供的一种文本相似度的计算方法的流程示意图。
39.如图1所示,该文本相似度的计算方法包括以下步骤:
40.在步骤s101中,获取用户输入的第一文本和第二文本。
41.其中,文本可以是由字符有顺序组成的串,字符包括字母、汉字、数字、运算符号、标点符号和其他符号,以及一些功能性符号。第一文本和第二文本可以是用户输入的问题,例如,第一文本可以为“睡前喝牛奶能改善睡眠吗?”,第二文本可以为“睡前喝牛奶有利于入睡吗?”。
42.可以理解的是,为了能够准确计算得到文本间的相似度,本技术实施例可以首先获取用户输入的第一文本和第二文本。
43.在实际执行过程中,本技术实施例可以通过多种方式获取第一文本和第二文本,例如语音、手动输入、客户端推送、服务器传输、数据库信息导入、计算机自动获取等,对此不作具体限定。
44.在步骤s102中,将第一文本和第二文本输入训练完成的词性分析模型中,输出第一文本的第一词性信息和第二文本的第二词性信息,其中,词性分析模型基于携带有词性标签的第一训练样本训练得到。
45.其中,词性是指以词的特点作为划分词类的根据。词性可以包括动词、名称、代词、形容词、数词、量词等词性。两个文本中对应词的词性一定程度上反应了两个文本的相似性,不同词性的词语在计算过程中起到的作用程度不同,对语义也有很大的影响。
46.因此,为了能够更加准确的获取输入文本的词性信息,本技术的实施例可以通过将第一文本和第二文本输入到基于携带有词性标签的第一训练样本训练得到词性分析模型中,从而更加准确得到第一文本的第一词性信息和第二文本的第二词性信息。
47.在本技术的一个实施例中,将第一文本和第二文本输入训练完成的词性分析模型中,输出第一文本的第一词性信息和第二文本的第二词性信息,包括:从垂直域中提取第一文本和第二文本的至少一个目标关键词;识别每个目标关键词的实际词性,并对每个目标关键词进行词性标注,得到第一词性信息和第二词性信息。
48.其中,由于垂直域一些特有的实体无法准确的识别其词性,因此本技术实施例需要提取垂直域中的实体,可以通过主题模型、左右熵或textrank等方法从垂直域中提取第一文本和第二文本的目标关键词,通过对目标关键词标注其词性,从而得到第一词性信息和第二词性信息。
49.在本技术的一个实施例中,词性分析模型基于携带有词性标签的第一训练样本训练得到,包括:获取携带有词性标签的第一训练样本;从垂直域中提取第一训练样本的至少一个目标关键词;识别每个目标关键词的实际词性,并对每个目标关键词进行词性标注,直到标注的关键词数量满足预设数量时,得到词性分析模型。
50.其中,第一训练样本可以是带有词性标签的文本。目标关键词可以是关键名词关键词或动词关键词等。预设数量可以根据实际情况而定,不作具体限定。
51.可以理解的是,本技术实施例可以获取一定数量的第一训练文本,并从垂直域中提取第一训练样本的目标关键词,通过对目标关键词标注其词性,使得关键词的数量达到预设值,可以训练得到词性分析模型。由此,本技术实施例可以基于预先训练的词性分析模型,快速、准确地确定待分析文本中的词性信息。
52.在步骤s103中,将第一词性信息和第二词性信息输入训练完成的相似度预测模型中,输出第一文本和第二文本之间的文本相似度结果,其中,相似度预测模型基于携带文本
相似度标签的第二训练样本训练得到。
53.可以理解的是,本技术实施例可以利用词性信息对句子进行编码,使得模型能够更好的把握语义焦点,提升模型效果的同时却不增加太多模型推理时间,更加准确快速得到文本间的相似度结果。
54.在本技术的一个实施例中,将第一词性信息和第二词性信息输入训练完成的相似度预测模型中,输出第一文本和第二文本之间的文本相似度结果,包括:将第一词性信息和第二词性信息输入句子编码网络,输出第一词性信息的第一句子编码结果和第二词性信息的第二句子编码结果;将第一句子编码结果和第二句子编码结果输入词性注意力网络,输出第一句子编码结果的第一特征向量和第二句子编码结果的第二特征向量;拼接第一特征向量和第二特征向量,得到拼接结果,并将拼接结果输入全连接层进行分类,并根据分类结果匹配得到文本相似度结果。
55.本技术实施例可以通过增加词性注意力网络,使得网络可以利用传入的词性先验知识基于词性进行句子编码,辅助网络更好的捕捉语义焦点,从而提升模型效果。增加的注意词性注意力网络在对句子编码后得到特征向量,比如,获得的文本第一特征向量可以为128维向量,获得的文本第二特征向量也可以为128维向量,将第一文本特征向量和文本第二文本特征向量分别使用求平均和最大值操作后,将这些向量拼接在一起,然后输入全连接层进行分类,输出文本相似度结果。
56.在本技术的一个实施例中,相似度预测模型基于携带文本相似度标签的第二训练样本训练得到,包括:获取携带文本相似度标签的第二训练样本,其中,第二训练样本包括第一训练文本的词性信息和第二训练文本的词性信息;将第一训练文本的词性信息和第二训练文本的词性信息输入句子编码网络,输出第一训练文本的词性信息的第一句子编码结果和第二训练文本的词性信息的第二句子编码结果;将第一句子编码结果和第二句子编码结果输入词性注意力网络,输出第一句子编码结果的第一特征向量和第二句子编码结果的第二特征向量;拼接第一特征向量和第二特征向量,得到拼接结果,并将拼接结果输入全连接层进行分类,并根据分类结果匹配得到文本相似度结果,直到满足训练迭代终止条件,得到相似度预测模型。
57.通过上述实施例对文本信息的目标关键词进行词性标注,当标注的关键词达到预设数量值时,可以判定文本的相似度高,在本技术实施例中,第二训练样本可以为带有相似度标签的相似度高的文本。
58.具体而言,本技术实施例可以将携带文本相似度标签的将第一训练文本的词性信息和第二训练文本的词性信息输入句子编码网络,将编码结果输入到注意力网络中,使得网络可以利用传入的词性先验知识基于词性进行句子编码,辅助网络更好的捕捉语义焦点,在对句子编码后得到向量表示全部直接拼接到对应网络阶段生成的特征表示后,输入到下一网络阶段继续进行计算。通过使用增加词性标注的数据集训练相似度预测模型模型,并保存最优的模型结果,使得模型能够更好的把握语义焦点,提高了文本相似度计算的效率,同时能够应用到实际的工程项目中。
59.在实际执行过程中,相似度预测模型模型的输出层与全连接层连接用于获得拼接结果向量,本技术实施例可以通过深度学习算法对全连接层进行分类训练,使得训练好的全连接层具有对获取文本的文本分类能力。
60.下面结合附图和具体实施例对本技术实施例的文本相似度的计算方法进行详细说明。如图2所示,本技术的实施例的文本相似度的计算方法分为数据标注、模型训练以及模型预测三个部分,以下将对三部分做详细介绍。
61.1)数据标注
62.目前可以使用的词性标注工具,如百度的lac(lexical analysis of chinese)基本都是基于公开域的通用数据集训练而得,因此对于垂直域一些特有的实体无法准确的识别其词性,本技术的实施例需要提取垂直域中的实体,增加工具的字典,具体方法为:首先,通过主题模型、左右熵或textrank等方法从垂直域中提取关键词。其次在其中筛选、去除噪音关键词。最后对筛选好的关键词标注其词性形成词性字典并保存起来。获得词性字典后,将其导入词性标注工具,最后分析训练数据的词性并添加标注。
63.2)模型训练
64.经过分析文本对相似度计算过程发现,不同词性的词语在计算过程中起到的作用程度不同,同时考虑到现有的大型预训练模型效果庞大的参数量导致计算量也很大,推理时间过长,无法在工程项目中落地使用。因此本技术实施例可以在esim(enhanced sequential inference model)模型的基础上增加词性注意力网络,使得网络可以利用传入的词性先验知识基于词性进行句子编码,辅助网络更好的捕捉语义焦点,从而提升模型效果。改进后的esim模型具体网络结构如图3所示,在原有网络底层的localinferencemodeling阶段和inferencecomposition阶段,增加pos-basedencoding(基于词性的句子编码)网络来矫正语义焦点,其中,句子编码的计算过程如下所示:
[0065][0066]
其中,index_select函数表示从权重矩阵中根据词性标注的索引选取对应的权重;w
pos
表示词性权重矩阵;a
pos_index
表示句子a对应的词性索引数组;b
pos_index
表示句子b对应的词性索引数组;w
ab
表示句子a中每个字与句子b中每个字的词性权重;la表示句子a的长度;lb表示句子b的长度;为使用经由词性编码得到的句子a的向量表示;为在上一层网络计算中获得的句子b的向量表示。
[0067]
增加的两个词性注意力网络在对句子编码后得到向量表示皆直接拼接到对应网络阶段生成的特征表示后,然后输入到下一网络阶段继续进行计算。最后在对获取到特征向量分别使用求平均和最大值操作后,将这些向量拼接在一起,然后输入全连接层进行分类,输出最终结果。模型训练的目标函数是交叉熵,其计算公式如下:
[0068][0069]
其中,yi为标签值;y
′i为预测值,n为训练样本个数。
[0070]
使用增加词性标注的数据集训练改造后的esim模型,并保存最优的模型结果。
[0071]
3)模型预测
[0072]
在模型预测时,先加载保存好的最优模型,再对输入的句子使用词性分析工具(提前加载好词性字典)获得其词性信息,然后构建符合模型要求的输入,最后将其传入至模型中获得句子对的相似度结果。
[0073]
根据本技术实施例提出的文本相似度的计算方法,通过获取用户输入的第一文本和第二文本,将用户输入的文本信息输入训练完成的词性分析模型,得到第一文本的第一词性信息和所述第二文本的第二词性信息,并将词性信息输入训练完成的相似度预测模型,从而得到第一文本和第二文本之间的相似度结果。通过使用词性分析模型和相似度预测模型,能够更好的把握语义焦点,提升模型效果的同时却不增加太多模型推理时间。由此,解决了相关技术中对于文本间的交互操作模糊,导致语义焦点丢失,降低文本相似度识别的准确性,用户体验较差等问题
[0074]
其次参照附图描述根据本技术实施例提出的一种文本相似度的计算装置。
[0075]
图4是本技术实施例的一种文本相似度的计算装置的方框示意图。
[0076]
如图4所示,该文本相似度的计算装置10包括:获取模块100、分析模块200和计算模块300。
[0077]
其中,获取模块100,用于获取用户输入的第一文本和第二文本;分析模块200,用于将第一文本和第二文本输入训练完成的词性分析模型中,输出第一文本的第一词性信息和第二文本的第二词性信息,其中,词性分析模型基于携带有词性标签的第一训练样本训练得到;计算模块300,用于将第一词性信息和第二词性信息输入训练完成的相似度预测模型中,输出第一文本和第二文本之间的文本相似度结果,其中,相似度预测模型基于携带文本相似度标签的第二训练样本训练得到。
[0078]
可选地,在本技术的一个实施例中,分析模块200包括:提取单元和识别单元。
[0079]
其中,提取单元,用于从垂直域中提取第一文本和第二文本的至少一个目标关键词;识别单元,用于识别每个目标关键词的实际词性,并对每个目标关键词进行词性标注,得到第一词性信息和第二词性信息。
[0080]
可选地,在本技术的一个实施例中,文本相似度的计算装置10还包括:第一训练模块。其中,第一训练模块,用于获取携带有词性标签的第一训练样本,从垂直域中提取第一训练样本的至少一个目标关键词,识别每个目标关键词的实际词性,并对每个目标关键词进行词性标注,直到标注的关键词数量满足预设数量时,得到词性分析模型。
[0081]
可选地,在本技术的一个实施例中,计算模块300包括:第一生成单元、第二生成单元和拼接单元。
[0082]
其中,第一生成单元,用于将第一词性信息和第二词性信息输入句子编码网络,输出第一词性信息的第一句子编码结果和第二词性信息的第二句子编码结果;第二生成单元,用于将第一句子编码结果和第二句子编码结果输入词性注意力网络,输出第一句子编码结果的第一特征向量和第二句子编码结果的第二特征向量;拼接单元,用于拼接第一特征向量和第二特征向量,得到拼接结果,并将拼接结果输入全连接层进行分类,并根据分类结果匹配得到文本相似度结果。
[0083]
可选地,在本技术的一个实施例中,文本相似度的计算装置10还包括:第二训练模块。其中,第二训练模块,用于获取携带文本相似度标签的第二训练样本,其中,第二训练样本包括第一训练文本的词性信息和第二训练文本的词性信息;将第一训练文本的词性信息
和第二训练文本的词性信息输入句子编码网络,输出第一训练文本的词性信息的第一句子编码结果和第二训练文本的词性信息的第二句子编码结果;将第一句子编码结果和第二句子编码结果输入词性注意力网络,输出第一句子编码结果的第一特征向量和第二句子编码结果的第二特征向量;拼接第一特征向量和第二特征向量,得到拼接结果,并将拼接结果输入全连接层进行分类,并根据分类结果匹配得到文本相似度结果,直到满足训练迭代终止条件,得到相似度预测模型。
[0084]
需要说明的是,前述对文本相似度的计算方法实施例的解释说明也适用于该实施例的文本相似度的计算装置,此处不再赘述。
[0085]
根据本技术实施例提出的文本相似度的计算装置,通过获取用户输入的第一文本和第二文本,将用户输入的文本信息输入训练完成的词性分析模型,得到第一文本的第一词性信息和所述第二文本的第二词性信息,并将词性信息输入训练完成的相似度预测模型,从而得到第一文本和第二文本之间的相似度结果。通过使用词性分析模型和相似度预测模型,能够更好的把握语义焦点,提升模型效果的同时却不增加太多模型推理时间。由此,解决了相关技术中文本间的交互操作不够明确,会失去语义焦点,导致效果差,且使用大型预训练模型推理速度过慢等问题。
[0086]
图5为本技术实施例提供的电子设备的结构示意图。该电子设备可以包括:
[0087]
存储器501、处理器502及存储在存储器501上并可在处理器502上运行的计算机程序。
[0088]
处理器502执行程序时实现上述实施例中提供的文本相似度的计算方法。
[0089]
进一步地,电子设备还包括:
[0090]
通信接口503,用于存储器501和处理器502之间的通信。
[0091]
存储器501,用于存放可在处理器502上运行的计算机程序。
[0092]
存储器501可能包含高速ram(random access memory,随机存取存储器)存储器,也可能还包括非易失性存储器,例如至少一个磁盘存储器。
[0093]
如果存储器501、处理器502和通信接口503独立实现,则通信接口503、存储器501和处理器502可以通过总线相互连接并完成相互间的通信。总线可以是isa(industry standard architecture,工业标准体系结构)总线、pci(peripheral component,外部设备互连)总线或eisa(extended industry standard architecture,扩展工业标准体系结构)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图5中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
[0094]
可选的,在具体实现上,如果存储器501、处理器502及通信接口503,集成在一块芯片上实现,则存储器501、处理器502及通信接口503可以通过内部接口完成相互间的通信。
[0095]
处理器502可能是一个cpu(central processing unit,中央处理器),或者是asic(application specific integrated circuit,特定集成电路),或者是被配置成实施本技术实施例的一个或多个集成电路。
[0096]
本技术实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上的文本相似度的计算方法。
[0097]
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特
点包含于本技术的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不是必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或n个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
[0098]
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本技术的描述中,“n个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
[0099]
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更n个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本技术的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本技术的实施例所属技术领域的技术人员所理解。
[0100]
应当理解,本技术的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,n个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列,现场可编程门阵列等。
[0101]
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
[0102]
尽管上面已经示出和描述了本技术的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本技术的限制,本领域的普通技术人员在本技术的范围内可以对上述实施例进行变化、修改、替换和变型。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1