语义约束机器翻译方法、装置、电子设备及存储介质

文档序号:33712208发布日期:2023-04-01 00:22阅读:40来源:国知局
语义约束机器翻译方法、装置、电子设备及存储介质

1.本发明涉及自然语言处理技术领域,尤其涉及一种语义约束机器翻译方法、装置、电子设备及存储介质。


背景技术:

2.机器翻译模型是自然语言处理中的常见应用模型,其功能是将输入的源端语句翻译为用户需求的目标端语句,因此机器翻译模型可适用于多个领域,比如生物医药领域,但是在应用于生物医药领域、低资源翻译场合及交互式翻译场合时,用户通常需要机器翻译模型能够确保术语翻译的精准性和专业性,由此语义约束机器方法应运而生。
3.相关技术中,语义约束机器翻译方法是向机器翻译模型中输入源端语言语句和目标端语言语句中必须出现的约束词,以此实现对机器翻译输出的语义约束,从而得到机器梵音模型输出的翻译结果。
4.然而,由于现有语义约束机器翻译方法在机器翻译过程中仅重点考虑如何在机器翻译过程中插入约束词,并不能保障对于翻译结果的语义约束,从而导致语义约束机器翻译的机器翻译模型性能不高,机器翻译模型的整体翻译质量也不高。


技术实现要素:

5.本发明提供一种语义约束机器翻译方法、装置、电子设备及存储介质,用以解决现有语义约束机器翻译方法在机器翻译过程中仅重点考虑如何在机器翻译过程中插入约束词所导致的语义约束机器翻译的机器翻译模型性能和机器翻译模型的整体翻译质量均不高的缺陷,实现大幅提高机器翻译模型性能和机器翻译模型的整体翻译质量的目的。
6.本发明提供一种语义约束机器翻译方法,包括:
7.获取源端语言篇章文本在目标端语言中的目标约束词序列;
8.将所述源端语言篇章文本和所述目标约束词序列输入至预设机器翻译模型中进行翻译,输出所述源端语言篇章文本的机器翻译结果;
9.其中,所述预设机器翻译模型包括对所述源端语言篇章文本和所述目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和所述上下文-约束词解码的结果确定所述机器翻译结果。
10.根据本发明提供的一种语义约束机器翻译方法,所述获取源端语言篇章文本在目标端语言中的目标约束词序列,包括:
11.获取源端语言篇章文本在目标端语言中的不重叠的词组,每个所述词组包括至少一个词;
12.确定每个所述词组分别为一组约束词;
13.当存在至少两组约束词时,使用预设连接符,将所述至少两组约束词依次连接,获取源端语言篇章文本在目标端语言中的目标约束词序列。
14.根据本发明提供的一种语义约束机器翻译方法,所述方法还包括:
15.若未获取到源端语言篇章文本在目标端语言中的词组时,则确定所述目标约束词序列为所述预设连接符。
16.根据本发明提供的一种语义约束机器翻译方法,所述对所述源端语言篇章文本和所述目标约束词序列对应的目标词向量矩阵进行多层编解码,包括:
17.对所述源端语言篇章文本进行多层编码,获取顶层编码器输出的编码结果向量;
18.基于所述编码结果向量和所述目标约束词序列对应的目标词向量矩阵进行多层解码。
19.根据本发明提供的一种语义约束机器翻译方法,所述上下文-约束词解码的结果的确定过程,包括:
20.将顶层解码器在第t步输出的第一状态向量确定为第一查询向量,将所述目标约束词序列对应的目标词向量矩阵确定为第一键向量和第一值向量;
21.基于所述第一查询向量、所述第一键向量和所述第一值向量进行注意力计算,确定第一注意力计算结果向量;
22.确定所述目标词向量矩阵为第二查询向量,将所述顶层解码器在第1~t步输出的各个状态向量确定为第二键向量和第二值向量;
23.基于所述第二查询向量、所述第二键向量和所述第二值向量进行注意力计算,确定第二注意力计算结果向量;
24.基于所述第一注意力计算结果向量和所述第二注意力计算结果向量,确定所述上下文-约束词解码的结果;
25.其中,t为正整数且t的不同取值对应所述源端语言篇章文本的机器翻译结果中的不同词。
26.根据本发明提供的一种语义约束机器翻译方法,所述基于顶层解码器输出的结果和所述上下文-约束词解码的结果确定所述机器翻译结果,包括:
27.基于顶层解码器输出的结果和所述上下文-约束词解码的结果,确定第t步预测的目标端语言库中每个词的预测概率;
28.确定所述预测概率中的最大预测概率,并将所述最大预测概率对应的词,确定为所述机器翻译结果中的第t个词。
29.根据本发明提供的一种语义约束机器翻译方法,所述预设机器翻译模型的训练过程包括:
30.确定样本源端语言篇章文本集和样本目标端篇章文本集,所述样本源端语言篇章文本集中每个样本源端语言篇章文本对应样本约束词序列,每个所述样本源端语言篇章文本对应所述样本目标端篇章文本集中的一个样本目标端篇章文本;
31.使用所述样本源端语言篇章文本集、所述样本目标端篇章文本集和所述样本约束词序列,对含有多层编码器、多层解码器、词嵌入层、上下文-约束词交互解码器的初始机器翻译模型进行训练,确定训练停止时对应的预设机器翻译模型。
32.本发明还提供一种语义约束机器翻译装置,包括:
33.获取模块,用于获取源端语言篇章文本在目标端语言中的目标约束词序列;
34.翻译模块,用于将所述源端语言篇章文本和所述目标约束词序列输入至预设机器翻译模型中进行翻译,输出所述源端语言篇章文本的机器翻译结果;
35.其中,所述预设机器翻译模型包括对所述源端语言篇章文本和所述目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和所述上下文-约束词解码的结果确定所述机器翻译结果。
36.本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述语义约束机器翻译方法。
37.本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述语义约束机器翻译方法。
38.本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述语义约束机器翻译方法。
39.本发明提供的语义约束机器翻译方法、装置、电子设备及存储介质,其中语义约束机器翻译方法,首先获取源端语言篇章文本在目标端语言中的目标约束词序列,再进一步将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果;由于预设机器翻译模型具备编解码的功能和上下文-约束词解码的功能,因此能够通过充分利用约束词和上下文之间的语义信息的交互关系的方式,从而大幅提高了机器翻译模型性能和机器翻译模型的整体翻译质量。
附图说明
40.为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
41.图1是本发明提供的语义约束机器翻译方法的流程示意图;
42.图2是本发明提供的上下文-约束词解码器的结构示意图;
43.图3是本发明提供的初始机器翻译模型的总体结构示意图;
44.图4是本发明提供的语义约束机器翻译装置的结构示意图;
45.图5是本发明提供的电子设备的结构示意图。
具体实施方式
46.为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
47.机器翻译模型是自然语言处理中的常见应用模型,其功能是将输入的源端语句翻译为用户需求的目标端语句,比如目前常见的机器翻译模型如百度翻译、google翻译等,用户通常需要机器翻译模型能够保证源端语句中的术语能够准确翻译为所需词语,这对于当前的机器翻译模型仍具有较大挑战。并且,对于低资源翻译场合、交互式翻译场合等也存在类似问题。由此语义约束机器方法应运而生。
48.相关技术中,语义约束机器翻译方法是向机器翻译模型中输入源端语言语句和目
and classification are the basic problems of pattern recognition”。
58.本发明提供的语义约束机器翻译方法,首先获取源端语言篇章文本在目标端语言中的目标约束词序列,再进一步将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果;由于预设机器翻译模型具备编解码的功能和上下文-约束词解码的功能,因此能够通过充分利用约束词和上下文之间的语义信息的交互关系的方式,从而大幅提高了机器翻译模型性能和机器翻译模型的整体翻译质量。
59.可选的,步骤110的具体实现过程可以包括:
60.首先,获取源端语言篇章文本在目标端语言中的不重叠的词组,每个词组包括至少一个词;再进一步确定每个词组分别为一组约束词;然后,当存在至少两组约束词时,使用预设连接符,将至少两组约束词依次连接,获取源端语言篇章文本在目标端语言中的目标约束词序列。
61.具体的,终端设备获取源端语言篇章文本在目标端语言中的不重叠的词组,可以是预先设置源端语言篇章文本中b个不重叠的词组为约束词组,b可以小于等于3,约束词组的数量与不重叠的词组的数量相同且一一对应;并且每个约束词组可以均为源端语言篇章文本中的专业术语。比如,源端语言篇章文本“回归和分类是模式识别的基本问题”,可设置约束词组为“回归”和“模式识别”,此时,两个约束词组在目标端语言中的两个不重叠的词组为“regression”和“pattern recognition”。以此得到的每个不重叠的词组均为一组约束词,比如“regression”和“pattern recognition”为两组约束词;再进一步使用预设连接符依次连接两组约束词,即可得到源端语言篇章文本在目标端语言中的目标约束词序列。比如,当预设连接符为《sep》、且两组约束词为“regression”和“pattern recognition”时,目标约束词序列为regression《sep》pattern recognition《sep》。
62.本发明提供的语义约束机器翻译方法,终端设备通过先将源端语言篇章文本在目标端语言中的不重叠的词组确定为约束词组、再确定约束词组至少两组时使用预设连接符依次连接至少两组约束词的方式,获取源端语言篇章文本在目标端语言中的目标约束词序列,提高了获取目标约束词序列的方便快捷性和准确可靠性。
63.可选的,步骤120中获取源端语言篇章文本在目标端语言中的目标约束词序列的方法还可以包括:
64.若未获取到源端语言篇章文本在目标端语言中的词组时,则确定目标约束词序列为所述预设连接符。
65.具体的,终端设备未获取到源端语言篇章文本在目标端语言中的词组,可以认为源端语言篇章文本中不涉及专业术语等需要约束的情况,也即b的值为0,此时可以确定目标约束词序列为预设连接符。比如,源端语言篇章文本在目标端语言中的词组为0时,目标约束词序列可以为《sep》。
66.本发明提供的语义约束机器翻译方法,终端设备对于不需要约束词参与机器翻译的情况,通过设置目标约束词序列仅为预设连接符的方式,有效提高了机器翻译的灵活性和可靠性。
67.可选的,步骤120中预设机器翻译模型对源端语言篇章文本和目标约束词序列对应的目标词向量矩阵进行多层编解码,其实现过程可以包括:
68.首先,对源端语言篇章文本进行多层编码,获取顶层编码器输出的编码结果向量;再进一步基于编码结果向量和目标约束词序列对应的目标词向量矩阵进行多层解码。
69.具体的,在预设机器翻译模型包括多层编码器、多层解码器和词嵌入层的情况下,对源端语言篇章文本进行多层编码,可以是将源端语言篇章文本输入至底层编码器进行编码,并通过从底层编码器往顶层编码器的方式依次进行编码,直至获取顶层编码器输出的编码结果向量;并且,将目标约束词序列输入至词嵌入层进行向量转换,从而得到目标约束词序列对应的目标词向量矩阵。基于此,再将编码结果向量和目标词向量矩阵的拼接结果分别作为值向量和键向量分别参与每层解码器的解码操作中的交叉注意力计算部分,其解码过程也是从底层解码器往顶层解码器的方式依次解码,交叉注意力的计算过程可称为约束词相关交叉注意力(constraints-aware cross-attention,caca)。
70.本发明提供的语义约束机器翻译方法,终端设备通过预设机器翻译模型对源端语言篇章文本先进行多层编码、再结合顶层编码器输出的编码结果向量和目标约束词序列对应的目标词向量矩阵进行多层解码的方式,实现对源端语言篇章文本和目标词向量矩阵进行多层编解码的目的,以此为后续提高机器翻译模型性能和机器翻译模型的整体翻译质量提供可靠保障。
71.可选的,步骤120中预设机器翻译模型对源端语言篇章文本和目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码后,可以确定上下文-约束词解码的结果,其中上下文-约束词解码的结果的确定过程可以包括:
72.首先,将顶层解码器在第t步输出的第一状态向量确定为第一查询向量,将目标约束词序列对应的目标词向量矩阵确定为第一键向量和第一值向量;再基于第一查询向量、第一键向量和第一值向量进行注意力计算,确定第一注意力计算结果向量;进一步确定目标词向量矩阵为第二查询向量,将顶层解码器在第1~t步输出的各个状态向量确定为第二键向量和第二值向量;然后,基于第二查询向量、第二键向量和第二值向量进行注意力计算,确定第二注意力计算结果向量;最后,基于第一注意力计算结果向量和第二注意力计算结果向量,确定上下文-约束词解码的结果;其中,t为正整数且t的不同取值对应源端语言篇章文本的机器翻译结果中的不同词。
73.具体的,如图2所示,将顶层解码器在第t步输出的第一状态向量确定为第一查询向量,将目标约束词序列对应的目标词向量矩阵ec确定为第一键向量和第一值向量;再将第一查询向量、第一键向量和第一值向量输入至上下文-约束词解码器中进行注意力计算,也即以为第一查询向量q、以ec作为第一键向量k和第一值向量v进行约束词-上下文注意力计算,可以确定第一注意力计算结果向量可以确定第一注意力计算结果向量attn为注意力计算,目标词向量矩阵ec中的所有目标词向量均为查询向量。上下文-约束词解码器可以具体为上下文-约束词交互解码器。
74.此时,通过将顶层解码器在第1步~第t-1步输出的所有状态向量确定为再将和第t步输出的第一状态向量进行拼接的方式,可以确定顶层解码器在第1~t步输出的各个状态向量并将作为确定为第二键向量k’和第二值向量v’、将目
标词向量矩阵ec确定为第二查询向量q’进行上下文-约束词注意力计算,进一步将每个状态向量对应计算的结果向量相加,可以确定第二注意力计算结果向量sum为求和运算。
75.最后,通过将第一注意力计算结果向量和第二注意力计算结果向量先进行加权、后求和的方式,确定上下文-约束词解码的结果为约束词解码的结果为w为可学习的线性映射矩阵,sigmoid为激活函数。
76.本发明提供的语义约束机器翻译方法,终端设备先通过基于顶层解码器在第t步输出的第一状态向量和目标词向量矩阵进行注意力计算确定第一注意力计算结果向量、再通过顶层解码器在第1~t步输出的各个状态向量和目标词向量矩阵进行注意力计算确定第二注意力计算结果向量、后基于第一注意力计算结果向量和第二注意力计算结果向量确定上下文-约束词解码的结果,以此结合上下文和约束词之间语义信息的交互关系提高了翻译质量,同时也提高了语义约束效果。
77.可选的,步骤120中预设机器翻译模型基于顶层解码器输出的结果和上下文-约束词解码的结果确定机器翻译结果,其实现过程包括:
78.首先,基于顶层解码器输出的结果和上下文-约束词解码的结果,确定第t步预测的目标端语言库中每个词的预测概率;再进一步确定预测概率中的最大预测概率,并将最大预测概率对应的词,确定为机器翻译结果中的第t个词。
79.具体的,在顶层解码器输出的结果为上下文-约束词解码的结果为的情况下,通过先将进行相加、再将相加所得结果依次经由线性层和softmax层进行处理的方式,确定第t步预测的目标端语言库中每个词的预测概率,也即针对目标端语言库中所有词的预测概率分布,且所有个词的预测概率之和为1。此时,从第t步预测的目标端语言库中每个词的预测概率中选取最大预测概率,确定最大预测概率对应的词为机器翻译结果中的第t个词,且第t个词在第t-1个词之后。由于t的不同取值对应源端语言篇章文本的机器翻译结果中的不同词,因此,通过令t遍历1~p的方式,重复进行概率预测及确定机器翻译结果中的不同词的过程,p为机器翻译结果中词的总个数且的。直至得到预设机器翻译模型的机器翻译结果,机器翻译结果为第1个词、第2个词、
……
、第p个词的顺序排列结果。比如机器翻译结果为“regression and classification are the basic problems in the pattern recognition”。
80.本发明提供的语义约束机器翻译方法,终端设备先基于顶层解码器输出的结果和上下文-约束词解码的结果,确定第t步预测的目标端语言库中每个词的预测概率、再基于最大预测概率确定机器翻译结果中的第t个词。以此结合约束词生成的上下文确定约束词在机器翻译结果中嵌入位置的方式提高了机器翻译结果的准确性和可靠性,并且也能进一步提高语义约束的效果。
81.可选的,预设机器翻译模型的训练过程包括:
82.首先,确定样本源端语言篇章文本集和样本目标端篇章文本集,样本源端语言篇章文本集中每个样本源端语言篇章文本对应样本约束词序列,每个样本源端语言篇章文本
对应样本目标端篇章文本集中的一个样本目标端篇章文本;再进一步使用样本源端语言篇章文本集、样本目标端篇章文本集和样本约束词序列,对含有多层编码器、多层解码器、词嵌入层、上下文-约束词交互解码器的初始机器翻译模型进行训练,确定训练停止时对应的预设机器翻译模型。
83.具体的,参照图3所示的初始机器翻译模型的总体结构示意图,词嵌入层包括两个且分别为源端词嵌入层和目标端词嵌入层;使用样本源端语言篇章文本集、样本目标端篇章文本集和样本约束词序列对初始机器翻译模型进行训练。针对每次训练,可将样本源端语言篇章文本x先输入至源端词嵌入层、再按照由底层至顶层的方式进行l层编解码后输入至caca中参与注意力计算;将与样本源端语言篇章文本x对应的样本目标端篇章文本y先输入至目标端词嵌入层、再按照由底层至顶层的方式进行l层编解码后输入至caca中参与注意力计算。同时也将样本源端语言篇章文本x对应样本约束词序列c1《sep》c2《sep》

cn通过目标端词嵌入层后确定的样本约束词序列输入至caca中参与注意力计算,c1、c2、

、cn为样本源端语言篇章文本x中的n组样本约束词;以此确定样本源端语言篇章文本x对应的样本目标端篇章文本y对应的上下文-约束词解码的结果,并据此确定样本源端语言篇章文本x经过训练后输出的机器翻译结果与样本目标端篇章文本y的匹配度,如果匹配度达到预设匹配度,则停止训练,并将训练停止时对应的机器翻译模型确定为预设机器翻译模型;反之,如果匹配度未达到预设匹配度,则获取参数调整后的机器翻译模型,并重新选取新的样本源端语言篇章文本、新的样本目标端篇章文本和新的样本约束词序列重新进行训练。直至确定训练停止时对应的预设机器翻译模型。
84.本发明提供的语义约束机器翻译方法,终端设备通过使用样本源端语言篇章文本集、样本目标端篇章文本集和样本约束词序列,对含有多层编码器、多层解码器、词嵌入层、上下文-约束词交互解码器的初始机器翻译模型进行训练的方式,确定预设机器翻译模型,以此确保模型训练精度,同时也提高了预设机器翻译模型的模型性能和翻译质量。
85.下面针对德译英以及汉译英两种翻译任务,分别使用本发明方法和传统语义约束翻译方法进行实验,并且记录不同翻译方法的翻译质量、约束效果和解码速度三方面的性能,翻译质量使用blue进行度量,约束效果使用约束词的复制成功率(copy success rate,csr)进行度量,解码速度使用单位句/秒(sents/sec)进行度量。通过对比本发明方法和传统语义约束翻译方法的翻译结果,可以确定不同方法的性能表如表1和表2所示,表1为针对译英翻译任务,不同语义约束机器翻译方法的翻译质量和语义约束效果对比;表2为针对德译英任务,不同语义约束机器翻译方法的翻译质量、语义约束效果和解码速度对比。
86.表1
[0087][0088]
表2
[0089]
bleucsrdecoding
·
speedtransformer28.1033.8476.52dba24.98100.003.74leca31.4367.5164.02leca+ptr31.4268.6363.01本发明方法31.5770.5860.50
[0090]
在表1和表2中,将传统的机器翻译方法transformer、传统的约束解码方法动态束分配(dynamic beam allocation,dba)方法、传统的约束训练约束词相关神经机器翻译(lexical-constraint-aware neurel machine translation,leca)方法和传统的指针网络+leca的方法进行性能比较后可以看出,本发明方法与其它现有传统方法相比,本发明方法取得了最好的翻译质量,说明利用上下文-约束词交互确实在提高翻译质量方面取得了较好的效果;此外,与dba方法相比,本发明方法虽然不能取得与其接近的约束效果,但dba方法严重拖慢解码速度,导致dba方法不能投入实际应用,而本发明方法则能够在保证较快解码速度的前提下,取得了较好的约束效果;并且,相比于leca方法和leca方法,本发明方法进一步提高了语义约束翻译的翻译质量以及约束效果,并且保证了约束速度基本不受影响。
[0091]
下面对本发明提供的语义约束机器翻译装置进行描述,下文描述的语义约束机器翻译装置与上文描述的语义约束机器翻译方法可相互对应参照。
[0092]
参照图4,为本发明提供的语义约束机器翻译装置的结构示意图,如图4所示,该语义约束机器翻译装置,包括:
[0093]
获取模块410,用于获取源端语言篇章文本在目标端语言中的目标约束词序列;
[0094]
翻译模块420,用于将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果;
[0095]
其中,预设机器翻译模型包括对源端语言篇章文本和目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和上下文-约束词解码的结果确定机器翻译结果。
[0096]
可选的,翻译模块420,具体可以用于获取源端语言篇章文本在目标端语言中的不重叠的词组,每个所述词组包括至少一个词;确定每个词组分别为一组约束词;当存在至少两组约束词时,使用预设连接符,将至少两组约束词依次连接,获取源端语言篇章文本在目标端语言中的目标约束词序列。
[0097]
可选的,翻译模块420,具体还可以用于若未获取到源端语言篇章文本在目标端语言中的词组时,则确定目标约束词序列为预设连接符。
[0098]
可选的,翻译模块420,具体还可以用于对源端语言篇章文本进行多层编码,获取顶层编码器输出的编码结果向量;基于编码结果向量和目标约束词序列对应的目标词向量矩阵进行多层解码。
[0099]
可选的,翻译模块420,具体还可以用于将顶层解码器在第t步输出的第一状态向量确定为第一查询向量,将目标约束词序列对应的目标词向量矩阵确定为第一键向量和第一值向量;基于第一查询向量、第一键向量和第一值向量进行注意力计算,确定第一注意力计算结果向量;确定目标词向量矩阵为第二查询向量,将顶层解码器在第1~t步输出的各
个状态向量确定为第二键向量和第二值向量;基于第二查询向量、第二键向量和第二值向量进行注意力计算,确定第二注意力计算结果向量;基于第一注意力计算结果向量和第二注意力计算结果向量,确定上下文-约束词解码的结果;其中,t为正整数且t的不同取值对应源端语言篇章文本的机器翻译结果中的不同词。
[0100]
可选的,翻译模块420,具体还可以用于基于顶层解码器输出的结果和上下文-约束词解码的结果,确定第t步预测的目标端语言库中每个词的预测概率;确定预测概率中的最大预测概率,并将最大预测概率对应的词,确定为机器翻译结果中的第t个词。
[0101]
可选的,语义约束机器翻译装置还可以包括训练模块,用于确定样本源端语言篇章文本集和样本目标端篇章文本集,样本源端语言篇章文本集中每个样本源端语言篇章文本对应样本约束词序列,每个样本源端语言篇章文本对应样本目标端篇章文本集中的一个样本目标端篇章文本;使用样本源端语言篇章文本集、样本目标端篇章文本集和样本约束词序列,对含有多层编码器、多层解码器、词嵌入层、上下文-约束词交互解码器的初始机器翻译模型进行训练,确定训练停止时对应的预设机器翻译模型。
[0102]
图5示例了一种电子设备的实体结构示意图,如图5所示,该电子设备500可以包括:处理器(processor)510、通信接口(communicationsinterface)520、存储器(memory)530和通信总线540,其中,处理器510,通信接口520,存储器530通过通信总线540完成相互间的通信。处理器510可以调用存储器530中的逻辑指令,以执行语义约束机器翻译方法,该方法包括:
[0103]
获取源端语言篇章文本在目标端语言中的目标约束词序列;
[0104]
将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果;
[0105]
其中,预设机器翻译模型包括对源端语言篇章文本和目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和上下文-约束词解码的结果确定机器翻译结果。
[0106]
此外,上述的存储器530中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0107]
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的语义约束机器翻译方法,该方法包括:
[0108]
获取源端语言篇章文本在目标端语言中的目标约束词序列;
[0109]
将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果;
[0110]
其中,预设机器翻译模型包括对源端语言篇章文本和目标约束词序列对应的目标
词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和上下文-约束词解码的结果确定机器翻译结果。
[0111]
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的语义约束机器翻译方法,该方法包括:
[0112]
获取源端语言篇章文本在目标端语言中的目标约束词序列;
[0113]
将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果;
[0114]
其中,预设机器翻译模型包括对源端语言篇章文本和目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和上下文-约束词解码的结果确定机器翻译结果。
[0115]
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
[0116]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
[0117]
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1