基于神经网络模型的翻译方法及装置的制造方法_2

文档序号:9349932阅读:来源:国知局
网络模型的翻译方法中OOV的预测处理示 例性示意图;
[0029] 图4是示出本发明实施例二的基于神经网络模型的翻译装置的逻辑框图。
【具体实施方式】
[0030] 本发明的基本构思是,提供一种结合传统的统计机器翻译方法和RNN翻译方法的 翻译方式:利用对数线性模型将神经网络翻译模型的翻译特征和统计机器翻译模型的翻译 特征相结合,计算从预设的翻译词表中预测出的多个初选词的得分(即翻译概率),从经排 序(得分从大到小顺序排列)的多个初选词中选取候选词。
[0031] 然后,根据经上述预测处理得到候选词,自动地生成长度适宜的目标语言语句,解 决了 RNN翻译方法中存在的词表受限、难以利用单语语料进行训练、无法丰富特征、倾向于 生成较短翻译结果的问题,显著提升翻译质量,且提高翻译结果的可读性及流利程度。
[0032] 下面结合附图详细描述本发明实施例的基于神经网络模型的翻译方法以及使用 所述方法的装置。
[0033] 实施例一
[0034] 图1是示出本发明实施例一的基于神经网络模型的翻译方法的流程图。可在实施 例二所述的装置上执行所述方法。
[0035] 参照图1,在步骤S110,获取源语言的语句。
[0036] 根据本发明的示例性实施例,步骤SllO包括以下处理之一:
[0037] 接收文本数据,并将所述文本数据作为所述源语言的语句。
[0038] 接收语音数据,对所述语音数据进行语音识别得到经语音识别的文本数据,并将 所述经语音识别的文本数据作为所述源语言的语句。
[0039] 接收图片数据,对所述图片数据进行光学字符识别OCR得到经OCR识别的文本数 据,并将所述经OCR识别的文本数据作为所述源语言的语句。
[0040] 在步骤S120,将所述源语言的语句进行编码,得到向量序列。
[0041] 具体地,可以对源语言的语句进行分词,将分得的多个分词分别转换成与每个所 述分词对应的词向量,由多个分词各自对应的词向量得到所述向量序列。
[0042] 图2是示出本发明实施例一的基于神经网络模型的翻译方法中神经网络翻译模 型的应用场景示例性示意图。参照图2,以获取到的源语言语句"北京的出租车司机很热情" 为例,对该语句进行分词处理得到六个分词,图2中每个方框内的字或词语代表一个分词, "0. 123, 0. 264*" 0. 465"是经编码处理后得到的向量序列。
[0043] 在步骤S130,基于所述向量序列逐词地预测目标语言中相应的候选词。其中,在任 一所述候选词的预测处理中,从预设的翻译词表中获取多个初选词,并且基于对数线性模 型计算每个所述初选词的翻译概率,以根据所述翻译概率从所述多个初选词选取所述候选 词,所述对数线性模型根据神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征 建立的。
[0044] 具体地,在本步骤中,所述从预设的翻译词表中获取多个初选词,并且基于对数线 性模型计算每个所述初选词的翻译概率,以根据所述翻译概率从所述多个初选词选取所述 候选词的处理可包括:从预设的翻译词表中获取M个词语作为初选词,M为正整数;根据所 述向量序列和在获取M个初选词之前预测出的候选词,计算每个所述初选词的神经网络翻 译模型的翻译特征;计算每个所述初选词的统计机器翻译模型的翻译特征;根据计算得到 的神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征,结合所述对数线性模型 计算每个所述初选词的翻译概率值。对计算得到的M个翻译概率值进行排序,并将与前N 位的翻译概率值相应的初选词选取为所述候选词,N为正整数,且N < M。
[0045] 在具体的实现方式中,仍以图2为例进行说明,首先从预设的翻译词表中获取多 个词语(the,beijing,taxi等)作为初选词,根据向量序列(0. 123,0. 264…0.465)计算 每个所述初选词的神经网络翻译模型的翻译特征。这里,由于是预测目标语句中位于第一 位的候选词,在此之前没有预测出的候选词,因此计算时无需考虑之前预测出的候选词。
[0046] 然而,在后续的候选词的预测处理中均需考虑之前预测出的候选词。也就是说,预 测出目标语言语句中位于第一位的候选词the,beijing与tax之后,将分别使用这三个候 选词预测后面的候选词taxi,driver与' s。在预测位于第二位的候选词时,"the taxi", "the driver"以及"beijing' s"三者得分最高,参与后续的预测处理过程,而位于第一位 的候选词"taxi"后续不会再被参考。
[0047] 优选地,可通过以下公式(1)执行所述根据所述向量序列和在获取M个初选词之 前预测出的候选词,计算每个所述初选词的神经网络翻译模型的翻译特征的处理:
[0049] 其中,hmn为神经网络翻译模型的翻译特征,e ,为目标语言的语句中第j个初选词, e, i,…,ei为获取初选词e ,之前预测出的前j_l个候选词,I为所述向量序列。
[0050] 如前所述,在RNN翻译方法中存在词表受限的问题。图3是示出本发明实施例一 的基于神经网络模型的翻译方法中OOV的预测处理示例性示意图。参照图3,单词"坑洞" 对于神经网络翻译模型来说是一个00V,无法得到准确的译文。
[0051] 在本实施例中,对于OOV用"UNK"标记,在后续的处理步骤中,使用预设的单词翻 译表对标记为"UNK"的单词进行预测候选词处理。具体地,为了生成OOV的准确翻译,首 先找到源语言语句中对应的词,图3中a 13= 0. 1表示"陷在"到"UNK"的单词对齐概率是 0. 1,a 23= 〇. 7表示"坑洞"到"UNK"的单词对齐概率是0. 7, a 33= 〇. 2表示"中"到"UNK" 的单词对齐概率是0.2, a23的值最大。由此可知,"UNK"对应源语言语句中的"坑洞"一词, 然后,"坑洞"相应的目标语言语句中的候选词可从大规模对齐双语语料库训练出来的单词 翻译表中获得,如图3所示的hole、pothole等。
[0052] 其次,计算每个所述初选词的统计机器翻译模型的翻译特征。为了优化单词互译 程度、提高翻译质量,优选地,所述统计机器翻译模型的翻译特征可包括双向单词翻译模型 特征。可通过以下公式(2)和公式(3)执行所述计算每个所述初选词的双向单词翻译模型 特征的处理:
[0055] 其中,htpl为源语言到目标语言的单词翻译模型特征,h tp2为目标语言到源语言 的单词翻译模型特征,P(Alf1)为源语言的单词A到目标语言的初选词e ,的翻译概率, P^le,)为目标语言的初选词4到源语言的单词的翻译概率,a M为源语言的单词。 到目标语言的初选词^的单词对齐概率,所述单词对齐概率是基于神经网络翻译模型生成 的。S (e],fj为目标语言的初选词士和源语言的单词f i之间的翻译参数,S (e U = 1 时,目标语言的初选词4和源语言的单词f ,之间互为翻译,S (e A) = 〇时,目标语言的 初选词e#P源语言的单词之间不互为翻译。S (f^ej为源语言的单词T1和目标语言的 初选词e,之间的翻译参数,S (f e]) = 1时,源语言的单词T1和目标语言的初选词e ^之 间互为翻译,S (Ga) =〇时,源语言的单词仁和目标语言的初选词e ,之间不互为翻译。
[0056] 进一步地,所述统计机器翻译模型的翻译特征还可以包括N元语言模型特征和/ 或词惩罚特征。由于在RNN翻译方法中通过求译文中每个单词的翻译概率的乘积来计算所 述单词的得分,而每个单词的翻译概率都是一个小于1的值,因此译文长度越长得分越低, 反之译文长度越短得分越高,这导致RNN翻译系统更倾向于生成短译文。因此,通过词惩罚 特征对过短的翻译结果进行惩罚,可以优化翻译结果的长度,生成长度适宜的译文。
[
当前第2页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1