基于热词编码的语音识别方法、装置和存储介质与流程

文档序号:33713767发布日期:2023-04-01 02:38阅读:75来源:国知局
基于热词编码的语音识别方法、装置和存储介质与流程

1.本技术涉及语音识别技术领域,更具体地涉及一种基于热词编码的语音识别方法、装置和存储介质。


背景技术:

2.在语音识别任务中,端到端建模方法具有声学和语言联合建模的优点,结合互联网时代累计的海量语音数据,在大数据的加持下,声学语言联合建模的端到端语音识别已经超越了声学和语言分开建模的传统语音识别,成为现阶段最优的语音识别系统。
3.编码器-解码器(encoder-decoder)语音识别模型在通用场景下的准确率已经达到可用水平,但在一些领域垂类上的识别效果依然存在较大差距。例如在翻译机、语音助手等涉及到海量热词识别的场景,这些热词一般是指命名实体类单词,包括人名、地名、机构名、音乐名等。由于热词本身具有稀疏性和个异性,在模型训练数据里面出现的样本数量要明显低于其他常见单词,因此识别模型对于热词的拟合能力不足,导致通用热词的识别效果比较差。
4.在自动语音识别技术(automatic speech recognition,简称为asr)中,一个用户说话的内容取决于他所处的上下文,通常这种上下文可以由一系列的单词所代表,一种主流的做法是将上下文信息建模到encoder-decoder模型里面,通过提供一系列上下文热词来提升识别效果,这种方案称为基于上下文的听、注意力、拼写(contextual listen,attend and spell,简称为clas)框架。
5.基于clas框架的热词识别算法主要存在以下问题:偏置解码器(bias encoder)是直接对热词的文字进行建模,与音频发音单元的建模颗粒度不一致,模型学习这种端到端映射关系非常困难,导致模型对于不同热词的区分性较差;clas模型训练时只包括正例热词(bias)和无热词(nobias)两种场景,没有考虑到实际应用场景中相似热词对当前热词的干扰,容易造成热词误触发问题;clas模型采用端到端训练方式,偏置解码器同样也只能使用等量的平行数据训练,当热词在训练语料里边比较稀疏的情况下,偏置解码器也不能得到充分的训练,泛化能力比较差,对于热词编码不够准确,对于比较稀疏的热词难以解码出来。


技术实现要素:

6.为了解决上述问题中的至少一个而提出的了本技术。根据本技术一方面,提供了一种基于热词编码的语音识别方法,所述方法包括:获取待识别语音和热词文本;针对所述待识别语音提取语音特征,并对所述语音特征进行编码,得到语音向量;针对所述热词文本提取文本特征,并对所述文本特征进行编码,得到热词文本向量;获取所述热词文本的发音音素,针对所述发音音素提取音素特征,并对所述音素特征进行编码,得到热词音素向量;计算所述语音向量的注意力权重,并基于所述语音向量的注意力权重计算语音上下文信息向量;将所述热词文本向量和所述热词音素向量进行融合,得到融合后的向量,计算所述融
合后的向量的注意力权重,并基于所述融合后的向量的注意力权重计算热词上下文信息向量;对所述语音上下文信息向量和所述热词上下文信息向量进行解码,得到所述待识别语音的语音识别结果。
7.在本技术的一个实施例中,所述对所述文本特征进行编码和对所述音素特征进行编码是由热词编码器实现的,所述热词编码器是基于额外的文本数据通过预训练而得到的。
8.在本技术的一个实施例中,所述热词编码器包括热词文本编码器和热词音素编码器,其中:所述热词文本编码器用于对所述文本特征进行编码,所述热词文本编码器的初始化参数是基于第一bert预训练模型得到的,所述第一bert预训练模型是基于单语文本数据训练得到的;所述热词音素编码器用于对所述音素特征进行编码,所述热词音素编码器是基于第二bert预训练模型得到的,所述第二bert预训练模型是基于所述单语文本数据对应的音素数据训练得到的。
9.在本技术的一个实施例中,所述热词音素编码器包括长短时记忆网络或者变换器网络。
10.在本技术的一个实施例中,所述热词音素编码器针对所述音素特征输出向量序列;当所述热词音素编码器包括长短时记忆网络时,所述热词音素向量为所述向量序列中的最后一个向量;当所述热词音素编码器包括变换器网络时,所述热词音素向量为所述向量序列中的第一个向量。
11.在本技术的一个实施例中,所述对所述文本特征进行编码和对所述音素特征进行编码是由热词编码器实现的,训练所述热词编码器的热词训练样本包括正例热词样本、反例热词样本和无热词样本。
12.在本技术的一个实施例中,所述反例热词样本包括与所述正例热词样本拼写相近的样本、发音相近的样本或者解码串扰的样本。
13.在本技术的一个实施例中,所述正例热词样本、所述反例热词样本和所述无热词样本各自的训练权重不同。
14.在本技术的一个实施例中,所述热词文本包括命名实体文本。
15.在本技术的一个实施例中,所述热词文本的发音音素是通过查询发音词典来获取的。
16.根据本技术另一方面,提供了一种基于热词编码的语音识别装置,所述装置包括:特征提取模块,用于获取待识别语音和热词文本,针对所述待识别语音提取语音特征,针对所述热词文本提取文本特征,获取所述热词文本的发音音素,针对所述发音音素提取音素特征;音频编码器,用于对所述语音特征进行编码,得到语音向量;热词编码器,用于对所述文本特征进行编码,得到热词文本向量,并所述音素特征进行编码,得到热词音素向量;第一注意力模块,用于计算所述语音向量的注意力权重,并基于所述语音向量的注意力权重计算语音上下文信息向量;融合模块,用于将所述热词文本向量和所述热词音素向量进行融合,得到融合后的向量;第二注意力模块,用于计算所述融合后的向量的注意力权重,并基于所述融合后的向量的注意力权重计算热词上下文信息向量;解码器,用于对所述语音上下文信息向量和所述热词上下文信息向量进行解码,得到所述待识别语音的语音识别结果。
17.在本技术的一个实施例中,所述热词编码器是基于额外的文本数据通过预训练而得到的。
18.在本技术的一个实施例中,所述热词编码器包括热词文本编码器和热词音素编码器,其中:所述热词文本编码器用于对所述文本特征进行编码,所述热词文本编码器的初始化参数是基于第一bert预训练模型得到的,所述第一bert预训练模型是基于单语文本数据训练得到的;所述热词音素编码器用于对所述音素特征进行编码,所述热词音素编码器是基于第二bert预训练模型得到的,所述第二bert预训练模型是基于所述单语文本数据对应的音素数据训练得到的。
19.在本技术的一个实施例中,所述热词音素编码器包括长短时记忆网络或者变换器网络。
20.在本技术的一个实施例中,所述热词音素编码器针对所述音素特征输出向量序列;当所述热词音素编码器包括长短时记忆网络时,所述热词音素向量为所述向量序列中的最后一个向量;当所述热词音素编码器包括变换器网络时,所述热词音素向量为所述向量序列中的第一个向量。
21.在本技术的一个实施例中,训练所述热词编码器的热词训练样本包括正例热词样本、反例热词样本和无热词样本。
22.在本技术的一个实施例中,所述反例热词样本包括与所述正例热词样本拼写相近的样本、发音相近的样本或者解码串扰的样本。
23.在本技术的一个实施例中,所述正例热词样本、所述反例热词样本和所述无热词样本各自的训练权重不同。
24.在本技术的一个实施例中,所述热词文本包括命名实体文本。
25.在本技术的一个实施例中,所述热词文本的发音音素是通过查询发音词典来获取的。
26.根据本技术再一方面,提供了一种基于热词编码的语音识别装置,所述装置包括存储器和处理器,所述存储器上存储有由所述处理器运行的计算机程序,所述计算机程序在被所述处理器运行时,使得所述处理器执行上述基于热词编码的语音识别方法。
27.根据本技术又一方面,提供了一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序在运行时,执行上述基于热词编码的语音识别方法。
28.根据本技术实施例的基于热词编码的语音识别方法和装置通过对热词及其发音信息进行联合编码,能够提高对稀疏实体的热词识别准确率。
附图说明
29.通过结合附图对本技术实施例进行更详细的描述,本技术的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本技术实施例的进一步理解,并且构成说明书的一部分,与本技术实施例一起用于解释本技术,并不构成对本技术的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
30.图1示出clas框架模型结构的示意图。
31.图2示出根据本技术实施例的基于热词编码的语音识别方法的示意性流程图。
32.图3示出根据本技术实施例的基于热词编码的语音识别方法所采用的框架模型结
构的示意图。
33.图4示出根据本技术一个实施例的基于热词编码的语音识别装置的示意性结构框图。
34.图5示出根据本技术另一个实施例的基于热词编码的语音识别装置的示意性结构框图。
具体实施方式
35.为了使得本技术的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本技术的示例实施例。显然,所描述的实施例仅仅是本技术的一部分实施例,而不是本技术的全部实施例,应理解,本技术不受这里描述的示例实施例的限制。基于本技术中描述的本技术实施例,本领域技术人员在没有付出创造性劳动的情况下所得到的所有其他实施例都应落入本技术的保护范围之内。
36.首先,参照图1描述clas框架模型结构的示意图。如图1所示,clas框架的模型结构100包括音频编码器110、偏置编码器120、注意力模块130、偏置注意力模块140、解码器150和分类网络160。clas框架的模型结构100是在标准的encoder-decoder模型上引入了偏置编码器120,对热词上下文信息进行编码,得到每个热词文本的向量表示,然后通过增加的偏置注意力模块140的计算来选择相关的热词进行解码,在解码器150输出预测的每一步去动态选择相关的热词上下文信息,并用来修改解码器150的目标单词输出分布和解码路径,从而让音频中相关热词解码出来,输出到识别结果里面,能够提高热词识别效果。
37.基于上述clas框架的热词识别算法主要存在以下问题:第一,偏置注意力模块是直接对热词的文字进行建模,与音频发音单元的建模颗粒度不一致,模型学习这种端到端映射关系非常困难,导致模型对于不同热词的区分性较差;第二,clas模型训练时只包括正例热词样本(bias)和无热词样本(nobias)两种场景,没有考虑到实际应用场景中相似热词对当前热词的干扰,容易造成热词误触发问题;第三,clas模型采用端到端训练方式,偏置编码器同样也只能使用等量的平行数据训练,当热词在训练语料里边比较稀疏的情况下,偏置编码器也不能得到充分的训练,泛化能力比较差,对于热词编码不够准确,对于比较稀疏的热词难以解码出来。
38.基于此,本技术提供了一种基于热词编码的语音识别方案,能够解决上述问题中的至少一个。下面结合图2到图5来描述。
39.图2示出了根据本技术实施例的基于热词编码的语音识别方法200的示意性流程图。如图2所示,基于热词编码的语音识别方法200可以包括如下步骤:
40.在步骤s210,获取待识别语音和热词文本。
41.在步骤s220,针对待识别语音提取语音特征,并对语音特征进行编码,得到语音向量。
42.在步骤s230,针对热词文本提取文本特征,并对文本特征进行编码,得到热词文本向量。
43.在步骤s240,获取热词文本的发音音素,针对发音音素提取音素特征,并对音素特征进行编码,得到热词音素向量。
44.在步骤s250,计算语音向量的注意力权重,并基于语音向量的注意力权重计算语
音上下文信息向量。
45.在步骤s260,将热词文本向量和热词音素向量进行融合,得到融合后的向量,计算融合后的向量的注意力权重,并基于融合后的向量的注意力权重计算热词上下文信息向量。
46.在步骤s270,对语音上下文信息向量和热词上下文信息向量进行解码,得到待识别语音的语音识别结果。
47.在本技术的实施例中,基于用户输入获取待识别语音和热词文本。其中,热词文本可以是用户通讯录人名、音乐名、地名等用户相关的字词文本。用户输入的热词文本可以包括一个或多个热词。在对待识别语音进行识别时,不仅对热词文本的特征进行编码得到热词文本向量,还对热词对应的发音音素进行编码得到热词音素向量,然后基于热词文本向量和热词音素向量这两者融合后得到的向量计算注意力权重以计算热词上下文信息向量。由于是联合热词文本和热词发音信息进行联合编码,因此相对于仅依赖热词文本的编码,能够提高语音识别中对热词识别的准确率。
48.在本技术的实施例中,步骤s220中针对待识别语音提取的语音特征可以包括感知线性预测(perceptual linear predictive,简称为plp)特征、梅尔倒谱系数(mel-scale frequency cepstral coefficients,简称为mfcc)特征、滤波器组(filter bank)特征等。
49.在一个示例中,步骤s220中针对待识别语音提取的语音特征为滤波器组特征。例如,某句语音数据的语音特征序列可表示为x={x1,

,xk,

,xk}。其中,xk表示语音特征序列x中第k帧语音特征向量(在本文中可简称为语音向量),在一个示例中可包括40维的滤波器组特征,k为总语音帧数目。
50.在本技术的实施例中,步骤s220中对语音特征进行编码可以由音频编码器来执行。示例性地,音频编码器可以包括长短时记忆网络(long short-term memory,简称为lstm)、卷积神经网络(convolutional neural network,简称为cnn)、自注意力(self-attention)网络等等。
51.在对该音频编码器进行训练时,可以收集大量带文本标注的语音数据,并提取其语音特征,例如前文所述的感知线性预测特征、梅尔倒谱系数特征、滤波器组特征。以滤波器组特征为例,其对应的语音特征序列为上述的x={x1,

,xk,

,xk},其对应的文本标注序列为y={y0,

,y
t
,

,y
t
}。其中,y
t
表示文本标注序列y中第t个字符,t+1为该总文本标注的总字符数目。其中y0为句子开始符“《s》”,y
t
为句子结束符“《/s》”。根据训练好的音频编码器,输入语音特征序列x={x1,

,xk,

,xk}进行编码,得到一组表示音频信息的特征向量序列即语音向量。
52.在本技术的实施例中,步骤s230中对热词的文本特征进行编码可以由热词文本编码器来执行。其中,热词文本编码器可以包括lstm网络、变换器(transformer)网络等。以中文语音识别为例,并用单个汉字作为建模单元,假设热词的内容是“语音识别”,其文本特征序列表示为z={z1,

,zn,

,zn},通过热词文本编码器编码得到热词文本向量的表示序列可以从序列里面抽取一个向量来表示当前热词文本的编码信息。例如,如果热词文本编码器是lstm结构,则一般可以取最后一个向量作为该热词文本的向量表示,如果是transformer结构,一般取第一个向量作为该热词文本的向量表示。
如果有m个热词,则可以表示为
53.在本技术的实施例中,步骤s240中对热词的音素特征进行编码可以由热词音素编码器来执行。热词音素编码器是对热词的发音音素序列进行编码。其中,热词的发音音素可以是基于热词文本通过查询发音词典获取的。对于端到端识别模型,热词主要包括命名实体类单词,在平行训练数据中出现的频率比较低,如果采用发音音素进行建模,训练语料里面会存在同音的单词,提高稀疏热词的覆盖度,提高模型训练的泛化能力。热词音素编码器的网络结构与热词编码器的网络结构基本一致。也即,热词音素编码器可以包括lstm网络、变换器(transformer)网络等。热词音素编码器的输入序列可以为音素特征序列{g1,

,gn,

,gn},通过热词音素编码器编码得到热词音素向量的表示序列可以从序列里面抽取一个向量来表示当前热词音素的编码信息。例如,如果热词音素编码器是lstm结构,则一般可以取最后一个向量作为该热词音素的向量表示,如果是transformer结构,一般取第一个向量作为该热词音素的向量表示。如果有m个热词,则可以表示为
54.在本技术的实施例中,步骤s250可以由注意力模块来执行,注意力模块可以用来计算解码器对于语音向量的注意力权重。示例性地,可以通过如下公式来计算语音向量的注意力权重和语音上下文信息向量
[0055][0056][0057][0058]
在本技术的实施例中,步骤s260可以由偏置注意力模块来执行。偏置注意力模块对热词编码信息计算注意力权重分布,解码器根据注意力权重来判断热词的相关程度,权重越高热词的相关程度越大。具体地,偏置注意力模块将热词文本向量和热词音素向量进行融合后再计算注意力权重,得到热词上下文信息向量。示例性地,可以通过如下公式来计算融合后的向量的注意力权重和热词上下文信息向量
[0059]
hb=wb[hz,hg]+b
[0060][0061][0062][0063]
其中,[hz,hg]是将热词文本向量和热词音素向量合并到一起,并且通过一个全连接层变换到hb,将热词信息及其对应的音素信息编码融合到一起。偏置注意力模块通过上述公式计算得到每个热词的注意力权重然后对每个热词的融合后的向量hb进行加权求和得到热词上下文信息表示最后和传递给解码器进行解码,如步骤s270所述的。
[0064]
在本技术的实施例中,步骤s270可以由解码器来执行。示例性地,解码器可以包括lstm网络、cnn网络、self-attention等。接着上述的示例,和传递给解码器,解码器可
以解码,得到语音识别结果。示例性地,解码器的计算方式可以与通用encoder-decoder框架相同。例如,可通过如下公式得到解码结果:
[0065][0066]
以上示例性地示出了根据本技术实施例的基于热词编码的语音识别方法200的详细过程。可以结合图3更全面地理解上述过程。
[0067]
图3示出了根据本技术实施例的基于热词编码的语音识别方法200可以采用的框架模型结构300的示意图。如图3所示,模型结构300可以包括音频编码器310、偏置编码器320、注意力模块330、偏置注意力模块340、解码器350、分类网络360、音素编码器370和全连接层380。其中,音频编码器310获取待识别语音的语音特征{x1,

,xk,

,xk},输出语音向量语音向量输入注意力模块330,得到语音上下文信息向量偏置编码器320获取热词文本特征{z1,

,zn,

,zn},输出热词文本向量音素编码器370获取热词音素特征{g1,

,gn,

,gn},输出热词音素向量热词文本向量和热词音素向量通过全连接层380融合得到融合后的向量hb,该向量输入偏置注意力模块340,得到热词上下文信息向量语音上下文信息向量和热词上下文信息向量通过解码器350和分类网络360,得到语音识别结果。
[0068]
在本技术的实施例中,前文所述的热词文本编码器(如前文所述的偏置编码器320)和热词音素编码器(如前文所述的音频编码器370)统称为热词编码器,热词编码器的训练流程可以包括如下步骤:
[0069]
在步骤一,生成热词训练数据。首先可以从平行训练数据的标注文本里面抽取热词。原始clas框架采用随机抽取连续的ngram词组的方式作为训练热词。在本技术的实施例中,可以在此基础上采用一种抽取命名实体作为该句的热词,可以采用中文命名实体识别(named entity recognition,简称为ner)工具将训练数据每一句话的实体(包括人名、地名、机构名)识别出来即可以得到对应的热词。这里存在一对多的情况,例如一句话可能包括多个热词,这时可以从中随机选取一个作为训练热词。同时在标注序列中的热词后面增加一个《bias》标签用于标识该热词,例如“语音识别《bias》”;然后将热词文本通过查询发音词典得到对应发音音素序列,最后可以得到用于模型训练的平行数据{语音,标注序列,热词序列,发音序列}。
[0070]
在步骤二,构建热词训练样本,包括正例热词样本、反例热词样本和无热词样本。在本技术的实施例中,提出了一种反例热词训练算法,将发音相近、解码串扰的单词作为反例热词训练提升模型编码的区分能力。训练过程中一个批次(batch)里面包含n个训练样本,每个训练样本包含的热词有三种类型,正例热词、反例热词和无热词。其中,正例热词是指从当前训练样本中选取的一个集内热词;反例热词是指选取当前样本中发音相近的单词,或者解码结果串扰的单词;无热词是指当前训练样本不加热词。因此一个训练batch里面的热词列表包括{正例热词1,正例热词2,

,反例热词1,反例热词2,

,nobias},其中nobias表示无热词标签。在实际解码过程中有可能存在所有的热词都与当前的语音无关,因此额外设置了一个可学习的标签nobias,这个标签对应不使用热词,即在解码时不使用任何热词信息。训练时针对每个热词类型都设置了不同的训练权重,其中a+b+c=100%,如
下表所示。
[0071][0072][0073]
例如一个batch训练样本的热词列表包含60%正例热词、30%反例热词和10%无热词。传统clas框架训练方案只包含正例热词和无热词两种热词类型,模型训练时容易过拟合正例热词的训练模式,解码时有较大的概率选择热词列表里面拼写相近或者发音相近的热词,造成误触发问题,本技术提出反例热词训练方案,让模型训练时区分开正例样本和反例样本,偏置注意力模块对于不同热词权重计算更加准确,训练测试更加匹配,减少实际场景中不相关热词对于解码的误触发问题。
[0074]
在步骤三,热词编码器预训练。在本技术的实施例中,热词文本编码器和热词音素编码器对于热词的编码能力非常重要,由于训练数据里面的热词是比较稀疏的,热词文本编码器和热词音素编码器训练过程中存在欠拟合问题,导致对相近热词信息编码区分性降低,影响偏置注意力模块权重计算的准确性,模型对稀疏热词的泛化性能不足。本技术采用的热词编码器预训练算法,类似于基于transformer的双向编码器表征(bidirection ecoder representations from transformers,简称为bert)的预训练方法。一般情况下可以得到海量的单语文本数据,训练一个bert预训练模型(称为第一bert预训练模型),作为热词文本编码器的初始化参数;同时将单语文本数据通过查询发音词典得到对应的音素序列,通过bert预训练方案得到一个音素预训练模型(称为第二bert预训练模型),作为热词音素编码器的初始化参数。本技术提出的热词编码器预训练算法,使用额外的文本数据去预训练热词编码器,基于预训练模型强大的语义先验知识和上下文信息来提升模型对于热词及其音素序列编码的准确性,提高对稀疏热词的泛化性能,提升热词的识别效果。
[0075]
在步骤四,使用步骤一和步骤二得到的平行训练数据,构建生成mini batch,然后热词文本编码器和热词音素编码器的参数分别使用步骤三预训练好的第一bert预训练模型和第二bert预训练模型进行初始化,最后通过梯度反向传播算法更新模型参数,训练收敛后得到模型。
[0076]
在训练完成后,应用时,流程可以如下所述:首先,用户上传热词列表,这里的热词
可以是用户通讯录人名、音乐名、地名等用户相关的字词,需要额外增加一个《nobias》标签来表示没有热词,通过偏置编码器编码得到每个热词的热词文本向量,查询热词发音后通过音素编码器编码得到每个热词的热词音素向量;然后,用户输入语音,通过音频编码器对语音特征进行编码,偏置注意力模块通过计算权重选择与语音内容相关的热词,并将热词信息向量表示输入到解码器模块进行解码;最后,解码器根据注意力模块得到的语音信息和偏置注意力模块得到的热词信息进行融合并解码,采用诸如集束搜索(beam search)解码算法(beam search解码与标准的基于注意力机制的端到端语音识别解码完全相同),最后得到识别结果。
[0077]
以上示例性地示出了根据本技术实施例的基于热词编码的语音识别方法200及其使用模型的训练和应用。基于上面的描述,根据本技术实施例的语音识别方法200通过对热词及其发音信息进行联合编码,能够提高对稀疏实体的热词识别准确率。此外,根据本技术实施例的语音识别方法200中使用的热词编码器可以使用额外的文本数据去预训练,基于预训练模型强大的语义先验知识和上下文信息来提升模型对于热词编码的准确性,提高对稀疏热词的泛化性能。此外,根据本技术实施例的语音识别方法200中使用的热词编码器可以采用反例热词训练算法,将发音相近、解码串扰的单词作为反例热词训练提升模型编码的区分能力,通过调整正例和反例训练权重,达到正向测试集效果和反向测试集效果的平衡,减少热词误触发问题。
[0078]
下面结合图4和图5描述根据本技术另一方面提供的基于热词编码的语音识别装置,它们均可以用于执行前文的根据本技术实施例的基于热词编码的语音识别方法。下面逐一简要描述。
[0079]
图4示出根据本技术一个实施例的基于热词编码的语音识别装置400的示意性结构框图。如图4所示,基于热词编码的语音识别装置400包括特征提取模块410、音频编码器420、热词编码器430、第一注意力模块440、融合模块450、第二注意力模块460和解码器470。其中,特征提取模块410用于获取待识别语音和热词文本,针对待识别语音提取语音特征,针对热词文本提取文本特征,获取热词文本的发音音素,针对发音音素提取音素特征;音频编码器420用于对语音特征进行编码,得到语音向量;热词编码器430用于对文本特征进行编码,得到热词文本向量,并音素特征进行编码,得到热词音素向量;第一注意力模块440用于计算语音向量的注意力权重,并基于语音向量的注意力权重计算语音上下文信息向量;融合模块450用于将热词文本向量和热词音素向量进行融合,得到融合后的向量;第二注意力模块460用于计算融合后的向量的注意力权重,并基于融合后的向量的注意力权重计算热词上下文信息向量;解码器470用于对语音上下文信息向量和热词上下文信息向量进行解码,得到待识别语音的语音识别结果。根据本技术实施例的基于热词编码的语音识别装置400可以用于执行前文的基于热词编码的语音识别方法200,本领域技术人员可以结合前文理解其结构和操作,为了简洁,此处不再赘述细节,仅描述一些主要操作。
[0080]
在本技术的实施例中,热词编码器430是基于额外的文本数据通过预训练而得到的。
[0081]
在本技术的实施例中,热词编码器430包括热词文本编码器和热词音素编码器(未在图4中示出),其中:热词文本编码器用于对文本特征进行编码,热词文本编码器的初始化参数是基于第一bert预训练模型得到的,第一bert预训练模型是基于单语文本数据训练得
到的;热词音素编码器用于对音素特征进行编码,热词音素编码器是基于第二bert预训练模型得到的,第二bert预训练模型是基于单语文本数据对应的音素数据训练得到的。
[0082]
在本技术的实施例中,热词音素编码器包括长短时记忆网络或者变换器网络。
[0083]
在本技术的实施例中,热词音素编码器针对音素特征输出向量序列;当热词音素编码器包括长短时记忆网络时,热词音素向量为向量序列中的最后一个向量;当热词音素编码器包括变换器网络时,热词音素向量为向量序列中的第一个向量。
[0084]
在本技术的实施例中,训练热词编码器430的热词训练样本包括正例热词样本、反例热词样本和无热词样本。
[0085]
在本技术的实施例中,反例热词样本包括与正例热词样本拼写相近的样本、发音相近的样本或者解码串扰的样本。
[0086]
在本技术的实施例中,正例热词样本、反例热词样本和无热词样本各自的训练权重不同。
[0087]
在本技术的实施例中,热词文本包括命名实体文本。
[0088]
在本技术的实施例中,热词文本的发音音素是通过查询发音词典来获取的。
[0089]
基于上面的描述,根据本技术实施例的语音识别装置400通过热词编码器对热词及其发音信息进行联合编码,能够提高对稀疏实体的热词识别准确率。此外,根据本技术实施例的语音识别装置400中使用的热词编码器可以使用额外的文本数据去预训练,基于预训练模型强大的语义先验知识和上下文信息来提升模型对于热词编码的准确性,提高对稀疏热词的泛化性能。此外,根据本技术实施例的语音识别装置400中使用的热词编码器可以采用反例热词训练算法,将发音相近、解码串扰的单词作为反例热词训练提升模型编码的区分能力,通过调整正例和反例训练权重,达到正向测试集效果和反向测试集效果的平衡,减少热词误触发问题。
[0090]
图5示出根据本技术另一个实施例的基于热词编码的语音识别装置500的示意性结构框图。如图5所示,基于热词编码的语音识别装置500可以包括存储器510和处理器520,存储器510存储有由处理器520运行的计算机程序,计算机程序在被处理器520运行时,使得处理器520执行前文的根据本技术实施例的基于热词编码的语音识别方法200。本领域技术人员可以结合前文的内容理解根据本技术实施例的基于热词编码的语音识别装置500的具体操作,为了简洁,此处不再赘述具体的细节。
[0091]
此外,根据本技术实施例,还提供了一种存储介质,在存储介质上存储了程序指令,在程序指令被计算机或处理器运行时用于执行本技术实施例的基于热词编码的语音识别方法的相应步骤。存储介质例如可以包括智能电话的存储卡、平板电脑的存储部件、个人计算机的硬盘、只读存储器(rom)、可擦除可编程只读存储器(eprom)、便携式紧致盘只读存储器(cd-rom)、usb存储器、或者上述存储介质的任意组合。计算机可读存储介质可以是一个或多个计算机可读存储介质的任意组合。
[0092]
基于上面的描述,根据本技术实施例的基于热词编码的语音识别方法和装置通过对热词及其发音信息进行联合编码,能够提高对稀疏实体的热词识别准确率。此外,根据本技术实施例的语音识别方法和装置中使用的热词编码器可以使用额外的文本数据去预训练,基于预训练模型强大的语义先验知识和上下文信息来提升模型对于热词编码的准确性,提高对稀疏热词的泛化性能。此外,根据本技术实施例的语音识别方法和装置中使用的
热词编码器可以采用反例热词训练算法,将发音相近、解码串扰的单词作为反例热词训练提升模型编码的区分能力,通过调整正例和反例训练权重,达到正向测试集效果和反向测试集效果的平衡,减少热词误触发问题。
[0093]
尽管这里已经参考附图描述了示例实施例,应理解上述示例实施例仅仅是示例性的,并且不意图将本技术的范围限制于此。本领域普通技术人员可以在其中进行各种改变和修改,而不偏离本技术的范围和精神。所有这些改变和修改意在被包括在所附权利要求所要求的本技术的范围之内。
[0094]
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。
[0095]
在本技术所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其他的方式实现。例如,以上所描述的设备实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个设备,或一些特征可以忽略,或不执行。
[0096]
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本技术的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
[0097]
类似地,应当理解,为了精简本技术并帮助理解各个发明方面中的一个或多个,在对本技术的示例性实施例的描述中,本技术的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该本技术的方法解释成反映如下意图:即所要求保护的本技术要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如相应的权利要求书所反映的那样,其发明点在于可以用少于某个公开的单个实施例的所有特征的特征来解决相应的技术问题。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本技术的单独实施例。
[0098]
本领域的技术人员可以理解,除了特征之间相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
[0099]
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其他实施例中所包括的某些特征而不是其他特征,但是不同实施例的特征的组合意味着处于本技术的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
[0100]
本技术的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(dsp)来实现根据本技术实施例的一些模块的一些或者全部功能。本技术还可以实现为用于执行这里所描述的方法的一部分或者全部的装置程序(例如,计算机程序和计算机程序产品)。这样的实现本技术的程序可以存储在计算机可读介质
上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
[0101]
应该注意的是上述实施例对本技术进行说明而不是对本技术进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本技术可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
[0102]
以上,仅为本技术的具体实施方式或对具体实施方式的说明,本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本技术的保护范围之内。本技术的保护范围应以权利要求的保护范围为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1