语音识别模型的训练方法、装置、电子设备及存储介质与流程

文档序号:31468344发布日期:2022-09-09 22:19阅读:89来源:国知局
语音识别模型的训练方法、装置、电子设备及存储介质与流程

1.本公开涉及人工智能技术领域,尤其涉及深度学习、语音识别等领域。


背景技术:

2.语音识别技术,是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的技术。语音识别技术主要包括特征提取技术、模式匹配等方面。目前的语音识别不够准确,是要解决的问题。


技术实现要素:

3.本公开提供了一种语音识别模型的训练方法、语音识别方法、装置、电子设备以及存储介质。
4.根据本公开的一方面,提供了一种语音识别模型的训练方法,包括:
5.根据正例样本构建负例样本,得到用于约束语音解码路径的目标负例样本;
6.根据正例样本及目标负例样本,得到训练数据;
7.根据训练数据对第一语音识别模型进行训练,得到第二语音识别模型。
8.根据本公开另的一方面,提供了一种语音识别方法,包括:
9.对待识别语音数据进行解码的情况下,根据第二语音识别模型对待识别语音数据对应的语音解码路径进行约束,第二语音识别模型为根据实施例训练得到的模型;
10.响应于语音解码路径的约束,得到语音识别结果;
11.其中,语音识别结果为与预期文本相匹配的文本对象。
12.根据本公开的另一方面,提供了一种语音识别模型的训练装置,包括:
13.第一处理模块,用于根据正例样本构建负例样本,得到用于约束语音解码路径的目标负例样本;
14.第二处理模块,用于根据正例样本及目标负例样本,得到训练数据;
15.训练模块,用于根据训练数据对第一语音识别模型进行训练,得到第二语音识别模型。
16.根据本公开的另一方面,提供了一种语音识别装置,包括:
17.第三处理模块,用于对待识别语音数据进行解码的情况下,根据第二语音识别模型对待识别语音数据对应的语音解码路径进行约束,第二语音识别模型为根据实施例训练得到的模型;
18.第四处理模块,用于响应于语音解码路径的约束,得到语音识别结果;
19.其中,语音识别结果为与预期文本相匹配的文本对象。
20.根据本公开的另一方面,提供了一种电子设备,包括:
21.至少一个处理器;以及
22.与该至少一个处理器通信连接的存储器;其中,
23.该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器
执行,以使该至少一个处理器能够执行本公开任意一实施例所提供的方法。
24.根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使该计算机执行本公开任意一项实施例所提供的方法。
25.根据本公开的另一方面,提供了一种计算机程序产品,包括计算机指令,该计算机指令被处理器执行时实现本公开任意一项实施例所提供的方法。
26.采用本公开,可以根据正例样本构建负例样本,得到用于约束语音解码路径的目标负例样本,根据正例样本及目标负例样本可以得到训练数据。根据训练数据对第一语音识别模型进行训练,可以得到第二语音识别模型,由于第二语音识别模型在语音解码路径约束下训练得到,因此,提高了语音识别的准确率。
27.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
28.附图用于更好地理解本方案,不构成对本公开的限定。其中:
29.图1是根据本公开实施例的一分布式集群处理场景的示意图;
30.图2是根据本公开实施例的语音识别模型的训练方法的流程示意图;
31.图3是根据本公开实施例的语音识别路径扩展的示意图;
32.图4是根据本公开实施例的语音识别路径约束的示意图;
33.图5是根据本公开实施例的前缀树及样本生成示意图;
34.图6是根据本公开实施例的语音识别方法的流程示意图;
35.图7是根据本公开实施例的第一构图模型的网络结构示意图;
36.图8是根据本公开实施例的语音识别模型的网络结构示意图;
37.图9是根据本公开实施例的语音识别框架的示意图;
38.图10是根据本公开实施例的语音识别模型的训练装置的流程示意图;
39.图11是根据本公开实施例的语音识别装置的组成结构示意图;
40.图12是用来实现本公开实施例的语音识别模型的训练方法/语音识别方法的电子设备的框图。
具体实施方式
41.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
42.本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括a、b、c中的至少一种,可以表示包括从a、b和c构成的集合中选择的任意一个或多个元素。本文中术语“第一”、“第二”表示指代多个类似的技术用语并对其进行区分,并不是限定顺序的意思,或者限定只有两个的意思,例如,第一特征和第二特征,是指代有两类/两个特征,第一特征
可以为一个或多个,第二特征也可以为一个或多个。
43.另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
44.通过语音识别技术,可以将语音信号转换为文字输出。随着深度学习技术在声学模型和语言模型中的不断发展,语音识别技术也取得了长足的进步。就声学模型而言,从高斯混合-隐马尔可夫模型(gmm-hmm)建模方法,到基于连接时序分类(connectionist temporal classification,ctc)尖峰信息的流式多级的截断注意力(smlta)模型,该smlta模型可以提供基于注意力机制的在线语音识别服务,使得语音识别性能得到了提升;就语言模型而言,相比于基于统计语言模型的算法(如n-gram语言模型),神经网络语言模型(nerual network language model,nnlm)由于基于深度学习技术,对文本往往具有更好的建模能力并且更合适并行计算,同时保存的模型体积较小,尤其适用于通讯录识别等离线语音场景中,因此,nnlm在识别效果、计算速度和应用场景上更具有优势。
45.不同于n-gram语言模型具有词图约束,直接使用nnlm进行解码的过程中由于所有可能的解码路径都会进行扩展,没有对路径进行强制约束,导致许多非预期的文本出现,带来很大的识别干扰。虽然,基于特定语料训练的nnlm在相关应用场景的语音识别中能获得较高的语言分,但是,往往也使得许多非预期的识别结果(例如通讯录之外的文本)也同时具有较高的语言分。
46.综上所述,由于解码路径没有强制的路径约束,导致非预期的识别结果出现,语音识别不够准确。
47.本公开是基于神经网络的语音识别构图方法,通过训练语音识别模型(如基于神经网络的构图模型),对nnlm解码空间的扩展路径进行约束,从而抑制了非预期的识别结果的输出,有效的提升了语音识别的准确率。
48.根据本公开的实施例,图1是根据本公开实施例的一分布式集群处理场景的示意图,该分布式集群系统为集群系统的一个示例,示例性的描述了可以利用该分布式集群系统进行语音识别,本公开不限于单机或多机上的语音识别,采用分布式的处理可以进一步提高语音识别的准确率。如图1所示,在该分布式集群系统100中包括多个节点(如服务器集群101、服务器102、服务器集群103、服务器104、服务器105,服务器105还可以连接电子设备,如手机1051及台式机1052),多个节点间,以及多个节点与连接的电子设备间可以共同执行一个或多个语音识别任务。可选地,该分布式集群系统中的多个节点可以采用数据并行的关系进行语音识别,则多个节点可以基于相同的训练方式执行语音识别的训练任务;若该分布式集群系统中的多个节点采用的是模型并行的模型训练方式,则多个节点可以基于不同的训练方式执行语音识别的训练任务,以更好的训练上述语音识别模型。可选地,在每一轮关系提取模型训练完成后,多个节点之间都可以进行数据交换(如数据同步)。
49.根据本公开的实施例,提供了一种语音识别模型的训练方法,图2是根据本公开实施例的语音识别模型的训练方法的流程示意图,该方法可以应用于语音识别装置,例如,该装置可以部署于单机、多机或集群系统中的终端或服务器或其它处理设备执行的情况下,可以实现语音识别等等处理。其中,终端可以为用户设备(ue,user equipment)、移动设备、个人数字处理(pda,personal digital assistant)、手持设备、计算设备、车载设备、可穿
戴设备等。在一些可能的实现方式中,该方法还可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。如图2所示,该方法应用于图1所示的集群系统中的任一节点或电子设备(手机或台式机等)中,包括:
50.s201、根据正例样本构建负例样本,得到用于约束语音解码路径的目标负例样本。
51.s202、根据正例样本及目标负例样本,得到训练数据。
52.s203、根据训练数据对第一语音识别模型进行训练,得到第二语音识别模型。
53.s201-s203的一示例中,可以将正例样本之外的其他样本作为该目标负例样本,将正例样本及目标负例样本作为训练数据,由于正例样本及目标负例样本对应有数据标签,因此,可以对第一语音识别模型进行基于数据标签的有监督学习,对模型训练结束后得到第二语音识别模型。考虑到用于模型训练的训练数据这块,约束语音解码路径的目标负例样本,即预先做了避免非预期出现的约束,进而在模型训练过程以及模型使用过程中可以抑制非预期语音识别结果(如通讯录识别的语音场景中抑制了通讯录之外文本)的输出,从而有效的提高了语音识别的准确率。
54.采用本公开,可以根据正例样本构建负例样本,得到用于约束语音解码路径的目标负例样本,根据正例样本及目标负例样本可以得到训练数据。根据训练数据对第一语音识别模型进行训练,可以得到第二语音识别模型,由于第二语音识别模型在语音解码路径约束下训练得到,因此,提高了语音识别的准确率。
55.一实施方式中,根据正例样本构建负例样本,得到用于约束语音解码路径的目标负例样本,包括:将匹配库中的文本字符确定为正例样本,将除该正例样本之外的其他样本作为目标负例样本。
56.一些示例中,正例样本(如表1所示)及负例样本(如表2所示)可以构成训练样本,包括几类数据,如原始的文本、构成文本的多个文本字符,以及多个文本字符分别对应的识别符(token)及其对应的标签(label)。
57.文本起始符号《sos》张三token36172352label111
58.表1
59.文本起始符号《sos》张丹识别符(token)36172366标签(label)110
60.表2
61.一些示例中,匹配库可以是指定的通讯录,比如将通讯录中的用户名“张三”作为正例样本,当一个语音电话涉及到该用户名“张三”,进行语音解码,得到正确的语音识别结果应该为该用户名“张三”对应的文本信息。相应的,在设计训练数据时,可以基于匹配库(如指定的通讯录)确定出正例样本,然后,根据正例样本构建负例样本,可以是将正例样本之外的其他样本都作为该目标负例样本,从而形成了语音解码路径的约束,从而达到抑制非预期语音识别结果(如张丹或张涵等不正确的语音识别结果)的输出。
62.采用本实施方式,由于根据正例样本构建负例样本的过程中,可以基于语音解码路径的约束,达到抑制非预期语音识别结果(或称为不正确的语音识别结果)的输出,从而
有效的提高了语音识别的准确率。
63.一实施方式中,将除该正例样本之外的其他样本作为目标负例样本,包括:根据正例样本得到节点树形式的数据结构;其中,该节点树中的每个节点为构成正例样本的文本字符对应的识别符。遍历该节点树中由正例样本形成的正例路径,得到第一路径集合,将节点树中除该第一路径集合之外的路径作为第二路径集合(该第二路径集合中包括目标负例样本)。
64.一些示例中,如图3所示,不约束情况下语音识别路径扩展,可以包括:张三、张丹或张涵等语音识别结果,而匹配库(如指定的通讯录)中并不存在张丹或张涵的文本,导致语音识别结果不准确。
65.一些示例中,如图4所示,在约束情况下对张三、张丹或张涵等语音识别结果进行语音识别的路径约束,只会得到“张三”这一期望的语音识别结果,语音识别结果非常准确。其中,对“三”标记为1,为正例样本的数据标签;对“丹”及“涵”标记为0,为负例样本的数据标签。
66.一些示例中,如图5所示,节点树形式的数据结构(或称之为基于正例路径得到的前缀树),包括正例样本及负例样本,遍历该节点树形式的数据结构,由正例样本对应token构成的路径称为正例路径(记为第一路径集合),由负例样本对应token构成的路径称为负例路径(记为第二路径集合),即除该第一路径集合之外的路径为该第二路径集合。token的示例参见上表1及上表2,此处不赘述。其中,第一路径集合中的token,如图5中加粗下划线的数字,除此之外的,都为第二路径集合中的token,从而,基于正例路径可以直接生成全量的正例样本,在该正例样本的节点树形式的数据结构中,除正例路径外的所有可拓展路径,图5中虚线所示即为负例路径,最终得到上述目标负例样本。
67.一些示例中,为了提高速度及准确度,可以通过有效负例样本的筛选策略进行数据降维,比如,利用声学混淆矩阵和语言分来进行有效负例样本的筛选,即:筛选出对于声学分或语言分较低的负例路径,并予以删除,用剩下的负例样本作为目标负例样本,并据此构成用于模型训练的训练数据。
68.采用本实施方式,可以通过对节点树形式的数据结构进行节点遍历的方式,基于构成正例样本的正例路径,得到除该正例路径之外的负例路径,从而得到目标负例样本,还可以进一步的对负例路径中的负例样本进行筛选,以得到更为准确及数据量更少的负例样本,据筛选得到的目标负例样本及正例样本构成用于模型训练的训练数据,提高了模型精度。
69.一实施方式中,根据训练数据对第一语音识别模型进行训练,得到第二语音识别模型,包括:将训练数据输入第一语音识别模型的嵌入层,通过嵌入层将训练数据转换为对应的特征向量,在第一语音识别模型中的关联层将所述特征向量与历史向量进行关联,得到用于语音识别预测的关联特征。将关联特征输入第一语音识别模型中的全连接层后进行激活函数的二分类处理,根据二分类处理后得到的输出值与目标值得到损失函数,根据损失函数的反向传播对第一语音识别模型进行训练,得到第二语音识别模型(可以为基于神经网络的构图模型)。
70.一些示例中,第一语义识别模型的结构,可以包括:嵌入层、关联层、全连接层以及连接全连接层的激活函数,进行二分类处理。其中,嵌入层可以为词嵌入层(embedding层);
关联层可以应用于带有时空关联的场景,具有时间循环结构,从而能很好地刻画具有时空关联的序列数据(如气温、车流量、销量等)、文本(如记事本、通讯录)、事件(购物清单、个人行为),不限于长短时记忆网络(long short term memory network,lstm);激活函数不限于(softmax函数),基于该第一语义识别模型进行二分类后训练得到上述第二语音识别模型。
71.采用本实施方式,基于上述第一语义识别模型的结构,通过将训练数据转换为对应的特征向量,将特征向量与历史向量进行关联,得到用于语音识别预测的关联特征,从而可以更好的执行二分类处理,以在模型使用过程中预测出更为精确的语音识别结果。
72.根据本公开的实施例,提供了一种语音识别方法,图6是根据本公开实施例的语音识别方法的流程示意图,该方法可以应用于语音识别装置,例如,该装置可以部署于单机、多机或集群系统中的终端或服务器或其它处理设备执行的情况下,可以实现语音识别等等处理。其中,终端可以为用户设备(ue,user equipment)、移动设备、个人数字处理(pda,personal digital assistant)、手持设备、计算设备、车载设备、可穿戴设备等。在一些可能的实现方式中,该方法还可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。如图6所示,该方法应用于图1所示的集群系统中的任一节点或电子设备(手机或台式机等)中,包括:
73.s601、对待识别语音数据进行解码的情况下,根据第二语音识别模型对待识别语音数据对应的语音解码路径进行约束,第二语音识别模型为根据实施例训练得到的模型。
74.s602、响应于语音解码路径的约束,得到语音识别结果。
75.s601-s602的一示例中,在第二语音识别模型的模型使用过程,可以根据语音解码路径的约束,得到正确的语音识别结果,比如通讯录里有张三,由于是基于通讯录的匹配得到的正例样本,以及基于该正例样本得到的负例样本,因此,该第二语音识别模型基于正例样本及负例样本训练得到,满足该语音解码路径的约束,从而在语音解码路径的约束下,语音识别的输出结果为符合预期的文本,比如与通讯录中的文本相匹配,得到唯一的张三的语音识别结果,而不是张丹或张涵的语音识别结果。
76.采用本技术实施例,对待识别语音数据进行解码的情况下,由于是根据第二语音识别模型对待识别语音数据对应的语音解码路径进行约束进行的语音识别,因此,响应于语音解码路径的约束,可以得到更为准确的语音识别结果,提高了语音识别的准确率。
77.一实施方式中,响应于语音解码路径的约束,得到语音识别结果,包括:根据第二语音识别模型,得到待识别语音数据满足解码路径约束下对应的语言分,根据语言分确定目标解码路径。根据该目标解码路径得到语音识别结果。
78.一些示例中,还包括:根据声学模型,得到待识别语音数据对应的声学分。
79.根据语言分确定目标解码路径,具体可以包括:根据该语言分及该声学分得到评估值。获取在待识别语音数据进行解码的情况下得到的解码空间(解码空间包括多条解码路径),将该多条解码路径中评估值最高的解码路径作为目标解码路径。
80.一些示例中,第二语音识别模型为基于神经网络的构图模型,可以与已有的语言模型相结合,或者替代该语言模型,以与声学模型一起计算出语言分及声学分。
81.采用本实施方式,得到待识别语音数据满足解码路径约束下对应的语言分,进一步,可以根据语言分及声学分确定目标解码路径,即在包括多条解码路径的解码空间中,将
语言分及声学分构成的总分最高的路径作为该目标解码路径,则输出的语音识别结果,其准确率得到了大大的提升。
82.一应用示例中,将如图7所示的第二语音识别模型与如图9所示语音识别框架中的语言模型结合,或者直接替代该语言模型,以对待识别语音数据进行解码,从而得到语音识别结果。该第二语音识别模型可以为nn构图模型,将nn构图模型与语言模型相结合,可以得到如图8所示的结合后的语言模型(即带约束的语言模型,或称之为带构图的语言模型“带构图的nnlm”),不仅可以准确的进行语音识别,且该nn构图模型与语言模型结合后得到的带构图的nnlm模型占用存储空间较小,在离线识别等场景中有更灵活的应用。
83.该语音识别框架除了包括上述语言模型,还可以包括:解码器及声学模型。结合声学分和语言分,解码器在解码空间中进行路径搜索,将输入的待识别语音数据(即音频信号),在语音解码路径的约束下转换为正确的语音识别结果(如语音对应的文本内容,与指定通讯录中的文本相匹配)。其中,将声学模型和语言模型作为两个独立的部分,可以分别优化,语言模型更适合针对不同的业务场景进行优化,比如,用某一领域的文本语料训练对应的语言模型来增强该场景的识别性能。由于在基于该解码器进行解码的过程中,获取在待识别语音数据进行解码的情况下得到的解码空间(解码空间包括多条解码路径),在语音解码路径的约束下将该多条解码路径中评估值最高的解码路径作为目标解码路径,因此,提高了语音识别的准确率。
84.以nnlm模型为例进行分析,nnlm模型作为一种语言模型,其对文本往往具有更好的建模能力并且更合适并行计算,但是收集特定语料训练nnlm模型的过程中,由于没有约束,nnlm解码时的路径扩展如图3所示,解码器在解码时对每一个可能的路径进行扩展,最终选择声学分和语言分的总分最高的路径作为目标解码路径,得到语音识别结果不唯一且不准确,在提高相应文本的语言分的同时,往往因为文本之间的相似性、训练数据不平衡以及模型复杂度不足等原因也会将其它不想要的文本的语言分提高,比如,正确的语音识别结果为张三,但是张丹和张涵也被识别出来。
85.可见:在没有约束的情况下,解码器在解码时对所有可能的解码路径进行扩展,缺乏对路径的约束,导致不想要的语音识别结果输出。因此,仅仅通过训练一个语言模型来提高相应领域的语言分是不够的,还需要通过其它方法对路径进行限制,本应用示例,有别于上述直接训练nnlm模型,通过对语音解码路径进行约束,可以使得语音识别结果被约束在匹配库(如指定通讯录)或某行业领域(如通信领域)的文本之内。
86.本应用示例中,为语音识别解码路径提供了一种强制约束,在解码路径流式扩展时,通过对非预期路径进行抑制,让解码路径限定在可行集合内,从而得到预期的识别结果并大幅提升识别率。路径约束示意图如下所示,在解码过程中,基于神经网络的构图模型对所扩展的路径进行判分,通过给定的阈值,判断扩展路径是否为有效的预期路径,实现解码路径约束。主要包括如下的训练样本生成、模型训练及模型使用三部分的内容。
87.1)训练样本生成:
88.a.训练样本构建:
89.训练样本可以分成正例和负例两种样本,其中正例样本是设定的可行路径集合,负例样本则是需要抑制的路径集合,即正例外的所有路径集合。如表3所示,每个样本都以起始符《sos》开始,输入为解码路径对应的token标识,正例路径对应label可以设为1,负例
路径label则为0。
[0090][0091]
表3
[0092]
b.全量构图样本生成:
[0093]
对于一个给定的可行路径集合,可以通过构建正例路径的前缀树来生成全部的正例和负例样本。假设输入token标识范围为[0,3619],起始符《sos》的标识为3617,结束符为3618,则根据正例路径(3617 23 52 3618)进行前缀树构建和样本生成示意图,如图5所示。对于正例路径,通过构建token-label数据对可以直接生成全量的正例样本,则除正例路径外的所有可拓展路径即为负例路径,由于一旦在流式解码过程中被判为负例,其后续路径则不再扩展,因此只需要训练和正例样本等长的负例样本即可,利用前缀树遍历每层非正例路径可以生成全部负例样本。
[0094]
c.大数据量下构图样本生成——有效负例挑选策略:
[0095]
上述的全量构图样本生成策略比较适合于样本数相对较少的可行路径集合,若给定路径集合存在大量正例样本,例如几百万上千万条样本,那么将难以遍历全部负例样本,造成存储爆炸和计算量过大的问题。
[0096]
由于在实际解码过程中,对于声学或语言分较低的路径,本来就会被裁剪掉,因此在训练构图模型时可以不考虑这部分数据,只需要挑选其中的有效负例即可。据此,进一步的,提出一种有效负例样本的筛选策略,利用声学混淆矩阵和语言分来进行负例挑选,解决大样本的构图问题,大幅降低存储空间和训练时长,包括如下内容:
[0097]
i.只挑选混淆音节负例路径:
[0098]
用声学混淆矩阵,对正例路径的每个token取topn个对应的混淆负例token作为负例候选;
[0099]
ii.使用语言分进一步过滤:
[0100]
利用事先训好的语言模型,分别计算正例和候选负例路径的语言分,“负例语言分-正例语言分《阈值”的负例将被进一步过滤;
[0101]
iii.用剩下的负例样本构成训练集合。
[0102]
2)模型训练
[0103]
该第二语音识别模型可以称之为带构图的nn构图模型,简称为如下的nn构图模型,其网络结构如图8所示。其中,训练样本输入的token标识先经过embedding层得到对应的embedding表示,然后再用若干lstm层获得具有历史记忆的抽象向量表示,最后经过全连接层和softmax函数进行二分类处理,以预测样本label进行训练。其中,lstm层也可以替换为其它rnn神经网络,或任意具有历史记忆功能的流式神经网络。在训练时,可以和同结构
的语言模型的底层神经网络进行权重共享,或直接基于该语言模型的若干层权重固定的神经网络进行扩展,进行该nn构图模型的训练,有利于减少模型体积和计算量。
[0104]
3)模型使用:
[0105]
在训练好该nn构图模型后,将该nn构图模型与如图9所示的语言模型进行结合,得到带构图的nnlm,来替代原来的nnlm进行解码,从而实现解码路径约束。具体来说,通过实现一个合并(merge)操作将进行结合,包括如下内容:
[0106]
i.划分一个阈值(可以通过统计正负样本正确率得到),构图的得分大于阈值即判为正例样本,否则为负例样本;
[0107]
ii.若判为正例样本,则该解码路径的语言分不变(+0分),若判为负例样本,在对应解码路径的语言分上加一个很大的负向分(例如-10000分),从而对该解码路径进行抑制,如此一来,不需要对解码器和声学部分进行改动,只需要利用给定集合训练一个该nn构图模型,并将其与已有的语言模型进行结合或者直接替代该语言模型,即可实现解码路径强制约束,大幅度提升语音识别结果的准确率。
[0108]
采用本应用示例,为nnlm的解码路径提供了一种通用的强制约束手段,弥补了原来的nnlm在解码过程中缺乏路径约束的不足,在语音识别过程中避免了非预期结果的出现,使解码路径限定在预设的可行集合内,从而大幅提升识别效果;不仅支持小数据量的正例集合,同时通过有效负例样本筛选策略还可以支持大数据量的构图情况,大大增强了模型的应用场景;模型采用该nn构图模型结构的设计,通过与相似结构的nn语言模型进行权重共享,共用底层神经网络,从而有效节省存储空间和计算量;在模型使用中,不需要对解码器和声学模型等其它部分进行改动,只需要利用给定集合训练一个nn构图模型,并将其与已有有的语言模型进行结合,即可实现解码路径强制约束,大大提升了模型使用的便捷性及实用性。
[0109]
根据本公开的实施例,提供了一种语音识别模型的训练装置,图10是根据本公开实施例的语音识别模型的训练装置的组成结构示意图,如图10所示,语音识别模型的训练装置包括:第一处理模块1001,用于根据正例样本构建负例样本,得到用于约束语音解码路径的目标负例样本;第二处理模块1002,用于根据所述正例样本及所述目标负例样本,得到训练数据;训练模块1003,用于根据所述训练数据对第一语音识别模型进行训练,得到第二语音识别模型。
[0110]
一实施方式中,所述第一处理模块,用于将匹配库中的文本字符确定为所述正例样本;将除所述正例样本之外的其他样本作为所述目标负例样本。
[0111]
一实施方式中,所述第一处理模块,用于根据所述正例样本,得到节点树形式的数据结构;其中,所述节点树中的每个节点为构成正例样本的所述文本字符对应的识别符;遍历所述节点树中由所述正例样本形成的正例路径,得到第一路径集合,将所述节点树中除所述第一路径集合之外的路径作为第二路径集合;所述第二路径集合中包括所述目标负例样本。
[0112]
一实施方式中,所述训练模块,用于将所述训练数据输入所述第一语音识别模型的嵌入层,通过所述嵌入层将所述训练数据转换为对应的特征向量;在所述第一语音识别模型中的关联层,将所述特征向量与历史向量进行关联,得到用于语音识别预测的关联特征;将所述关联特征输入所述第一语音识别模型中的全连接层后进行激活函数的二分类处
理;根据所述二分类处理后得到的输出值与目标值得到损失函数;根据所述损失函数的反向传播对所述第一语音识别模型进行训练,得到所述第二语音识别模型。
[0113]
一实施方式中,所述第二语音识别模型,为基于神经网络的构图模型。
[0114]
根据本公开的实施例,提供了一种语音识别装置,图11是根据本公开实施例的语音识别装置的组成结构示意图,如图11所示,语音识别装置包括:第三处理模块1101,用于对待识别语音数据进行解码的情况下,根据第二语音识别模型对所述待识别语音数据对应的语音解码路径进行约束,所述第二语音识别模型为根据实施例训练得到的模型;第四处理模块1102,用于响应于所述语音解码路径的约束,得到语音识别结果;其中,所述语音识别结果为与预期文本相匹配的文本对象。
[0115]
一实施方式中,所述第四处理模块,用于根据所述第二语音识别模型,得到所述待识别语音数据满足所述解码路径约束下对应的语言分;根据所述语言分,确定目标解码路径;根据所述目标解码路径,得到所述语音识别结果。
[0116]
一实施方式中,还包括:识别模块,用于根据声学模型,得到所述待识别语音数据对应的声学分。
[0117]
一实施方式中,所述第四处理模块,用于根据所述语言分及所述声学分得到评估值;获取在所述待识别语音数据进行解码的情况下得到的解码空间,其中,所述解码空间包括多条解码路径;将所述多条解码路径中所述评估值最高的解码路径作为所述目标解码路径。
[0118]
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
[0119]
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
[0120]
图12示出了可以用来实施本公开的实施例的示例电子设备1200的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
[0121]
如图12所示,电子设备1200包括计算单元1201,其可以根据存储在只读存储器(rom)1202中的计算机程序或者从存储单元1208加载到随机访问存储器(ram)1203中的计算机程序,来执行各种适当的动作和处理。在ram 1203中,还可存储电子设备1200操作所需的各种程序和数据。计算单元1201、rom 1202以及ram 1203通过总线1204彼此相连。输入/输出(i/o)接口1205也连接至总线1204。
[0122]
电子设备1200中的多个部件连接至i/o接口1205,包括:输入单元1206,例如键盘、鼠标等;输出单元1207,例如各种类型的显示器、扬声器等;存储单元1208,例如磁盘、光盘等;以及通信单元1209,例如网卡、调制解调器、无线通信收发机等。通信单元1209允许电子设备1200通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
[0123]
计算单元1201可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1201的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的
人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元1201执行上文所描述的各个方法和处理,例如语音识别模型的训练/语音识别方法。例如,在一些实施例中,语音识别模型的训练/语音识别方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1208。在一些实施例中,计算机程序的部分或者全部可以经由rom 1202和/或通信单元1209而被载入和/或安装到电子设备1200上。当计算机程序加载到ram 1203并由计算单元1201执行时,可以执行上文描述的语音识别模型的训练/语音识别方法的一个或多个步骤。备选地,在其他实施例中,计算单元1201可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行语音识别模型的训练/语音识别方法。
[0124]
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
[0125]
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
[0126]
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
[0127]
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入、或者触觉输入)来接收来自用户的输入。
[0128]
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界
面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
[0129]
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
[0130]
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开的技术方案所期望的结果,本文在此不进行限制。
[0131]
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1