一种声学模型训练方法和装置、计算机设备、存储介质与流程

文档序号:11213897阅读:451来源:国知局
一种声学模型训练方法和装置、计算机设备、存储介质与流程

本发明实施例涉及语音识别技术,尤其涉及一种声学模型训练方法和装置、计算机设备、存储介质。



背景技术:

语音技术在近年来开始改变我们的生活和工作方式,其中,语音识别是以语音为研究对象,通过语音信号处理和模式识别让机器自动识别和理解人类口述的语言,是一种方便的人机交互方式,现广泛的应用于移动互联网等领域中,例如信号处理、模式识别、概率论和信息论、发声机理和听觉机理、人工智能等等。而语音识别技术就是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的技术。

在语音识别技术中,声学模型的准确率决定了语音识别的正确性和效果,而训练用于语音识别的声学模型需要高质量的大量语音标注数据,而且数据越多训练出来的声学模型的准确率就越高。然而,人工标注语音数据非常耗时,通过人工标注手段来获取大量的训练数据可行性差,而若从第三方购买大量语音标注数据则价钱昂贵,不易实现。



技术实现要素:

本发明实施例提供一种声学模型训练方法和装置、计算机设备、存储介质,以解决现有技术中训练声学模型耗时且成本高的问题。

第一方面,本发明实施例提供了一种声学模型训练方法,该方法包括:

获取有监督语音数据和无监督语音数据,其中,有监督语音数据为带有人工标注的语音数据,无监督语音数据为带有机器标注的语音数据;

从所述有监督语音数据和无监督语音数据中提取语音特征;

利用深度学习的网络结构,对所述有监督语音数据和无监督语音数据的语音特征分别进行有监督学习任务和无监督学习任务的多任务学习,以训练并获得声学模型。

第二方面,本发明实施例还提供了一种声学模型训练装置,该装置包括:

数据获取模块,用于获取有监督语音数据和无监督语音数据,其中,有监督语音数据为带有人工标注的语音数据,无监督语音数据为带有机器标注的语音数据;

特征提取模块,用于从所述有监督语音数据和无监督语音数据中提取语音特征;

模型训练模块,用于利用深度学习的网络结构,对所述有监督语音数据和无监督语音数据的语音特征分别进行有监督学习任务和无监督学习任务的多任务学习,以训练并获得声学模型。

第三方面,本发明实施例还提供了一种计算机设备,包括:

一个或多个处理器;

存储装置,用于存储一个或多个程序,

当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上所述的声学模型训练方法。

第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述的声学模型训练方法。

本发明实施例利用有监督语音数据和无监督语音数据的语音特征,共同作为训练数据,并利用多任务学习方法,训练并获得声学模型,其中,有监督语音数据为带有人工标注的语音数据,而无监督语音数据为带有机器标注的语音数据,从而节省了声学模型训练所需的人工标注语音数据的成本,也无需购买价格昂贵的人工标注语音数据,并且可以持续提升语音识别的性能。

附图说明

图1为本发明实施例一中的声学模型训练方法的流程图;

图2是本发明实施例二中的声学模型训练方法的流程图;

图3是本发明实施例三中的声学模型训练装置的结构示意图;

图4是本发明实施例四中的计算机设备的结构示意图。

具体实施方式

下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。

实施例一

图1为本发明实施例一提供的声学模型训练方法的流程图,本实施例可适用于训练获得声学模型的情况,该方法可以由声学模型训练装置来执行,该装置可以采用软件和/或硬件的方式实现。如图1所示,该方法具体包括:

s101、获取有监督语音数据和无监督语音数据,其中,有监督语音数据为带有人工标注的语音数据,无监督语音数据为带有机器标注的语音数据。

具体的,有监督语音数据可以是预先人工标注好的语音数据,也可以是预先购买的人工标注语音数据,或者二者皆有。无监督语音数据可以从互联网的线上产品中获取,例如从百度搜索或百度输入法等匿名用户流量中获取,这些无监督语音数据没有进行过人工标注,只带有机器标注,也就是只有线上语音服务自动识别的结果作为标注。

s102、从所述有监督语音数据和无监督语音数据中提取语音特征。

具体的,需要提取有监督语音数据和无监督语音数据的语音特征以转换成便于声学模型训练的形式,如mfcc(mel-frequencycepstrumcoefficients,梅尔频率倒谱系数)、fbank(mel-scalefilterbank,梅尔标度滤波器组)等,本发明实施例对语音特征的形式不作任何限定,可采用不同的语音特征形式用于训练声学模型。

s103、利用深度学习的网络结构,对所述有监督语音数据和无监督语音数据的语音特征分别进行有监督学习任务和无监督学习任务的多任务学习,以训练并获得声学模型。

现有技术中为了训练出准确的声学模型需要大量的人工标注语音数据来进行训练,因而存在耗时和成本高的问题。而本发明实施例同时利用有监督语音数居和无监督语音数据共同作为训练数据,分别进行有监督学习任务和无监督学习任务的多任务学习,训练并获得声学模型,从而避免了全部使用大量且昂贵的人工标注语音数据,降低了成本。

这里需要说明的是,传统的单任务学习方法仅有一个学习任务,通常采用有监督数据进行训练,即利用经人工标注的语音数据训练声学模型,使其能够准确的预测语音的内容。本发明实施例同时采用有监督语音数据和无监督语音数据作为训练数据,由于其中的无监督语音数据的质量没有人工标注的有监督语音数据高,那么如果不对其加以区分,将它们直接混合以训练声学模型,通常会造成模型性能的下降。因此,本发明实施例采用所述多任务学习的方式,让深度学习的神经网络同时学习两个任务,分别为有监督学习任务和无监督学习任务,分别通过有监督语音数据和无监督语音数据的语音特征来训练,调整神经网络的参数,从而避免了单任务学习的上述问题。

具体的,本发明实施例中利用的深度学习的网络结构可以是任意一种神经网络结构,例如深度卷积神经网络结构或者深度循环神经网络结构等,本发明实施例对此不作任何限定。

作为一种优选的实施方式,所述深度学习的网络结构包括输入层、至少一层隐含层和输出层;其中,输入层为有监督学习任务和无监督学习任务共享;至少一层隐含层为有监督学习任务和无监督学习任务共享,由有监督语音数据和无监督语音数据共同进行训练;输出层包括有监督学习任务输出层和无监督学习任务输出层。

此外,作为另一种优选的实施方式,所述深度学习的网络结构包括输入层、至少一层隐含层和输出层;其中,输入层为有监督学习任务和无监督学习任务共享;所述至少一层隐含层中的第一部分隐含层为有监督学习任务和无监督学习任务共享,第二部分隐含层分别由有监督学习任务和无监督学习任务单独进行训练调整;输出层包括有监督学习任务输出层和无监督学习任务输出层。

对于上述两种不同的实施方式,都可以实现多任务学习,区别在于隐含层是否对两种学习任务共享,实现时,可以根据需要来设定,并选取隐含层的层数。作为一种示例,若隐含层为3层,可以是3层隐含层全部为有监督学习任务和无监督学习任务共享,也可以是最后一层由有监督学习任务和无监督学习任务单独进行训练调整,前面两层为有监督学习任务和无监督学习任务共享。

模型训练完成后,即确定了模型的参数,可以在推理阶段利用该模型来识别新的语音数据。对于此,优选的,可以包括如下两种确定最终声学模型的方式:

方式一:在模型训练完成后,最终获得的声学模型是丢弃由无监督学习任务训练调整的隐含层参数和/或输出层参数后得到的声学模型,以便在推理阶段只保留声学模型中有监督学习任务部分的输出结果;或者

方式二:在模型训练完成后,最终获得的声学模型是保留全部的模型参数得到的声学模型,以便在推理阶段同时保留有监督学习任务的输出结果和无监督学习任务的输出结果,并进行融合,作为最终的输出结果。其中,可以采用求平均值或求加权平均等方法进行融合,本发明实施例对此不作任何限定。

对于上述方式一,若在训练时,至少一层隐含层为有监督学习任务和无监督学习任务共享,由有监督语音数据和无监督语音数据共同进行训练,则丢弃无监督学习任务对应的输出层参数即可;而若至少一层隐含层中的第一部分隐含层为有监督学习任务和无监督学习任务共享,第二部分隐含层分别由有监督学习任务和无监督学习任务单独进行训练调整,则丢弃由无监督学习任务训练调整的隐含层参数和对应的输出层参数。丢弃后得到最终的声学模型,用于在推理阶段进行语音识别。

本发明实施例利用有监督语音数据和无监督语音数据的语音特征,共同作为训练数据,并利用多任务学习方法,训练并获得声学模型,其中,有监督语音数据为带有人工标注的语音数据,而无监督语音数据为带有机器标注的语音数据,从而节省了声学模型训练所需的人工标注语音数据的成本,也无需购买价格昂贵的人工标注语音数据,并且可以持续提升语音识别的性能。

实施例二

图2为本发明实施例二提供的声学模型训练方法的流程图,本实施例二在实施例一的基础上进行进一步地优化。如图2所示,所述方法包括:

s201、获取有监督语音数据和无监督语音数据,其中,有监督语音数据为带有人工标注的语音数据,无监督语音数据为带有机器标注的语音数据。

s202、通过置信度过滤手段对所述无监督语音数据进行过滤和筛选。

从互联网的线上产品中直接获取到的无监督语音数据通常会存在质量不高的数据,例如不完整的语音数据、存在杂音不清晰的语音数据或者是利用价值不高的常用的语音数据等。而置信度过滤手段可以包括如用户画像、文本特征或声学似然等,通过置信度过滤手段,过滤和筛选出质量相对较高的语音数据,以便训练出更加准确的声学模型。

s203、从所述有监督语音数据和无监督语音数据中提取语音特征。

s204、利用深度学习的网络结构,对所述有监督语音数据和无监督语音数据的语音特征分别进行有监督学习任务和无监督学习任务的多任务学习,以按照预先对有监督学习任务和无监督学习任务设置的各自的权重来进行训练并获得声学模型。

在本发明实施例中,可以在训练之前,根据需要,预先设置有监督学习任务和无监督学习任务各自的权重,以按照该权重进行有监督学习任务和无监督学习任务的多任务学习,从而使得训练结果更加符合实际应用的需要,并可以根据训练数据的质量进行灵活的调整。

本发明实施例通过置信度过滤手段可以筛选出质量更高的无监督语音数据,用来训练出更加准确的声学模型,同时,通过权重的设置以便更好的进行多任务学习,提高应用的灵活性和准确度。

实施例三

图3是本发明实施例三中的声学模型训练装置的结构示意图。如图3所示,声学模型训练装置3包括:

数据获取模块310,用于获取有监督语音数据和无监督语音数据,其中,有监督语音数据为带有人工标注的语音数据,无监督语音数据为带有机器标注的语音数据;

特征提取模块320,用于从所述有监督语音数据和无监督语音数据中提取语音特征;

模型训练模块330,用于利用深度学习的网络结构,对所述有监督语音数据和无监督语音数据的语音特征分别进行有监督学习任务和无监督学习任务的多任务学习,以训练并获得声学模型。

在一种优选的实施方式中,所述深度学习的网络结构包括输入层、至少一层隐含层和输出层;

其中,输入层为有监督学习任务和无监督学习任务共享;

至少一层隐含层为有监督学习任务和无监督学习任务共享,由有监督语音数据和无监督语音数据共同进行训练;

输出层包括有监督学习任务输出层和无监督学习任务输出层。

在另一种优选的实施方式中,所述深度学习的网络结构包括输入层、至少一层隐含层和输出层;

其中,输入层为有监督学习任务和无监督学习任务共享;

所述至少一层隐含层中的第一部分隐含层为有监督学习任务和无监督学习任务共享,第二部分隐含层分别由有监督学习任务和无监督学习任务单独进行训练调整;

输出层包括有监督学习任务输出层和无监督学习任务输出层。

模型训练完成后,即确定了模型的参数,可以在推理阶段利用该模型来识别新的语音数据。对于此,优选的,可以包括如下两种确定最终声学模型的方式:

方式一:在模型训练完成后,最终获得的声学模型是丢弃由无监督学习任务训练调整的隐含层参数和/或输出层参数后得到的声学模型,以便在推理阶段只保留声学模型中有监督学习任务部分的输出结果;或者

方式二:在模型训练完成后,最终获得的声学模型是保留全部的模型参数得到的声学模型,以便在推理阶段同时保留有监督学习任务的输出结果和无监督学习任务的输出结果,并进行融合,作为最终的输出结果。其中,可以采用求平均值或求加权平均等方法进行融合,本发明实施例对此不作任何限定。

进一步的,所述模型训练模块330具体用于:对所述无监督语音数据和有监督语音数据的语音特征分别进行有监督学习任务和无监督学习任务的多任务学习,以按照预先对有监督学习任务和无监督学习任务设置的各自的权重来进行训练并获得声学模型。

进一步的,所述装置3还包括:

过滤模块(图3中未示出),用于在数据获取模块310获取有监督语音数据和无监督语音数据之后,并在特征提取模块320提取语音特征之前,通过置信度过滤手段对所述无监督语音数据进行过滤和筛选。

本发明实施例所提供的声学模型训练装置可执行本发明任意实施例所提供的声学模型训练方法,具备执行方法相应的功能模块和有益效果。

实施例四

图4为本发明实施例四提供的一种计算机设备的结构示意图。图4示出了适于用来实现本发明实施方式的示例性计算机设备12的框图。图4显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。

如图4所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。

总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(isa)总线,微通道体系结构(mac)总线,增强型isa总线、视频电子标准协会(vesa)局域总线以及外围组件互连(pci)总线。

计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。

系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(ram)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图4未显示,通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如cd-rom,dvd-rom或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。

具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。

计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(i/o)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(lan),广域网(wan)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、raid系统、磁带驱动器以及数据备份存储系统等。

处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的声学模型训练方法。

实施例五

本发明实施例五还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所提供的声学模型训练方法。

本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。

计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。

计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、rf等等,或者上述的任意合适的组合。

可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c++,还包括常规的过程式程序设计语言—诸如”c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。

注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1