一种基于残差门控循环单元的语音识别方法与流程

文档序号:17747446发布日期:2019-05-24 20:44阅读:394来源:国知局
一种基于残差门控循环单元的语音识别方法与流程

本发明涉及技术计算机应用领域,具体涉及一种基于残差门控循环单元的语音识别方法。



背景技术:

深度学习是一种新兴的技术,被认为是达到更高水平人工智能最有前途的方向之一,众多的领域也因深度学习而得到了巨大的进展。其中,在在语音识别方面,深度学习技术已显著的超过了传统的高斯混合隐马尔可夫模型(gaussianofmixturehiddenmarkovmodel,gmm-hmm)模型。

由于循环神经网络(recurrentneuralnetwork,rnn)能正确捕获长期依赖关系,同时语音是连续的信号,所以在语音识别领域中使用rnn是非常合适的。然而,传统的rnn可能会因为梯度消失和梯度爆炸而产生糟糕的后果。1997年hochreiter和schmiduber提出的基于rnn提出了长短期记忆网络(longshort-termmemory,lstm),通过门限互相限制,成功的缓解了传统rnn上的梯度消失和梯度爆炸问题。虽然诸多文献已证明lstm的有效性,但是其繁杂的门限也增加了网络实现的难度,同时训练也非常耗时,于是在2014年cho等人提出了lstm最具代表性的改进,也就是门控循环单元(gatedrecurrentunit,gru)。gru与lstm有着相似的效果,同时拥有着更简洁的构造和更短的训练耗时。

神经网络的成功主要来自它的深层架构,诸多研究结果表明训练更深层的网络可以增加特征的表征能力,但是训练一个深层的网络是一件困难的事情。对于rnn网络来说,拥有着长时序传输能力使得它相比于卷积神经网络(convolutionalneuralnetwork,cnn)更难进行深层的训练。对于lstm、gru等结构的rnn来说随着训练网络层数的增加,梯度爆炸、梯度消失、网络退化、过拟合等诸多问题也会越来越严重。梯度爆炸可以通过2015年google提出的批标准化(batchnormalization)来缓解,或者采用简单的梯度裁剪来避免。但是,想要解决梯度消失、网络退化却十分困难。2015年由rupeshkumarsrivastava等人提出高速公路网络(highwaynetworks)来缓解梯度消失的问题,但是这种结构却增加了参数量,使算法耗时大大增加。2015年何凯明在cnn中提出了结合残差连接,是2015年深度学习领域最具影响力的成果之一。残差连接技术通过连接跨层的信息使网络能够缓解梯度消失以及网络退化,并且没有增加参数量,大大缓解了梯度消失、网络退化问题的发生。对于残差连接应用于cnn的优秀特性使得很多研究者尝试将其用于循环神经网络中。然而对于门控循环单元的循环神经网络来说,门控循环单元是属于rnn神经网络的变体,不仅具有当前帧的特征参数还拥有时序依赖性的时间参数,所以直接在门控循环神经网络上套用残差连接达到的效果并不理想。



技术实现要素:

针对现有技术的不足,本发明提供了一种基于残差门控循环单元的语音识别方法,包括以下步骤:

步骤1,提取数据的特征值,特征值可以为多种,如mfcc(梅尔频率倒谱系数)、fbank(滤波器组)等特征形式,具体提取过程可参考开源项目kaldi中的各种特征值标准提取过程;

步骤2,将提取好的特征值做均值方差归一化(cepstralmeanandvariancenormalization,cmvn)以及差分处理;

步骤3,使用经过步骤2处理好的特征值训练高斯混合隐马尔科夫模型(gaussianofmixturehiddenmarkovmodel,gmm-hmm),得到训练好的三音素的高斯混合隐马尔科夫模型;

步骤4,建立残差门控循环单元的循环神经网络结构;

步骤5,设置残差门控循环神经网络的全连接层以及分类层;

步骤6,设置残差门控循环神经网络权重初始化方式为正交初始化;

步骤7,为残差门控循环神经网络设置批标准化;

步骤8,设置残差门控循环神经网络的超参数,包括神经元个数、网络层数、批大小、学习率等多个超参数;

步骤9,配置残差门控循环神经网络的损失函数以及优化器;

步骤10,经过残差门控循环神经网络的迭代之后输出模型文件,得到声学模型;

步骤11,将声学模型和语言模型以及发声词典等通过加权有限状态转换器(weightedfinaite-statetransducer,wfst)静态编译组成搜索网络;

步骤2包括:

步骤2-1,均值方差归一化可以消除数据采集时产生的特征差异较大的问题。均值方差归一化具体做法是使特征的均值为0,方差为1,其计算公式为:

其中,x为数据输入,即提取好的特征值;μ为归一化之前的均值;σ为归一化之前的标准差;z为归一化之后的数据;

步骤2-2,由于语音信号是时域连续的,步骤1所提供的特征信息只反应了当前帧语音的特性,为了使特征更能体现时域连续性,在特征维度增加前后帧信息的维度。常用的是一阶差分和二阶差分操作,将差分前的特征输入差分运算,得到差分之后的特征。根据如下公式对特征数据进行差分运算:

式中,dt表示第t个一阶差分,ct表示第t个倒谱系数,q表示倒谱系数的阶数(通常为12到16),k表示一阶导数的时间差,取1或2;将公式(2)的结果再代入公式(2)则得到二阶差分的参数。

步骤3包括:

步骤3-1,本发明的残差门控循环网络以基于隐马尔科夫模型(hiddenmarkovmodel,hmm)来做具体解释说明以及实验验证,所以需要高斯混合隐马尔科夫模型提供的对齐标签来作为目标标签。高斯混合隐马尔科夫属于非常成熟的技术了,且非本发明重点介绍内容,所以这里只对建立高斯混合隐马尔科夫模型的流程做简要说明。

高斯混合模型(gaussianofmixture,gmm)的公式为:

式中,y是特征分布,也就是观测数据;是第i个高斯的方差;θ为(μ,σ2),θi为第i个高斯;αi是第i个高斯的混合参数;n为高斯分布的数量;μi为第i个高斯的均值;p(y|θ)表示高斯混合模型。

步骤3-2,对于高斯混合模型,使用期望最大化算法来计算高斯混合模型中每个高斯的均值、方差以及混合参数,同时结合维特比算法得到特征与音素的帧级别对齐信息,从而得到单音素的高斯混合隐马尔科夫模型,再通过高斯分裂以及期望最大化算法得到三音素的高斯混合隐马尔科夫模型,同时结合对齐处理得到三音素的帧对齐标签。所述期望最大化算法属于非监督学习算法,通过迭代来得到高斯混合模型中每个高斯的均值、方差以及混合参数。对于期望最大化算法和维特比算法以及得到三音素的高斯混合隐马尔科夫模型的算法等操作都属于已成熟的常用算法,具体可以参照语音识别开源项目kaldi。

步骤4包括如下步骤:

步骤4-1,建立残差门控循环神经网络算法的前向算法:首先建立重置门和更新门,设zt和rt分别为更新门向量和重置门向量,xt为当前的输入,ht-1为前时刻帧的输入当前时刻的状态向量,w与u为模型参数也就是权重向量,b为偏置向量;更新门向量和重置门公式如下:

zt=σ(netz),

netz=wzxt+uzht-1+bz,

rt=σ(netr),

netr=wrxt+urht-1+br,

式中,netz为更新门未激活值;netr为重置门未激活值;wz与uz为更新门权重;bz为更新门偏置向量;wr与ur为重置门权重;br为重置门偏置向量,σ为sigmoid激活函数(s函数),sigmoid激活函数公式如下:

式中,x为函数输入;e为自然常数。

步骤4-2,使用如下残差门控循环单元的候选隐状态公式:

式中,at为候选隐状态值;为上一层未激活的候选隐状态值;neta为当前层未激活值的候选隐状态,若neta与维度不匹配时需要乘以维度匹配矩阵w1避免维度不一致;ua与wa为候选隐状态的权重;ba为偏置向量;为激活函数,可选用非饱和激活函数中的一种。

非饱和激活函数有多种变体,这里用线性整流函数relu(rectifiedlinearunit,relu)作为激活函数,relu的公式为:

式中,x为函数输入值;

步骤4-3,最后构建单元的隐状态:

ht=(1-zt)⊙ht-1+zt⊙at

式中,ht为隐状态输出值。

步骤5包括:

步骤5-1,如果设置的神经网络神经元数与步骤3的得到的标签数不匹配,则需要在神经网络训练层后连接一层全连接层来修正神经元输出值的维度,全连接层公式如下:

z=wyh,

式中,wy为维度匹配矩阵,其意义为使h的维度与z的维度保持一致;h为残差门控循环神经网络最后一层的神经元输出;z为全连接层输出值。

步骤5-2,在全连接层之后需连接分类层进行分类,这里给出归一化指数函数s(z)j公式用于分类处理:

式中,z为全连接层的输出,也是此时归一化指数函数的输入;e为自然常数;n为类别数(类别数来自步骤3中高斯混合模型得到的标签数);zj表示z的第j元素,j的范围为1到n;zn表示z的第n元素,n取值为1到n。

步骤6包括:

正交初始化是将wz、wr、wa、uz、ur、ua的初始值初始化为单位正交矩阵,单位正交矩阵a需满足如下条件:

a为正交矩阵;

a的转置at为正交矩阵;

aat=e,e为单位矩阵;

a的各行是单位向量且两两正交;

a的各列是单位向量且两两正交;

(ax,ay)=(x,y),x,y都为常数;

|a|=1或-1;

a的维度为权重所在的神经网络层的神经元个数。

步骤7包括:

批标准化的公式如下:

其中,为输入值zi经过标准化之后的新输入值;σ2为方差;μ为均值;m为输入的维度;ε等于10-8

步骤8包括:

具体参数设置由语音数据的不同需要进行不同的配置,一般选择神经元数为300到2000;本发明的残差门控循环神经网络允许设置较高的网络层数,但太高也会产生过拟合现象,所以设置不超过10层的网络层数;批大小设置为4以上;学习率一般设置0.0008左右或更低;迭代次数一般选择20次以上。

步骤9包括:

损失函数的输入是残差门控循环网络前向算法输出的预测值以及高斯混合模型提供的标签;输出是衡量预测值与标签之间差异的损失值。损失函数作用于前向传播计算分类层之后。优化器是优化梯度下降算法的优化器,可以加速梯度下降的计算,使网络更快收敛。损失函数以及优化器都有多种选择,下为常用的交叉熵损失函数(crossentropyloss)以及均方根传递(rootmeansquareprop,rmsprop)优化器的计算公式。

交叉熵损失函数loss(s,y)的公式为:

式中,n为期望输出(标签)的数量;y是期望输出,yj是第j个期望输出;s是步骤5-2的归一化指数函数输出的预测值,sj是第j个预测值。

均方根传递优化器的公式为:

式中,sdw为梯度动量,其初始值为0;α为步骤8中设置的学习率;β为衰减速率,一般取0.95;dw为权重梯度;w为权重;ε等于10-8为更新的梯度动量;为更新的权重值。

步骤10包括如下步骤:

步骤10-1,更新残差门控循环神经网络,通过反复迭代更新权重来完成训练任务:在正向传播过程中,输入层经隐含层,逐层处理并传向输出层,其中在残差门控循环神经网络中还存在着时序传播。如果在输出层得不到期望的输出值,则取输出与期望的误差得到的目标函数,转入反向传播,逐层求出目标函数对各神经元权值的偏导数,构成目标函数对权值向量的梯度,作为修改权重的依据,神经网络的学习是在权值修正的过程中完成的。误差达到期望值的时候则表明循环神经网络训练完成。

残差门控循环神经网络的每一次迭代过程都是要经过步骤4的公式进行正向传播,接着根据损失函数计算权重梯度完成反向传播的计算,最后利用选择的优化器进行梯度下降更新权重参数的值,其中,在反向传播是需要计算误差项来辅助计算权重梯度,以下为推导误差项之前的部分设定及公式:

relu以及sigmoid的导数分别为:

sigmoid(x)′=sigmoid(x)(1-sigmoid(x))

其中,x为输入值,符号′为求导符。

在步骤4中已经构建的残差门控循环单元的前向传播的算法式子,由于使用批标准化算法辅助加速,所以算法中偏置向量b忽略不计,则残差门控循环单元的前向传播的算法改写为:

zt=σ(netz),

netz=wzxt+uzht-1,

rt=σ(netr),

netr=wrxt+urht-1,

ht=(1-zt)⊙ht-1+zt⊙at,

设一个时刻t的损失为et,则对于单个样本的在所有时刻的损失e为:

其中,t为时间总值。

步骤10-2,由于所述残差门控循环神经网络具备时序性同时也拥有网络深度,所以在反向传播时分为两个方向进行:一个是沿时间轴的反向传播,即从当前t时刻开始,计算每个时刻的误差项;另一个是沿空间轴将误差项向上一层传递。

首先是时间轴上的权重参数进行反向传播的分析,以下为时间轴上误差项的推导:

设误差项是损失函数对输出值的导数,则在t时刻,残差门控循环单元的输出值为ht,定义t时刻的损失et对ht的误差项δt为:

根据如下公式计算候选信息误差项δa,t:

在neta为正数时得到δa,t为:

根据如下公式计算更新门误差项δz,t:

根据如下公式计算重置门误差项δr,t:

根据如下公式计算在时间轴上向前反向传递误差项δt-1:

则有误差项向前传递到任意k时刻δk的公式:

其中,上标t表示矩阵转置;下标j表示时刻数;下标z为更新门参数;下标r为重置门参数;下标a为候选隐状态参数;δr,j表示时刻j的重置门参数,δz,j表示时刻j的更新门参数,δa,j表示时刻j的候选隐状态参数;

步骤10-3,对空间轴上误差项的推导如下:

设当前为第l层,定义l-1层的误差项是误差函数et对l-1层加权输入的导数:

由于循环神经网络的输入是上一层的输出,则简写为:

其中,fl-1表示第l-1层的循环神经网络计算;为第l-1层的单元值;是第l-1层的输出,同时也是第l层的输入;

因为都是关于xt的函数,xt又是的函数,因此要求出e对的导数,就要使用全导数公式:

其中,的作用是用于计算更新更新门和重置门的权重;

在本发明的残差门控循环单元中使用了残差连接,所以更新候选值中的权重不需使用来计算,而是根据下面对候选值空间轴上的误差项进行计算:

设l为当前循环神经网络的最高层层数,设l为目标层数,设定一个函数f(m)l用来代替中的部分公式:

f(m)l=waxt+ua(ht-1⊙rt),

则有:

由relu的函数性质有:

其中,为第l层t时刻的候选隐状态值;为第l层t时刻的未激活的候选隐状态值;

根据如下公式计算的偏导

根据如下公式计算候选隐状态在空间轴上传播的误差项

步骤10-4,反向传播需计算所有权重的梯度,在步骤10-2与步骤10-3中已得到了所有计算权重梯度所需的误差项,开始计算权重梯度:

首先,对权重参数u的梯度的进行计算:

将各个时刻的权重参数u的梯度加在一起,得到最终的权重参数u的梯度:

步骤10-5,对于权重参数w的梯度的计算:

步骤10-6,利用10-4以及10-5所得到的权重梯度代入步骤9的优化算法进行梯度下降,即能够完成一次迭代。经过反复的迭代更新,最后将步骤4到步骤9的网络结构以及更新好的权重参数wz、wr、wa、uz、ur、ua一起输出为pkl文件作为语音识别的声学模型。

步骤11包括如下步骤:

步骤11-1,输出最终的结果必须要使声学模型结合语言模型完成语音识别,可使用的语言模型有多种选择,并不固定,例如二元模型(2-gram)、三元模型(3-gram)等。目前最常用的为三元模型。

在n元模型(n-gram)中。假定一个词序列w有m个词,设wi表示序列w的第i个词(0<i<m),那么这个序列的概率p(w)的计算可以表示为很多个条件概率的乘积:

式中,p(w1,w2,…,wm)表示词w1到wm同时存在发生的概率;p(wi)表示句子的第i个词是词wi的概率;p(wm|w1,w2,…,wm-1)表示为

由于n元模型要估计的词太多太长,所以三元模型每次只取3个词,设三元模型概率为p(t)则有:

p(t)=p(w1)*p(w2|w1)*p(w3|w2,w1)*p(wm|wm-1,wm-2)

式中,p(w1)表示以词w1开头的句子的概率;p(w2|w1)表示以词w1和w2开头的句子的概率;p(wm|wm-1,wm-2)表示

步骤11-2,语音输入o给定时,要最大化词序列w的后验概率p(w|o),可根据贝叶斯公式来求解,其中贝叶斯公式为:

式中,p(o)不随w变化,为常量;p(o|w)为声学模型概率;p(w)为语言模型概率。由于p(o)为常量所以可以被省略,所以要使p(w|o)最大化则可以表示为:

p(w|o)=argmax(p(o|w)p(w))

式中,argmax()函数表示寻找具有最大评分的参量

将声学模型、语言模型、发声字典表示成wfst的形式,其中发声字典为用户设定,包含了每个字的发音及声调等,用于连接声学模型和语言模型。通过wfst(加权有限状态转换器)组成一个解码网络:

式中,符号表示组合操作;符号det表示确定化操作;符号min表示最小化操作;h表示hmm(隐马尔可夫)的定义,输出符为上下文相关音素;c表示上下文关系,输入是上下文相关的音素,输出是音素;l是发音字典,输入是音素,输出是词;g是语法接收器,用于描述语料前后词的关系。

输入语音信号特征,从声学模型得到对应状态,接着将对应状态输入hclg(解码网络)就完成了从语音到词句的转换。

针对循环神经网络梯度消失以及网络退化问题,本发明提供一种基于残差门控循环单元的语音识别方法,这里简称为r-gru。r-gru主要是基于门控循环单元结构的改进,该算法与传统gru、highway-gru(使用高速公路网络的门控循环单元)以及lstm等模型在语音识别的声学模型上进行了对比实验。本发明提出的算法的词识别效果明显优于多种网络结构,并且本发明算法没有增加多余参数量和算法训练耗时。

有益效果:本发明发现传统的循环神经网络存在着严重网络退化问题,而highway-gru模型虽然能缓解退化降低错误率,但是其算法增加了过多的参数,且运行耗时很高。在不增加参数量的条件下,本发明在gru基础上进行了修改激活函数以及建立残差连接等改进,使网络的候选隐状态进行反向传播时,不存在网络结构的连续相乘而导致的梯度消失问题,可以缓解网络退化问题。实验结果表明,本发明提出的算法明显优于gru、lstm以及highway-gru,具备更低错误率以及较低的算法耗时。

附图说明

下面结合附图和实施例对本发明作进一步说明:

图1为语音识别系统流程图。

图2为残差门控循环单元结构图。

图3为gru与r-gru损失变化曲线。

具体实施方式

神经网络的成功主要来自它的深层架构,诸多研究结果表明训练更深层的网络可以增加特征的表征能力,但是训练一个深层的网络是一件困难的事情。随着网络层数的增加,随之而来的网络退化等问题,使得人们在训练更深的网络结构时往往会得到不好的结果。本发明通过改进门控循环单元的候选隐状态的算法,修改激活函数,并添加残差连接如图2,使r-gru能够进行更深的训练。图1为语音识别系统流程图,以下步骤构建完整的r-gru单元的循环神经网络,完成语音识别声学模型的训练任务:

1)从待训练的语音数据中提取特征值,如mfcc(梅尔频率倒谱系数)、fbank(滤波器组)等特征,详细步骤可以参照开源项目kaldi。

2)运用特征值训练高斯混合隐马尔科夫模型,通过高斯混合模型得到帧与音素之间的对应关系以及上下文相关的三音素,详细步骤可以参照开源项目kaldi。

3)建立残差门控循环单元,单元结构算法公式为:

zt=σ(netz)

netz=σ(wzxt+uzht-1+bz)

rt=σ(netr)

netr=σ(wrxt+urht-1+br)

ht=(1-zt)⊙ht-1+zt⊙at

4)残差门口循环神经网络之后设置一层全连接层:

z=wyh

式中,wy为维度匹配矩阵,其意义为使h的维度与z的维度保持一致;h为残差门控循环神经网络最后一层的神经元输出;z为全连接层输出值。

5)全连接层之后设置一个分类器进行分类,归一化指数函数分类器公式为:

式中,z为全连接层的输出,也是此时归一化指数函数的输入;e为自然常数;n为类别数(类别数来自步骤3中高斯混合模型得到的分类数);zj表示z的第j元素,j的范围为1到n;zn表示z的第n元素,n取值为1到n;s(z)j表示输出的第j个预测值。

6)设置神经元个数、网络层数、批大小、学习率等多个超参数。具体参数设置由语音数据的不同需要进行不同的配置,一般选择神经元数为300到2000;本发明的残差门控循环神经网络允许设置较高的网络层数,但太高会不可避免的发生过拟合现象,所以设置不超过15层的网络层数;批大小设置为4以上;学习率一般设置0.0008左右或更低;迭代次数一般选择20次以上。

7)配置损失函数以及优化器。以下为交叉熵损失函数公式以及均方根传递优化器的公式。

交叉熵损失函数loss(s,y)的公式为:

式中,n为期望输出(标签)的数量;y是期望输出,yj是第j个期望输出;s是5)中归一化指数函数输出的预测值集合,sj是第j个预测值。

均方根传递优化器的公式为:

式中,sdw为梯度动量,其初始值为0;α为步骤8中设置的学习率;β为衰减速率,一般取0.95;dw为权重梯度;w为权重;ε等于10-8为更新的梯度动量;为更新的权重值。

8)为了加快网络训练,缓解梯度爆炸问题发生,为网络设置批标准化,批标准化的公式为:

其中,为输入值zi经过标准化之后的新输入值;σ2为方差;μ为均值;m为输入的维度;ε等于10-8

9)设置网络权重初始化方式为正交初始化,把转移矩阵初始化为单位正交阵。

10)将特征值作为输入,高斯模型得到的音素对应关系作为分类的标签,一起输入神经网络。

11)神经元按照3)、4)以及5)中公式进行前向传播,接着结合损失函数值计算权重参数的梯度进行反向传播更新权重参数,最后经过反复迭代训练得到最终的模型。其中,对于候选隐状态来说:

l为网络的层数,设:

f(m)l=waxt+ua(ht-1⊙rt)

设l为目标层数:

在空间上,对的偏导则:

则候选隐状态的第l层误差项为:

可见相比普通传统的网络,添加残差连接后候选隐状态不存在网络结构级的连续相乘而导致的梯度消失问题。这种方法可以使循环网络更敏感,能够很好缓解网络退化问题

12)结合语言模型以及训练好的声学模型完成语音识别解码任务,输入待测语音信息的特征值,取得识别结果。

实验结果:

本发明为了更好的对实验效果进行展示,采用了德州仪器、麻省理工学院和sriinternational合作构建的标准timit连续语音语料库作为实验数据。采用较常用的mfcc(梅尔频率倒谱系数)作为特征值进行试验。为了让对比更充分,这里选择gru、lstm、highway-gru以及gru-relu完成多组不同层数的神经网络训练做效果对比。每层都设置450个神经元;都设置了20%的遗忘率(dropout);权重初始化都为正交初始化;批处理量为8;所有的模型损失函数都为交叉熵损失函数;优化器都为均方根传递优化器,动量为0.95;初始学习率都为0.0008;都使用了批标准化技术;所有模型都进行25次迭代训练。

评价标准采用词识别错误率(wer),为使识别出的词序列与标准词序列保持一致,则wer的计算公式如下:

其中,s为替换词(substitutions),d为删除词(deletions),i为插入词(insertions),n为标准的词序列中词个数(totalwordsincorrecttranscript)。

图3为单向gru与单向本发明的r-gru的损失值变化图。为了让对比效果更明显,本发明选择了3层、5层以及7层的网络层数,且没有使用学习率衰减。通过图3可以发现传统gru的损失值随着网络层数的增加而越来越糟糕,而本发明的r-gru能随层数增加而有效降低损失值,表明r-gru确实具备良好缓解网络退化的能力。

表1展示了gru、lstm、highway-gru、gru-relu以及本发明的r-gru的不同层数的词识别错误率,为了便于训练,本发明都使用了单向的循环结构。其中,gru-relu是将激活函数换成relu的gru;highway-gru是使用了highwaynetwork技术的gru。可以很明显的发现,传统的gru与lstm在层数增加时明显效果变差,且gru的效果比lstm要差,而highway-gru的效果相对于gru是有较好的结果,但其消耗的时间却明显高于其他结构。可以明显的发现本发明的r-gru是有效的,在同为7层的时候r-gru比同层数的gru词识别错误率要低了1.4%,比lstm要低0.9%。在层数相同时r-gru的运行耗时与传统的gru基本一致,且低于lstm、highway-gru。

表1

本发明发现传统的循环神经网络存在着严重网络退化问题,而highway-gru模型虽然能缓解退化降低错误率,但是其算法增加了过多的参数,且运行耗时很高。在不增加参数量的条件下,本发明在gru基础上进行了修改激活函数以及建立残差连接等改进,使网络能够更有效的进行残差学习,缓解网络退化问题。实验结果表明,本发明提出的算法明显优于gru、lstm以及highway-gru,具备更低错误率以及较低的算法耗时。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1