一种基于改进二次判别式的语音情感识别方法

文档序号:2830959阅读:409来源:国知局

专利名称::一种基于改进二次判别式的语音情感识别方法
技术领域
:本发明涉及一种语音识别方法,特别涉及一种语音情感识别系统及方法。
背景技术
:语音情感自动识别技术主要包括两个问题一是采用语音信号中的何种特征作为情感识别,也就是情感特征提取的问题,一是如何将特定的语音数据进行分类,也就是模式识别的问题。语音情感识别中常用的情感特征主要是韵律参数及音质参数,前者包括持续时间、语速、能量、基音频率及其衍生参数,音质参数主要是是共振峰、谐波噪声比及其衍生参数等。但是由于人和人之间存在的个体差异性(声道的易变性、声道特征、单词发音音调等)目前存在的方法都难以实现基音和共振峰的精确检测,单纯的使用基音、共振峰等常见的参数难以实现较高的情感识别率。根据三维情感空间理论,韵律参数主要是体现各种情感在激活维坐标的参数,而音质参数则主要是表征情感在效价维的坐标。对于在激活维坐标较远的情感,韵律参数可以表征出较好的差异性;对于在激活维坐标较近而效价维坐标较远的情感,需要音质类参数来加强表征参数差异性。在本发明之前,在已有的各种识别方法中,神经网络法虽然具有高度的非线性和极强的分类能力,但是随着网络的增大所需学习时间增加很快,另外局部极小问题也是一个不足之处;隐马尔可夫法(HMM)在建立和训练时间上较长,应用于实际还需要解决计算复杂度过高的问题。二次判别式虽然算法简单计算量小,但是必须以特征矢量服从正态分布为前提,极大的影响了识别率,而到目前为止,特征矢量的正态化,例如开根或Box-Cox变换,对近r分布的参数有较好的效果,而上面提到的参数分布是多样非正态的,对其概率函数如何寻找更有效的正态变换是釆用二次判别式进行识别过程中必须考虑的问题。
发明内容本发明的目的就在于克服上述现有技术的缺陷,设计、研究一种基于改进二次判别式的语音情感识别方法。本发明的技术方案是-一种基于改进二次判别式的语音情感识别方法,其主要技术步骤为建立特征提取分析模块、改进二次判别模型、情感识别模块。特征提取分析模块包括两类参数的提取和分析韵律参数和音质参数。首先对原始语音信号预加重、分帧,然后分别进行特征提取。(1)韵律参数提取(l-l)将原始语音信号经高通滤波器预处理,提取发音持续时间、语速参数;(1-2)分帧,加窗;(1-3)应用短时分析技术,分别提取各帧语句主要特征参数基频轨迹、短时能量轨迹、浊音段清音段时间比;(l-4)提取部分韵律特征参数的衍生参数短时能量最大值、最小值、均值和方差,短时能量抖动最大值、最小值、均值和方差,基频最大值、最小值、均值和方差,基频抖动的最大值、最小值、均值和方差。其中短时能量抖动的计算如下-讳《1"3,…,w(式d其中《是第/帧短时能量,7V为帧数。基频抖动的计算同(式l)。(2)音质特征参数提取(2-1)提取声门波参数的最大值、最小值、均值和方差,包括声门开启时间与整个声门周期比(OQ,openquotient)、声门开启过程时间与闭合过程时间比(SQ,speedquotient)、声门闭合时间与整个声门周期比(CQ,ClosedQuotient)、声门闭合过程时间与整个声门周期比(C1Q,ClosingQuotient)、声门波歪斜度;(2-2)提取谐波噪声比最大值、最小值、均值、方差;(2-3)提取前三个共振峰最大值、最小值、均值、方差和带宽;(2-4)提取前三个共振峰抖动的最大值、最小值、均值、方差;共振峰抖动计算同(式l);(3)特征降维(3-1)将(1)(2)中全部特征提取完毕后,组成特征矢量;(3-2)采用独立分量神经网络分析法对所有特征降维,神经网络权值向量更新公式巧+1]=w乂W+//(^[A]x'W—力2Ww乂W)(式2)x'=xW-ZO[A:]y,|>](式3)这里选择可以保证90%以上信息的主分量个数为25。(4)改进二次判别式的建立(4-1)从情感语句库中选取高兴、生气、悲伤、恐惧、惊讶五类情感各iV,.条语句作为训练样本,11^=^;(4-2)对第z'类第fc条情感语句,抽取其特征参数构成一个特征参数矢量v…,^'r,然后对其正态化变换得到h'、(h/,h2',…,a;);V^刈(式4)、<V=o(4-3)以h'服从正态分布为前提,求得V的概率密度函数M^lw,)的对数形式;4^')=—会U'—/vH')—!(^'_/V)_^inMd=i&、'(式5)(4-4)求取户(&'iw)中参数估计值;二^lT,^/处进行泰勒展开,并代入(式5),并令4')=0,得到"2,3,4(式7)(4-5)根据(4-2)(4-4),根据男女性别分别建立五类情感的二次判别式;(5)情感识别按照步骤(1)、(2)提取待识别语句的特征矢量,根据步骤(3)所提供的权值向量进行降维,得到降维后特征矢量x,按照性别输入到各个二次判别式中,选择具有最大输出值所对应的情感为待识别语句的情感。本发明的优点和效果在于1.通过对情感语句的特征参数提取与分析,将参数从韵律参数扩充至音质参数,增加了特征参数的有效性;2.釆用独立分量祌经网络对所提取的特征矢量进行降维,不仅减少了计算量,而且在一定程度上起到了降噪作用;3.充分考虑了特征矢量非正态分布的实际情况,在识别前对原始特征进行非线性变换以得到正态化参数,较以往其他变换更有效;4.获得更确切的原始特征矢量概率密度函数用于建立改进的二次判别式,并在此基础上提供了一个实用的、性能优良的高识别率语音情感识别系统,获得最好的语音情感识别;5.方法简单,计算量较小。本发明的其他优点和效果将在下面继续描述。图1——语音情感识别系统框图。图2——情感特征提取分析模块流程图。图3——声门门波形及其微分波形图图4——独立分量神经网络示意图图5——开根法、Box-Cox变换和本发明变换对特征参数正态化的峭度比较图6——基于改进二次判别函数的语音情感识别结果具体实施例方式下面结合附图和实施例,对本发明所述的技术方案作进一步的阐述。图l为本系统框图,主要分为3大块特征提取分析模块、改进二次判别式模块和语音情感识别模块。整个系统执行过程分为训练过程和识别过程。训练过程包括特征提取分析、改进二次判别式的建立;识别过程包括特征提取分析、语音情感识别。一.情感特征提取分析模块1.韵律特征参数选择韵律特征参数包括短时能量最大值、最小值、均值和方差;短时能量抖动最大值、最小值、均值和方差;基频的最大值、最小值、均值和方差;基频抖动的最大值、最小值、均值和方差;浊音段清音段时间比;语速。首先,根据附图2中的特征参数提取流程将待提取特征语句进行预加重处理,包括高通滤波、语句开始端点与结束端点的检测;提取全句的语句发音持续时间、语速这两个特征;然后对语句分帧加窗,采用短时分析技术,按照男女性别,分别求出各帧基频、短时能量、浊音帧数和清音帧数,将各帧所得参数汇总,分别得到语句的基音轨迹、基音抖动轨迹、短时能量轨迹和短时能量抖动轨迹,进而获得它们的特征统计量,得到上述全部韵律特征参数。2.音质特征参数选择音质特征参数包括0Q的最大值、最小值、均值和方差;SQ的最大值、最小值、均值和方差;CQ的最大值、最小值、均值和方差;C1Q的最大值、最小值、均值和方差;《的最大值、最小值、均值和方差;第一共振峰最大值、最小值、均值、方差和带宽;第一共振峰抖动的最大值、最小值、均值、方差;第二共振峰最大值、最小值、均值、方差和带宽;第二共振峰抖动的最大值、最小值、均值、方差;第三共振峰最大值、最小值、均值、方差和带宽;第三共振峰抖动的最大值、最小值、均值、方差;谐波噪声比最大值、最小值、均值、方差。多个音质参数的选取是本文方法的特点之一。虽然韵律特征在识别中起主导作用,但在识别某些激活维接近效价维分离的情感时,如高兴和生气,音质特征可以起到有效补充作用。音质参数是反映发音时声门波形状的变化,其影响因素有肌肉张力,声道中央压力以及声道长度张力,具体的有声源类型(发音方式)、声门波参数和声道共振峰参数。LF模型(Liljencrants-FantMode)是常用的描述声门波的模型,如图3所示,T。基音周期;Z。声门开启时刻;~:声门闭合时刻;声门波达到最大峰值时刻;差分波达到最大负峰值时刻。根据此模型可提取如下声门波参数L一L7""10&=丄c/2=^乂o(式8)(式9)1—(9g(式IO)(式ll)(式12)具体实施时,仍然需要进行预加重处理,包括高通滤波、语句开始端点与结束端点的检然后对语句分帧加窗,分别得到声门波特征、共振峰特征、谐波噪声比等音质参数。在系统的执行过程中,特征提取分析是必不可少的。在训练过程中,训练样本的特征提取分析可以直接按照图2所示流程进行。在识别过程中,待识别语句的特征提取分析同样按照图2流程进行。3.特征降维前面分析提取了共69个特征参数,为避免维度过高而引起的计算复杂度提升,以及冗余信息对识别的影响,采用独立分量神经网络来实现降维,采用基于Hebb规则的线性无监督学习神经网络,如图4所示。通过对权矩阵『的学习,使权值向量接近于特征向量x的斜方差阵中特征值所对应的特征向量,避免直接对矩阵的求逆运算。得到降维后特征矢量少=『。权值向量修改规则如下w)&+1]=,W+W力W—VkkW)(式13)(式14)二.改进二次判别式1.改进二次判别式的推导从情感语句库中选取高兴、生气、悲伤、恐惧、惊讶五类情感各iV,条语句作为训练样本,Z^iV,-iV;对第/类第A条情感语句,抽取其特征参数构成一个特征参数矢量…,^/r,然后对其正态化变换得到;V、(V,;W,…,dexp()—l义..义/*0(式15);i/=o设h,'服从正态分布,求得'的概率密度函数的对数形式;》'将(式15)代入(式16),去掉常数项,整理得到:见丰,卜-f1,,将JV在V=+K>&'处进行泰勒展开乂,'(式17)(式16)A/〖,.、2〔一j+24^广^J+0^.(式18)义,氛,+■(式19)—丄Y^(,—"-v乙"i、少&—■/柳"=扭K'、卞,"3,412"4(式21)(式20)代入(式17),并令i;.=-\A,"丄0,得至U:耽6,(式22)同理,将特征矢量的密度函数取对数并简化丄k')=-会W-/vr)—1(h'-)-会一/1+i:二4v/7(X/IVV,.)中参数估计值;(式23)/V、+r:x'V:士r:,Gv-/vk-4(式24)1vw,.义,6附3;3、附2jj_7附〉^HW—VZ,叶2,3,4(式25)按照上述步骤分别建立不同性别各自的五种情感二次判别式。2.情感识别根据特征提取模块流程提取待识别语句特征矢量,按照男女性别进行判断,将输出最大值的二次判别式所对应的情感作为识别结果。三.识别系统的评价图5是本发明所用指数变换、开根变换、Box-Cox变换和无变换对特征参数正态化后峭度比较,从图中可以看出,无变换情况下,参数是远离正态分布的,正态化情况下,Box-Cox变换优于开根变换,本发明所用变换优于Box-Cox变换;图6所示是实施改进二次判别式同其传统二次判别式、基于开根的二次判别式和基于Box-Cox的二次判别式的识别结果。该结果表明,使用本发明方法对语音情感进行识别大大高于现有其他二次判别方法,克服了二次判别式以正态分布为前提的局限性,将具有多样分布特性的语音特征参数规整为正态或近正态分布,从而得到改进的二次判别形式。本发明请求保护的范围并不仅仅局限于本具体实施方式的描述。权利要求1.一种基于改进二次判别式的语音情感识别方法,其步骤为建立特征提取分析模块、改进二次判别模型、情感识别模块;特征提取分析模块包括两类参数的提取和分析韵律参数和音质参数;首先对原始语音信号预加重、分帧,然后分别进行特征提取;(1)韵律参数提取(1-1)将原始语音信号经高通滤波器预处理,提取发音持续时间、语速参数;(1-2)分帧,加窗;(1-3)应用短时分析技术,分别提取各帧语句主要特征参数基频轨迹、短时能量轨迹、浊音段清音段时间比;(1-4)提取部分韵律特征参数的衍生参数短时能量最大值、最小值、均值和方差,短时能量抖动最大值、最小值、均值和方差,基频最大值、最小值、均值和方差,基频抖动的最大值、最小值、均值和方差;其中短时能量抖动的计算如下<mathsid="math0001"num="0001"><math><![CDATA[<mrow><msubsup><mi>E</mi><mi>i</mi><mn>1</mn></msubsup><mo>=</mo><mo>|</mo><msubsup><mi>E</mi><mi>i</mi><mn>0</mn></msubsup><mo>-</mo><msubsup><mi>E</mi><mrow><mi>i</mi><mo>-</mo><mn>1</mn></mrow><mn>0</mn></msubsup><mo>|</mo></mrow>]]></math>id="icf0001"file="A2008101228050002C1.tif"wi="25"he="6"top="109"left="27"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>i=2,3,…,N(式1)其中Ei0是第i帧短时能量,N为帧数;基频抖动的计算同(式1);(2)音质特征参数提取(2-1)提取声门波参数的最大值、最小值、均值和方差,包括声门开启时间与整个声门周期比(OQ,openquotient)、声门开启过程时间与闭合过程时间比(SQ,speedquotient)、声门闭合时间与整个声门周期比(CQ,ClosedQuotient)、声门闭合过程时间与整个声门周期比(ClQ,ClosingQuotient)、声门波歪斜度;(2-2)提取谐波噪声比最大值、最小值、均值、方差;(2-3)提取前三个共振峰最大值、最小值、均值、方差和带宽;(2-4)提取前三个共振峰抖动的最大值、最小值、均值、方差;共振峰抖动计算同(式1);(3)特征降维(3-1)将(1)(2)中全部特征提取完毕后,组成特征矢量;(3-2)采用独立分量神经网络分析法对所有特征降维,神经网络权值向量更新公式wj[k+1]=wj[k]+η(yj[k]x′[k]-yj2[k]wj[k])(式2)<mathsid="math0002"num="0002"><math><![CDATA[<mrow><msup><mi>x</mi><mo>&prime;</mo></msup><mo>[</mo><mi>k</mi><mo>]</mo><mo>=</mo><mi>x</mi><mo>[</mo><mi>k</mi><mo>]</mo><mo>-</mo><msubsup><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mrow><mi>j</mi><mo>-</mo><mn>1</mn></mrow></msubsup><msub><mi>w</mi><mi>i</mi></msub><mo>[</mo><mi>k</mi><mo>]</mo><msub><mi>y</mi><mi>i</mi></msub><mo>[</mo><mi>k</mi><mo>]</mo></mrow>]]></math>id="icf0002"file="A2008101228050002C2.tif"wi="48"he="6"top="219"left="28"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>(式3)这里选择可以保证90%以上信息的主分量个数为25;(4)改进二次判别式的建立(4-1)从情感语句库中选取高兴、生气、悲伤、恐惧、惊讶五类情感各Ni条语句作为训练样本,<mathsid="math0003"num="0003"><math><![CDATA[<mrow><msubsup><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mn>5</mn></msubsup><msub><mi>N</mi><mi>i</mi></msub><mo>=</mo><mi>N</mi><mo>;</mo></mrow>]]></math>id="icf0003"file="A2008101228050002C3.tif"wi="21"he="6"top="255"left="32"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>(4-2)对第i类第k条情感语句,抽取其特征参数构成一个特征参数矢量xki=(xk1i,xk2i,…,xkmi)T,然后对其正态化变换得到yki=(yk1i,yk2i,…,ykmi);<mathsid="math0004"num="0004"><math><![CDATA[<mrow><msup><msub><mi>y</mi><mi>kj</mi></msub><mi>i</mi></msup><mo>=</mo><mfencedopen='('close=''><mtable><mtr><mtd><mfrac><mrow><mi>exp</mi><mrow><mo>(</mo><msup><msub><mi>&lambda;</mi><mi>j</mi></msub><mi>i</mi></msup><msup><msub><mi>x</mi><mi>kj</mi></msub><mi>i</mi></msup><mo>)</mo></mrow><mo>-</mo><mn>1</mn></mrow><msup><msub><mi>&lambda;</mi><mi>j</mi></msub><mi>i</mi></msup></mfrac></mtd><mtd><msup><msub><mi>&lambda;</mi><mi>j</mi></msub><mi>i</mi></msup><mo>&NotEqual;</mo><mn>0</mn></mtd></mtr><mtr><mtd><msup><msub><mi>x</mi><mi>kj</mi></msub><mi>i</mi></msup></mtd><mtd><msup><msub><mi>&lambda;</mi><mi>j</mi></msub><mi>i</mi></msup><mo>=</mo><mn>0</mn></mtd></mtr></mtable></mfenced></mrow>]]></math>id="icf0004"file="A2008101228050003C1.tif"wi="52"he="19"top="27"left="26"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>(式4)(4-3)以yki服从正态分布为前提,求得xki的概率密度函数p(xki|wi)的对数形式;<mathsid="math0005"num="0005"><math><![CDATA[<mrow><mi>L</mi><mrow><mo>(</mo><msup><msub><mi>x</mi><mi>k</mi></msub><mi>i</mi></msup><mo>)</mo></mrow><mo>=</mo><mo>-</mo><mfrac><mn>1</mn><mn>2</mn></mfrac><msup><mrow><mo>(</mo><msup><msub><mi>y</mi><mi>k</mi></msub><mi>i</mi></msup><mo>-</mo><msup><msub><mover><mi>&mu;</mi><mo>^</mo></mover><mi>y</mi></msub><mi>i</mi></msup><mo>)</mo></mrow><mi>T</mi></msup><msup><mrow><mo>(</mo><msup><msub><mover><mi>&Sigma;</mi><mo>^</mo></mover><mi>y</mi></msub><mi>i</mi></msup><mo>)</mo></mrow><mrow><mo>-</mo><mn>1</mn></mrow></msup><mrow><mo>(</mo><msup><msub><mi>y</mi><mi>k</mi></msub><mi>i</mi></msup><mo>-</mo><msup><msub><mover><mi>&mu;</mi><mo>^</mo></mover><mi>y</mi></msub><mi>i</mi></msup><mo>)</mo></mrow><mo>-</mo><mfrac><mn>1</mn><mn>2</mn></mfrac><mi>ln</mi><mo>|</mo><msup><msub><mover><mi>&Sigma;</mi><mo>^</mo></mover><mi>y</mi></msub><mi>i</mi></msup><mo>|</mo><mo>+</mo><msubsup><mi>&Sigma;</mi><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>m</mi></msubsup><msup><mrow><msub><mover><mi>&lambda;</mi><mo>^</mo></mover><mi>j</mi></msub></mrow><mi>i</mi></msup><msup><msub><mi>x</mi><mi>kj</mi></msub><mi>i</mi></msup></mrow>]]></math>id="icf0005"file="A2008101228050003C2.tif"wi="111"he="9"top="60"left="28"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>(式5)(4-4)求取p(xki|wi)中参数估计值;<mathsid="math0006"num="0006"><math><![CDATA[<mrow><msup><msub><mover><mi>&mu;</mi><mo>^</mo></mover><mi>y</mi></msub><mi>i</mi></msup><mo>=</mo><mfrac><mn>1</mn><msub><mi>N</mi><mi>i</mi></msub></mfrac><msubsup><mi>&Sigma;</mi><mrow><mi>k</mi><mo>=</mo><mn>1</mn></mrow><msub><mi>N</mi><mi>i</mi></msub></msubsup><msup><msub><mi>y</mi><mi>k</mi></msub><mi>i</mi></msup><mo>,</mo></mrow>]]></math>id="icf0006"file="A2008101228050003C3.tif"wi="34"he="10"top="84"left="26"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths><mathsid="math0007"num="0007"><math><![CDATA[<mrow><msup><msub><mover><mi>&Sigma;</mi><mo>^</mo></mover><mi>y</mi></msub><mi>i</mi></msup><mo>=</mo><mfrac><mn>1</mn><msub><mi>N</mi><mi>i</mi></msub></mfrac><msubsup><mi>&Sigma;</mi><mrow><mi>k</mi><mo>=</mo><mn>1</mn></mrow><msub><mi>N</mi><mi>i</mi></msub></msubsup><mrow><mo>(</mo><msup><msub><mi>y</mi><mi>k</mi></msub><mi>i</mi></msup><mo>-</mo><msup><msub><mover><mi>&mu;</mi><mo>^</mo></mover><mi>y</mi></msub><mi>i</mi></msup><mo>)</mo></mrow><msup><mrow><mo>(</mo><msup><msub><mi>y</mi><mi>k</mi></msub><mi>i</mi></msup><mo>-</mo><msup><msub><mover><mi>&mu;</mi><mo>^</mo></mover><mi>i</mi></msub><mi>y</mi></msup><mo>)</mo></mrow><mi>T</mi></msup></mrow>]]></math>id="icf0007"file="A2008101228050003C4.tif"wi="62"he="9"top="84"left="64"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>(式6)将ykji在<mathsid="math0008"num="0008"><math><![CDATA[<mrow><msup><msub><mover><mi>x</mi><mo>&OverBar;</mo></mover><mi>kj</mi></msub><mi>i</mi></msup><mo>=</mo><mfrac><mn>1</mn><mi>N</mi></mfrac><msubsup><mi>&Sigma;</mi><mrow><mi>k</mi><mo>=</mo><mn>1</mn></mrow><mi>N</mi></msubsup><msup><msub><mi>x</mi><mi>kj</mi></msub><mi>i</mi></msup></mrow>]]></math>id="icf0008"file="A2008101228050003C5.tif"wi="29"he="9"top="101"left="34"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>处进行泰勒展开,并代入(式5),并令<mathsid="math0009"num="0009"><math><![CDATA[<mrow><mfrac><mrow><mo>&PartialD;</mo><mi>L</mi><mrow><mo>(</mo><msup><msub><mi>x</mi><mi>k</mi></msub><mi>i</mi></msup><mo>)</mo></mrow></mrow><msubsup><mrow><mo>&PartialD;</mo><mi>&lambda;</mi></mrow><mi>j</mi><mi>i</mi></msubsup></mfrac><mo>=</mo><mn>0</mn><mo>,</mo></mrow>]]></math>id="icf0009"file="A2008101228050003C6.tif"wi="21"he="13"top="98"left="139"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>得到<mathsid="math0010"num="0010"><math><![CDATA[<mrow><msubsup><mover><mi>&lambda;</mi><mo>^</mo></mover><mi>j</mi><mi>i</mi></msubsup><mo>=</mo><mfrac><mrow><mn>6</mn><msup><msub><mi>m</mi><mrow><mn>3</mn><mi>j</mi></mrow></msub><mi>i</mi></msup></mrow><mrow><mn>3</mn><msup><mrow><mo>(</mo><msup><msub><mi>m</mi><mrow><mn>2</mn><mi>j</mi></mrow></msub><mi>i</mi></msup><mo>)</mo></mrow><mn>2</mn></msup><mo>-</mo><mn>7</mn><msup><msub><mi>m</mi><mrow><mn>4</mn><mi>j</mi></mrow></msub><mi>i</mi></msup></mrow></mfrac><mo>,</mo></mrow>]]></math>id="icf0010"file="A2008101228050003C7.tif"wi="42"he="14"top="115"left="26"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths><mathsid="math0011"num="0011"><math><![CDATA[<mrow><msup><msub><mi>m</mi><mi>rj</mi></msub><mi>i</mi></msup><mo>=</mo><mfrac><mn>1</mn><mi>N</mi></mfrac><msubsup><mi>&Sigma;</mi><mrow><mi>k</mi><mo>=</mo><mn>1</mn></mrow><mi>N</mi></msubsup><msup><mrow><mo>(</mo><msup><msub><mi>x</mi><mi>kj</mi></msub><mi>i</mi></msup><mo>-</mo><msup><msub><mover><mi>x</mi><mo>&OverBar;</mo></mover><mi>kj</mi></msub><mi>i</mi></msup><mo>)</mo></mrow><mi>p</mi></msup><mo>,</mo></mrow>]]></math>id="icf0011"file="A2008101228050003C8.tif"wi="47"he="9"top="117"left="72"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>r=2,3,4(式7)(4-5)根据(4-2)~(4-4),根据男女性别分别建立五类情感的二次判别式;(5)情感识别按照步骤(1)、(2)提取待识别语句的特征矢量,根据步骤(3)所提供的权值向量进行降维,得到降维后特征矢量x,按照性别输入到各个二次判别式中,选择具有最大输出值所对应的情感为待识别语句的情感。全文摘要本发明公开了一种基于改进二次判别式的语音情感识别方法,利用本方法可以有效降低由于情感特征参数统计概率分布多样性所带来的误识别率。本发明首先对特征参数进行了一种指数变换,使得变换后参数分布近正态化,然后以变换后参数服从正态分布为前提,估计出原始特征概率分布函数,并取对数形式,从而得到一种改进的二次判别式。与已有的其他一些特征正态化变换比较,本发明所采用的指数变换可以更有效的正态化特征参数,并且采用改进二次判别式可以有效提高识别率。文档编号G10L15/00GK101620852SQ20081012280公开日2010年1月6日申请日期2008年7月1日优先权日2008年7月1日发明者力赵,艳赵,邹采荣,昕魏申请人:邹采荣;赵力
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1