一种基于改进模糊矢量量化的语音情感识别方法

文档序号:2830960阅读:420来源:国知局
专利名称:一种基于改进模糊矢量量化的语音情感识别方法
技术领域
本发明涉及一种语音识别方法,特别涉及一种语音情感识别系统及方法。
背景技术
语音情感自动识别技术主要包括两个问题 一是采用语音信号中的何种特征作为情感识 别,也就是情感特征提取的问题,包括特征提取和选择; 一是如何将特定的语音数据进行分
类,也就是模式识别的问题,包括各种模式识别算法,如最近邻、神经网络、支持向量机等。 语音情感识别中用到的情感特征主要是韵律参数及音质参数,前者包括持续时间、语速、 能量、基音频率及其衍生参数,后者主要是是共振峰、谐波噪声比及其衍生参数等。根据三 维情感空间理论,韵律参数主要是表征各种情感在激活维坐标的参数,而音质参数则主要是 表征情感在效价维的坐标。对于在激活维坐标距离较远的情感,韵律参数可以表征出较好的
差异性;对于在激活维坐标距离较近而效价维坐标距离较远的情感,则需要音质类参数来加 强表征参数差异性。目前的参数提取方法大多存在精确检测的问题,而且这些参数主要体现 的是人体的声门和声道的特征,和人的生理构造有着密切的关系,在不同的个体上显现出较 强的相异性,这种差异在不同的性别上尤其明显。在本发明之前,在已有的各种识别方法中, 神经网络法虽然具有高度的非线性和极强的分类能力,但是随着网络的增大所需学习时间增 加很快,另外局部极小问题也是一个不足之处;隐马尔可夫法(HMM)在建立和训练时间上 较长,应用于实际还需要解决计算复杂度过高的问题。二次判别式虽然算法简单计算量小, 但是必须以特征矢量服从正态分布为前提,极大的影响了识别率。基于矢量量化的识别方法 则由于量化误差、初始值敏感等问题而较少使用,模糊矢量量化虽然一定程度上缓解了量化 误差问题,但仍易陷入初始值敏感和局部极小的问题。

发明内容
本发明的目的就在于克服上述现有技术的缺陷,设计、研究一种基于改进模糊矢量量化 的语音情感识别方法。 本发明的技术方案是
一种基于改进模糊矢量量化的语音情感识别方法,其步骤为
建立特征提取分析模块、特征降维模块、改进模糊矢量量化模块的训练、情感识别模块。 特征提取分析模块包括两类参数的提取和性别规整韵律参数和音质参数。首先对原始语音 信号预加重、分帧,然后分别进行特征提取。 (1)韵律参数提取
(1-1)将原始语音信号经高通滤波器预处理,提取发音持续时间、语速参数; (1-2)分帧,加窗;
(1-3)应用短时分析技术,分别提取各帧语句主要特征参数基频轨迹、短时能量轨迹、浊 音段清音段时间比;
(1-4)提取部分韵律特征参数的衍生参数短时能量最大值、最小值、均值和方差,短时能量抖动最大值、最小值、均值和方差,基频最大值、最小值、均值和方差,基频抖动的最大 值、最小值、均值和方差。其中短时能量抖动的计算如下-
《=|£,。一£,^| / = 2,3,...,iV (式l) 其中£,°是第/帧短时能量,7V为帧数。基频抖动的计算同(式l)。 (l-5)性别规整,按照样本所属的不同性别,归入不同的集合s,。再次分别计算各自的均值 M和方差q,这里用/表示不同的集合序号,利用下式将参数规整到相同的空间;
V = ^^ (式2)
(2) 音质特征参数提取
(2-1)提取声门波参数的最大值、最小值、均值和方差,包括声门开启时间与整个声门周
期比(OQ, open quotient)、声门开启过程时间与闭合过程时间比(SQ, speed quotient)、声 门闭合时间与整个声门周期比(CQ, ClosedQuotient)、声门闭合过程时间与整个声门周期 比(C1Q, Closing Quotient)、声门波歪斜度;
(2-2)提取谐波噪声比最大值、最小值、均值、方差;
(2-3)提取前三个共振峰最大值、最小值、均值、方差和带宽;
(2-4)提取前三个共振峰抖动的最大值、最小值、均值、方差;共振峰抖动计算同(式l); (2-5)性别规整,同(1-5);
(3) 特征降维
(3-1)将(1) (2)中全部特征提取和规整完毕后,组成特征矢量;
(3-2)采用主分量分析神经网络(PCANN)实现降维,得到样本特征矢量序列
(4) 改进模糊矢量量化
(4-1)对某种情感所有训练样本,计算任意两个样本间的欧氏距离,将距离最近的两个样
本定为一类,选定距离阀值丄,将与该两样本之一的距离在丄之内的所有样本判为此类; (4-2)将已有类别归属的样本及与这些样本有关的距离适当处理,不再使用;
(4-3)在剩下的样本中找到距离最近的一对样本,若它们之间的距离大于i:,则将这两个样
本分别定为一类,且各类中只有一个样本;若它们之间的距离小于丄,则选定距离阀值 < " S 1),将与该样本之一的距离在aZ之内的所有样本判属此类;
(4-4)重复步骤(4-2)、 (4-3),直到所有样本都被分类,若最后只剩一个样本,则将该样 本单独定为一类; (4-5)调整£及"丄,直到所有样本被聚成/类;
(4-6)将隶属度函数^(X,)的归一化条件扩大为力 iV ,按(式3)计算"*(《),按(式4)计算得到各类的类中心l^z、l,2,…力;
乂=1 /=i
1"",K"tV (式3)
(式4)
IX歐
-1""
其中me[l,oo)为模糊度,d(Z,.,i;)表示距离;
(4-7)选择常数oO,设置迭代次数yt-0,以(4-6)的类中心作为初始码本,采用模糊C 均值(FCM)聚类算法递推出码本巧(;=1,2,…力;
(4-8)对每种情感按(4-1) (4-7)训练出一个码本; (5)情感识别
(5-1)对于待识别语句按照步骤(1) (2) (3)求出特征矢量X,,把X,量化成由隶属度函
数组成的矢量t/(《)=kcx,),"^;^),...^/;^)}, 得到《的重构矢量i,和量化误差";
(式6)
(5-2)选择平均量化失真最小的那个码本对应的情感为识别结果。
本发明的优点和效果在于
1. 通过对情感语句的特征参数提取与分析,将参数从韵律参数扩充至音质参数,增加了特征 参数对识别的有效性;
2. 采用独立分量神经网络对所提取的特征矢量进行降维,不仅减少了计算量,而且在一定程 度上起到了降噪作用;
3. 将模糊隶属度函数归一化条件放宽,降低野点对码本的影响;
4. 采用基于相似性阀值和最小距离原则的聚类方法训练码本,避免了初值和局部极小问题;
5. 通过矢量量化把输入矢量《量化成由隶属度函数组成的矢量,而不是某个码字^,相当
于增加了码本的尺寸,降低了量化误差。
本发明的其他优点和效果将在下面继续描述。


图1——语音情感识别系统框图。
图2——情感特征提取分析模块流程图。图3——声门波及其微分波形图。 图4——主分量分析神经网络示意图。
图5——改进前后模糊矢量量化方法的情感识别结果比较。
具体实施例方式
下面结合附图和实施例,对本发明所述的技术方案作进一步的阐述。
如图1所示,是本系统框图,主要分为4大块特征提取分析模块、特征降维模块、模 糊矢量量化码本训练模块和情感识别模块。整个系统执行过程分为训练过程和识别过程。训 练过程包括特征提取分析、特征降维和模糊矢量量化码本训练;识别过程包括特征提取分析、 特征降维和情感识别。
一.情感特征提取分析模块
1. 韵律特征参数选择
韵律特征参数包括短时能量最大值、最小值、均值和方差;短时能量抖动最大值、最 小值、均值和方差;基频的最大值、最小值、均值和方差;基频抖动的最大值、最小值、均 值和方差;浊音段清音段时间比;语速。
首先,根据附图2中的特征参数提取流程将待提取特征语句进行预加重处理,包括高通 滤波、语句开始端点与结束端点的检测;提取全句的语句发音持续时间、语速这两个特征; 然后对语句分帧加窗,采用短时分析技术,按照男女性别,分别求出各帧基频、短时能量、 浊音帧数和清音帧数,将各帧所得参数汇总,分别得到语句的基音轨迹、基音抖动轨迹、短 时能量轨迹和短时能量抖动轨迹,进而获得它们的特征统计量,并进行性别规整,得到上述 全部韵律特征参数。
2. 音质特征参数选择
音质特征参数包括OQ的最大值、最小值、均值和方差;SQ的最大值、最小值、均值和
方差;CQ的最大值、最小值、均值和方差;C1Q的最大值、最小值、均值和方差;《的最大
值、最小值、均值和方差;第一共振峰最大值、最小值、均值、方差和带宽;第一共振峰抖 动的最大值、最小值、均值、方差;第二共振峰最大值、最小值、均值、方差和带宽;第二 共振峰抖动的最大值、最小值、均值、方差;第三共振峰最大值、最小值、均值、方差和带 宽;第三共振峰抖动的最大值、最小值、均值、方差;谐波噪声比最大值、最小值、均值、 方差。
多个音质参数的选取是本发明提出方法的特点之一。虽然韵律特征在识别中起主导作用, 但在识别某些激活维接近效价维分离的情感时,如高兴和生气,音质特征可以起到有效补充 作用。音质参数是反映发音时声门波形状的变化,其影响因素有肌肉张力,声道中央压力以 及声道长度张力,具体的有声源类型(发音方式)、声门波参数和声道共振峰参数等。LF模
型(Liljencrants-FantMode)是常用的描述声门波的模型,如图3所示,其中r。基音周期; f。声门开启时刻;声门闭合时刻;fp:声门波达到最大峰值时刻;"差分波达到最大负峰值时刻。根据此模型可提取如下声门波参数
l 一r
一l
(式7) (式8) .Og (式9) (式10) (式11)
具体实施时,仍然需要对情感语句进行预加重处理,包括高通滤波、语句开始端点与结 束端点的检测;然后对语句分帧加窗,分别得到声门波特征、共振峰特征、谐波噪声比等音 质参数,并进行性别规整,得到最终用于码本训练或识别的音质特征参数。
在系统的执行过程中,特征提取分析是必不可少的。在训练过程中,训练样本的特征提 取分析可以直接按照图2所示流程进行。在识别过程中,待识别语句的特征提取分析同样按 照图2流程进行。
二. 特征降维
前面分析提取了共69个特征参数,为避免维度过高而引起的计算复杂度提升,以及冗余 信息对识别的影响,采用独立分量神经网络来实现降维,采用基于Hebb规则的线性无监督学 习神经网络,如图4所示。通过对权矩阵『的学习,使权值向量接近于特征向量;c的斜方差
阵中特征值所对应的特征向量,避免直接对矩阵的求逆运算。得到降维后特征矢量少=『 。
权值向量修改规则如下
w》+1] = , W + 7 (力W—力2 [A化W) (式12 )
x'w=xW—s;》WxW (式13)
三. 改进模糊矢量量化码本训练
传统模糊矢量量化是釆用模糊聚类算法代替K均值算法设计量化码本的一种方法, 一定 程度上可以减少码本的量化误差,但是仍存在野点干扰、初值敏感和局部最小化问题,为此, 本发明提出一种改进模糊矢量量化方法,具体步骤如下
1.对某一种情感的所有训练特征样本,计算任意两个样本间的欧氏距离,将距离最近的 两个样本定为一类,选定距离阀值Z,将与该两样本之一的距离在Z之内的所有样本判为此 类;2. 将已有类别归属的样本及与这些样本有关的距离适当处理,不再使用;
3. 在剩下的样本中找到距离最近的一对样本,若它们之间的距离大于丄,则将这两个样 本分别定为一类,且各类中只有一个样本;若它们之间的距离小于丄,则选定距离阀值
< " S 1),将与该样本之一的距离在aZ之内的所有样本判属此类;
4. 重复步骤2、 3,直到所有样本都被分类,若最后只剩一个样本,则将该样本单独定 为一类;
5. 调整Z及a丄,直到所有样本被聚成J类;
6. 按照(式3)计算隶属度函数Wt(《),将^(《)的归一化条件扩大为 ^|>y(X,.) = iV,这也是本发明特点之一,并按(式4)计算得到各类的类中心
"(,=1U);
7. 选择常数£>0,设置迭代次数^ = 0,以6中结果作为初始码本,采用模糊C均值算 法递推出码本".(…1,2,…力;
8. 对每种情感按1 7分别训练出一个码本。
四. 情感识别模块
对于待识别的情感语句,按照图2流程提取其特征矢量,然后利用主分量分析神经网络 进行降维,得到X,.;将义,.对应每种情感的码本进行矢量量化,把X,.量化成由隶属度函数组
成的矢量[/(《hk(义'),"2(《),...,^(1,^,得到《的重构矢量A和量化误差D;选择平 均量化失真最小的那个码本对应的情感为识别结果。
五. 识别系统的评价
由于将隶属度总和由l扩为iV, 一定程度上降低了样本野点对训练迭代过程的影响,在 码本训量过程中采用基于相似性阀值和最小距离原则的聚类方法, 一定程度上避免了聚类中 心的对初值敏感、易陷入局部极小值的问题,从图5两种情感识别方法的结果看,其识别效 果得到较大的改善,生气的识别率提高了 12.3%,悲伤的识别率提高了 5. 1%,高兴的识别率 提高了 5.9%,惊奇的识别率提高了 14.9%,本发明方法对语音情感进行识别大大高于现有其 他方法。
本发明请求保护的范围并不仅仅局限于本具体实施方式
的描述。
权利要求
1.一种基于改进模糊矢量量化的语音情感识别方法,其步骤为建立特征提取分析模块、特征降维模块、改进模糊矢量量化模块的训练、情感识别模块;特征提取分析模块包括两类参数的提取和性别规整韵律参数和音质参数;首先对原始语音信号预加重、分帧,然后分别进行特征提取;(1)韵律参数提取(1-1)将原始语音信号经高通滤波器预处理,提取发音持续时间、语速参数;(1-2)分帧,加窗;(1-3)应用短时分析技术,分别提取各帧语句主要特征参数基频轨迹、短时能量轨迹、浊音段清音段时间比;(1-4)提取部分韵律特征参数的衍生参数短时能量最大值、最小值、均值和方差,短时能量抖动最大值、最小值、均值和方差,基频最大值、最小值、均值和方差,基频抖动的最大值、最小值、均值和方差;其中短时能量抖动的计算如下<maths id="math0001" num="0001" ><math><![CDATA[ <mrow><msubsup> <mi>E</mi> <mi>i</mi> <mn>1</mn></msubsup><mo>=</mo><mo>|</mo><msubsup> <mi>E</mi> <mi>i</mi> <mn>0</mn></msubsup><mo>-</mo><msubsup> <mi>E</mi> <mrow><mi>i</mi><mo>-</mo><mn>1</mn> </mrow> <mn>0</mn></msubsup><mo>|</mo> </mrow>]]></math> id="icf0001" file="A2008101228060002C1.tif" wi="24" he="6" top= "106" left = "31" img-content="drawing" img-format="tif" orientation="portrait" inline="yes"/></maths>i=2,3,…,N(式1)其中Ei0是第i帧短时能量,N为帧数;基频抖动的计算同(式1);(1-5)性别规整,按照样本所属的不同性别,归入不同的集合si;再次分别计算各自的均值μi和方差σi,这里用i表示不同的集合序号,利用下式将参数规整到相同的空间;<maths id="math0002" num="0002" ><math><![CDATA[ <mrow><msup> <msub><mi>s</mi><mi>i</mi> </msub> <mo>&prime;</mo></msup><mo>=</mo><mfrac> <mrow><msub> <mi>s</mi> <mi>i</mi></msub><mo>-</mo><msub> <mi>u</mi> <mi>i</mi></msub> </mrow> <msub><mi>&sigma;</mi><mi>i</mi> </msub></mfrac> </mrow>]]></math> id="icf0002" file="A2008101228060002C2.tif" wi="17" he="8" top= "149" left = "37" img-content="drawing" img-format="tif" orientation="portrait" inline="yes"/></maths>(式2)(2)音质特征参数提取(2-1)提取声门波参数的最大值、最小值、均值和方差,包括声门开启时间与整个声门周期比(OQ,open quotient)、声门开启过程时间与闭合过程时间比(SQ,speed quotient)、声门闭合时间与整个声门周期比(CQ,ClosedQuotient)、声门闭合过程时间与整个声门周期比(ClQ,Closing Quotient)、声门波歪斜度;(2-2)提取谐波噪声比最大值、最小值、均值、方差;(2-3)提取前三个共振峰最大值、最小值、均值、方差和带宽;(2-4)提取前三个共振峰抖动的最大值、最小值、均值、方差;共振峰抖动计算同(式1);(2-5)性别规整,同(1-5);(3)特征降维(3-1)将(1)(2)中全部特征提取和规整完毕后,组成特征矢量;(3-2)采用主分量分析神经网络(PCANN)实现降维,得到样本特征矢量序列X={X1,X2...,XN,};(4)改进模糊矢量量化(4-1)对某种情感所有训练样本,计算任意两个样本间的欧氏距离,将距离最近的两个样本定为一类,选定距离阀值L,将与该两样本之一的距离在L之内的所有样本判为此类;(4-2)将已有类别归属的样本及与这些样本有关的距离适当处理,不再使用;(4-3)在剩下的样本中找到距离最近的一对样本,若它们之间的距离大于L,则将这两个样本分别定为一类,且各类中只有一个样本;若它们之间的距离小于L,则选定距离阀值αL(0<α≤1),将与该样本之一的距离在αL之内的所有样本判属此类;(4-4)重复步骤(4-2)、(4-3),直到所有样本都被分类,若最后只剩一个样本,则将该样本单独定为一类;(4-5)调整L及αL,直到所有样本被聚成J类;(4-6)将隶属度函数uk(Xi)的归一化条件扩大为<maths id="math0003" num="0003" ><math><![CDATA[ <mrow><munderover> <mi>&Sigma;</mi> <mrow><mi>j</mi><mo>=</mo><mn>1</mn> </mrow> <mi>J</mi></munderover><munderover> <mi>&Sigma;</mi> <mrow><mi>i</mi><mo>=</mo><mn>1</mn> </mrow> <mi>N</mi></munderover><msub> <mi>u</mi> <mi>j</mi></msub><mrow> <mo>(</mo> <msub><mi>X</mi><mi>i</mi> </msub> <mo>)</mo></mrow><mo>=</mo><mi>N</mi><mo>,</mo> </mrow>]]></math> id="icf0003" file="A2008101228060003C1.tif" wi="32" he="10" top= "81" left = "111" img-content="drawing" img-format="tif" orientation="portrait" inline="yes"/></maths>按(式3)计算uk(Xi),按(式4)计算得到各类的类中心Yj(i=1,2,…J);<maths id="math0004" num="0004" ><math><![CDATA[ <mrow><msub> <mi>u</mi> <mi>k</mi></msub><mrow> <mo>(</mo> <msub><mi>X</mi><mi>i</mi> </msub> <mo>)</mo></mrow><mo>=</mo><munderover> <mi>&Sigma;</mi> <mrow><mi>j</mi><mo>=</mo><mn>1</mn> </mrow> <mi>J</mi></munderover><munderover> <mi>&Sigma;</mi> <mrow><mi>i</mi><mo>=</mo><mn>1</mn> </mrow> <mi>N</mi></munderover><msup> <mrow><mo>(</mo><mfrac> <mrow><mi>d</mi><msup> <mrow><mo>(</mo><msub> <mi>X</mi> <mi>i</mi></msub><mo>,</mo><msub> <mi>Y</mi> <mi>k</mi></msub><mo>)</mo> </mrow> <mrow><mn>2</mn><mo>/</mo><mrow> <mo>(</mo> <mi>m</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo></mrow> </mrow></msup> </mrow> <mrow><mi>Nd</mi><msup> <mrow><mo>(</mo><msub> <mi>X</mi> <mi>i</mi></msub><mo>,</mo><msub> <mi>Y</mi> <mi>j</mi></msub><mo>)</mo> </mrow> <mrow><mn>2</mn><mo>/</mo><mrow> <mo>(</mo> <mi>m</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo></mrow> </mrow></msup> </mrow></mfrac><mo>)</mo> </mrow> <mrow><mo>-</mo><mn>1</mn> </mrow></msup><mo>,</mo> </mrow>]]></math> id="icf0004" file="A2008101228060003C2.tif" wi="63" he="14" top= "106" left = "28" img-content="drawing" img-format="tif" orientation="portrait" inline="yes"/></maths>1≤k≤J,1≤i≤N(式3)<maths id="math0005" num="0005" ><math><![CDATA[ <mrow><msub> <mi>Y</mi> <mi>k</mi></msub><mo>=</mo><mfrac> <mrow><munderover> <mi>&Sigma;</mi> <mrow><mi>i</mi><mo>=</mo><mn>1</mn> </mrow> <mi>N</mi></munderover><msubsup> <mi>u</mi> <mi>k</mi> <mi>m</mi></msubsup><mrow> <mo>(</mo> <msub><mi>X</mi><mi>i</mi> </msub> <mo>)</mo></mrow><msub> <mi>X</mi> <mi>i</mi></msub> </mrow> <mrow><munderover> <mi>&Sigma;</mi> <mrow><mi>i</mi><mo>=</mo><mn>1</mn> </mrow> <mi>N</mi></munderover><msubsup> <mi>u</mi> <mi>k</mi> <mi>m</mi></msubsup><mrow> <mo>(</mo> <msub><mi>X</mi><mi>i</mi> </msub> <mo>)</mo></mrow> </mrow></mfrac> </mrow>]]></math> id="icf0005" file="A2008101228060003C3.tif" wi="31" he="21" top= "124" left = "27" img-content="drawing" img-format="tif" orientation="portrait" inline="yes"/></maths>1≤k≤J(式4)其中m∈[1,∞)为模糊度,d(Xi,Yk)表示距离;(4-7)选择常数ε>0,设置迭代次数k=0,以(4-6)的类中心作为初始码本,采用模糊C均值(FCM)聚类算法递推出码本Yj(i=1,2,…J);(4-8)对每种情感按(4-1)~(4-7)训练出一个码本;(5)情感识别(5-1)对于待识别语句按照步骤(1)(2)(3)求出特征矢量Xi,把Xi量化成由隶属度函数组成的矢量U(Xi)={u1,(Xi),u2(Xi),...,uJ(Xi)},得到Xi的重构矢量 id="icf0006" file="A2008101228060003C4.tif" wi="4" he="5" top= "206" left = "151" img-content="drawing" img-format="tif" orientation="portrait" inline="yes"/>和量化误差D;<maths id="math0006" num="0006" ><math><![CDATA[ <mrow><msub> <mover><mi>X</mi><mo>^</mo> </mover> <mi>i</mi></msub><mo>=</mo><munderover> <mi>&Sigma;</mi> <mrow><mi>k</mi><mo>=</mo><mn>1</mn> </mrow> <mi>J</mi></munderover><msubsup> <mi>u</mi> <mi>k</mi> <mi>m</mi></msubsup><msub> <mi>Y</mi> <mi>k</mi></msub><mo>/</mo><munderover> <mi>&Sigma;</mi> <mrow><mi>k</mi><mo>=</mo><mn>1</mn> </mrow> <mi>J</mi></munderover><msubsup> <mi>u</mi> <mi>k</mi> <mi>m</mi></msubsup> </mrow>]]></math> id="icf0007" file="A2008101228060003C5.tif" wi="36" he="10" top= "217" left = "28" img-content="drawing" img-format="tif" orientation="portrait" inline="yes"/></maths>(式5)<maths id="math0007" num="0007" ><math><![CDATA[ <mrow><mi>D</mi><mo>=</mo><munderover> <mi>&Sigma;</mi> <mrow><mi>k</mi><mo>=</mo><mn>1</mn> </mrow> <mi>J</mi></munderover><msubsup> <mi>u</mi> <mi>k</mi> <mi>m</mi></msubsup><mrow> <mo>(</mo> <msub><mi>X</mi><mi>i</mi> </msub> <mo>)</mo></mrow><mi>d</mi><mrow> <mo>(</mo> <msub><mi>X</mi><mi>i</mi> </msub> <mo>,</mo> <msub><mi>Y</mi><mi>k</mi> </msub> <mo>)</mo></mrow> </mrow>]]></math> id="icf0008" file="A2008101228060003C6.tif" wi="41" he="10" top= "234" left = "27" img-content="drawing" img-format="tif" orientation="portrait" inline="yes"/></maths>(式6)(5-2)选择平均量化失真最小的那个码本对应的情感为识别结果。
全文摘要
本发明公开了一种基于改进模糊矢量量化的语音情感识别方法。本发明将模糊隶属度函数总和由1扩为N,一定程度上降低了样本野点对训练迭代过程的影响,在码本训练过程中采用基于相似性阀值和最小距离原则的聚类方法,一定程度上避免了聚类中心的对初值敏感、易陷入局部极小值的问题,从实验结果看,本发明方法可以有效改善现有模糊矢量量化方法情感识别率。
文档编号G10L15/00GK101620853SQ20081012280
公开日2010年1月6日 申请日期2008年7月1日 优先权日2008年7月1日
发明者力 赵, 艳 赵, 邹采荣, 昕 魏 申请人:邹采荣;赵 力
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1