一种语音分析用户对话情绪的方法及装置与流程

文档序号:22969195发布日期:2020-11-19 21:48阅读:295来源:国知局
技术特征:

1.一种语音分析用户对话情绪的方法,其特征在于,包括:

获取用户语音数据,并抽取与所述用户语音数据相对应的若干真实语音部分,其中,若干所述真实语音部分均为非静音语音数据;

对每一所述真实语音部分进行切割处理,以获取若干短时语音片段,其中,每一所述真实语音部分包括至少一所述短时语音片段;

根据情绪识别模型将若干所述短时语音片段解码为若干短时情绪状态,其中,一所述短时语音片段与一所述短时情绪状态相对应;

将相邻且相同的若干所述短时情绪状态合并为第一稳定情绪状态,其中,一所述第一稳定情绪状态与一所述真实语音部分相对应;

判断若干所述第一稳定情绪状态是否相同;

在若干所述第一稳定情绪状态相同的情况下,将若干所述第一稳定情绪状态合并生成一第二稳定情绪状态,其中,所述用户语音数据与一所述第二稳定情绪相对应。

2.根据权利要求1所述的方法,其特征在于,在判断若干所述第一稳定情绪状态是否相同之后,还包括:

在若干所述第一稳定情绪状态不相同的情况下,将相邻且相同的若干所述第一稳定情绪状态合并生成若干第二稳定情绪状态,其中,所述用户语音数据与若干所述第二稳定情绪相对应。

3.根据权利要求1所述的方法,其特征在于,在根据情绪识别模型将若干所述短时语音片段解码为若干短时情绪状态之前,所述方法还包括:

获取带有情绪特征标签的若干训练语音数据,其中,所述情绪特征标签包括正面情绪特征、负面情绪特征;

根据若干所述训练语音数据,训练并构建情绪识别模型。

4.根据权利要求1所述的方法,其特征在于,在若干所述第一稳定情绪状态相同的情况下,将若干所述第一稳定情绪状态合并生成一第二稳定情绪状态之后,所述方法还包括:

对所述用户语音数据进行语音识别处理,以获取与所述用户语音数据相对应的文本数据;

生成与所述文本数据相对应的应答文本数据;

获取与所述第二稳定情绪状态相对应的应答情绪状态;

生成与所述应答文本数据以及所述应答情绪状态相对应的应答语音数据。

5.根据权利要求1所述的方法,其特征在于,将相邻且相同的若干所述短时情绪状态合并为第一稳定情绪状态包括:

在若干所述短时情绪状态包括相邻且相同的若干第一短时情绪状态且若干所述第一短时情绪状态之间存在不相邻的若干第二短时情绪状态的情况下,移除不相邻的若干所述第二短时情绪状态;

将相邻且相同的若干所述第一短时情绪状态合并为若干所述第一稳定情绪状态。

6.一种语音分析用户对话情绪的装置,其特征在于,包括:

抽取模块,用于抽取与所述用户语音数据相对应的若干真实语音部分,其中,若干所述真实语音部分为非静音语音部分;

切割模块,用于对每一所述真实语音部分进行切割处理,以获取若干短时语音片段,其中,每一所述真实语音部分包括至少一所述短时语音片段;

解码模块,用于根据情绪识别模型将若干所述短时语音片段解码为若干短时情绪状态,其中,一所述短时语音片段与一所述短时情绪状态相对应;

合并模块,用于将相邻且相同的若干所述短时情绪状态合并为第一稳定情绪状态,其中,一所述第一稳定情绪状态与一所述真实语音部分相对应,且在若干所述第一稳定情绪状态相同的情况下,将若干所述第一稳定情绪状态合并生成一第二稳定情绪状态,其中,所述用户语音数据与一所述第二稳定情绪相对应;

判断模块,用于判断若干所述第一稳定情绪状态是否相同。

7.根据权利要求6所述的装置,其特征在于,所述合并模块还用于在若干所述第一稳定情绪状态不相同的情况下,将相邻且相同的若干所述第一稳定情绪状态合并生成若干第二稳定情绪状态,其中,所述用户语音数据与若干所述第二稳定情绪相对应。

8.根据权利要求6所述的装置,其特征在于,还包括;

第一获取模块,用于获取带有情绪特征标签的若干训练语音数据,其中,所述情绪特征标签包括正面情绪特征、负面情绪特征;

构建模块,用于根据若干所述训练语音数据,训练并构建所述情绪识别模型。

9.根据权利要求6所述的装置,其特征在于,还包括:

第二获取模块,用于获取所述用户语音数据;

语音识别模块,用于对所述用户语音数据进行语音识别处理,以获取与所述用户语音数据相对应的文本数据;

文本生成模块,用于生成与所述文本数据相对应的应答文本数据;

第三获取模块,用于获取与所述第二稳定情绪状态相对应的应答情绪状态;

语音生成模块,用于生成与所述应答文本数据以及所述应答情绪状态相对应的应答语音数据。

10.根据权利要求6所述的装置,其特征在于,还包括:

移除模块,用于在若干所述短时情绪状态包括相邻且相同的若干第一短时情绪状态且若干第一短时情绪状态之间存在若干不相邻的第二短时情绪状态的情况下,移除不相邻的若干所述第二短时情绪状态;

所述合并模块还用于将相邻且相同的若干所述第一短时情绪状态合并为若干第一稳定情绪状态。


技术总结
本申请实施例提供的一种语音分析用户对话情绪的方法及装置,该方法通过抽取与用户语音数据相对应的若干真实语音部分;对每一真实语音部分进行切割处理,以获取若干短时语音片段;根据情绪识别模型将若干短时语音片段解码为若干短时情绪状态;将相邻且相同的若干短时情绪状态合并为第一稳定情绪状态,其中,一第一稳定情绪状态与一真实语音部分相对应,根据若干第一稳定情绪状态获取第二稳定情绪状态;通过本申请,解决了在将用户语音数据转换为文本数据而获取用户情绪的情况下,会获取错误的用户情绪以及具有滞后性和不确定性的问题,实现了在用户说话的同时,直接分析用户的语音信息,可以实时地获取说话人的情绪的技术效果。

技术研发人员:李旭滨;范红亮
受保护的技术使用者:上海茂声智能科技有限公司
技术研发日:2020.08.24
技术公布日:2020.11.17
当前第2页1 2 
网友询问留言 留言:0条
  • 还没有人留言评论。精彩留言会获得点赞!