一种输出语音的方法、语音交互的方法及电子设备的制作方法

文档序号:6487050阅读:157来源:国知局
一种输出语音的方法、语音交互的方法及电子设备的制作方法
【专利摘要】本发明提供一种输出语音的方法、语音交互的方法及电子设备。该输出语音的方法应用于一电子设备中,所述方法包括:获得第一待输出内容;分析所述第一待输出内容,获得第一情绪信息,所述第一情绪信息用于表示所述待输出内容所携带的情绪;获得所述第一待输出内容对应的第一待输出语音数据;基于所述第一情绪信息,对所述第一待输出语音数据进行处理,产生包含第二情绪信息的第二待输出语音数据,其中,所述第二情绪信息用于表示所述电子设备在输出所述第二待输出语音数据时以使得用户获得所述电子设备的情绪,其中,所述第一情绪信息与所述第二情绪信息相匹配/相关联;输出所述第二待输出语音数据。
【专利说明】一种输出语音的方法、语音交互的方法及电子设备
【技术领域】
[0001]本发明涉及计算机【技术领域】,尤其涉及一种输出语音的方法、语音交互的方法及电子设备。
【背景技术】
[0002]随着电子设备技术与语音识别技术的发展,用户与电子设备之间的沟通和互动越来越多,电子设备可以将文本信息转换成语音输出,而且用户和电子设备可以通过语音互动,例如,电子设备可以回答用户提出的问题,使得电子设备越来越人性化。
[0003]然而,本发明人在实现本发明的过程中发现,虽然电子设备可以识别用户的语音进行相应操作、或者将文本转换为语音输出、或者与用户进行语音交谈,但是现有技术中的语音互动系统、或语音输出系统中电子设备的语音信息中不带有与情感表达相关的信息,进而导致输出的语音也不带有任何情绪,所以对话比较单调,使得语音控制和人机互动的效率较低,用户体验差。

【发明内容】

[0004]本发明提供一种输出语音的方法、语音交互的方法及电子设备,用以解决现有技术中存在的电子设备的输出语音数据中不带有与情感表达相关的信息的技术问题,及由此而带来的人机交互时情感单调,用户体验差的问题。
[0005]本发明一方面提供了一种输出语音的方法,应用于一电子设备中,所述方法包括:获得第一待输出内容;分析所述第一待输出内容,获得第一情绪信息,所述第一情绪信息用于表示所述待输出内容所携带的情绪;获得所述第一待输出内容对应的第一待输出语音数据;基于所述第一情绪信息,对所述第一待输出语音数据进行处理,产生包含第二情绪信息的第二待输出语音数据,其中,所述第二情绪信息用于表示所述电子设备在输出所述第二待输出语音数据时以使得用户获得所述电子设备的情绪,其中,所述第一情绪信息与所述第二情绪信息相匹配/相关联;输出所述第二待输出语音数据。
[0006]优选地,所述获得第一待输出内容具体为:获取通过即时通信应用接收到的语音数据;获取通过所述电子设备的声音输入装置录入的语音数据;或者获取显示在所述电子设备的显示单元上的文本信息。
[0007]优选地,当所述第一待输出内容为所述语音数据时,所述分析所述第一待输出内容,获得第一情绪信息,具体包括:分别将所述语音数据的音频谱与M个特征频谱模板中的每一个特征频谱模板进行对比,获得所述语音数据的音频谱与所述每一个特征频谱模板的M个对比结果,其中M为大于等于2的整数;基于所述M个对比结果,确定所述语音数据的音频谱与所述M个特征频谱模板中相似度最高的特征频谱模板;确定所述相似度最高的特征频谱模板所对应的情绪信息为所述第一情绪信息。
[0008]优选地,所述对所述第一待输出语音数据进行处理,产生包含第二情绪信息的第二待输出语音数据,具体包括:调整所述第一待输出语音数据所对应的字的声调、音量、或字与字间的停顿时间,产生所述第二待输出语音数据。
[0009]本发明另一方面提供一种语音交互的方法,应用于一电子设备,所述方法包括:接收一用户输入的第一语音数据;分析所述第一语音数据,获得第一情绪信息,所述第一情绪信息用于表示输入所述第一语音数据的用户在输入所述第一语音数据时的情绪;获得一针对所述第一语音数据的第一回应语音数据;基于所述第一情绪信息对所述第一回应语音数据进行处理,产生包含第二情绪信息的第二回应语音数据;所述第二情绪信息用于表示所述电子设备在输出所述第二回应语音数据时以使得所述用户获得所述电子设备的情绪,其中,所述第一情绪信息与所述第二情绪信息相匹配/相关联;输出所述第二回应语音数据。
[0010]优选地,所述分析所述第一语音数据,获得第一情绪信息,具体包括:分别将所述第一语音数据的音频谱与M个特征频谱模板中的每一个特征频谱模板进行对比,获得所述第一语音数据的音频谱与所述每一个特征频谱模板的M个对比结果,其中M为大于等于2的整数;基于所述M个对比结果,确定所述第一语音数据的音频谱与所述M个特征频谱模板中相似度最高的特征频谱模板;确定所述相似度最高的特征频谱模板所对应的情绪信息为所述第一情绪信息。
[0011]优选地,所述分析所述第一语音数据,获得第一情绪信息,具体包括:判断所述第一语音数据的连续输入次数是否大于一预定值;当所述连续输入次数大于一预定值时,确定所述第一语音数据中的情绪信息为所述第一情绪信息。
[0012]优选地,所述基于所述第一情绪信息对所述第一回应语音数据进行处理,产生包含第二情绪信息的第二回应语音数据,具体包括:调整所述第一回应语音数据所对应的字的声调、音量、或字与字间的停顿时间,产生所述第二回应语音数据。
[0013]优选地,所述基于所述第一情绪信息对所述第一回应语音数据进行处理,产生包含第二情绪信息的第二回应语音数据,具体为:基于所述第一情绪信息,在所述第一回应语音数据上增加一用于表示所述第二情绪信息的语音数据,获得所述第二回应语音数据。
[0014]本发明一实施例还提供一种电子设备,所述电子设备包括:电路板;获得单元,电性连接于所述电路板,用于获得第一待输出内容;处理芯片,设置于所述电路板上,用于分析所述第一待输出内容,获得第一情绪信息,所述第一情绪信息用于表示所述待输出内容所携带的情绪;获得所述第一待输出内容对应的第一待输出语音数据;基于所述第一情绪信息,对所述第一待输出语音数据进行处理,产生包含第二情绪信息的第二待输出语音数据,其中,所述第二情绪信息用于表示所述电子设备在输出所述第二待输出语音数据时以使得用户获得所述电子设备的情绪,其中,所述第一情绪信息与所述第二情绪信息相匹配/相关联;输出单元,电性连接于所述处理芯片,用于输出所述第二待输出语音数据。
[0015]优选地,当所述第一待输出内容为一语音数据时,所述处理芯片具体用于分别将所述语音数据的音频谱与M个特征频谱模板中的每一个特征频谱模板进行对比,获得所述语音数据的音频谱与所述每一个特征频谱模板的M个对比结果,其中M为大于等于2的整数;基于所述M个对比结果,确定所述语音数据的音频谱与所述M个特征频谱模板中相似度最高的特征频谱模板;确定所述相似度最高的特征频谱模板所对应的情绪信息为所述第一情绪信息。
[0016]优选地,所述处理芯片具体用于调整所述第一待输出语音数据所对应的字的声调、音量、或字与字间的停顿时间,产生所述第二待输出语音数据。[0017]本发明再一实施例还提供一种电子设备,所述电子设备包括:电路板;语音接收单元,电性连接于所述电路板,用于接收一用户输入的第一语音数据;处理芯片,设置于所述电路板上,用于分析所述第一语音数据,获得第一情绪信息,所述第一情绪信息用于表示输入所述第一语音数据的用户在输入所述第一语音数据时的情绪;获得一针对所述第一语音数据的第一回应语音数据;基于所述第一情绪信息对所述第一回应语音数据进行处理,产生包含第二情绪信息的第二回应语音数据;所述第二情绪信息用于表示所述电子设备在输出所述第二回应语音数据时以使得所述用户获得所述电子设备的情绪,其中,所述第一情绪信息与所述第二情绪信息相匹配/相关联;输出单元,电性连接于所述处理芯片,用于输出所述第二回应语音数据。
[0018]优选地,所述处理芯片具体用于分别将所述第一语音数据的音频谱与M个特征频谱模板中的每一个特征频谱模板进行对比,获得所述第一语音数据的音频谱与所述每一个特征频谱模板的M个对比结果,其中M为大于等于2的整数;基于所述M个对比结果,确定所述第一语音数据的音频谱与所述M个特征频谱模板中相似度最高的特征频谱模板;确定所述相似度最高的特征频谱模板所对应的情绪信息为所述第一情绪信息。
[0019]优选地,所述处理芯片具体用于判断所述第一语音数据的连续输入次数是否大于一预定值;当所述连续输入次数大于一预定值时,确定所述第一语音数据中的情绪信息为所述第一情绪信息。
[0020]优选地,所述处理芯片具体用于调整所述第一回应语音数据所对应的字的声调、音量、或字与字间的停顿时间,产生所述第二回应语音数据。
[0021]优选地,所述处理芯片具体用于基于所述第一情绪信息,在所述第一回应语音数据上增加一用于表示所述第二情绪信息的语音数据,获得所述第二回应语音数据。
[0022]本发明实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
[0023]本发明一实施例采用分析待输出内容(例如短信或其他文本信息、或通过即时通信软件接收到的语音数据、或者是通过电子设备的声音输入装置录入的语音数据)的情绪信息,然后基于情绪信息,对与待输出内容对应的待输出语音数据进行处理,最后获得包含第二情绪信息的待输出语音数据,所以当电子设备输出包含第二情绪信息的待输出语音数据时,用户能够获得电子设备的情绪。因此,通过这种方法,可以使得电子设备根据不同内容或场景输出不同情绪的语音信息,使得用户能够更清楚的了解到电子设备的情绪,所以使得输出语音的效率更高效,用户体验更好。
[0024]本发明另一实施例中,当用户输入第一语音数据后,分析第一语音数据,获得对应的第一情绪,然后获得针对第一语音数据的第一回应语音数据,再基于第一情绪信息对第一回应语音数据进行处理,产生包含第二情绪信息的第二回应语音数据,使得第二回应语音数据输出时,用户能够获得电子设备的情绪,所以人机可以更好的交互,电子设备也更人性化,使得人机交互效率更高,用户体验更好。
【专利附图】

【附图说明】
[0025]图1为本发明第一实施例中的输出语音的方法流程图;
[0026]图2为本发明第二实施例中的语音交互的方法流程图;
[0027]图3为本发明第一实施例中的电子设备的功能框图;[0028]图4为本发明第二实施例中的电子设备的功能框图。
【具体实施方式】
[0029]本发明实施例提供一种输出语音的方法、语音交互的方法及电子设备,用以解决现有技术中存在的电子设备的输出语音数据中不带有与情感表达相关的信息的技术问题,及由此而带来的人机交互时情感单调,用户体验差的问题。
[0030]本发明实施例中的技术方案为解决上述的技术问题,总体思路如下:
[0031]对获得的待输出内容或者用户输入的语音数据进行分析,获得待输出内容或者用户输入的语音数据对应的第一情绪,然后获得针对待输出内容或第一语音数据的语音数据,再基于第一情绪信息对该语音数据进行处理,产生包含第二情绪信息的语音数据,使得包含第二情绪信息的语音数据输出时,用户能够获得电子设备的情绪,可以使得电子设备根据不同内容或场景输出不同情绪的语音信息,使得用户能够更清楚的了解到电子设备的情绪,所以使得输出语音的效率更高效,而且,人机可以更好的交互,电子设备也更人性化,使得人机交互效率更高,用户体验更好。
[0032]为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
[0033]本发明一实施例提供一种输出语音的方法,应用于一电子设备上,该电子设备例如是手机、平板电脑、笔记本电脑等电子设备。
[0034]请参考图1,该方法包括:
[0035]步骤101:获得第一待输出内容;
[0036]步骤102:分析第一待输出内容,获得第一,清绪信息,第一,清绪信息用于表不第一待输出内容所携带的情绪;
[0037]步骤103:获得第一待输出内容对应的第一待输出语音数据;
[0038]步骤104:基于第一情绪信息,对第一待输出语音数据进行处理,产生包含第二情绪信息的第二待输出语音数据,其中,第二情绪信息用于表示电子设备在输出第二待输出语音数据时以使得用户获得电子设备的情绪,其中,第一情绪信息与第二情绪信息相匹配/相关联;
[0039]步骤105:输出第二待输出语音数据。
[0040]其中,第一情绪信息与第二情绪信息相匹配/相关联,例如可以是第二情绪用于增强第一情绪,也可以是第二情绪用于缓和第一情绪信息,当然,在具体实施过程中,还可以设置其他情形的匹配或关联规则。
[0041]其中,在步骤101中,获得第一待输出内容,在具体实施过程中,可以是获取通过即时通信应用接收到的语音数据,例如是通过米聊、微信等聊天软件接收到的语音数据;也可以是通过电子设备的声音输入装置录入的语音数据,例如是通过麦克风录入用户的语音数据;也可以是显示在电子设备的显示单元上的文本信息,例如短信、电子书或者网页上的文本信息。
[0042]其中,步骤102和步骤103没有先后顺序,后续说明以先执行步骤102为例,但实际实施时,也可以先执行步骤103。
[0043]接下来执行步骤102,在该步骤中,如果第一待输出内容是文本信息,则分析第一待输出内容,获得第一情绪信息,具体可以先对文本进行语言学分析,逐句进行词汇、语法和语义的分析,确定句子的结构和每个字的因素的组成,包括但不限于文本的断句、字词切分、多音字的处理、数字的处理、缩略词的处理,例如还可以分析文本的标点符号,确定是问句还是陈述句,亦或是感叹句,所以根据词汇本身的意思和标点符号就可以比较简单的分析出文本所携带的情绪。
[0044]具体来说,例如文本信息是“我好开心啊! ”,那么经过上述方法的分析,其中“开心”本身的词义就是代表着一种闻兴的情绪,还有感叹词“啊”,就进一步表不这种闻兴的情绪比较强烈,然后还有感叹号,更是进一步增强了高兴的情绪,所以通过分析到这些信息,就可以获得该文本所携带的情绪,即获得了第一情绪。
[0045]然后执行步骤103,即获得第一待输出内容对应的第一待输出语音数据,即将文本所对应的单字或词组或短语从语音合成库中提取出来,形成第一待输出语音数据,其中语音合成库可以是现有的语音合成库,即普通的可以是事先存放在电子设备本地,也可以存放在网络上的服务器中,当电子设备连接于网络中时,可通过网络在服务器的语音合成库中提取出文本所对应的单字或词组或短语。
[0046]接下来,执行步骤104,基于第一情绪信息,对第一待输出语音数据进行处理,产生包含第二情绪信息的第二待输出语音数据,具体来说,可以调整第一待输出语音数据所对应的字的声调、音量、或字与字之间的停顿时间。继续沿用上面的例子,即可将“开心”对应的语音音量提高,可以将“啊”感叹词的声调提高,也可以将程度副词“好”和后面的“开心”之间的停顿时间增长,增强开心情绪的程度。
[0047]关于从设备侧来讲,如何调整上述声调、音量、或字与字之间的停顿时间,可以有很多种实现方式,例如,可以事先训练一些模型,例如针对表达情绪的词,诸如“开心”、“难过”、“高兴”,可以训练为将音量提高;对于感叹词,可以训练为将声调提高;而可以训练程度副词和后面紧跟的形容词或动词之间的停顿时间增长,也可以训练形容词和紧跟其后的名词之间的停顿时间增长。因此,可以按照这样的模型进行调整,具体调整可以是调整相应语音的音频谱。
[0048]当将第二待输出语音信息输出时,用户就可以获得电子设备的情绪,在本实施例中,也可以获得发短信的人的情绪,使得用户可以更有效率的使用电子设备,而且也更人性化,促进用户之间高效的交流。
[0049]在另一实施例中,当步骤101中获得的第一待输出内容是通过即时通信应用接收到的语音数据或者通过电子设备的声音输入装置录入的语音数据,那么在步骤102中,分析该语音数据,获得第一情绪信息可以通过方法实现:
[0050]分别将该语音数据的音频谱与M个特征频谱模板中的每一个特征频谱模板进行对比,获得该语音数据的音频谱与每一个特征频谱模板的M个对比结果,其中M为大于等于2的整数;然后基于M个对比结果,确定该语音数据的音频谱与M个特征频谱模板中相似度最高的特征频谱模板;确定相似度最高的特征频谱模板所对应的情绪信息为第一情绪信肩、O
[0051]在具体实施过程中,可以事先训练M个特征频谱模板,即通过大量的训练,得出例如高兴的情绪的音频谱特征,同样的方法可以得出多个特征频谱模板,所以当获得第一待输出内容的语音数据时,就将该语音数据的音频谱与M个特征频谱模板进行对比,获得与每个特征频谱模板的相似度值,最后相似度值最大的特征频谱模板对应的情绪即为该语音数据对应的情绪,所以就获取到了第一情绪信息。
[0052]当获得第一情绪信息后,执行步骤103,在本实施例中,因为第一待输出内容已经是语音数据了,所以可以不执行该步骤103,而直接进入步骤104。
[0053]在另一实施例中,步骤103也可以是在原语音数据的基础上增加语音数据,继续沿用前述实例,当获得的语音数据是“我好开心啊! ”,可以在步骤103中,获得“睡,我好开心啊! ”的语音数据,即进一步表达出高兴的情绪。
[0054]关于步骤104和步骤105,与前述第一个实施例中的类似,所以在此不再赘述。
[0055]本发明另一实施例还提供一种语音交互的方法,应用于一电子设备,请参考图2,该方法包括:
[0056]步骤201:接收一用户输入的第一语音数据;
[0057]步骤202:分析第一语音数据,获得第一情绪信息,第一情绪信息用于表示输入第一语音数据的用户在输入第一语音数据时的情绪;
[0058]步骤203:获得一针对第一语音数据的第一回应语音数据;
[0059]步骤204:基于第一情绪信息对第一回应语音数据进行处理,产生包含第二情绪信息的第二回应语音数据;第二情绪信息用于表示电子设备在输出第二回应语音数据时以使得用户获得电子设备的情绪,其中,第一情绪信息与第二情绪信息相匹配/相关联;
[0060]步骤205:输出第二回应语音数据。
[0061]其中,第一情绪信息与第二情绪信息相匹配/相关联,例如可以是第二情绪用于增强第一情绪,也可以是第二情绪用于缓和第一情绪信息,当然,在具体实施过程中,还可以设置其他情形的匹配或关联规则。
[0062]本实施例中的语音交互方法可以应用于例如对话系统或者即时聊天软件中,还可以应用于语音控制系统,当然,这里的应用场景仅为举例说明,并非用于限制本发明。
[0063]以下将举例详细说明该语音交互方法的具体实施过程。
[0064]在本实施例中,例如用户通过一麦克风向电子设备输入第一语音数据“今天天气怎么样? ”然后执行步骤202,即分析第一语音数据,获得第一情绪信息,该步骤具体也可以采用前述第二实施例中的分析方式分析,即分别将该第一语音数据的音频谱与M个特征频谱模板中的每一个特征频谱模板进行对比,获得该第一语音数据的音频谱与每一个特征频谱模板的M个对比结果,其中M为大于等于2的整数;然后基于M个对比结果,确定该第一语音数据的音频谱与M个特征频谱模板中相似度最高的特征频谱模板;确定相似度最高的特征频谱模板所对应的情绪信息为第一情绪信息。
[0065]在具体实施过程中,可以事先训练M个特征频谱模板,即通过大量的训练,得出例如高兴的情绪的音频谱特征,同样的方法可以得出多个特征频谱模板,所以当获得第一语音数据时,就将该第一语音数据的音频谱与M个特征频谱模板进行对比,获得与每个特征频谱模板的相似度值,最后相似度值最大的特征频谱模板对应的情绪即为该第一语音数据对应的情绪,所以就获取到了第一情绪信息。
[0066]假如在该实施例中,第一情绪信息是一种低落的情绪,即用户在输入第一语音信息时情绪很低落。
[0067]接下来执行步骤203,当然步骤203也可以在步骤202之前执行,获得针对第一语音数据的第一回应语音数据,继续沿用上面的例子,用户输入的是“今天天气怎么样?”,那么电子设备可以通过网络实时获取天气信息,并将天气信息转化为语音数据,对应的句子例如是“今天天气晴朗,温度28度,适合出游”。
[0068]然后基于步骤202中获得的第一情绪信息,对第一回应语音数据进行处理,在本实施例中,第一情绪信息表示一种低落的情绪,说明用户精神状态不佳,有点没干劲,所以在一实施例中,可以调整第一回应语音数据所对应的字的声调、音量、或字与字间的停顿时间,产生第二回应语音数据,使得输出的第二回应数据是一种欢快、情绪高昂的语气,即用户感受到电子设备输出的语句是轻松愉快的,所以可以帮助用户改善负面的情绪。
[0069]具体的调整规则,可以参考前述实施例中的调整规则,例如改变形容词“晴朗”的音频谱,使得这个形容词的声调和音量都比较高昂以及欢快。
[0070]在另一实施例中,步骤204可以具体是基于第一情绪信息,在第一回应语音数据上增加一用于表示第二情绪信息的语音数据,获得第二回应语音数据。
[0071]具体来说,例如增加一些语气助词,例如将第一回应语音数据对应的语句“今天天气晴朗,温度28度,适合出游”调整为“今天天气晴朗,温度28度,适合出游哦”,即在语音合成库中提取到“哦”的语音数据,然后合成在第一回应语音数据中,就形成了第二回应语音数据。当然,上述两种不同的调整方式也可以互相结合使用。
[0072]在进一步的实施例中,当在步骤202中分析第一语音数据,获得第一情绪信息,也可以是判断第一语音数据的连续输入次数是否大于一预定值;当连续输入次数大于一预定值时,确定第一语音数据中的情绪信息为第一情绪信息。
[0073]具体来说,例如用户多次输入“今天天气怎么样? ” 一直都没有得到答案,可能会由于网络的原因电子设备没有获取到天气信息,所以之前一直都回复了“对不起,没有找到”,所以当判断到第一语音数据的连续输入次数已经大于一预定值了,则可以判断出用户的心情已经很着急,甚至都有生气的情绪了,但是电子设备依然未查询到天气信息,这时就去获取第一回应语音数据“对不起,没有找到”,然后基于第一情绪信息,可以用上述两种类似的方法去处理第一回应语音数据,即调整声调、音量、或字与字之间的停顿时间,或者是加上表示强烈歉意和遗憾的语音数据,例如“真的非常对不起,没有找到”,使得输出的语句带有遗憾和抱歉的情绪,使得用户听到之后生气的情绪降低,提高用户体验。
[0074]以下将再举一具体实例来说明该方法的具体实施过程,在本实施例中,例如是应用在一个即时聊天软件中,在步骤201中,例如接收的是用户A输入的第一语音数据,例如“你怎么还没有完成工作? ”,可以采用前述实施例中的分析方法分析之后发现,用户A很生气,这时又获得了用户B针对用户A的第一语音数据的第一回应语音数据,例如用户B说“工作太多了,我完成不了! ”,为了避免用户A和用户B之间争吵起来,因为用户A已经很生气了,所以电子设备就将用户B的第一回应语音数据进行处理,变得情绪比较缓和,这样用户A听到之后,情绪也不会更加生气,同样用户B端的电子设备同样也可以做类似的处理,这样就使得用户A和用户B不至于情绪太激动而发生争执,所以电子设备的人性化使得用户体验更好。
[0075]以上只描述了本实施例的使用过程,具体其中如何分析情绪和如何调整语音数据可参考前述各实施例中的相关描述,为了说明书的简洁,在此不再赘述。
[0076]本发明一实施例中还提供一种电子设备,该电子设备例如是手机、平板电脑、笔记本电脑等电子设备。
[0077]如图3所示,该电子设备包括:电路板301 ;获得单元302,电性连接于电路板301,用于获得第一待输出内容;处理芯片303,设置于电路板301上,用于分析第一待输出内容,获得第一情绪信息,第一情绪信息用于表示待输出内容所携带的情绪;获得第一待输出内容对应的第一待输出语音数据;基于第一情绪信息,对第一待输出语音数据进行处理,产生包含第二情绪信息的第二待输出语音数据,其中,第二情绪信息用于表示电子设备在输出第二待输出语音数据时以使得用户获得电子设备的情绪,其中,第一情绪信息与第二情绪信息相匹配/相关联;输出单元304,电性连接于处理芯片303,用于输出第二待输出语音数据。
[0078]其中,电路板301可以是电子设备的主板,进一步,获得单元302可以是数据接收装置,或者是声音输入装置,例如麦克风。
[0079]进一步,处理芯片303可以是单独的语音处理芯片,也可以是集成在处理器中。而输出单元304例如是扬声器或喇叭等声音输出装置。
[0080]在一实施例中,当第一待输出内容为一语音数据时,处理芯片303具体用于分别将语音数据的音频谱与M个特征频谱模板中的每一个特征频谱模板进行对比,获得语音数据的音频谱与每一个特征频谱模板的M个对比结果,其中M为大于等于2的整数;基于M个对比结果,确定语音数据的音频谱与M个特征频谱模板中相似度最高的特征频谱模板;确定相似度最高的特征频谱模板所对应的情绪信息为第一情绪信息。具体过程请参考图1实施例中的相关描述。
[0081]在另一实施例中,处理芯片303具体用于调整第一待输出语音数据所对应的字的声调、音量、或字与字间的停顿时间,产生第二待输出语音数据。
[0082]前述图1实施例中的输出语音的方法中的各种变化方式和具体实例同样适用于本实施例的电子设备,通过前述对输出语音的方法的详细描述,本领域技术人员可以清楚的知道本实施例中电子设备的实施方法,所以为了说明书的简洁,在此不再详述。
[0083]在另一实施例中,还提供一种电子设备,该电子设备例如是手机、平板电脑、笔记本电脑等电子设备。
[0084]请参考图4,该电子设备包括:电路板401 ;语音接收单元402,电性连接于电路板401,用于接收一用户输入的第一语音数据;处理芯片403,设置于电路板401上,用于分析第一语音数据,获得第一情绪信息,第一情绪信息用于表示输入第一语音数据的用户在输入第一语音数据时的情绪;获得一针对第一语音数据的第一回应语音数据;基于第一情绪信息对第一回应语音数据进行处理,产生包含第二情绪信息的第二回应语音数据;第二情绪信息用于表示电子设备在输出第二回应语音数据时以使得用户获得电子设备的情绪,其中,第一情绪信息与第二情绪信息相匹配/相关联;输出单元404,电性连接于处理芯片403,用于输出第二回应语音数据。
[0085]其中,电路板401可以是电子设备的主板,进一步,语音接收单元402可以是数据接收装置,或者是声音输入装置,例如麦克风。
[0086]进一步,处理芯片403可以是单独的语音处理芯片,也可以是集成在处理器中。而输出单元404例如是扬声器或喇叭等声音输出装置。
[0087]在一实施例中,处理芯片403具体用于分别将第一语音数据的音频谱与M个特征频谱模板中的每一个特征频谱模板进行对比,获得第一语音数据的音频谱与每一个特征频谱模板的M个对比结果,其中M为大于等于2的整数;基于M个对比结果,确定第一语音数据的音频谱与M个特征频谱模板中相似度最高的特征频谱模板;确定相似度最高的特征频谱模板所对应的情绪信息为第一情绪信息。
[0088]在另一实施例中,处理芯片403具体用于判断第一语音数据的连续输入次数是否大于一预定值;当连续输入次数大于一预定值时,确定第一语音数据中的情绪信息为第一情绪信息。
[0089]在另一实施例中,处理芯片403具体用于调整第一回应语音数据所对应的字的声调、音量、或字与字间的停顿时间,产生第二回应语音数据。
[0090]在另一实施例中,处理芯片403具体用于基于第一情绪信息,在第一回应语音数据上增加一用于表示第二情绪信息的语音数据,获得第二回应语音数据。
[0091]前述图2实施例中的语音交互的方法中的各种变化方式和具体实例同样适用于本实施例的电子设备,通过前述对语音交互的方法的详细描述,本领域技术人员可以清楚的知道本实施例中电子设备的实施方法,所以为了说明书的简洁,在此不再详述。
[0092]本发明实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
[0093]本发明一实施例采用分析待输出内容(例如短信或其他文本信息、或通过即时通信软件接收到的语音数据、或者是通过电子设备的声音输入装置录入的语音数据)的情绪信息,然后基于情绪信息,对与待输出内容对应的待输出语音数据进行处理,最后获得包含第二情绪信息的待输出语音数据,所以当电子设备输出包含第二情绪信息的待输出语音数据时,用户能够获得电子设备的情绪。因此,通过这种方法,可以使得电子设备根据不同内容或场景输出不同情绪的语音信息,使得用户能够更清楚的了解到电子设备的情绪,所以使得输出语音的效率更高效,用户体验更好。
[0094]本发明另一实施例中,当用户输入第一语音数据后,分析第一语音数据,获得对应的第一情绪,然后获得针对第一语音数据的第一回应语音数据,再基于第一情绪信息对第一回应语音数据进行处理,产生包含第二情绪信息的第二回应语音数据,使得第二回应语音数据输出时,用户能够获得电子设备的情绪,所以人机可以更好的交互,电子设备也更人性化,使得人机交互效率更高,用户体验更好。
[0095]本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
[0096]本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。[0097]这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0098]这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0099]显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
【权利要求】
1.一种输出语音的方法,应用于一电子设备,其特征在于,所述方法包括: 获得第一待输出内容; 分析所述第一待输出内容,获得第一情绪信息,所述第一情绪信息用于表示所述第一待输出内容所携带的情绪; 获得所述第一待输出内容对应的第一待输出语音数据; 基于所述第一情绪信息,对所述第一待输出语音数据进行处理,产生包含第二情绪信息的第二待输出语音数据,其中,所述第二情绪信息用于表示所述电子设备在输出所述第二待输出语音数据时以使得用户获得所述电子设备的情绪,其中,所述第一情绪信息与所述第二情绪信息相匹配/相关联; 输出所述第二待输出语音数据。
2.如权利要求1所述的方法,其特征在于,所述获得第一待输出内容具体为: 获取通过即时通信应用接收到的语音数据; 获取通过所述电子设备的声音输入装置录入的语音数据;或者 获取显示在所述电子设备的显示单元上的文本信息。
3.如权利要求2所述的方法,其特征在于,当所述第一待输出内容为所述语音数据时,所述分析所述第一待输出内容,获得第一情绪信息,具体包括: 分别将所述语音数据的音频谱与M个特征频谱模板中的每一个特征频谱模板进行对t匕,获得所述语音数据·的音频谱与所述每一个特征频谱模板的M个对比结果,其中M为大于等于2的整数; 基于所述M个对比结果,确定所述语音数据的音频谱与所述M个特征频谱模板中相似度最高的特征频谱模板; 确定所述相似度最高的特征频谱模板所对应的情绪信息为所述第一情绪信息。
4.如权利要求1所述的方法,其特征在于,所述对所述第一待输出语音数据进行处理,产生包含第二情绪信息的第二待输出语音数据,具体包括: 调整所述第一待输出语音数据所对应的字的声调、音量、或字与字间的停顿时间,产生所述第二待输出语音数据。
5.一种语音交互的方法,应用于一电子设备,其特征在于,所述方法包括: 接收一用户输入的第一语音数据; 分析所述第一语音数据,获得第一情绪信息,所述第一情绪信息用于表示输入所述第一语音数据的用户在输入所述第一语音数据时的情绪; 获得一针对所述第一语音数据的第一回应语音数据; 基于所述第一情绪信息对所述第一回应语音数据进行处理,产生包含第二情绪信息的第二回应语音数据;所述第二情绪信息用于表示所述电子设备在输出所述第二回应语音数据时以使得所述用户获得所述电子设备的情绪,其中,所述第一情绪信息与所述第二情绪信息相匹配/相关联; 输出所述第二回应语音数据。
6.如权利要求5所述的方法,其特征在于,所述分析所述第一语音数据,获得第一情绪信息,具体包括: 分别将所述第一语音数据的音频谱与M个特征频谱模板中的每一个特征频谱模板进行对比,获得所述第一语音数据的音频谱与所述每一个特征频谱模板的M个对比结果,其中M为大于等于2的整数; 基于所述M个对比结果,确定所述第一语音数据的音频谱与所述M个特征频谱模板中相似度最高的特征频谱模板; 确定所述相似度最高的特征频谱模板所对应的情绪信息为所述第一情绪信息。
7.如权利要求5所述的方法,其特征在于,所述分析所述第一语音数据,获得第一情绪信息,具体包括: 判断所述第一语音数据的连续输入次数是否大于一预定值; 当所述连续输入次数大于一预定值时,确定所述第一语音数据中的情绪信息为所述第一情绪信息。
8.如权利要求5所述的方法,其特征在于,所述基于所述第一情绪信息对所述第一回应语音数据进行处理,产生包含第二情绪信息的第二回应语音数据,具体包括: 调整所述第一回应语音数据所对应的字的声调、音量、或字与字间的停顿时间,产生所述第二回应语音数据。
9.如权利要求5所述的方法,其特征在于,所述基于所述第一情绪信息对所述第一回应语音数据进行处理,产生包含第二情绪信息的第二回应语音数据,具体为: 基于所述第一情绪信息,在所述第一回应语音数据上增加一用于表示所述第二情绪信息的语音数据,获得所述第二回应语音数据。
10.一种电子设备,其特征在于,包括: 电路板; 获得单元,电性连接于所述电路板,用于获得第一待输出内容; 处理芯片,设置于所述电路板上,用于分析所述第一待输出内容,获得第一情绪信息,所述第一情绪信息用于表示所述待输出内容所携带的情绪;获得所述第一待输出内容对应的第一待输出语音数据;基于所述第一情绪信息,对所述第一待输出语音数据进行处理,产生包含第二情绪信息的第二待输出语音数据,其中,所述第二情绪信息用于表示所述电子设备在输出所述第二待输出语音数据时以使得用户获得所述电子设备的情绪,其中,所述第一情绪信息与所述第二情绪信息相匹配/相关联; 输出单元,电性连接于所述处理芯片,用于输出所述第二待输出语音数据。
11.如权利要求10所述的电子设备,其特征在于,当所述第一待输出内容为一语音数据时,所述处理芯片具体用于分别将所述语音数据的音频谱与M个特征频谱模板中的每一个特征频谱模板进行对比,获得所述语音数据的音频谱与所述每一个特征频谱模板的M个对比结果,其中M为大于等于2的整数;基于所述M个对比结果,确定所述语音数据的音频谱与所述M个特征频谱模板中相似度最高的特征频谱模板;确定所述相似度最高的特征频谱模板所对应的情绪信息为所述第一情绪信息。
12.如权利要求10所述的电子设备,其特征在于,所述处理芯片具体用于调整所述第一待输出语音数据所对应的字的声调、音量、或字与字间的停顿时间,产生所述第二待输出语音数据。
13.—种电子设备,其特征在于,包括: 电路板;语音接收单元,电性连接于所述电路板,用于接收一用户输入的第一语音数据; 处理芯片,设置于所述电路板上,用于分析所述第一语音数据,获得第一情绪信息,所述第一情绪信息用于表示输入所述第一语音数据的用户在输入所述第一语音数据时的情绪;获得一针对所述第一语音数据的第一回应语音数据;基于所述第一情绪信息对所述第一回应语音数据进行处理,产生包含第二情绪信息的第二回应语音数据;所述第二情绪信息用于表示所述电子设备在输出所述第二回应语音数据时以使得所述用户获得所述电子设备的情绪,其中,所述第一情绪信息与所述第二情绪信息相匹配/相关联; 输出单元,电性连接于所述处理芯片,用于输出所述第二回应语音数据。
14.如权利要求13所述的电子设备,其特征在于,所述处理芯片具体用于分别将所述第一语音数据的音频谱与M个特征频谱模板中的每一个特征频谱模板进行对比,获得所述第一语音数据的音频谱与所述每一个特征频谱模板的M个对比结果,其中M为大于等于2的整数;基于所述M个对比结果,确定所述第一语音数据的音频谱与所述M个特征频谱模板中相似度最高的特征频谱模板;确定所述相似度最高的特征频谱模板所对应的情绪信息为所述第一情绪信息。
15.如权利要求13所述的电子设备,其特征在于,所述处理芯片具体用于判断所述第一语音数据的连续输入次数是否大于一预定值;当所述连续输入次数大于一预定值时,确定所述第一语音数据中的情绪信息为所述第一情绪信息。
16.如权利要求13所述的电子设备,其特征在于,所述处理芯片具体用于调整所述第一回应语音数据所对应的字 的声调、音量、或字与字间的停顿时间,产生所述第二回应语音数据。
17.如权利要求13所述的电子设备,其特征在于,所述处理芯片具体用于基于所述第一情绪信息,在所述第一回应语音数据上增加一用于表示所述第二情绪信息的语音数据,获得所述第二回应语音数据。
【文档编号】G06F3/16GK103543979SQ201210248179
【公开日】2014年1月29日 申请日期:2012年7月17日 优先权日:2012年7月17日
【发明者】戴海生, 王茜莺, 汪浩 申请人:联想(北京)有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1