信息交互方法、装置、电子设备和存储介质与流程

文档序号:24120425发布日期:2021-03-02 11:01阅读:49来源:国知局
信息交互方法、装置、电子设备和存储介质与流程

[0001]
本申请涉及语音识别技术、计算机视觉技术和深度学习等人工智能技术领域,尤其涉及信息交互方法、装置、电子设备和存储介质。


背景技术:

[0002]
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几个大方向。
[0003]
随着人工智能技术的快速发展,基于语音的人机交互设备越来越受到用户的青睐,比如智能音箱、智能电视、语音车载等成为用户生活中经常使用的人机交互设备。
[0004]
相关技术中,机器人的对话交互方式,缺少对用户情感状态的感知,用户输入语音指令,通常直接对用户语音指令进行回复,这种方式机械、没有情感、不符合智能体的形象。


技术实现要素:

[0005]
本申请提供了一种的技术问题的信息交互方法、装置、电子设备和存储介质。
[0006]
根据第一方面,提供了一种信息交互方法,包括:
[0007]
获取用户输入的语音信息;
[0008]
根据所述语音信息识别所述用户的情绪类别;
[0009]
响应所述输入的语音信息,播报对应的输出语音信息并显示预设的与所述情绪类别对应的界面表情。
[0010]
根据第二方面,提供了一种信息交互装置,包括:
[0011]
获取模块,用于获取用户输入的语音信息;
[0012]
识别模块,用于根据所述语音信息识别所述用户的情绪类别;
[0013]
处理模块,用于响应所述输入的语音信息,播报对应的输出语音信息并显示预设的与所述情绪类别对应的界面表情。
[0014]
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述实施例描述的信息交互方法。
[0015]
根据第四方面,提出了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述实施例描述的信息交互方法。
[0016]
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
[0017]
附图用于更好地理解本方案,不构成对本申请的限定。其中:
[0018]
图1是根据本申请一个实施例的信息交互方法的流程示意图;
[0019]
图2是根据本申请一个实施例的信息交互方法的流程示意图;
[0020]
图3是根据本申请一个实施例的信息交互方法的场景示意图;
[0021]
图4是根据本申请实施例的信息交互方法的场景示意图;
[0022]
图5是根据本申请一个实施例的信息交互装置的结构示意图;
[0023]
图6是根据本申请一个实施例的信息交互装置的结构示意图;
[0024]
图7是用来实现本申请实施例的信息交互的方法的电子设备的框图。
具体实施方式
[0025]
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
[0026]
下面参考附图描述本申请实施例的信息交互方法、装置、电子设备和存储介质。
[0027]
为了解决现有技术中,人机交互方式机械化、不符合智能体的形象的技术问题,本申请提出了通过识别语音信息对应的情绪类别,在播报输出语音信息时显示与情绪类别对应的界面表情,实现不同的情绪对应不同的界面表情,重现人与人对话的自然感受,使得符合智能体的形象,对话体验更加有趣。
[0028]
具体地,图1是根据本申请一个实施例的信息交互方法的流程图,如图1所示,信息交互方法用于电子设备中,其中,电子设备可以为任一具有计算能力的设备,例如可以为手机、平板电脑、个人数字助理、穿戴式设备、车载设备、智能音箱、智能电视等具有各种操作系统、触摸屏和/或显示屏的硬件设备。该方法包括:
[0029]
步骤101,获取用户输入的语音信息。
[0030]
步骤102,根据语音信息识别用户的情绪类别。
[0031]
在本申请实施例中,人机交互设备比如智能音箱、智能电视等都具有一个或者多个麦克风阵列等声音采集设备采集的用户输入的语音信息。
[0032]
在本申请实施例中,获取用户输入的语音信息后,根据语音信息识别用户的情绪类别的方式有很多种,可以根据具体应用场景进行选择设置,举例说明如下:
[0033]
第一种示例,对语音信息进行转换处理获取对应的文本信息,对文本信息进行切词处理生成多个分词,将多个分词与预设的候选关键词进行匹配,获取与一个或者多个分词匹配成功的目标关键词,查询预设的与目标关键词对应的情绪分类信息,识别用户的情绪类别。
[0034]
第二种示例,对语音信息进行转换处理获取对应的文本信息,基于语义理解算法对文本信息进行处理,对文本信息同时进行句法、语义分析,利用句法信息和语义信息,识别用户的情绪类别。
[0035]
第三种示例,预先根据不同的文本语音样本和神经网络(比如卷积神经网络)、分类器等建立情绪类别分类模型,将语音信息输入预先建立的情绪类别分类模型,获取语音
信息对应用户的情绪类别。
[0036]
步骤103,响应输入的语音信息,播报对应的输出语音信息并显示预设的与情绪类别对应的界面表情。
[0037]
在本申请实施例中,针对用户输入的语音信息进行处理生成输出语音信息并进行播报,比如用户输入的语音信息“今天天气怎么样”,播报对应的输出语音信息“今天北京为晴天,温度16至20度,西北风”。
[0038]
在本申请实施例中,基于用户输入的语音信息进行处理生成输出语音信息的方式有很多种,可以根据具体应用场景进行选择设置,举例说明如下:
[0039]
第一种示例,基于神经网络(比如卷积神经网络)和输入语音样本预先建立语音回复模型,直接通过预先建立语音回复模型对用户输入的语音信息进行处理生成输出语音信息。
[0040]
第二种示例,对用户输入的语音信息转换为文本信息,对文本信息在预设的知识库中匹配得到输出文本信息,将输出文本信息转换为输出语音信息。
[0041]
在本申请实施例中,根据语音信息识别用户的情绪类别对应的界面表情可以为一个或者多个,可以根据具体场景选择界面表情输出,也可以结合语音时长、语音特征以及用户偏好等进行选择设置,举例说明如下。
[0042]
作为一种场景举例,当情绪类别对应的界面表情可以为一个时,播报对应的输出语音信息并显示预设的与情绪类别对应的界面表情即可。
[0043]
作为另一种场景举例,当情绪类别包括多个候选界面表情时,获取输出语音信息的播报时长;根据预设的与每个候选界面表情对应的显示概率和所述播报时长,确定需要显示的一个或者多个目标界面表情,以及与每个目标界面表情对应的显示时长;播报对应的输出语音信息的过程中,根据与每个目标界面表情对应的显示时长,切换显示一个或者多个目标界面表情。
[0044]
作为又一种场景举例,当情绪类别包括多个候选界面表情时,提取语音信息的音频特征;根据音频特征获取语音信息的能量;将语音信息的能量输入预先训练的深度学习模型,获取与每个候选界面表情对应的出现概率;播报对应的输出语音信息的过程中,显示出现概率最大值的候选界面表情。
[0045]
综上,本申请实施例的信息交互方法,通过获取用户输入的语音信息;根据语音信息识别用户的情绪类别;响应输入的语音信息,播报对应的输出语音信息并显示预设的与情绪类别对应的界面表情。解决了人机交互方式机械化、不符合智能体的形象的技术问题,通过识别语音信息对应的情绪类别,在播报输出语音信息时显示与情绪类别对应的界面表情,实现不同的情绪对应不同的界面表情,重现人与人对话的自然感受,使得符合智能体的形象,对话体验更加有趣。
[0046]
基于上述实施例的描述,可以理解到当情绪类别包括多个候选界面表情时,可以基于输出语音信息的播报时长、语音信息的能量等确定显示的界面表情,下面结合图2和图3进行详细描述。
[0047]
图2是根据本申请一个实施例的信息交互方法的流程图,如图2所示,该方法包括:
[0048]
步骤201,获取用户输入的语音信息,对语音信息进行转换处理获取对应的文本信息,对文本信息进行切词处理生成多个分词。
[0049]
在本申请实施例中,人机交互设备比如智能音箱、智能电视等都具有一个或者多个麦克风阵列等声音采集设备采集的用户输入的语音信息。
[0050]
在本申请实施例中,获取用户输入的语音信息后,对语音信息进行转换处理获取对应的文本信息,对文本信息进行切词处理生成多个分词。
[0051]
在本申请实施例中,对语音信息进行转换处理获取对应的文本信息的方式有很多种,可以根据具体应用场景选择设置,举例说明如下:
[0052]
第一种示例,通过语音文本转换器对语音信息进行转换处理获取对应的文本信息。
[0053]
第二种示例,可以通过语音文本转换tts(text-to-speech)引擎对语音信息进行转换处理获取对应的文本信息。
[0054]
在本申请实施例中,对文本信息进行切词处理生成多个分词的方式有很多种,可以根据具体应用场景选择设置,举例说明如下:
[0055]
第一种示例,基于字符串匹配的分词方法对文本信息进行处理,将文本信息与机器词典中的词语进行配,若在机器词典中找到某个字符串,则识别出一个分词,从而生成多个分词。
[0056]
第二种示例,基于分词模型对文本信息进行分词,该分词模型可采用目前已有的分词模型。
[0057]
步骤202,将多个分词与预设的候选关键词进行匹配,获取与一个或者多个分词匹配成功的目标关键词,查询预设的与目标关键词对应的情绪分类信息,识别用户的情绪类别。
[0058]
在本申请实施例中,预先建立多个关键词和情绪类别之间的映射关系,比如正向情绪类别对应关键词a、b和c;负向情绪类别对应关键词d、e和f等,关键词a、b、c、d、e和f都可以作为预设的候选关键词。
[0059]
在本申请实施例中,将多个分词与预设的候选关键词进行匹配的方式可以理解为将多个分词分别与预设的候选关键词中的每个关键词进行匹配,可以是词语、语义等匹配。
[0060]
在本申请实施例中,在获取与一个或者多个分词匹配成功的目标关键词后,查询预设的与目标关键词对应的情绪分类信息,识别用户的情绪类别的方式有很多种,可以根据应用场景选择设置,举例说明如下:
[0061]
作为一种可能实现方式,在查询获知目标关键词属于预设的第一情绪分类信息的情况下,识别用户为正向情绪类别;在查询获知目标关键词属于预设的第二情绪分类信息的情况下,识别用户为负向情绪类别;在查询获知目标关键词不属于预设的第一情绪分类信息和第二情绪分类信息的情况下,识别用户为中立情绪类别。
[0062]
继续以上述例子为例进行说明,目标关键词为a,在查询获知目标关键词a属于预设的正向情绪类别信息的情况下,识别用户为正向情绪类别;目标关键词为d,在查询获知目标关键词属于预设的负向情绪类别信息的情况下,识别用户为负向情绪类别;目标关键词为h,在查询获知目标关键词d属于预设的负向情绪类别信息的情况下,在查询获知目标关键词h不属于预设的正向情绪分类信息和负向情绪分类信息的情况下,识别用户为中立情绪类别。
[0063]
步骤203,响应输入的语音信息,当情绪类别包括多个候选界面表情时,获取输出
语音信息的播报时长。
[0064]
步骤204,根据预设的与每个候选界面表情对应的显示概率和播报时长,确定需要显示的一个或者多个目标界面表情,以及与每个目标界面表情对应的显示时长。
[0065]
步骤205,播报对应的输出语音信息的过程中,根据与每个目标界面表情对应的显示时长,切换显示一个或者多个目标界面表情。
[0066]
在本申请实施例中,一个情绪类别包括多个候选界面表情,当情绪类别包括多个候选界面表情时,获取输出语音信息的播报时长,比如为10秒、20秒等。
[0067]
在本申请实施例中,可以预先设置每个候选界面表情对应的显示概率和播报时长,比如候选界面表情1对应显示概率x1和播报时长y1;候选界面表情2对应显示概率x2和播报时长y2等,候选界面表情3对应显示概率x3和播报时长y3。
[0068]
因此,在确定输出语音信息的播报时长比如为10秒时,匹配一个目标界面表情1,对应显示概率x1为百分之九十和播报时长为10秒;在确定输出语音信息的播报时长比如为20秒时,匹配一个目标界面表情1和2,目标界面表情1对应显示概率x1为百分之九十和播报时长为10秒;目标界面表情2对应显示概率x1为百分之八十五和播报时长为10秒。
[0069]
在本申请实施例中,可以输出语音信息的播报时长和预设的与每个候选界面表情对应的显示概率和播报时长进行播报时长匹配,匹配出播报时长的一个或者多个界面表情后,根据显示概率选择一个目标界面表情或者多个目标界面表情组合显示,以及与每个目标界面表情对应的显示时长,最后播报对应的输出语音信息的过程中,根据与每个目标界面表情对应的显示时长,切换显示一个或者多个目标界面表情。
[0070]
在本申请实施例中,可以理解的是,根据与每个目标界面表情对应的显示时长,按照顺序切换显示一个或者多个目标界面表情、或者是随机切换显示一个或者多个目标界面表情,进一步提高显示界面表情的灵活性和趣味性。
[0071]
需要说明的是,为了进一步满足用户使用需求,用户可以根据实际应用场景选择界面表情,并设置界面表情对应的显示概率和播报时长预先存储,并将各个界面表情与对应的情绪类别建立关联,比如自己喜欢的动物表情作为正向情绪类别对应的界面表情等等,在满足交互趣味性的同时满足用户个性化需求。
[0072]
综上,本申请实施例的信息交互方法,通过获取用户输入的语音信息,对语音信息进行转换处理获取对应的文本信息,对文本信息进行切词处理生成多个分词,将多个分词与预设的候选关键词进行匹配,获取与一个或者多个分词匹配成功的目标关键词,查询预设的与目标关键词对应的情绪分类信息,识别用户的情绪类别,响应输入的语音信息,当情绪类别包括多个候选界面表情时,获取输出语音信息的播报时长,根据预设的与每个候选界面表情对应的显示概率和播报时长,确定需要显示的一个或者多个目标界面表情,以及与每个目标界面表情对应的显示时长,播报对应的输出语音信息的过程中,根据与每个目标界面表情对应的显示时长,切换显示一个或者多个目标界面表情。由此,通过识别语音信息对应的情绪类别,在播报输出语音信息时显示与情绪类别对应的界面表情,实现不同的情绪对应不同的界面表情,进一步地,同一情绪还可以实现显示不同界面表情,人机对话体验更加生动有趣。
[0073]
图3是根据本申请一个实施例的信息交互方法的流程图,如图2所示,该方法包括:
[0074]
步骤301,获取用户输入的语音信息。
[0075]
步骤302,根据语音信息识别用户的情绪类别。
[0076]
在本申请实施例中,人机交互设备比如智能音箱、智能电视等都具有一个或者多个麦克风阵列等声音采集设备采集的用户输入的语音信息。
[0077]
在本申请实施例中,获取用户输入的语音信息后,根据语音信息识别用户的情绪类别的方式有很多种,可以根据具体应用场景进行选择设置,举例说明如下:
[0078]
第一种示例,对语音信息进行转换处理获取对应的文本信息,对文本信息进行切词处理生成多个分词,将多个分词与预设的候选关键词进行匹配,获取与一个或者多个分词匹配成功的目标关键词,查询预设的与目标关键词对应的情绪分类信息,识别用户的情绪类别。
[0079]
第二种示例,对语音信息进行转换处理获取对应的文本信息,基于语义理解算法对文本信息进行处理,对文本信息进行同时进行句法、语义分析,利用句法信息和语义信息,识别用户的情绪类别。
[0080]
第三种示例,预先根据不同的文本语音样本和神经网络(比如卷积神经网络)、分类器等建立情绪类别分类模型,将语音信息输入预先建立的情绪类别分类模型,获取语音信息对应用户的情绪类别。
[0081]
步骤303,当情绪类别包括多个候选界面表情时,提取语音信息的音频特征,根据音频特征获取语音信息的能量。
[0082]
步骤304,将语音信息的能量输入预先训练的深度学习模型,获取与每个候选界面表情对应的出现概率。
[0083]
步骤305,播报对应的输出语音信息的过程中,显示出现概率最大值的候选界面表情。
[0084]
在本申请实施例中,当情绪类别包括多个候选界面表情时,通过声音提取模型或者声音提取算法等提取语音信息的音频特征比如时长相关特征、基频相关特征和能量相关特征等,进一步根据音频特征获取语音信息的能量,即正向能量、中向能量和负向能量,将语音信息的能量输入预先训练的深度学习模型,获取与每个候选界面表情对应的出现概率。
[0085]
在本申请实施例中,可以理解的是,预先基于神经网络对语音信息的能量样本和每个候选界面表情对应的出现概率样本进行训练,生成深度学习模型,因此,将将语音信息的能量输入预先训练的深度学习模型,获取与每个候选界面表情对应的出现概率。
[0086]
最后,播报对应的输出语音信息的过程中,显示出现概率最大值的候选界面表情。
[0087]
综上,本申请实施例的信息交互方法,通过获取用户输入的语音信息;根据语音信息识别用户的情绪类别,当情绪类别包括多个候选界面表情时,提取语音信息的音频特征,根据音频特征获取语音信息的能量,将语音信息的能量输入预先训练的深度学习模型,获取与每个候选界面表情对应的出现概率步,播报对应的输出语音信息的过程中,显示出现概率最大值的候选界面表情。由此,通过识别语音信息对应的情绪类别,在播报输出语音信息时显示与情绪类别对应的界面表情,实现不同的情绪对应不同的界面表情,进一步地,同一情绪还可以实现显示不同界面表情,人机对话体验更加生动有趣。
[0088]
基于上述描述,本申请主要将用户的语音信息为文本信息,再进行文本信息的情绪识别,识别文本信息背后蕴含的用户情绪,不同的情绪对应不同的界面表情,并播报对应
的输出语音信息。这种对话的互动方式,还原与人对话的自然感受,更符合智能体的形象,对话体验更加有趣,激发用户的探索欲。
[0089]
结合图4进行举例说明,获取用户输入语音信息,对语音信息进行情绪识别,可以理解的是为了进一步满足用户使用需求,可以根据人类的情绪,绘制机器人界面表情系统,比如包含32类动态的界面表情,基于实际对话情境,从表情系统中比如提取能表达“正向和中立情绪”的界面表情,可以是9类正向的界面表情;并根据情绪的正向程度,确定9类界面表情出现的概率。
[0090]
具体地,用户输入语音信息,机器人将语音信息实时识别为文字信息,并自动检测对话文本中蕴含的情绪特征,比如图4中,识别用户的情绪为正向和中性情绪,机器人界面显示正向的界面表情;连续识别为正向和中立情绪,界面表情可以按照一定出现概率切换显示;识别为负向情绪,界面可以显示中立情绪的界面表情,界面显示不同界面表情,结合对应的语音信息反馈,人机对话体验更加生动有趣。
[0091]
为了实现上述实施例,本申请还提出了一种信息交互装置。图5是根据本申请一个实施例的信息交互装置的结构示意图,如图5所示,该信息交互装置包括:获取模块510、识别模块520和处理模块530。
[0092]
获取模块510,用于获取用户输入的语音信息。
[0093]
识别模块520,用于根据语音信息识别用户的情绪类别。
[0094]
处理模块530,用于响应输入的语音信息,播报对应的输出语音信息并显示预设的与情绪类别对应的界面表情。
[0095]
需要说明的是,前述对信息交互方法的解释说明,也适用于本发明实施例的信息交互装置,其实现原理类似,在此不再赘述。
[0096]
综上,本申请实施例的信息交互装置,通过获取用户输入的语音信息;根据语音信息识别用户的情绪类别;响应输入的语音信息,播报对应的输出语音信息并显示预设的与情绪类别对应的界面表情。解决了人机交互方式机械化、不符合智能体的形象的技术问题,通过识别语音信息对应的情绪类别,在播报输出语音信息时显示与情绪类别对应的界面表情,实现不同的情绪对应不同的界面表情,重现人与人对话的自然感受,使得符合智能体的形象,对话体验更加有趣。
[0097]
在本申请的一个实施例中,如图6所示,在如图5所示的基础上,识别模块520,包括:52获取单元1、切词单元522、匹配单元523和查询单元524。
[0098]
其中,获取单元521,用于对语音信息进行转换处理获取对应的文本信息。
[0099]
切词单元522,用于对文本信息进行切词处理生成多个分词。
[0100]
匹配单元523,用于将多个分词与预设的候选关键词进行匹配,获取与一个或者多个分词匹配成功的目标关键词。
[0101]
查询单元524,用于查询预设的与目标关键词对应的情绪分类信息,识别用户的情绪类别。
[0102]
在本申请的一个实施例中,查询单元524,具体用于:在查询获知目标关键词属于预设的第一情绪分类信息的情况下,识别用户为正向情绪类别;在查询获知目标关键词属于预设的第二情绪分类信息的情况下,识别用户为负向情绪类别;在查询获知目标关键词不属于预设的第一情绪分类信息和第二情绪分类信息的情况下,识别用户为中立情绪类
别。
[0103]
在本申请的一个实施例中,当情绪类别包括多个候选界面表情时,处理模块530,具体用于:获取输出语音信息的播报时长;根据预设的与每个候选界面表情对应的显示概率和所述播报时长,确定需要显示的一个或者多个目标界面表情,以及与每个目标界面表情对应的显示时长;播报对应的输出语音信息的过程中,根据与每个目标界面表情对应的显示时长,切换显示一个或者多个目标界面表情。
[0104]
在本申请的一个实施例中,当情绪类别包括多个候选界面表情时,处理模块530,具体用于:提取语音信息的音频特征;根据音频特征获取语音信息的能量;将语音信息的能量输入预先训练的深度学习模型,获取与每个候选界面表情对应的出现概率;播报对应的输出语音信息的过程中,显示出现概率最大值的候选界面表情。
[0105]
需要说明的是,前述对信息交互方法的解释说明,也适用于本发明实施例的信息交互装置,其实现原理类似,在此不再赘述。
[0106]
综上,本申请实施例的信息交互装置,通过获取用户输入的语音信息;根据语音信息识别用户的情绪类别;响应输入的语音信息,播报对应的输出语音信息并显示预设的与情绪类别对应的界面表情。解决了人机交互方式机械化、不符合智能体的形象的技术问题,通过识别语音信息对应的情绪类别,在播报输出语音信息时显示与情绪类别对应的界面表情,实现不同的情绪对应不同的界面表情,重现人与人对话的自然感受,使得符合智能体的形象,对话体验更加有趣。进一步地,同一情绪还可以实现显示不同界面表情,人机对话体验更加生动有趣。
[0107]
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
[0108]
如图7所示,是根据本申请实施例的信息交互的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
[0109]
如图7所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示gui的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图7中以一个处理器701为例。
[0110]
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的信息交互的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的信息交互的方法。
[0111]
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非
瞬时计算机可执行程序以及模块,如本申请实施例中的信息交互的方法对应的程序指令/模块(例如,附图5所示的获取模块510、识别模块520和处理模块530)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的信息交互的方法。
[0112]
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据信息交互的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至信息交互的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
[0113]
信息交互的方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图7中以通过总线连接为例。
[0114]
输入装置703可接收输入的数字或字符信息,以及产生与信息交互的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,led)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(lcd)、发光二极管(led)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
[0115]
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用asic(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(pld)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
[0116]
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
[0117]
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
[0118]
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。其中,服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与vps(virtual private server虚拟专用服务器)服务中,存在的管理难度大,业务扩展性弱的缺陷。
[0119]
根据本申请实施例的技术方案,通过获取用户输入的语音信息;根据语音信息识别用户的情绪类别;响应输入的语音信息,播报对应的输出语音信息并显示预设的与情绪类别对应的界面表情。解决了人机交互方式机械化、不符合智能体的形象的技术问题,通过识别语音信息对应的情绪类别,在播报输出语音信息时显示与情绪类别对应的界面表情,实现不同的情绪对应不同的界面表情,重现人与人对话的自然感受,使得符合智能体的形象,对话体验更加有趣。
[0120]
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
[0121]
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1