一种用于智能机器人的交互输出方法以及系统与流程

文档序号:13943318阅读:210来源:国知局

本发明涉及计算机领域,具体涉及一种用于智能机器人的交互输出方法以及系统。



背景技术:

随着机器人技术的不断发展,越来越多的具备自主人机交互能力的智能机器人被应用到人类日程的生产生活中。

在现有技术中,通常的人机交互模式是智能机器人获取人类的输入信息并解析,然后生成并输出对应的交互回应,其中,最常见的就是基于文本形式的文本交互机器人。

但是,由于人类的日常交流是多种交流模式混杂的,在社交软件上的交流更是多种多样,因此文本交互机器人仅以单纯的文本进行交流很容易让人感到厌倦,这就大大影响了智能机器人的用户体验。



技术实现要素:

本发明提供了一种用于智能机器人的交互输出方法,包括:

获取智能机器人的个性参数;

获取当前交互对象的交互输入数据;

对所述交互输入数据进行语义解析及情感计算,获取语义解析结果以及情感解析结果;

根据所述语义解析结果以及所述情感解析结果生成对应的回应文本;

生成并输出包含表情图像和/或所述回应文本的交互回应数据,其中,所述表情图像的类型与所述个性参数匹配,所述表情图像的含义与所述回应文本匹配。

在一实施例中,获取智能机器人的个性参数,包括:

获取当前交互对象的身份信息;

调用与所述身份信息匹配的个性参数。

在一实施例中,获取智能机器人的个性参数,包括:

获取当前交互环境描述信息和/或用户交互需求信息;

调用与所述当前交互环境描述信息和/或所述用户交互需求信息匹配的个性参数。

在一实施例中,生成包含表情图像和/或所述回应文本的交互回应数据,包括:

判断是否需要输出所述表情图像;

当需要输出表情图像时生成包含所述表情图像的所述交互回应数据。

在一实施例中,判断是否需要输出所述表情图像,包括:

当所述交互输入数据包含表情图像时判定需要输出所述表情图像。

在一实施例中,判断是否需要输出所述表情图像,包括:

根据所述个性参数确定表情图像回应策略,所述表情图像回应策略包括表情图像回应频率、表情图像回应话题范围和/或表情图像情感回应触发策略;

基于所述表情图像回应策略判断是否需要输出所述表情图像。

在一实施例中,判断是否需要输出所述表情图像,包括:

根据所述语义解析结果和/或所述情感解析结果确定当前的话题范围和/或情感回应参数;

根据所述话题范围和/或所述情感回应参数判断是否需要输出所述表情图像。

在一实施例中,当需要输出表情图像时生成包含所述表情图像的所述交互回应数据,包括:

提取所述表情图像对应的文本信息;

比对所述表情图像对应的文本信息及所述回应文本;

当所述表情图像对应的文本信息与所述回应文本的匹配度达到设定阈值时,仅输出所述表情图像。

本发明还提出了一种存储介质,所述存储介质上存储有可实现如权利要求1-8中任一项所述方法的程序代码。

本发明还提出了一种智能机器人系统,所述系统包括:

输入采集模块,其配置为获取当前交互对象的交互输入数据;

输出模块,其配置为向当前交互对象输出交互回应数据;

交互解析模块,其配置为:

获取智能机器人的个性参数;

对所述交互输入数据进行语义解析及情感计算,获取语义解析结果以及情感解析结果;

根据所述语义解析结果以及所述情感解析结果生成对应的回应文本;

生成包含表情图像和/或所述回应文本的所述交互回应数据,其中,所述表情图像的类型与所述智能机器人的个性参数匹配,所述表情图像的含义与所述回应文本匹配。

根据本发明的方法,通过图片输出的方式,可以较大的提升智能机器人与用户进行交互时输出的多样性,增加人机对话的趣味性,实现对话信息的更准确表达,大大提高智能机器人的拟人化水平,从而提高智能机器人的用户体验。

本发明的其它特征或优点将在随后的说明书中阐述。并且,本发明的部分特征或优点将通过说明书而变得显而易见,或者通过实施本发明而被了解。本发明的目的和部分优点可通过在说明书、权利要求书以及附图中所特别指出的步骤来实现或获得。

附图说明

附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例共同用于解释本发明,并不构成对本发明的限制。在附图中:

图1是根据本发明一实施例的方法流程图;

图2~图5是根据本发明实施例的方法的部分流程图;

图6以及图7是根据本发明不同实施例的机器人系统结构简图;

图8是根据本发明一实施例的机器人应用场景示意图。

具体实施方式

以下将结合附图及实施例来详细说明本发明的实施方式,借此本发明的实施人员可以充分理解本发明如何应用技术手段来解决技术问题,并达成技术效果的实现过程并依据上述实现过程具体实施本发明。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例中的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。

在现有技术中,通常的人机交互模式是智能机器人获取人类的输入信息并解析,然后生成并输出对应的交互回应,其中,最常见的就是基于文本形式的文本交互机器人。

但是,由于人类的日常交流是多种交流模式混杂的,在社交软件上的交流更是多种多样,因此文本交互机器人仅以单纯的文本进行交流很容易让人感到厌倦,这就大大影响了智能机器人的用户体验。

针对上述问题,本发明提出了一种用于智能机器人的交互输出方法。在本发明的方法中,机器人与用户的交互并不仅限于文本,而是还包含表情图像。

进一步的,表情图像并不仅仅会展示特定的语义,在很多应用场合中,表情图像也用于展示特定的情绪。因此,在本发明的方法中,在交互过程中不仅进行语义解析,还引入了情感分析,利用语义解析及情感分析的双重解析结果来确定具体要输出的表情图像。

进一步的,在人类的正常交互场景中,由于每个人的喜好、习惯的不同,不同的人表达同一意思时往往会选取不同类型的表情图像。例如,儿童通常倾向于选择儿童卡通人物类型的表情图像,而老人会倾向于选择稳重类型的表情图像。

因此,为了进一步提高机器人的拟人化水平,在本发明中,为机器人赋予拟人化的性格特征,为其制定对应具体性格特征的个性参数。在选取表情图像的过程中,将选取标准细分为两个方面,其一是表情图像的类型选取,选取与智能机器人的个性参数匹配的类型的表情图像,利用表情图像的类型来体现机器人的拟人化性格特征;其二是表情图像的含义选取,选取与所需要回应当前交互对象的语义输出以及情绪输出匹配含义的表情图像,利用表情图像的具体含义体现想要表达的语义以及情绪。

根据本发明的方法,通过图片输出的方式,可以较大的提升智能机器人与用户进行交互时输出的多样性,增加人机对话的趣味性,实现对话信息的更准确表达,大大提高智能机器人的拟人化水平,从而提高智能机器人的用户体验。

接下来基于附图详细描述根据本发明实施例的方法的详细流程,附图的流程图中示出的步骤可以在包含诸如一组计算机可执行指令的计算机系统中执行。虽然在流程图中示出了各步骤的逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。

如图1所示,在一实施例中,智能机器人的交互输出方法包括:

获取智能机器人的个性参数(s110);

获取当前交互对象的交互输入数据(s120);

对交互输入数据进行语义解析及情感计算(s130),获取语义解析结果以及情感解析结果;

根据语义解析结果以及所述情感解析结果生成对应的回应文本(s140);

生成包含表情图像和/或回应文本的交互回应数据(s150),其中,表情图像的类型与智能机器人的个性参数匹配,表情图像的含义与回应文本匹配;

输出步骤s150生成的交互回应数据(s160)。

进一步的,在一实施例中,在生成包含表情图像的交互回应数据的过程中,首先根据智能机器人的个性参数确定表情图像的类型;然后从该类型的所有表情图像中筛选出含义匹配回应文本的表情图像。

在上述过程中,通过赋予智能机器人特定的个性参数来使得智能机器人的输出体现人类的性格特征,从而提升智能机器人的拟人化程度。

进一步的,在一实施例中,根据智能机器人的具体应用场景对其预设所要模拟的人类性格特征。例如,应用在儿童交互场所的智能机器人设定其模拟儿童性格特征。

然而,由于不同的人有不同的交互习惯以及交互喜好,因此,并不是任意的人类性格特征表现都会提升交互体验。决定智能机器人最终交互体验的关键点之一在于为智能机器人赋予合适的性格特征,即,令智能机器人所模拟的人类性格特征适合当前交互场景以及当前交互对象。但是,在很多应用场景中,智能机器人的交互场景以及交互对象并不是一成不变的。如果智能机器人始终保持单一的性格特征,在面对某些交互对象或应用场景时其性格特征很可能会降低交互体验。

针对上述问题,在一实施例中,智能机器人根据不同的交互场景,不同的交互需求变换自身所模拟的人类性格特征,从而使得所模拟的人类性格特征适合当前交互场景。

具体的,在一实施例中,机器人根据当前交互对象的身份不同来确定自身所要模拟的人类性格特征。

具体的,如图2所示,首先获取当前交互对象的身份信息(s210);然后调用与该身份信息匹配的个性参数(s220)。这样,就可以使得智能机器人所模拟体现的人类性格特征符合当前交互对象的交互习惯/需求。例如,当当前交互对象为儿童用户时,智能机器人调用对应儿童的个性参数,模拟一个儿童的性格特征,使得儿童用户在交互过程中感觉自己是在和另一个儿童进行交互,从而提升儿童用户的交互兴趣以及交互体验。

具体的,在一实施例中,机器人根据当前交互环境和/或交互对象的交互需求的不同来确定自身所要模拟的人类性格特征。

具体的,如图3所示,首先获取当前交互环境描述信息和/或用户交互需求信息(s310);然后调用与当前交互环境描述信息和/或用户交互需求信息匹配的个性参数(s320)。

进一步的,在其他实施例中,也可以采用上述两种方式结合的方法确定个性参数。

进一步的,在一实施例中,智能机器人所输出的交互回应数据包含表情图像和/或回应文本。具体的,交互回应数据的构成可以粗略分为两种情况,不包含表情图像(单纯的回应文本)以及包含表情图像。

针对上述两种情况,在一实施例中,在生成交互回应数据时首相判断是否需要输出表情图像;当需要输出表情图像时生成包含表情图像的交互回应数据;当不需要输出表情图像时生成纯回应文本的交互回应数据。

在人类的正常交互过程中,一般的,当交互双方中的一方使用表情图像时,另一方往往也会使用表情图像回应。因此,在一实施例中,在判断是否需要输出表情图像时,根据交互输入数据的类型判断是否需要输出表情图像,具体的:

当交互输入数据包含表情图像时直接判定需要输出表情图像。

进一步的,在人类的正常交互过程中,一般的,并不会在每一句交互用语中都使用表情图像,为模拟这一表现,可以根据一般状态下人类使用表情图像的频率来设定一预设的表情图像输出频率,令智能机器人输出表情图像的几率匹配这个预设的表情图像输出频率从而模拟人类的交互行为。

因此,在一实施例中,在判断是否需要输出表情图像时,根据交互输入数据的类型判断是否需要输出表情图像,具体的:

当交互输入数据为纯文本数据时根据预设的表情图像回应频率判定是否需要输出表情图像。

进一步的,在人类的正常交互过程中,由于不同性格的人交互习惯不同,其使用表情图像的频率也是不同的。例如,性格活泼的人使用表情图像的频率要远高于性格沉闷的人使用表情图像的频率。因此,在一实施例中,根据智能机器人所要模拟的人类性格特征来确定智能机器人在交互过程中使用表情图像的频率。

具体的,在一实施例中,根据智能机器人的个性参数确定表情图像回应策略,该表情图像回应策略包括表情图像回应频率;在判断是否需要输出表情图像时,基于表情图像回应策略判断是否需要输出表情图像。

进一步的,在人类的正常交互过程中,不同的人所感兴趣的话题范围是不同的,针对同一话题范围,不同性格的人所做出的交互反应也不同,是否使用表情图像还取决于当前的话题范围以及当前交互者性格间的对应关系。因此,在一实施例中,根据智能机器人所要模拟的人类性格特征来确定智能机器人使用表情图像所针对的话题范围。

具体的,在一实施例中,根据智能机器人的个性参数确定表情图像回应策略,该表情图像回应策略包括表情图像回应话题范围;在判断是否需要输出表情图像时,基于表情图像回应策略判断是否需要输出表情图像。

进一步的,在人类的正常交互过程中,由于表情图像可以提现人的情绪,而不同性格的人情绪表现程度是不同的。例如,性格活泼的人表现出的情绪就比较激烈,其倾向于用表情图像表达自己激动兴奋地心情,而针对同一件事,性格沉闷的人就不会那么感情外露,其仍然会用平实的文字进行平淡的语义输出。因此,在一实施例中,根据智能机器人所要模拟的人类性格特征来确定智能机器人在哪些情绪表达应用场景中的需要使用表情图像。

具体的,在一实施例中,根据智能机器人的个性参数确定表情图像回应策略,该表情图像回应策略包括表情图像情感回应触发策略(在何种情感回应应用场景下会触发表情图像回应);在判断是否需要输出表情图像时,基于表情图像回应策略判断是否需要输出表情图像。

进一步的,在其他实施例中,可以将上述三种表情图像回应策略的构成方式任意两两组合或是三者综合构成新的表情图像回应策略构成方式。具体的,在一实施例中,根据智能机器人的个性参数确定表情图像回应策略,该表情图像回应策略包括表情图像回应频率、表情图像回应话题范围和/或表情图像情感回应触发策略;在判断是否需要输出所述表情图像时,基于表情图像回应策略判断是否需要输出表情图像。

进一步的,由于在表情图像回应策略中限定了表情图像回应话题范围和/或表情图像情感回应触发策略,因此在实际交互过程中,就需要根据当前的交互话题范围和/或情感输出需求来确实是否需要输出表情图像。

具体的,在一实施例中,在判断是否需要输出表情图像时,首先根据语义解析结果和/或情感解析结果确定当前的话题范围和/或情感回应参数;然后根据话题范围和/或情感回应参数判断是否需要输出表情图像。

具体的,如图4所示,在一实施例中,在开始交互前,确定智能机器人的个性参数(s410),然后根据个性参数确定表情图像回应策略,确定表情图像回应频率、表情图像回应话题范围以及表情图像情感回应触发策略(s420)。

在交互过程中,首先判断交互输入数据的类型(s430)。如果交互输入数据包含表情图像,则直接判定当前的交互输出也需要包含表情图像(s440)。如果交互输入数据不包含表情图像,为纯文本,则根据语义解析结果和情感解析结果确定当前的话题范围和情感回应参数(s450),然后基于步骤s420确定的表情图像回应频率、表情图像回应话题范围以及表情图像情感回应触发策略,根据步骤s450确定的话题范围和情感回应参数判定当前的交互输出是否需要包含表情图像(s460)。

进一步的,某些表情图像本身就可以表述具体的文本信息(或是某些表情图像本身就展示了具体的文本信息),在这种情况下,就不需要同时输出该表情图像以及其表述/包含的文本信息。因此,在一实施例中,当需要输出表情图像时,还将输出情况细分为仅输出表情图像以及输出表情图像与回应文本的混合输出。当需要输出的表情图像可以完全替代回应文本时,不需要输出回应文本,仅输出表情图像;当需要输出的表情图像不可以替代回应文本时,输出回应文本与表情图像。

具体的,如图5所示,在一实施例中,智能机器人在交互过程中判断是否需要输出表情图像(s510),如果不需要输出表情图像,则仅输出回应文本(s520)。

如果需要输出表情图像,则从表情图像库中提取需要输出的表情图像(s530)。具体的,在一实施例中,首先根据智能机器人的个性参数确定表情图像的类型;然后从该类型的所有表情图像中筛选出含义匹配回应文本的表情图像。

接下来,提取步骤s530所提取的表情图像对应的文本信息(s540);比对表情图像对应的文本信息及回应文本的匹配度(s550);当表情图像对应的文本信息与回应文本的匹配度达到设定阈值时,仅输出表情图像(s560);当表情图像对应的文本信息与回应文本的匹配度未达到设定阈值时,输出表情图像以及回应文本(s570)。

进一步的,根据本发明的方法,本发明还提出了一种存储介质,该存储介质上存储有可实现如本发明所述方法的程序代码。

进一步的,根据本发明的方法,本发明还提出了一种智能机器人系统。具体的,如图6所示,系统包括:

输入采集模块610,其配置为获取当前交互对象的交互输入数据;

输出模块620,其配置为向当前交互对象输出交互回应数据;

交互解析模块630,其配置为:

获取智能机器人的个性参数;

对交互输入数据进行语义解析及情感计算,获取语义解析结果以及情感解析结果;

根据语义解析结果以及情感解析结果生成对应的回应文本;

生成包含表情图像和/或所述回应文本的交互回应数据,其中,交互回应数据中的表情图像的类型与智能机器人的个性参数匹配,表情图像的含义与回应文本匹配。

进一步的,在一实施例中,智能机器人系统为儿童故事机交互体系。儿童故事机是具有卡通、动物外观特征或具有知识产权ip的智能设备,借助机器人的ai能力进行基于讲故事需求的人机交互的教育类机器人。

进一步的,在一实施例中,智能机器人系统依托云服务器实现复杂的数据处理操作。具体的,如图7所示,交互解析模块730包含联网交互单元731,其通过联网交互单元731与机器人云端服务器700进行数据交互,从而将复杂的数据处理操作交予机器人云端服务器700进行处理。

具体的,如图7所示,在一应用场景中,交互个体202为人(用户);设备201可以是儿童故事机、该用户的智能手机、平板电脑、可穿戴设备等等;机器人云端服务器203向设备201提供数据处理支援服务(例如,云储存、云计算)。

设备201上安装有智能机器人系统。在人机交互过程中,设备201获取用户交互输入并将用户交互输入发送到服务器203,服务器203对用户交互输入进行语义理解及情感计算,生成响应用户交互输入的交互回应数据(包含回应文本和/或表情图像),并将交互回应数据返回给设备201。设备201向用户202输出交互回应数据。

虽然本发明所公开的实施方式如上,但所述的内容只是为了便于理解本发明而采用的实施方式,并非用以限定本发明。本发明所述的方法还可有其他多种实施例。在不背离本发明实质的情况下,熟悉本领域的技术人员当可根据本发明做出各种相应的改变或变形,但这些相应的改变或变形都应属于本发明的权利要求的保护范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1