机器人的控制方法和装置与流程

文档序号:12378783阅读:285来源:国知局
机器人的控制方法和装置与流程

本发明涉及机器人领域,具体而言,涉及一种机器人的控制方法和装置。



背景技术:

随着机器人的快速发展,机器人已经应用在各大领域中,例如,应用在工业领域和服务领域等,因此,机器人主要包括工业机器人和娱乐机器人。但是,现有技术中的娱乐机器人与用户的交互方式主要为语音、触摸等。因此,现有技术中的娱乐机器人的娱乐方式比较单一。然而,现有的通过语音方式实现用户和机器人之间的交互会受到机器人大脑(即,人工智能)的限制,因此,不能达到一个很好的聊天效果,而且机器人经常无法理解人的语义,经常造成理解错误的尴尬。进一步地,当用户与机器人接触时,能给予用户的反馈也非常有限,所以无法达到很好的娱乐效果。

针对上述的问题,目前尚未提出有效的解决方案。



技术实现要素:

本发明实施例提供了一种机器人的控制方法和装置,以至少解决现有技术中的机器人机交互形式较为单一的技术问题。

根据本发明实施例的一个方面,提供了一种机器人的控制方法,所述机器人包括投影设备和图像采集设备,所述投影设备用于向外投影,所述图像采集设备用于对外界进行图像采集,所述方法包括:获取运行指令,所述运行指令用于指示运行目标应用程序,所述目标应用程序为所述机器人内安装的应用程序;响应于所述运行指令,启动所述目标应用程序,调用预设的投影画面,并启动所述投影设备向所述机器人所处环境中的第一区域投影所述投影画面;基于投影的所述第一区域,通过所述图像采集设备对所述机器人所处环境中的第二区域进行图像采集,其中,所述第二区域包括所述第一区域,或者所述第二区域与所述第一区域至少部分重叠;基于所述图像采集设备采集获得的图像控制所述机器人输出第一反馈信息。

进一步地,基于所述图像采集设备采集获得的图像控制所述机器人输出第一反馈信息包括:判断所述图像中是否包含目标对象;在判断出所述图像中包含所述目标对象的情况下,确定所述目标对象和所述投影画面的位置关系,其中,所述位置关系用于确定所述目标对象和所述投影画面是否发生了交互;根据所述位置关系控制所述机器人输出所述第一反馈信息,其中,所述第一反馈信息包括以下至少之一:第一动作反馈信息、第一语音反馈信息。

进一步地,所述图像中包含三维坐标信息,确定所述目标对象和所述投影画面的位置关系包括:获取所述图像中包含的所述目标对象的第一三维坐标信息,以及获取所述图像中包含的所述投影画面的第二三维坐标信息,其中,所述第一三维坐标信息和所述第二三维坐标信息均为相对于所述图像采集设备的三维坐标信息;判断所述第一三维坐标信息中是否包含与所述第二三维坐标信息相匹配的三维坐标信息;如果判断出包含相匹配的三维坐标信息,则确定所述目标对象和所述投影画面发生了交互,其中,在确定出发生了所述交互的情况下,控制所述机器人输出所述第一反馈信息。

进一步地,判断所述第一三维坐标信息中是否包含与所述第二三维坐标信息相匹配的三维坐标信息包括:判断所述第一三维坐标信息中的第一坐标信息和所述第二三维坐标信息中的第二坐标信息是否相匹配,其中,所述第一坐标信息为所述第一三维坐标信息中的部分或者全部坐标信息,所述第二坐标信息为所述第二三维坐标信息中的部分或者全部坐标信息;如果判断出所述第一坐标信息和所述第二坐标信息相匹配,则控制所述机器人输出第一子反馈信息;如果判断出所述第一坐标信息和所述第二坐标信息不匹配,则控制所述机器人输出第二子反馈信息。

进一步地,在启动所述投影设备向所述机器人所处环境中的第一区域投影所述画面之后,所述方法还包括:获取所述目标对象发出的语音信息;确定所述语音信息中所指示的控制命令;根据确定出的所述控制命令控制所述机器人输出第二反馈信息,其中,所述第二反馈信息包括第二动作反馈信息和/或第二语音反馈信息。

进一步地,所述动作反馈信息包括:通过所述机器人的底盘输出的动作反馈信息和/或通过所述机器人机械臂输出的动作反馈信息。

进一步地,获取运行指令包括:检测目标对象的指示信息,其中,所述指示信息包括以下至少之一:所述目标对象的动作信息、所述目标对象发出的语音信息;将检测到的所述指示信息与预设指示信息进行匹配,其中,所述预设指示信息用于指示开启所述应用程序;如果检测到所述指示信息与所述预设指示信息相匹配,则确定检测到所述运行指令,并指示运行所述目标应用程序。

进一步地,启动所述投影设备向所述机器人所处环境中的第一区域投影所述画面包括:检测所述机器人所处环境的环境信息;根据所述环境信息确定将所述目标应用程序的显示画面进行投影的投影角度;按照所述投影角度对所述应用程序的显示画面进行投影,将投影所在的区域作为所述第一区域。

根据本发明实施例的另一方面,还提供了一种机器人的控制装置,所述机器人包括投影设备和图像采集设备,所述投影设备用于向外投影,所述图像采集设备用于对外界进行图像采集,所述装置包括:第一获取单元,用于获取运行指令,所述运行指令用于指示运行目标应用程序,所述目标应用程序为所述机器人内安装的应用程序;投影单元,设置在所述投影设备中,用于响应于所述运行指令,启动所述目标应用程序,调用预设的投影画面,并启动所述投影设备向所述机器人所处环境中的第一区域投影所述画面;图像采集单元,设置在所述图像采集设备中,用于基于投影的所述第一区域,通过所述图像采集设备对所述机器人所处环境中的第二区域进行图像采集,其中,所述第二区域包括所述第一区域,或者所述第二区域与所述第一区域至少部分重叠;输出单元,用于基于所述图像采集设备采集获得的图像控制所述机器人输出第一反馈信息。

进一步地,所述输出单元包括:判断子单元,用于判断所述图像中是否包含目标对象;确定子单元,用于在判断出所述图像中包含所述目标对象的情况下,确定所述目标对象和所述投影画面的位置关系,其中,所述位置关系用于确定所述目标对象和所述投影画面是否发生了交互;输出子单元,用于根据所述位置关系控制所述机器人输出所述第一反馈信息,其中,所述第一反馈信息包括以下至少之一:第一动作反馈信息、第一语音反馈信息。

进一步地,所述图像中包含所述投影画面的三维坐标信息,所述确定子单元包括:获取模块,用于获取所述图像中包含的所述目标对象的第一三维坐标信息,以及获取所述图像中包含的所述投影画面的第二三维坐标信息,其中,所述第一三维坐标信息和所述第二三维坐标信息均为相对于所述图像采集设备的三维坐标信息;判断模块,用于判断所述第一三维坐标信息中是否包含与所述第二三维坐标信息相匹配的三维坐标信息;第一确定模块,用于在判断出包含相匹配的三维坐标信息的情况下,确定所述目标对象和所述投影画面发生了交互,其中,在确定出发生了所述交互的情况下,控制所述机器人输出所述第一反馈信息。

进一步地,所述判断模块包括:判断子模块,用于判断所述第一三维坐标信息中的第一坐标信息和所述第二三维坐标信息中的第二坐标信息是否相匹配,其中,所述第一坐标信息为所述第一三维坐标信息中的部分或者全部坐标信息,所述第二坐标信息为所述第二三维坐标信息中的部分或者全部坐标信息;第一控制子模块,用于在判断出所述第一坐标信息和所述第二坐标信息相匹配的情况下,控制所述机器人输出第一子反馈信息;第二控制子模块,用于在判断出所述第一坐标信息和所述第二坐标信息不匹配的情况下,控制所述机器人输出第二子反馈信息。

进一步地,所述装置还包括:第二获取单元,用于在启动所述投影设备向所述机器人所处环境中的第一区域投影所述画面之后,获取所述目标对象发出的语音信息;确定单元,用于确定所述语音信息中所指示的控制命令;控制单元,用于根据确定出的所述控制命令控制所述机器人输出第二反馈信息,其中,所述第二反馈信息包括第二动作反馈信息和/或第二语音反馈信息。

进一步地,所述动作反馈信息包括:通过所述机器人的底盘输出的动作反馈信息和/或通过所述机器人机械臂输出的动作反馈信息。

进一步地,所述第一获取单元包括:第一检测模块,用于检测目标对象的指示信息,其中,所述指示信息包括以下至少之一:所述目标对象的动作信息、所述目标对象发出的语音信息;匹配模块,用于将检测到的所述指示信息与预设指示信息进行匹配,其中,所述预设指示信息用于指示开启所述应用程序;第二确定模块,用于在检测到所述指示信息与所述预设指示信息相匹配的情况下,确定检测到所述运行指令,并指示运行所述目标应用程序。

进一步地,所述投影单元包括:第二检测模块,用于检测所述机器人所处环境的环境信息;第三确定模块,用于根据所述环境信息确定将所述目标应用程序的显示画面进行投影的投影角度;投影模块,用于按照所述投影角度对所述应用程序的显示画面进行投影,将投影所在的区域作为所述第一区域。

在本发明实施例中,采用获取运行指令,所述运行指令用于指示运行目标应用程序,所述目标应用程序为所述机器人内安装的应用程序;响应于所述运行指令,启动所述目标应用程序,调用预设的投影画面,并启动所述投影设备向所述机器人所处环境中的第一区域投影所述画面;基于投影的所述第一区域,通过所述图像采集设备对所述机器人所处环境中的第二区域进行图像采集,其中,所述第二区域包括所述第一区域,或者所述第二区域与所述第一区域至少部分重叠;基于所述图像采集设备采集获得的图像控制所述机器人输出第一反馈信息的方式,通过在获取到运行目标应用程序的指令之后,启动目标应用程序,并通过投影设备将投影画面投影至第一区域,在投影之后,就可以在第二区域进行图像采集,并根据采集到的图像控制机器人输出第一反馈信息,达到了基于对采集到的图像进行分析来实现人机交互的目的,从而实现了丰富机器人和用户之间的交互形式的技术效果,进而解决了现有技术中的机器人机交互形式较为单一的技术问题。

附图说明

此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:

图1是根据本发明实施例的一种机器人的控制方法的流程图;

图2是根据本发明实施例的一种可选地投影画面的俯视图;

图3是根据本发明实施例的一种可选地投影画面的前视图;

图4是根据本发明实施例的一种机器人的控制系统的示意图;

图5是根据本发明实施例的另一种可选地机器人的控制系统的示意图;

图6是根据本发明实施例的一种可选地目标应用程序的菜单的显示界面的示意图;以及

图7是根据本发明实施例的一种机器人的控制装置的示意图。

具体实施方式

为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。

需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。

根据本发明实施例,提供了一种机器人的控制的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。

图1是根据本发明实施例的一种机器人的控制方法的流程图,如图1所示,该方法包括如下步骤:

本发明实施例中的机器人包括投影设备和图像采集设备,其中,投影设备用于向外投影,图像采集设备用于对外界进行图像采集。

步骤S102,获取运行指令,运行指令用于指示运行目标应用程序,目标应用程序为机器人内安装的应用程序。

在本发明实施例中,机器人可以为游戏机器人,扫地机器人等。如果机器人为游戏机器人,则目标应用程序可以为游戏机器人中安装的游戏的应用程序,例如,可以为“吃金币”等游戏的应用程序。如果机器人为扫地机器人,则应用程序可以为执行扫地的应用程序等。

步骤S104,响应于运行指令,启动目标应用程序,调用预设的投影画面,并启动投影设备向机器人所处环境中的第一区域投影画面。

在本发明实施例中,机器人在获取到运行指令之后,响应该运行指令,即根据获取到的运行指令开启并运行目标应用程序,例如,根据运行指令开启并运行“吃金币”等游戏的应用程序,或者根据运行指令开启并运行扫地的应用程序。

在启动目标应用程序之后,将调用预设的投影画面,并通过投影设备将预设的投影画面投影至第一区域,其中,调用的投影画面为目标应用程序的显示界面。假设,目标应用程序为“吃金币”,那么调用的画面即为“吃金币”的游戏界面,并通过投影设备将该游戏界面投影在第一区域。

步骤S106,基于投影的第一区域,通过图像采集设备对机器人所处环境中的第二区域进行图像采集,其中,第二区域包括第一区域,或者第二区域与第一区域至少部分重叠。

在本发明实施例中,在将画面投影至第一区域之后,启动图像采集设备,并通过该图像采集设备对第二区域内的图像进行采集。

步骤S108,基于图像采集设备采集获得的图像控制机器人输出第一反馈信息。

在本发明实施例中,图像采集设备在采集到图像之后,机器人就可以对采集到的图像进行分析,并根据分析结果控制器机器人输出第一反馈信息。例如,通过对采集到的图像进行分析可知,用户所指示的信息是关闭目标应用程序的操作,那么机器人输出的第一反馈信息即为关闭目标应用程序的相关信息。

在本发明实施例中,通过在获取到运行目标应用程序的指令之后,启动目标应用程序,并通过投影设备将投影画面投影至第一区域,在投影之后,就可以在第二区域进行图像采集,并根据采集到的图像控制机器人输出第一反馈信息,达到了基于对采集到的图像进行分析来实现人机交互的目的,从而实现了丰富机器人和用户之间的交互形式的技术效果,进而解决了现有技术中的机器人机交互形式较为单一的技术问题。

上述步骤S102获取运行指令的方式可以有很多种,在本发明实施例中,获取运行指令具体为:检测目标对象的指示信息,其中,指示信息包括以下至少之一:目标对象的动作信息、目标对象发出的语音信息,然后,将检测到的指示信息与预设指示信息进行匹配,其中,预设指示信息用于指示开启应用程序,其中,如果检测到指示信息与预设指示信息相匹配,则确定检测到运行指令,并指示运行目标应用程序。

具体地,上述目标对象为运行目标应用程序的对象,例如,用户。在本发明实施例中,机器人中安装有语音设备和图像采集设备,其中,该语音设备用于获取用户发出的语音信息并进行分析,该语音设备还用于向用户输出语音反馈信息,图像采集设备用于采集机器人所处环境的图像信息。在该机器人插上电源之后,将自动开启语音设备和图像采集设备,并通过该语音设备采集目标对象发出的语音信息,以及通过图像采集设备采集目标对象的动作信息。

语音设备在采集到语音信息之后,将采集到的语音信息与预设指示信息中的语音指示信息进行匹配,如果匹配到语音信息与预设指示信息中的语音指示信息的相似度满足某一预设相似度,那么按照该语音信息的指示开启目标应用程序。语音设备在采集语音信息的同时,图像采集设备还可以采集目标对象的动作信息,将采集到的动作信息与预设指示信息中的动作指示信息进行匹配,如果匹配到动作信息与预设指示信息中的动作指示信息的相似度满足另一预设相似度,那么按照该动作信息的指示开启目标应用程序。

需要说明的是,在本发明实施例中,可以同时开启语音设备和图像采集设备,并通过语音设备或图像采集设备采集指示信息。进一步地,用户可以在机器人中设置语音设备和图像采集设备获取指示信息的优先级,例如,用户可以设置优先采用语音设备采集指示信息,当语音设备连续n次采集到错误的指示信息时,再通过图像采集设备采集指示信息。

在获取到运行目标应用程序的运行指令之后,机器人将响应该运行指令,启动该目标应用程序,并将预设的投影画面投影至第一区域,接下来,就可以通过机器人中的图像采集设备采集第二区域内的图像,然后,机器人就可以根据采集到的图像发出相应地的响应信息(即,第一反馈信息)。

在本发明实施例的一个可选实施方式中,基于图像采集设备采集获得的图像控制机器人输出第一反馈信息,具体为:判断图像中是否包含目标对象,在判断出图像中包含目标对象的情况下,确定目标对象和投影画面的位置关系,其中,位置关系用于确定目标对象和投影画面是否发生了交互,然后,根据位置关系控制机器人输出第一反馈信息,其中,第一反馈信息包括以下至少之一:第一动作反馈信息、第一语音反馈信息。

具体地,在本发明实施例中,图像采集设备实时采集第二区域中的图像,并将采集到的图像发送至机器人的处理器中进行图像分析处理。机器人的处理器在对图像进行分析的过程中,首先判断图像中是否包含目标对象,如果判断出图像中包含目标对象,那么此时,需要确定该目标对象和投影画面之间的位置关系,进而确定该目标对象与投影画面是否发生了交互。如果判断出目标对象与投影画面发生了交互,那么根据目标对象和投影画面的交互情况控制机器人输出第一反馈信息。

在本发明实施例中,第一反馈信息包括第一语音反馈信息和第一动作反馈信息,其中,语音反馈信息指机器人发出的语音消息;动作反馈信息指机器人根据目标对象和投影画面的位置关系做出的相关动作,主要包括:机器人的底盘输出的动作反馈信息和/或通过机器人机械臂输出的动作反馈信息。

假设,目标对象为启动目标应用程序的用户,那么在图像采集设备采集到第二区域的图像之后,机器人的处理器将判断在采集到的图像中是否包含该用户。如果判断出图像中包含该用户,那么确定用户与投影画面的位置关系,进而根据位置关系确定用户和投影画面是否发生了交互。其中,如果确定出用户和投影画面发生了交互,那么就可以根据交互情况控制机器人输出第一反馈信息。例如,在“吃金币”的游戏中,用户连续吃到金币,此时,机器人可以触发“太棒啦”等语音信息。

在本发明实施例中,由于通过图像采集设备采集到的图像中包含三维坐标信息,也就是说,在投影画面中包含目标对象的三维坐标信息,以及包含投影画面的三维坐标信息,在此情况下,确定目标对象和投影画面的位置关系,具体为:获取图像中包含的目标对象的第一三维坐标信息,以及获取图像中包含的投影画面的第二三维坐标信息,其中,第一三维坐标信息和第二三维坐标信息均为相对于图像采集设备的三维坐标信息,然后,判断第一三维坐标信息中是否包含与第二三维坐标信息相匹配的三维坐标信息,其中,如果判断出包含相匹配的三维坐标信息,则确定目标对象和投影画面发生了交互,其中,在确定出发生了交互的情况下,控制机器人输出第一反馈信息。

由于采集到的图像中包含目标对象的第一三维坐标信息,以及包含投影画面的第二三维坐标信息。因此,在确定目标对象和投影画面的位置关系时,可以通过第一三维坐标信息和第二三维坐标信息确定上述位置关系。具体地,机器人的处理器判断目标对象的第一三维坐标信息中是否包含与投影画面的第二三维坐标信息相匹配的坐标信息,如果判断出包含相匹配的坐标信息,说明目标对象和投影画面发生了交互。需要说明的是,在本发明实施例中,第一三维坐标信息中包含与第二三维坐标信息相匹配的坐标信息,用于确定目标对象和投影画面发生了交互。

例如,吃金币游戏,当用户的手触碰到投影画面中金币的相应画面时,即确定目标对象和投影画面发生了交互。此时,可以控制机器人输出第一反馈信息,其中,输出的第一反馈信息包括第一动作反馈信息和第一语音反馈信息。

在本发明的另一个可选实施方式中,判断第一三维坐标信息中是否包含与第二三维坐标信息相匹配的三维坐标信息,具体为:判断第一三维坐标信息中的第一坐标信息和第二三维坐标信息中的第二坐标信息是否相匹配,其中,第一坐标信息为第一三维坐标信息中的部分或者全部坐标信息,第二坐标信息为第二三维坐标信息中的部分或者全部坐标信息,其中,如果判断出第一坐标信息和第二坐标信息相匹配,则控制机器人输出第一子反馈信息;如果判断出第一坐标信息和第二坐标信息不匹配,则控制机器人输出第二子反馈信息。

具体地,在本发明实施例中,第一三维坐标信息为目标对象的三维坐标信息,第一坐标信息为第一三维坐标信息中的部分或者全部三维坐标信息。假设,目标对象为操作目标应用程序的用户,那么第一三维坐标信息即为用户的全部三维坐标信息,第一坐标信息可以为该用户手部的三维坐标信息,还可以为腿部等其他部位的三维坐标信息。第二三维坐标信息为投影画面中所有的三维坐标信息,第二坐标信息为投影画面中的部分或者全部三维坐标信息,例如,投影画面中某障碍物的三维坐标信息,或者金币的三维坐标信息。

假设,上述目标应用程序为酷跑游戏,在该酷跑游戏开始后,酷跑游戏的虚拟场景会被投影设备投影至第一区域中。具体地,如图2所示,在游戏的投影画面中包含障碍物、该游戏的虚拟币奖励、投影的虚拟人物等基本元素。图3所示的为该投影画面的前视图,从图3中可以看出,障碍物1和障碍物2的高度高于障碍物3。在游戏开始后,如3图中的障碍物1和障碍物2,由于高度较高,用户只能通过左右移动来避开左右出现的障碍物,而对于无法左右移动避开的障碍物;如障碍物3,由于高度较低,因此,可以通过跳跃动作,避开障碍物。虚拟货币需要用户使用手或身体的其他部位触碰获得,触碰金币的同时不能碰到障碍物。

此时,机器人主要通过判断第一坐标信息和第二坐标信息是否相匹配,来判断用户与该酷跑游戏是否发生了交互,即判断用户是否触碰到金币,并且是否触碰到障碍物。具体地,机器人中的图像采集设备在采集到第二区域内的图像之后,获取图像中用户的第一三维坐标信息,并获取投影画面的第二三维坐标信息,然后,判断用户手部的三维坐标信息或者用户身体其他部位的三维坐标信息(即,第一坐标信息)与障碍物或者虚拟金币的三维坐标信息(即,第二坐标信息)是否相匹配。其中,如果判断出用户手部的三维坐标信息或者用户身体其他部位的三维坐标信息与障碍物或者虚拟金币的三维坐标信息相匹配,此时,表明用户与投影画面发生了交互。

例如,用户手部的三维坐标信息与虚拟金币的三维坐标信息相匹配,说明用户吃到了金币,此时,就会触发机器人输出第一子反馈信息,如,“太棒啦”、“吃到金币啦”等语音反馈信息,或者机器人的手臂上下挥舞,以庆祝用户吃到了金币。如果用户手部的三维坐标信息与虚拟金币的三维坐标信息不匹配,说明用户没有吃到金币,此时,就会触发机器人输出第二子反馈信息,如,“没有吃到金币”、“要继续努力”等语音反馈信息。

又例如,如果用户身体的其他部位的三维坐标信息与障碍物的三维坐标信息相匹配,则说明用户触碰到了障碍物,此时,机器人会输出第一子反馈信息,如,“碰到障碍物”的语音反馈信息,或者包含失望语调的语音反馈信息,机器人的手臂还可以做出加油的手势,以鼓励用户继续加油。如果用户身体的其他部位的三维坐标信息与障碍物的三维坐标信息不匹配,则说明用户没有触碰障碍物,此时,机器人会输出第二子反馈信息,如,“继续加油”或者包含“成功口哨”的语音反馈信息。

在本发明实施例中,在启动投影设备向机器人所处环境中的第一区域投影画面之后,机器人中的语音设备依然保持开启,此时,机器人可以获取目标对象发出的语音信息,然后,确定语音信息中所指示的控制命令,并根据确定出的控制命令控制机器人输出第二反馈信息,其中,第二反馈信息包括第二动作反馈信息和/或第二语音反馈信息。

具体地,通过上述描述可知,在本发明实施例中,可以通过语音设备或者图像采集设备采集用于开启目标应用程序的指示信息。除此之外,语音设备还可以随时采集目标对象的语音信息,例如,当在第一区域投影目标应用程序的显示画面之后,用户也可以向机器人发出语音控制信息。

假设,在第一区域投影画面之后,用户想要进入模式为游戏模式一的游戏场景中,此时,用户可以发出“进入模式一”的语音信息,机器人在获取到该语音信息之后,将控制目标应用程序进入“游戏模式一”。又或者,用户不想玩这个游戏时,可以发出“退出该游戏”的语音信息,机器人在获取到该语音信息之后,将停止运行目标应用程序,并控制投影设备停止对该目标应用程序的投影。

在本发明的一个可选实施方式中,启动投影设备向机器人所处环境中的第一区域投影画面,具体为:检测机器人所处环境的环境信息,然后,根据环境信息确定将目标应用程序的显示画面进行投影的投影角度,最后,按照投影角度对应用程序的显示画面进行投影,将投影所在的区域作为第一区域。

具体地,机器人在获取到运行目标应用程序的运行指令之后,响应该运行指令,启动目标应用程序,并通过投影设备将向机器人所处环境中的第一区域投影画面,其中,机器人在向第一区域投射投影画面时,首先会检测机器人所处环境的环境信息,然后,根据检测到的环境信息确定投影角度,并按照确定的投影角度对目标应用程序进行投影。例如,检测机器人所处环境的地形,并根据地形调整投影角度,进而保证投影画面和目标对象处于相同的水平面。

需要说明是,该机器人在游戏的过程中,可能会随时遇到特殊的游戏场景,机器人会控制自身的运动,调整投影的位置。例如,机器人右转时,投影区域(即,第一区域)的位置就会发生移动,此时用户需要调整自己的位置,重新进入投影区域,继续进行游戏。

下面结合图4至图6对本发明实施例进行说明。在本发明实施例中,以目标应用程序为游戏程序,目标对象为使用者为例进行说明,其中,使用者为使用该机器人的相关人员。

图4是根据本发明实施例的一种机器人的控制系统的示意图。图5是根据本发明实施例的另一种可选地机器人的控制系统的示意图。如图4所示,机器人的控制系统包括使用者(即,目标对象)和机器人,其中,如图4所示,机器人中包括至少一个游戏程序(例如,游戏app1、游戏app2、游戏app3和游戏app4),如图5所示,机器人中有视觉传感器(即,图像采集设备)、语音设备和投影设备。

在本发明实施例中,视觉传感器用于检测使用者的动作信息以及识别使用者的身份信息;语音设备用于监测使用者的语音输入,并同时播放语音提示;投影设备用于对游戏界面进行投影,并可以根据当前环境情况,对投影情况进行适应调整后,将游戏场景投影出来。

机器人可以通过语音设备或者视觉传感器获取游戏app的开启运行指令,例如,通过语音设备获取指示游戏app开启的语音指令,或者通过视觉传感器获取指示游戏app开启的动作指令。机器人在获取到运行指令之后,将启动游戏app,并调用游戏app的游戏界面,通过投影设备将游戏界面投影至第一区域。

在将游戏界面投影至第一区域之后,投影设备就可以将设计的游戏场景投影在指定的位置,例如投影在地面上(即第一区域)。使用者就能够踩在不同的投影位置,触发不同的娱乐机制,这样使用者就能够根据投影场景以及制定的娱乐规则和机器人之间进行娱乐互动,在娱乐的过程中,机器人会根据娱乐游戏场景,控制自身的运动。

具体地,机器人可以通过视觉传感器获取到周围环境的图像信息,并将图像信息输入到机器人的处理器中,然后,处理器通过视觉算法对图像进行分析,以获得使用者的骨骼信息、动作信息、身份信息、相对位置信息等,以根据识别出的信息对使用者的动作进行识别,从而根据使用者的不同动作,确定是否触发了娱乐机制。当触发了娱乐机制是,机器人将输出不同的反馈信息,其中,输出的反馈信息包括语音反馈信息和动作反馈信息,即图4中所示的机器人动作和机器人语音。进一步地,机器人中的语音设备可以进行语音识别、语音定位等,进而根据使用者不同的语音提示,给出不同的反馈。

例如,针对游戏app1,在获取到运行游戏app1的指令之后,游戏app1开始。在游戏app1开始后,机器人会根据游戏应用的设计,启用视觉传感器,检测使用者的动作信息,识别当前使用者的身份,以及调取当前使用者的游戏记录,同时语音设备开启,播放游戏音乐。

游戏开启后,投影设备根据当前环境条件调节投影的显示亮度,同时根据投影地形,调整投影角度,对投影面进行适应性的调整,例如投影画面的梯形校正。游戏界面投影出来后,使用者根据游戏提示,可以利用动作或者语音作为输入,进入游戏菜单进行游戏设置,例如,图6中所示的音量设置,难度设置等设置。

如果游戏app1为酷跑游戏的客户端,那么在开始游戏后,如上述图2和图3所示的游戏虚拟场景会被投影出来,场景包含了障碍物、游戏虚拟币、投影的虚拟人物等基本元素。游戏开始后,如图3中的障碍物1和障碍物2,由于高度较高,使用者只能通过左右移动来避开左右出现的障碍物,而对于无法左右移动避开的障碍物,如障碍物3,由于高度较低,可以通过跳跃动作,避开障碍物。虚拟货币需要使用者使用手或身体的其他部位触碰获得,同时不能碰到障碍物。遇到特殊的游戏场景,机器人会控制自身的运动,调整投影的位置,例如,机器人右转,投影区域的位置就会发生移动,这时候使用者也需要调整自己的位置,重新进入投影区域,继续进行游戏,若使用者在指定的时间内,没有完成相应的动作,则游戏失败,机器人给出失败动作。如果使用者顺利通关游戏,机器人会播放相应的通关动画和语音,同时做出相应的动作,以示祝贺。其中,若要重新开始游戏,可重复之前的操作。

综上,在本发明实施例中,提供的机器人的控制方法为一种新的使用者与机器人的交互方式。整个机器人包含的基本输入和输出,其中,输入主要包括视觉输入(主要来源于机器人的视觉传感器)、语音输入(来源于机器人的语音设备)、外部环境,主要输出为机器人动作、语音和投影。机器人包含多个游戏应用,不同的应用会用到不同的输入和输出通道,对机器人来说,当使用者使用不同的输入通道时,机器人给出的输出反馈可以完全不同,可以分别使用不同的反馈方式进行反馈。因此,采用本发明实施例提供的机器人的控制方法丰富了使用者和机器人之间的交互方式,相对于现有技术中的机器人,达到很好的娱乐效果。

本发明实施例还提供了一种机器人的控制装置,该机器人的控制装置主要用于执行本发明实施例上述内容所提供的机器人的控制方法,以下对本发明实施例送提供的机器人的控制装置做具体介绍。

图7是根据本发明实施例的一种机器人的控制装置的示意图,如图7所示,机器人包括投影设备和图像采集设备,投影设备用于向外投影,图像采集设备用于对外界进行图像采集,该装置包括第一获取单元71、投影单元73、图像采集单元75和输出单元77,其中:

第一获取单元71,用于获取运行指令,运行指令用于指示运行目标应用程序,目标应用程序为机器人内安装的应用程序。

在本发明实施例中,机器人可以为游戏机器人,扫地机器人等。如果机器人为游戏机器人,则目标应用程序可以为游戏机器人中安装的游戏的应用程序,例如,可以为“吃金币”等游戏的应用程序。如果机器人为扫地机器人,则应用程序可以为执行扫地的应用程序等。

投影单元73,设置在投影设备中,用于响应于运行指令,启动目标应用程序,调用预设的投影画面,并启动投影设备向机器人所处环境中的第一区域投影画面。

在本发明实施例中,机器人在获取到运行指令之后,响应该运行指令,即根据获取到的运行指令开启并运行目标应用程序,例如,根据运行指令开启并运行“吃金币”等游戏的应用程序,或者根据运行指令开启并运行扫地的应用程序。

在启动目标应用程序之后,将调用预设的投影画面,并通过投影设备将预设的投影画面投影至第一区域,其中,调用的投影画面为目标应用程序的显示界面。假设,目标应用程序为“吃金币”,那么调用的画面即为“吃金币”的游戏界面,并通过投影设备将该游戏界面投影在第一区域。

图像采集单元75,设置在图像采集设备中,用于基于投影的第一区域,通过图像采集设备对机器人所处环境中的第二区域进行图像采集,其中,第二区域包括第一区域,或者第二区域与第一区域至少部分重叠。

在本发明实施例中,在将画面投影至第一区域之后,启动图像采集设备,并通过该图像采集设备对第二区域内的图像进行采集。

输出单元77,用于基于图像采集设备采集获得的图像控制机器人输出第一反馈信息。

在本发明实施例中,图像采集设备在采集到图像之后,机器人就可以对采集到的图像进行分析,并根据分析结果控制器机器人输出第一反馈信息。例如,通过对采集到的图像可知,是关闭目标应用程序的操作,那么机器人输出的第一反馈信息即为关闭目标应用程序的相关信息。

在本发明实施例中,通过在获取到运行目标应用程序的指令之后,启动目标应用程序,并通过投影设备将投影画面投影至第一区域,在投影之后,就可以在第二区域进行图像采集,并根据采集到的图像控制机器人输出第一反馈信息,达到了基于对采集到的图像进行分析来实现人机交互的目的,从而实现了丰富机器人和用户之间的交互形式的技术效果,进而解决了现有技术中的机器人机交互形式较为单一的技术问题。

可选地,输出单元包括:判断子单元,用于判断图像中是否包含目标对象;确定子单元,用于在判断出图像中包含目标对象的情况下,确定目标对象和投影画面的位置关系,其中,位置关系用于确定目标对象和投影画面是否发生了交互;输出子单元,用于根据位置关系控制机器人输出第一反馈信息,其中,第一反馈信息包括以下至少之一:第一动作反馈信息、第一语音反馈信息。

可选地,图像中包含投影画面的三维坐标信息,确定子单元包括:获取模块,用于获取图像中包含的目标对象的第一三维坐标信息,以及获取图像中包含的投影画面的第二三维坐标信息,其中,第一三维坐标信息和第二三维坐标信息均为相对于图像采集设备的三维坐标信息;判断模块,用于判断第一三维坐标信息中是否包含与第二三维坐标信息相匹配的三维坐标信息;第一确定模块,用于在判断出包含相匹配的三维坐标信息的情况下,确定目标对象和投影画面发生了交互,其中,在确定出发生了交互的情况下,控制机器人输出第一反馈信息。

可选地,判断模块包括:判断子模块,用于判断第一三维坐标信息中的第一坐标信息和第二三维坐标信息中的第二坐标信息是否相匹配,其中,第一坐标信息为第一三维坐标信息中的部分或者全部坐标信息,第二坐标信息为第二三维坐标信息中的部分或者全部坐标信息;第一控制子模块,用于在判断出第一坐标信息和第二坐标信息相匹配的情况下,控制机器人输出第一子反馈信息;第二控制子模块,用于在判断出第一坐标信息和第二坐标信息不匹配的情况下,控制机器人输出第二子反馈信息。

可选地,装置还包括:第二获取单元,用于在启动投影设备向机器人所处环境中的第一区域投影画面之后,获取目标对象发出的语音信息;确定单元,用于确定语音信息中所指示的控制命令;控制单元,用于根据确定出的控制命令控制机器人输出第二反馈信息,其中,第二反馈信息包括第二动作反馈信息和/或第二语音反馈信息。

可选地,动作反馈信息包括:通过机器人的底盘输出的动作反馈信息和/或通过机器人机械臂输出的动作反馈信息。

可选地,第一获取单元包括:第一检测模块,用于检测目标对象的指示信息,其中,指示信息包括以下至少之一:目标对象的动作信息、目标对象发出的语音信息;匹配模块,用于将检测到的指示信息与预设指示信息进行匹配,其中,预设指示信息用于指示开启应用程序;第二确定模块,用于在检测到指示信息与预设指示信息相匹配的情况下,确定检测到运行指令,并指示运行目标应用程序。

可选地,投影单元包括:第二检测模块,用于检测机器人所处环境的环境信息;第三确定模块,用于根据环境信息确定将目标应用程序的显示画面进行投影的投影角度;投影模块,用于按照投影角度对应用程序的显示画面进行投影,将投影所在的区域作为第一区域。

上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。

在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。

在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。

所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。

以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1