机器人控制系统的制作方法

文档序号:11268431阅读:209来源:国知局
机器人控制系统的制造方法与工艺

本发明涉及机器人控制系统。



背景技术:

jp2005-125466a公开了一种技术,其使用群组机器人系统来搜索人类、和/或与人类通信以及向人类提供服务从而帮助他们完成工作。该群组机器人系统包括多个感测和服务传递机器人、一个控制感测和传递机器人的基站、一个控制感测机器人的移动并与人类通信的主机器人。在该系统中,如果通过中继位于多个路径中的多个感测和服务传递机器人中的通信将来自一个感测和服务传递机器人的信号传送到基站,则通过在每次中继通信时采集信号可提高人类和环境的传感器信息的可靠性。



技术实现要素:

在相关技术的机器人系统中,由于对话功能和服务执行功能都被集成到一个机器人中,当接收到用户的请求并提供服务时,很难准确地根据该用户的请求和情感提供服务。例如,为了通过改进对话功能提取用户的情感,机器人需要具有与人体接近的形状。因此,机器人的形状是受限制的,于是,提供若干类型服务的能力被降低了。此外,如果为了改进服务执行功能而将各种类型的功能结合到机器人中,则机器人的形状会与人体有差别。因此,用户不会表达情感,于是机器人很难准确地识别用户的请求和情感。

本发明的至少实施例的目的是提供一个机器人控制系统,与将对话功能和服务执行功能都集成到一个机器人中并使用该机器人接收用户请求的情况相比,该机器人控制系统能够提取更大量的用户情感反应并准确地提供对应于用户请求的服务。

[1]根据本发明的一个方面,提供了一种机器人控制系统,该系统包括:与用户进行对话的人形对话机器人;向用户提供服务的至少一个服务执行机器人;通过用户与人形对话机器人之间的对话识别用户的请求和情感的识别单元;根据用户的请求和情感确定需要向用户提供的服务以及所述至少一个服务执行机器人中用于执行该服务的服务执行机器人的确定单元。确定单元所确定的服务执行机器人执行所确定的服务。

[2]在[1]所述的机器人控制系统中,人形对话机器人可根据识别单元识别到的用户的情感改变人形对话机器人的身体形状。

[3]在[2]所述的机器人控制系统中,人形对话机器人可通过改变人形对话机器人的胸腔和/或头部相对于人形对话机器人的躯干的方向来改变人形对话机器人的身体形状。

[4]在[1]所述的机器人控制系统中,人形对话机器人可具有位于其头部上的凸起,并且在与用户进行对话的过程中,该凸起指向用户。

[5]在[4]所述的机器人控制系统中,人形对话机器人可包括位于头部上的照明设备,该照明设备被配置为使得照明设备朝向所述凸起汇聚,并且可根据识别单元所识别到的用户的情感改变照明设备的照明方式。

[6]在[4]或[5]所述的机器人控制系统中,在人形对话机器人的头部上可以不设置对应于人类眼睛和嘴巴的元件,在未设置凸起的区域设置用于检测用户的触摸的压敏传感器。

[7]在[1]至[6]中的任何一个所述的机器人控制系统中,所述至少一个服务执行机器人可以是运输机器人、台式机器人、书写工具提供机器人、交互屏幕机器人中的任何一个,或者它们的组合。

[8]在[1]至[7]中的任何一个所述的机器人控制系统中,所述至少一个服务执行机器人和人形对话机器人可都具有底座部分,这些底座部分在外观轮廓上具有一致性。

[9]在[1]至[8]中的任何一个所述的机器人控制系统中,识别单元可以设置在人形对话机器人内,或者与人形对话机器人分离,或者既设置在人形对话机器人内又与人形对话机器人分离的位置。

[10]在[1]至[9]中的任何一个所述的机器人控制系统中,包括第一人形对话机器人和第二人形对话机器人,并且如果第一人形对话机器人识别到用户的第一请求和第一情感,随后,第二人形对话机器人识别到用户的第二请求和第二情感,则第二人形对话机器人会将第二请求和第二情感传送到确定单元,确定单元会根据第一请求和第一情感以及第二请求和第二情感确定需要被执行的服务和服务执行机器人。

与将对话功能和服务执行功能都集成到一个机器人中并使用该机器人接收用户请求的情况相比,根据本发明[1]的机器人控制系统,能够提取更大量的用户情感反应并准确地提供对应于用户请求的服务。

与使用不改变身体形状的对话机器人的情况相比,根据本发明[2]的机器人控制系统,能够进一步提取用户的情感表达。

根据本发明[3]的机器人控制系统,人形对话机器人可根据用户的情感执行代表用户的情感的动作,而不需要使用面部表情,因此,与使用不改变胸腔和头部的位置的对话机器人的情况相比,能够进一步提取用户的情感表达。

根据本发明[4]的机器人控制系统,在与用户的对话过程中,表示人形对话机器人需要朝向哪个方向以进行对话的信息可以被传送给用户,因此,与使用凸起不指向用户的对话机器人的情况相比,更便于与用户进行对话。

与使用不具有照明设备从而能够在与用户的对话过程中根据用户的情感做出代表特定情感的照明方式的对话机器人的情况相比,根据本发明[5]的机器人控制系统,能够进一步提取用户的情感表达。

根据本发明[6]的机器人控制系统,能够通过检测用户在人形对话机器人上的触摸力度识别用户的情感。

与使用一个具有对话功能和服务执行功能的机器人的情况相比,根据本发明[7]的机器人控制系统,通过使用针对各种类型的任务(服务)的服务执行机器人,能够为用户提供必要的和准确适当的服务。

当多个机器人在同一个基点上运转时,与使用不具有一致性的底座的机器人的情况相比,根据本发明[8]的机器人控制系统,能够容易地识别出作为一个小组运转的机器人。

根据本发明[9]的机器人控制系统,用户的请求和情感可由单独一个人形对话机器人来识别,或者可以由服务器识别,或者由人形对话机器人和服务器同时识别。

根据本发明[10]的机器人控制系统,即使用户向人形对话机器人发出了第一请求,并随后向另一个人形对话机器人发出了第二请求,则仍然能够根据用户的请求和情感提供服务。

附图说明

将会根据下面的附图对本发明的示例性实施例进行详细描述,其中:

图1是示出根据本发明的一个示例性实施例的机器人控制系统10的实例的整体示意图;

图2是示出人形对话机器人210的硬件配置的示图;

图3是示出人形对话机器人210的功能方框图;

图4是示出服务执行机器人240的硬件配置的示图;

图5是示出服务执行机器人240的功能方框图;

图6是示出服务器40的硬件配置的示图;

图7是示出服务器40的功能方框图;

图8是示出机器人控制系统10的操作流程的流程图;

图9a至图9c是示出一个方法的实例的示图,该方法中人形对话机器人210根据用户的情感改变身体形状;

图10a是示出人形对话机器人210的头部的外观的透视图;

图10b是示出用户将手放在图10a的头部上的状态的示图;

图11a至图11c是示出照明设备在人形对话机器人210的电源开启和关闭时的照明方法的示图;

图12a至图12c是示出一个情况的实例的示图,在该情况中,人形对话机器人210改变身体形状使其表现为“感兴趣、高兴、好奇”的情感,并改变了照明设备的照明方法;

图13a至图13c是示出一个情况的实例的示图,在该情况中,人形对话机器人210改变身体形状使其表现为“悲伤、尴尬、失望”的情感,并改变了照明设备的照明方法;

图14是示出人形对话机器人210和230、服务执行机器人240和260的示图,其中它们具有的底座部分在外观形状上具有一致性。

具体实施方式

将会参照图1描述根据本发明的一个示例性实施例的机器人控制系统。机器人控制系统10被布置在基点(例如办公室20)中并被配置为包括与用户50进行对话的人形对话机器人210和230、向用户50提供服务的服务执行机器人240和260、安装在办公室20的天花板或类似位置上的传感器280、服务器40。服务器40通过网络30连接到机器人210至260和传感器280中的每一个。以无线的方式,通过安装在办公室20中的访问点270,服务器40与每个机器人210至260彼此相互连接、以及机器人210至260彼此相互连接。

人形对话机器人210和230中的每一个与用户50进行对话,识别用户的请求和感情,并将用户的请求和感情传送到服务器40。在该示例性实施例中,在办公室20中总共布置了两个人形对话机器人,即,人形对话机器人210和人形对话机器人230。此外,在该发明中,可以在办公室中只布置一个人形对话机器人210,或者可以在办公室中布置三个或更多个人形对话机器人。此外,如果布置了多个人形对话机器人,则可使用与该示例性实施例具有相同外观形状和相似功能的人形对话机器人,也可使用具有不同外观形状和功能的人形对话机器人。

此外,每个服务执行机器人240和260是例如下面的任何一个机器人:运输机器人、台式机器人、书写工具提供机器人、交互屏幕机器人或多个机器人的组合。此外,在该示例性实施例中,一个服务执行机器人240是交互屏幕机器人,另一个服务执行机器人260是书写工具提供机器人。

传感器280是三维运动传感器或类似的传感器,它被安装在办公室20的天花板上、墙壁上、或类似的位置上。传感器280检测办公室中的用户50的面部表情、行为、身体状态的变化、心率、体温等,并通过网络30将检测到的信息作为用户信息输出到服务器40。

在此,将参照图2和图3对根据该示例性实施例的人形对话机器人210进行描述。图2是示出人形对话机器人210的硬件配置的示图。如图2所示,人形对话机器人210被配置为包括控制微处理器211、存储器212、存储设备213(例如硬盘驱动器(hdd)或固态硬盘(ssd))、通信接口214、照相机215、麦克风216、扬声器217、发动机218、照明设备219、压敏传感器220,每个组件都连接到控制总线221。

控制微处理器211根据存储在存储设备213中的控制程序对人形对话机器人210的各组件的运转进行整体控制。存储器212对人形对话机器人210与用户50之间的对话过程中的对话音频、对话内容和照相机215拍摄的用户50的面部表情、行为、身体状态的图像,以及的类似信息进行临时存储。用于对人形对话机器人210的各个组件进行控制的控制程序被存储在存储设备213中。通信接口214执行通信控制,从而允许人形对话机器人210能够通过访问点270和网络30与服务器40、另一个人形对话机器人230、服务执行机器人240和260进行通信。

照相机215对用户50的面部表情、行为、身体状态的变化等进行成像并将该信息存储在存储器212中。在与用户50进行对话的过程中,麦克风216检测用户50的音频并将该音频存储在存储器212中,即记录音频。替代了直接记录的音频,可将通过对音频的内容进行解释而获得的对话内容存储在存储器212中。扬声器217对人形对话机器人210的对话控制单元(将会在后面描述)生成的音频进行输出。发动机218根据操作控制单元中生成的控制信息移动组成人形对话机器人210的身体的胸腔和头部从而进行特定的行为。如后文描述,照明设备219配置有多个led灯,其安装在人形对话机器人210的头部上,这些灯根据操作控制单元中生成的控制信息而以特定的颜色和特定的发光样式进行照明。

压敏传感器220被安装在人形对话机器人210的头部上并检测用户50是否触摸了人形对话机器人210或者用户以何种力度触摸了人形对话机器人。压敏传感器220也可被设置在除了人形对话机器人210的头部外的其它位置。此外,除了压敏传感器,也可使用接触传感器来检测用户50的心率、体温、电导率变化等。接触传感器可以是附着到用户身体上的可穿戴传感器,在这种情况下,接触传感器是与人形对话机器人210分离的。

图3是示出人形对话机器人210的功能方框图。人形对话机器人210允许控制微处理器211执行存储在存储设备213中的控制程序,从而用作如图3中所示的识别单元222、对话控制单元223、操作控制单元224。

识别单元222通过用户50与人形对话机器人210之间的对话对用户50的请求和情感进行识别和解释。更具体地,识别单元222根据存储在存储器212中的与用户50的对话过程中的用户50的音频数据或对话内容来指定用户50的请求。此外,识别单元222根据存储在存储器212中的如下任何一个信息或者它们的多个组合对用户50的情感进行解释:用户50的行为、面部表情、面色、身体状态、声调、语速、心率。例如,可通过由照相机215拍摄的用户的面部图像中的rgb比率的变化检测到面色的变化,识别单元222根据用户面色的变化计算用户的心率或体温的变化并根据计算结果对用户50的情感进行解释。

此外,识别单元222会对麦克风216检测到的并存储在存储器212中的用户50的音频数据进行解释,并根据声调、声音的速度(语速)等对用户50的情感进行解释。通过对情感的解释,例如,通过面色和嘴巴打开的度数解释出“高兴”、通过心率和皮肤电导率的变化解释出“紧张”、通过声调和语速解释出“愤怒”。识别单元222通过通信接口214将所解释的请求和情感的信息传送到服务器40。

对话控制单元223会对人形对话机器人210执行的与用户50之间进行的对话进行控制,并生成对用户50的响应内容。例如,对话控制单元会根据存储在存储器212中的对话内容生成一条响应消息并将该响应消息输出到扬声器217。此时,对话控制单元223会根据识别单元222识别到的用户50的情感调整该消息的输出音频的大小和该消息的语速。操作控制单元224会生成用于控制人形对话机器人210的行为的控制信息,并对组成人形对话机器人210的身体的每个组件的操作进行控制。更具体地,操作控制单元生成控制信息并控制发动机218的操作,从而对组成人形对话机器人210的身体的胸腔和头部进行移动来执行特定的行为,或者允许照明设备219以特定的颜色或特定的发光样式进行照明。

由于安装在办公室中的另一个人形对话机器人230与上面描述的人形对话机器人210具有相同的配置,因此这里省略了对它的配置和操作的描述。人形对话机器人230可具有通过向上面描述的人形对话机器人210的配置中增加一个显示设备(例如液晶显示器)所获得的配置,或者具有通过将上面描述的人形对话机器人210的配置中移除照明设备219和压敏传感器220所获得的配置。

接下来,将参照图4和图5对根据该示例性实施例的服务执行机器人240进行描述。图4是示出根据该示例性实施例的服务执行机器人240的硬件配置的示图。服务执行机器人240包括控制微处理器241、存储器242、存储设备243、通信接口244、照相机245、麦克风246、移动设备247、显示设备248、输入设备249,每个组件都连接到控制总线250。

控制微处理器241执行存储在存储设备243中的控制程序从而对服务执行机器人240的组件的操作进行控制。存储器242对通过通信接口244接收到的来自人形对话机器人210和230的、或者来自服务器40的服务指令信息进行临时存储。此外,存储器242对照相机245捕获到的图像、麦克风246检测到的音频等进行临时存储。存储设备243是硬盘驱动器(hdd)、固态硬盘(ssd)等,它存储用于控制服务执行机器人240的控制程序。通信接口244执行通信控制,从而允许服务执行机器人240通过访问点270和网络30与服务器40或其它人形对话机器人210和230进行通信。

当服务执行机器人240移动时,照相机245会对周围环境进行成像,或者如果用户50站在服务执行机器人240的显示设备248前面并进行视频电话,照相机245会对用户50的面部进行成像。照相机245拍摄到的图像被临时性地存储在存储器242中。麦克风246检测到用户50的音频等信息并将音频临时性地存储在存储器242中。移动设备247被配置为包括使得服务执行机器人240能够移动到任意地点所需要的驱动单元(例如轮子和发动机)、gps接收单元等。显示设备248被配置为包括液晶显示器、用于改变液晶显示器的角度和高度的调整单元等,存储在存储设备243中的信息或者通过通信接口244、访问点270、网络30从服务器40或因特网获得的信息被显示在液晶显示器上。输入设备249是安装在组成显示设备248的液晶显示器的表面上的触控面板,当用户查看显示在显示设备248上的信息时,用户可通过触摸触控面板的预定部分来输入必要的信息。

图5是示出服务执行机器人240的功能方框图。服务执行机器人240允许控制微处理器241执行存储在存储设备243中的控制程序,从而用作如图5中所示的服务解释单元252、服务执行单元253。

服务指令接收单元251接收来自服务器40的需要被执行的服务指令信息,并将服务指令信息存储在存储器242中。服务指令信息包括表示哪个服务需要被执行(服务内容)、需要在哪里提供服务(服务提供的地点)、需要为谁提供服务(服务提供的对象)、需要在何时提供服务或者服务需要提供到何时(服务提供的时间)的信息。

服务解释单元252对接收到的服务指令信息进行解释并生成特定的控制信息,从而允许服务执行机器人240的每个组件进行操作。控制信息包括有关如下特定操作的信息:允许服务执行机器人240的移动设备247何时操作和如何操作、允许服务执行机器人240从哪里移动到哪里、允许显示设备248如何操作、显示哪些信息、采集和分配什么、这些采集和分配的个体是如何被采集和分配的,这些信息被临时性地存储在存储器242中。

通过根据存储在存储器242中的控制信息操作移动设备247和显示设备248,服务执行单元253执行从服务器40接收到的服务。

服务执行机器人260与上面描述的服务执行机器人240大体上具有相同的配置,因此这里省略了对它的描述。此外,服务执行机器人可以是运输机器人,但是,在该情况中,其配置是通过将上面描述的服务执行机器人240删除显示设备或输入设备获得的。

接下来,将参照图6和图7对根据该示例性实施例的服务器40进行描述。图6是示出服务器40的硬件配置的示图。如图6所示,服务器40被配置为包括cpu401、存储器402、存储设备403、通信接口404、用户接口405,每个组件都连接到控制总线406。cpu401基于存储在存储设备403中的控制程序对服务器40的组件的操作进行整体控制。存储器402对来自人形对话机器人210和230的用户50的请求和情感上的信息、来自传感器280的用户信息、来自服务执行机器人240和260的服务指令信息进行临时性存储。

存储设备403是硬盘驱动器(hdd)、固态硬盘(ssd)等,它存储了用于控制服务器40的程序。通信接口404执行通信控制从而允许服务器40通过访问点270与人形对话机器人210和230、服务执行机器人240和260、传感器280之间进行各种类型的数据接收/传送。用户接口405具有显示设备(例如液晶显示器)和输入设备(例如键盘或鼠标),从而允许管理员对存储在存储设备403中的控制程序进行调整。

图7是示出服务器40的功能方框图。服务器40允许cpu401执行存储在存储设备403中的控制程序,从而用作如图7中所示的服务执行机器人确定单元407、服务内容确定单元408、服务指令信息生成单元409、服务指令信息传送单元410。

服务执行机器人确定单元407和服务内容确定单元408用作确定单元,它们根据用户50的请求和情感确定需要提供给用户50的服务以及将要实际执行服务的服务执行机器人。更具体地,服务执行机器人确定单元407根据存储在存储器402中的用户50的请求和情感信息和从传感器280接收到的用户信息,确定哪个服务执行机器人是执行服务的最佳选择,并确定实际执行服务的服务执行机器人。该确定是根据用户50的请求的内容、服务执行机器人的类型、用户50或服务执行机器人的位置来进行的。服务内容确定单元408根据存储在存储器402中的用户50的请求和情感信息和用户信息,确定哪个服务由服务执行机器人确定单元407所确定的服务执行机器人来如何执行。服务指令信息生成单元409根据服务执行机器人确定单元407和服务内容确定单元408所确定的信息生成服务指令信息,服务指令信息具有诸如服务内容、服务提供地点、服务提供对象、服务提供时间等信息。服务指令信息传送单元410通过访问点270将服务指令信息生成单元409生成的服务指令信息传送给服务执行机器人确定单元407所确定的服务执行机器人。

接下来,将参照图8对根据该示例性实施例的机器人控制系统10的操作进行描述。图8是示出机器人控制系统10的操作流程的流程图。在步骤s801,人形对话机器人210与用户50进行对话。在步骤s802,在操作控制单元224的控制下,根据用户50的情感,人形对话机器人210通过改变组成人形对话机器人210的身体的形状或者改变照明设备219的照明方式进一步提取用户50的情感反应。更具体地,如后面描述,人形对话机器人210改变胸腔和头部中的一者或两者相对于躯干的方向,从而使得用户50能够感受到人形对话机器人210表达出特定的情感。

随后,在步骤s803,人形对话机器人210的识别单元222通过用户50与人形对话机器人210之间的对话识别到用户50的请求和情感。例如,识别单元识别出用户50的一个请求,该请求指出,用户“希望参考特定的材料”,以及“用户50很沮丧”的情感。在步骤s804,识别单元222将用户50的请求和情感信息传送给服务器40。在上面描述的实例中,该信息是指出用户“希望参考特定的材料”以及“用户很沮丧”的信息。此外,在此时,安装在办公室20中的传感器280会检测办公室中的用户50的面部表情、行为、身体状态的变化、心率、体温等并通过网络30将其作为用户信息输出到服务器40。

随后,在步骤s805,服务器40接收到从传感器280传送来的用户信息。此外,在步骤s806,服务器接收到从人形对话机器人210传送来的用户50的请求和情感信息。在步骤s807,服务器40的服务执行机器人确定单元407根据从传感器280接收到的用户信息和用户50的请求和情感信息确定允许哪个服务执行机器人执行服务。这里,由于用户的请求指出用户“希望参考特定的材料”,因此确定作为交互屏幕机器人的服务执行机器人240来执行服务。

此外,在步骤s808,服务器40的服务内容确定单元408根据从传感器280接收到的用户信息和用户50的请求和情感信息来确定服务执行机器人所执行的服务的内容以及服务执行的方式。在上面描述的实例中,所确定的服务内容指出,交互屏幕机器人240被允许移动到用户50附近并在显示设备248上显示用户50需要的材料。此外,由于用户50处于沮丧状态,因此确定交互屏幕机器人240被允许比正常情况下更快地移动(从而更快地到达用户50的地点)并显示信息。作为选择,如果存在另一个需要执行的服务,可将当前服务执行的优先级设置为较高,从而该服务可以优先于其它服务来执行。

随后,程序进入到处理步骤s809,服务器40的服务指令信息生成单元409根据服务执行机器人确定单元407和服务内容确定单元408所确定的信息生成服务指令信息,服务指令信息包括执行服务的服务执行机器人、服务内容、服务提供的地点、服务提供的对象、服务提供的时间。在步骤s810,服务器40的服务指令信息传送单元410将服务指令信息生成单元409生成的服务指令信息传送给服务执行机器人确定单元407所确定的服务执行机器人(例如,服务执行机器人240)。

在步骤s811,服务执行机器人240的服务指令接收单元251接收到来自服务器40的服务指令信息。随后,在步骤s812,服务执行机器人240的服务解释单元252对接收到的服务指令信息进行解释并生成用于操作服务执行机器人240的每个组件的特定控制信息。在步骤s813,服务执行机器人确定单元407所确定的服务执行机器人240会执行服务内容确定单元408所确定的服务。更具体地,服务执行机器人240的服务执行单元253根据所生成的控制信息控制服务执行机器人240的移动设备247、显示设备248等以执行针对用户50的服务。在上面描述的实例中,服务执行机器人240移动到用户50附近,使得显示设备248(交互屏幕)指向用户50、通过通信接口244从存储设备243或从网络获取用户50所需要的资料、将这些资料显示在显示设备248上。

此外,在上面描述的实例中,描述的情况是,在用户50“沮丧”的情况下,允许服务执行机器人240快速地到达用户50的地点。相反,如果用户50不是处于急迫的状态,则会将服务执行机器人240的移动速度设置为低于正常情况,或者如果存在另一个服务执行,则可将该服务执行的优先级设置为较低,因此,该服务执行可以被延迟。

此外,作为上面描述的服务执行机器人240的操作的一个实例,根据用户50的另一个请求或情感执行另一个不同的服务。例如,如果用户50想要做一个备忘录,服务执行机器人260(书写工具提供机器人)会移动到用户50附近、在水平方向上放置一个写字桌(该写字桌不仅是显示设备248,而且还是输入设备249),因此,用户50能够在写字桌上写字。此外,如果用户50需要三个电池,运输机器人(未展示)会从预定的部门收集三个电池并将这些电池运输到用户50的地点。

接下来,将会参照图9a至图9c描述一种方法,其中当人形对话机器人210与用户50对话时,人形对话机器人210根据用户的情感对组成人形对话机器人210的身体的形状进行改变。人形对话机器人210被配置为包括躯干2120、安装在躯干2120的左侧和右侧的胸腔2110、连接到躯干2120上部并安装在胸腔2110上面的头部2130、连接到躯干2120下部并安装在胸腔2110下面的底座部分2140。胸腔2110和头部2130可移动地连接到躯干2120并由发动机218驱动。此外,人形对话机器人210具有的身高范围是大约110cm至大约140cm。相对于人形对话机器人210使用与成年人相同的身高,该身高会使用户50感觉到较小的压抑感,从而更易于表达情感。

当用户50和人形对话机器人210彼此进行对话时,如果用户50未表达特定的情感,则人形对话机器人210会采取正常状态,如图9a所示。在正常状态,左和右胸腔2110在躯干2120置于二者之间的情况下以第一距离(即,正常宽度)大体平行地彼此相对。此外,头部2130朝向前方,头部2130的中心位于躯干2120的正上方。

如果用户50认真地带有热情地与人形对话机器人210交谈,则人形对话机器人210的识别单元222会确定用户50正在热情地交谈,操作控制单元224生成用于允许人形对话机器人210执行相应的表达的控制信息并控制每个组件的操作,从而采取如图9b中所示的“惊讶、感兴趣、好奇”的状态。在“惊讶、感兴趣、好奇”状态时,左和右胸腔2110的前部向左和右打开,从而比正常宽度更宽。此外,胸腔2110的上部向左和右打开,从而比下部更宽。此外,头部2130朝向斜上方,头部2130的中心相对于躯干2120的上部向后移动。因此,用户50确定人形对话机器人210处于惊讶、感兴趣、或好奇的状态,并以较高的热情进行对话。

如果用户50在与人形对话机器人210的对话过程中表达了愤怒的状态,则人形对话机器人210的识别单元222会确定用户50处于愤怒状态并通过操作控制单元224采取如图9c中所示的“悲伤、失望”状态。在“悲伤、失望”状态时,左和右胸腔2110的前部关闭,从而小于正常宽度。此外,左和右胸腔2110的上部或下部窄于其下部或上部,从而采取恰好采取一个“耸肩”的形状。此外,头部2130朝向斜下方,头部2130的中心相对于躯干2120的上部向前移动。因此,用户50确定人形对话机器人210处于失望和悲观的状态并被劝告根据人形对话机器人210的反应来进一步表达情感。

此外,上面描述的方法,即人形对话机器人210根据用户的情感对组成人形对话机器人210的身体的形状进行改变,仅仅是一个实例。此外,如果用户重复矛盾的指令或错误的指令,可以采取通过转动胸腔的动作来表达专横态度或愤怒的身体形状,并且也可以通过扬声器217以高于正常音量的音频“请对指令内容进行概括”作为响应。

接下来,将参照图10a和图10b对人形对话机器人210的头部2130进行描述。图10a是示出人形对话机器人210的头部的外观的透视图。图10b是示出用户将手放在图10a的头部上的状态的示图。如图10a所示,在人形对话机器人210的头部2130上没有提供在外观上对应于人类的眼睛和嘴巴的元件,但提供了一个凸起2133。凸起2133形成于头部2130的上部至前部2131的范围上,相比于其它部分向外凸出。即,人形对话机器人210并不是完全地类似于人类,但是人形对话机器人具有部分人类外观形状,它只具有鼻子和脸颊。此外,构造了以弧形或流线形汇聚的多线条纹构件2134,它们从头部2130的背部2132指向凸起2133,背部2132位于与构造了凸起2133的一侧相反的另一侧上。

在与用户50通信时,人形对话机器人210使得凸起2133朝向用户50。图10a示出的状态是凸起2133朝向x所标示的点。因此,用户50可以容易地识别出人形对话机器人210朝向哪里以及人形对话机器人210在与谁进行对话。

此外,在多线条纹构件2134的上侧布置有照明设备2135,从而沿着多线条纹构件2134朝向凸起2133汇聚。照明设备2135配置有例如一个led灯或多个led灯。照明设备2135根据识别单元222识别出的用户50的情感改变照明方式。照明方式的改变将会在后面描述。

此外,如图10b所示,用于检测用户50的触摸的压敏传感器2136设在没有设置凸起2133的区域,即,头部2130的多线条纹构件2134的下面。压敏传感器2136可埋置到头部2130的皮肤中,因此从表面上看不到压敏传感器。如图10b所示,如果用户50用手50a触摸压敏传感器2136,用户50的触摸是否存在以及该触摸的力度会被检测到。触摸是否存在以及该触摸的力度被传送到人形对话机器人210的识别单元222,用于识别用户50的情感。

接下来,将会参照图11a至图13c描述照明设备2135的照明方式的改变。图11a至图11c是示出照明设备2135在人形对话机器人210的电源开启和关闭时的照明方式的示图。图12a至图12c是示出一个情况的实例的示图,在该情况中,人形对话机器人210改变身体形状,使其表现为“感兴趣、高兴、好奇”的情感,并改变了照明设备2135的照明方式。图13a至图13c是示出一个情况的实例的示图,在该情况中,人形对话机器人210改变身体形状,使其表现为“悲伤、尴尬、失望”的情感,并改变了照明设备2135的照明方式。

如果人形对话机器人210开启电源,则依次如图11a、图11b、图11c所示,允许照明设备2135进行照明,以使得照明范围从多线条纹构件2134一侧开始向上部逐渐变宽。相反,如果人形对话机器人210关闭电源,则在电源关闭之前,依次如图11c、图11b、图11a所示,允许照明设备打开照明灯,以使得照明范围从上部一侧开始向多线条纹构件2134方向逐渐变小,最终,允许照明设备将照明灯全部关闭。

如果人形对话机器人210允许照明设备2135打开照明灯从而使得照明表现为“感兴趣、高兴、好奇”的情感,则依次如图12a、图12b、图12c所示,允许照明设备2135打开照明,以使得照明范围向后从凸起2133一侧开始向背部2132逐渐变宽。作为选择,可以允许照明设备打开照明灯,以使得部分照明范围从凸起2133一侧向背部2132向后移动。此外,图12a至图12c的照明方式可以被执行一次或重复执行。作为选择,可根据用户50的情感的强度确定照明次数。此外,图12a至图12c还示出了以下形状:在允许照明设备2135打开照明灯的时刻,头部2130朝向斜上方,并且头部2130的中心躯干2120的上部向后移动。

另一方面,如果人形对话机器人210允许照明设备2135打开照明灯从而使得照明表现为“悲伤、尴尬、失望”的情感,依次如图13a、图13b、图13c所示,则允许照明设备2135打开照明,以使得部分照明范围向前从背部2132一侧向凸起2133方向移动。作为选择,照明设备可以被允许打开照明灯,从而使得照明范围渐进地变宽,如同照明灯光从背部2132一侧走向凸起2133。图13a至13c的照明方式可以被执行一次或重复执行。作为选择,可根据用户50的情感的强度确定照明次数。此外,图13a至图13c还示出了以下形状:允许照明设备2135打开照明灯时,头部2130朝向斜下方,并且头部2130的中心相对于躯干2120的上部向后移动。

此外,除了改变人形对话机器人210的照明设备2135的照明方式,也可改变照明设备2135的照明颜色。例如,在情感为“感兴趣、高兴、好奇”的情况下,允许照明设备2135以黄绿色照明;在情感为“悲伤、尴尬、失望”的情况下,允许照明设备2135以紫色照明。

此外,在该示例性实施例中,人形对话机器人210和230和服务执行机器人240和260都具有底座部分,这些底座部分的外观轮廓提供了一致性。图14中示出了它的一个实例。在图14中,人形对话机器人210的底座部分2140、人形对话机器人230的底座部分2340、服务执行机器人240和260的底座部分2440、2640都是平截头体形状的底座部分。底座部分2140、2340、2440、2640可具有圆锥平截头体形状、三角平截头体形状、矩形平截头体形状等。底座部分被构造成具有相同或相似的外观形状,从而在外观轮廓上提供一致性。此外,在办公室20中的不同部门中安装的机器人的底座部分一致性具有不同的外观形状。因此,一个配置有多个机器人的小组可以与另一个不同部门中的安装了多个机器人的小组区分开。此外,通过使用底座部分2140、2340、2440、2640,可以使人形对话机器人210和230和服务执行机器人240和260稳定,从而这些机器人不会轻易摔倒。

至此,对根据该示例性实施例的机器人控制系统10进行了描述。此外,在上面描述的机器人控制系统10中,描述了在人形对话机器人210中构建用于识别用户50的请求和情感的识别单元222。但是,本发明不仅仅局限于上面描述的实施例,还可以将识别单元222与人形对话机器人210分离安装。例如,也可以允许识别单元作为服务器40的功能而运转。在该情况中,从人形对话机器人210和230以及传感器280接收如下任何一项信息,或者它们的多种组合:用户50的对话内容、行为、面部表情、面色、身体状态、声调、语速、心率,并根据该信息识别用户50的请求和情感。此外,可以在人形对话机器人210和服务器40上同时安装识别单元222。

此外,人形对话机器人210被定义为第一人形对话机器人,人形对话机器人230被定义为第二人形对话机器人。如果第一人形对话机器人210识别出用户50的第一请求和情感,随后,第二人形对话机器人230识别出用户50的第二请求和情感,则第二人形对话机器人230会将用户接下来的请求和情感传送到服务器40,服务器40的服务执行机器人确定单元407、服务内容确定单元408会根据用户50的第一请求和情感以及第二请求和情感确定实际执行该服务的服务执行机器人和需要被执行的服务的内容。

此外,在上面描述的示例性实施例中,描述了服务执行机器人240和260完成服务执行的情况。但是,实际上,还存在另一种情况:由于服务执行机器人240或260中途中断、充电的切断、或者没有找到任何收集材料,服务执行没有被完成。在该情况中,服务执行机器人240会将表示服务执行未完成的消息传送给服务器40或人形对话机器人210和230。服务器40的服务执行机器人确定单元407和服务内容确定单元408以及人形对话机器人210和230的相应功能确定在该情形下是否指派不同的服务执行机器人来执行相同的任务、该服务是否被完全地停止、是否将该情形通知给用户50从而接收指令和向人形对话机器人210和230以及服务执行机器人240和260传送必要的操作指令。

此外,在上面描述的示例性实施例中,描述了每个人形对话机器人210和230以及服务执行机器人240和260通过访问点270和服务器40与其它机器人进行通信的情况。但是,本发明不仅仅局限于上面描述的实施例,人形对话机器人210和230也可以不以无线方式通过访问点270彼此连接从而进行直接通信,或者,人形对话机器人210与服务执行机器人240和260也可以不以无线方式通过访问点彼此连接从而进行直接通信。同样,人形对话机器人230与服务执行机器人240和260可以通过无线方式彼此连接从而进行直接通信。

此外,在上面描述的示例性实施例中,在服务器40中,确定了需要用于执行服务的服务执行机器人和需要被执行的服务的内容,并根据确定的内容生成了服务指令信息。但是,这些操作可以不由服务器40执行,而是由人形对话机器人210和230来执行。在该情况中,对应于服务执行机器人确定单元407、服务内容确定单元408、服务指令信息生成单元409的功能是由人形对话机器人210和230执行的。

此外,在上面描述的示例性实施例中,台式机器人、书写工具提供机器人、交互屏幕机器人被描述为不同的服务提供机器人。但是,本发明不仅仅局限于上面描述的实施例,还可以将这些服务提供机器人集成在一起。例如,通过改变附加了触摸面板(它即是显示设备也是输入设备)的显示部分的方向,该机器人被允许用作显示器、写字板或投影仪。

出于阐述和描述的目的,提供了对于本发明的示例性实施例的上面描述。其目的不是穷举或将本发明限制于所公开的精确形式。显然,许多修改和变化对于本领域内的从业技术人员来说是显而易见的。选择和描述这些实施例是为了更好地阐述本发明的原理及其实际应用,从而使得本领域内的其它技术人员能够理解本发明的若干实施例,并可以预期到适用于特定使用的若干变化。本发明的保护范围是由下面的权利要求及其等价物确定的。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1