机器人装置控制装置、机器人装置控制方法及存储媒体的制作方法

文档序号:6282530阅读:211来源:国知局
专利名称:机器人装置控制装置、机器人装置控制方法及存储媒体的制作方法
技术领域
本发明涉及机器人装置控制装置、机器人装置控制方法及存储媒体,特别涉及用来控制象训练真正的宠物如狗或猫一样、个人可享受到训练过程乐趣这样的机器人装置的机器人装置控制装置和机器人装置控制方法,以及用于存储机器人装置控制方法软件程序的存储媒体。
市场上可以买到的是大量的响应按下接触开关或人们的声音强度高于预定声平时便进行动作的(已填充好的(stuffed))玩具机器人装置。在本发明范围内,玩具机器人装置包括已填充好的玩具机器人装置。
在这种传统机器人装置中,按下接触开关或输入声音与机器人装置动作(行为)之间的关系是固定的,并且主人无法按主人自己的意愿来改变机器人装置的行为。机器人装置只能多次重复同样的动作,主人逐渐会对这个玩具感到厌倦。主人也无法象享受狗或猫学习技巧的乐趣一样享受机器人装置学习过程的乐趣。
因此,本发明的一个目的是提供一种能够带来真正娱乐价值的机器人装置。
本发明的一个方面涉及一种用来控制机器人装置动作的机器人装置控制装置,包括一用来识别声音的声音识别单元,一用来对驱动机器人装置动作的驱动单元进行控制的控制单元,以及一用来设定声音识别单元所提供的声音识别结果与机器人装置行为之间关系的设定单元。
控制单元可决定机器人装置将要作出的动作,并控制驱动单元来驱动机器人装置进行所决定动作,其中设定单元用来设定决定的动作与机器人装置作出决定的动作后即刻的声音识别结果之间的关系。
机器人装置控制装置优选地包括用于评价继声音识别单元所提供的第一声音识别结果之后得到的声音识别结果的评价单元,其中控制单元控制驱动单元来驱动机器人装置根据第一声音识别结果进行预定动作,其中设定单元根据下一声音识别结果的评价结果来设定预定动作和第一声音识别结果之间的关系。
设定单元优选地将声音识别结果和机器人装置动作之间的关系登记在把声音识别单元接收到的用于声音识别的言词和机器人装置的动作联系起来的关系表中。
当由声音识别单元所提供的声音识别结果表明该言词是未知的时,设定单元优选地将该未知言词登记在关系表中,并优选地登记上已登记的未知言词和机器人装置动作之间的关系。
优选地,机器人装置控制装置进一步包括用于检测机器人装置姿势的姿势检测器,其中设定单元设定声音识别单元的声音识别结果与机器人装置达到姿势检测器检测到的姿势时所需作出动作之间的关系。
优选地,控制单元根据机器人装置动作和声音识别单元的声音识别结果之间的设定关系来控制驱动单元。
本发明的另一方面涉及一种用于控制机器人装置动作的机器人装置控制方法,它包括识别声音的声音识别步骤,控制驱动机器人装置动作的驱动单元的控制步骤,以及设定声音识别步骤中提供的声音识别结果和机器人装置动作之间关系的设定步骤。
而本发明的然后一方面涉及一种用于存储控制机器人装置动作的计算机可执行代码的存储媒体,计算机可执行代码实现识别声音的声音识别步骤,控制驱动机器人装置动作的驱动单元的控制步骤,及设定声音识别步骤中所提供声音识别结果与机器人装置动作之间关系的设定步骤。
根据本发明,驱动单元受控以驱动机器人装置动作,同时进行声音识别,并设定声音识别结果和机器人装置行为之间的关系。


图1是本发明机器人装置一实施例的外部透视图;图2是机器人装置内部结构的方框图;图3是控制器硬件结构的方框图;图4是当控制器执行程序时执行的功能方框图;图5所示的是作为行为模型的随机动作的自动装置;图6所示的是行为关系表;图7是在一传感器输入处理器中进行声音识别的声音识别模块的结构方框图;图8所示的是声音识别模块的操作流程图;图9是行为决定单元行为学习过程第一实施例的流程图;图10是行为决定单元行为学习过程第二实施例的流程图;图11是行为决定单元行为学习过程第三实施例的流程图。
图1是本发明机器人装置一实施例的外部透视图,图2是机器人装置的电气结构。
在此实施例中,机器人装置模拟一只狗。头单元3连接到躯干单元2的前端,脚单元6A和6B分别由大腿4A-4D和脚跟部5A-5D构成,分别连接到躯干单元2的前后侧壁上。尾部1连接到躯干单元2的后端。
作为致动器的电动机71,72,…,7N分别设置在尾部1和躯干单元2之间、头单元3和躯干单元2之间、每一条大腿4A-4D和躯干单元2之间以及大腿4A-4D和相应的脚跟部5A-5D之间的关节处。电动机71,72,…,7N转动时,尾部1和头单元3绕x,y,z轴三条轴线旋转,大腿4A-4D绕x,y轴两条轴线旋转,脚跟部5A-5D绕x轴单条轴线旋转。如此机器人装置可以进行各种各样的动作。
头单元3含有位于预定位置的CCD(电荷耦合器件)摄像头8,传声器9及压力传感器10。躯干单元2内置一控制器11。CCD摄像头8拾取机器人装置周围、包括主人的图像。传声器9捡拾周围声音、包括主人的声音。压力传感器10检测主人或其他对象施加到头单元3上的压力。控制器11接收由CCD摄像头8摄取到的周围图象、由传声器9捡拾到的四周的声音、由主人施加在头单元3上的压力来分别作为图象数据、声音数据和压力数据。
旋转编码器121,122,…,12N分别设置在电动机71,72,…,7N相应的联点处。旋转编码器121,122,…,12N分别检测各电动机71,72,…,7N旋转轴的旋转角度。由旋转编码器121,122,…,12N检测到的旋转角度作为检测到的角度数据馈送到控制器11中。
控制器11根据来自CCD摄像头8的图象数据、来自传声器9的声音数据、来自压力传感器10的压力数据以及来自旋转编码器121,122,…,12N的角度数据来确定机器人装置的姿势及其周围的情形。控制器11根据预安装的控制程序来决定随后所作出的动作。根据这一决策结果来驱动任一电动机71,72,…,7N。
于是机器人装置通过活动尾部1、躯干单元2及脚单元6A-6D而自我控制地进行动作。
图3所示的是图2中控制器11的结构。
控制器11包括CPU(中央处理单元)20、程序存储器21、RAM(随机存取存储器)22、非易失性存储器23、接口电路(I/F)24、及电动机驱动器25。所有这些部件都通过总线26进行内部连接。
CPU20通过执行保存在程序存储器21中的控制程序来控制机器人装置的行为。程序存储器21是一EEPROM(电擦除可编程只读存储器),用于保存由CPU20执行的控制程序及必要数据。RAM22用于暂存CPU20操作过程中所需数据。将在后面进行描述的非易失性存储器23用于保存情绪/本能模型、行为模型、行为关系表等断电过程中也必须继续保存的数据。接口电路24接收由CCD摄像头8、传声器9、压力传感器10及旋转编码器121到12N所提供的数据并将这些数据传送给CPU20。在CPU20的控制下,电动机驱动器25将驱动信号馈送给电动机71到7N以驱动这些电动机。
控制器11中的CPU20根据图4中所示的功能方框图、通过执行保存在程序存储器21中的控制程序来控制机器人装置。
图4所示的是控制器11的功能。
传感器信号处理器31识别出作用在机器人装置上的外部刺激或机器人装置的周围情况,并将这些外部刺激及周围情况数据馈送到情绪/本能模型单元32和行为决定单元33中。
情绪/本能模型单元32对分别表示机器人装置情绪和本能状态的情绪模型和本能模型进行管理。响应传感器信号处理器31的输出以及行为决定单元33的输出,情绪/本能模型单元32改变限定情绪模型和本能模型的参数,从而更新机器人装置的情绪和本能状态。
行为决定单元33含有行为模型存储器33A和行为关系表存储器33B,并根据存储器内容、传感器信号处理器31的输出以及由情绪/本能模型单元32进行管理的情绪模型和本能模型来决定机器人装置作出的下一行为。然后行为决定单元33将该行为信息(下文称作行为信息)馈送到姿势转换单元34中。
为使机器人装置根据行为决定单元33所提供的行为信息进行动作,姿势转换单元34计算出控制数据,如电动机71到7N的旋转角度和旋转速度,并将该控制数据输出到数据控制单元35中。
数据控制单元35根据来自姿势转换单元34的控制数据来驱动电动机71到7N。
如此构造的控制器11中的传感器信号处理器31根据摄像头8提供的图象数据、传声器9提供的声音数据及压力传感器10输出的压力数据来识别出特殊的外部状态、主人的特殊动作及主人所发出的命令。识别结果然后输出到情绪/本能模型单元32和行为决定单元33中。
传感器信号处理器31根据摄像头8提供的图象数据进行图象识别。例如,传感器信号处理器31识别出有柱子或墙壁,便将此识别结果馈送到情绪/本能模型单元32和行为决定单元33中。传感器信号处理器31通过处理来自压力传感器10的声音数据来进行声音识别。例如,当压力传感器10检测到短时间内的压力值高于预定阈值时,传感器信号处理器31识别出机器人装置正被“拍打或责打”。当压力传感器检测到长时间的压力值低于预定阈值时,传感器信号处理器31识别为正被“抚摸或称赞”。传感器信号处理器31然后将此识别结果馈送到情绪/本能模型单元32和行为决定单元33中。
情绪/本能模型单元32对表达情绪状态如“高兴”、“悲伤”、“生气”等的情绪模型和表达“吃饭”、“睡觉”、“活动”等的本能模型进行管理。
例如,情绪模型和本能模型可以用0到100范围内的整数数字来表示机器人装置的情绪和本能状态。情绪/本能模型单元32按考虑的延时响应传感器信号处理器31的输出和行为决定单元33的输出来更新情绪模型和本能模型的数值。情绪/本能模型单元32将更新的情绪模型和本能模型数值(机器人装置的情绪和本能状态)然后馈送到行为决定单元33中。
如下所述机器人装置的情绪和本能状态根据行为决定单元33的输出而改变。
行为决定单元33将机器人装置过去所作出行为或目前正作出行为的行为信息(如“机器人装置已把目光转向别处或正把目光转向别处”)提供给情绪/本能模型单元32。
现在当主人刺激已经生气的机器人装置时,机器人装置会作出“把目光转向别处”的动作来响应。在此情形下,行为决定单元33将此“把目光转向别处”的行为信息提供给情绪/本能模型单元32。
一般来说,表示生气不满的动作如把目光转向别处的动作可一定程度地平息怒气。当从行为决定单元33接收到该“把目光转向别处”的行为信息时,情绪/本能模型单元32便降低表示“生气”的情绪模型数值(降低到较低的生气程度)。
行为决定单元33根据传感器信号处理器31的识别结果、情绪/本能模型单元32的输出、持续时间、行为模型存储器33A的存储内容以及行为关系表存储器33B的存储内容来决定下一动作。行为决定单元33然后将表示该动作的行为信息馈送到情绪/本能模型单元32和姿势转换单元34中。
行为模型存储器33A保存有定义机器人装置行为的行为模型。行为关系表存储器33B保存有把输入到传声器9中的声音的声音识别结果与机器人装置行为联系起来的关系表。
行为模型由图5中所示随机动作的自动装置构成。在所示的随机动作的自动装置中,行为由NODE0到NODEM中的任一节点(状态)表示,行为转换由表示从一个节点NODEm0转换到另一个节点NODEm1(注意有一种情形是另一节点就是原节点)(m0,m1=0,1,…,M)的弧ARCm1表示。
表示从一个节点NODEm0转换到另一个节点NODEm1的弧ARCm1具有一转化概率Pm1,且主要根据相应的转换概率来确定节点转换即行为转换的概率。
参见图5,为简单起见,具有(M+1)个节点的随机动作的自动装置包括分别从节点NODE0通过节点NODEM延伸到其他节点NODE0的弧ARC0到ARCM。
如图6中所示,行为关系表登记了所得到的作为声音识别结果的每句话与机器人装置将要作出的动作之间的关系。图6中所示的表以整数相关得分(score)的形式列出了声音识别结果和行为之间的关系。具体地说,表示声音识别结果和行为之间关联程度的整数为相关得分。当得到声音识别结果时,机器人装置根据相关得分来改变行为概率或行为频度。
当图6行为关系表中的声音识别结果为“嗨”时,机器人装置作出“向前走”和“咬”(都具有非0相关得分)动作的频度分别增大相关得分为10和20。当声音识别结果是“过来”时,机器人装置作出“向前走”(具有非0相关得分)动作的频度增大相关得分为60。当声音识别结果是“握手”时,机器人装置作出“向上看”(具有非0相关得分)动作的频度增大相关得分为20。同时,“握手”动作的频度增大相关得分为70。
行为决定单元33主要根据情绪/本能模型单元32的情绪模型和本能模型值、延迟时间、传感器信号处理器31提供的传感器信号的识别结果,来确定除了对于自当前节点延伸的弧设定的转换概率之外、在作为行为模型的随机动作的自动装置(见图5)中由对应于当前行为的节点转换到哪一个节点。行为决定单元33然后将表示与节点转换之后的节点相对应的行为(也称作是位置(post)-节点-转换动作)的行为信息传送到情绪/本能模型单元32和姿势转换单元34中。
根据情绪模型和本能模型值,即使传感器信号处理器31输出同样的外部识别结果,行为决定单元33也将转换到不同的节点。
具体地说,若传感器信号处理器31的输出表示手掌伸到机器人装置面前。当“生气”情绪模型表示机器人装置“不生气”且当“吃”本能模型表示机器人装置不饿时,则响应此伸出的手掌,行为决定单元33决定驱动机器人装置握手以作为位置-节点-转换动作。
相类似地,若传感器信号处理器31的输出表示手掌伸到机器人装置的面前。尽管“生气”情绪模型表示机器人装置“不生气”,但“吃”本能模型却表示机器人装置饿了,于是行为决定单元33决定用舔掌心来作为位置-节点-转换动作。
然后有,传感器信号处理器31的输出表示手掌伸到机器人装置的面前。当“生气”情绪模型表示机器人装置在“生气”时,则不论“吃”本能模型的数值如何,行为决定单元33都决定驱动机器人装置突然看向别处来作为位置-节点-转换动作。
当传感器信号处理器31提供的传感器输出的识别结果确定出声音是主人本人的声音时,行为决定单元33根据登记在行为关系表存储器33B中行为关系表(见图6)中的声音识别结果所给出的行为相关得分来决定从当前行为节点转换到哪一个节点。行为决定单元33然后将表示与所决定的节点相对应的行为(位置-节点-转换动作)的行为信息传送给情绪/本能模型单元32和姿势转换单元34。由此,机器人装置根据声音识别结果、依据行为的相关得分而进行不同的动作。
接收到一预定触发信号后,行为决定单元33转换到行为模型中的一个节点,从而决定了作出的位置-节点-转换动作。具体地说,当机器人装置开始当前动作经历预定时间以后、当传感器信号处理器31输出一特殊识别结果如声音识别结果、或者当情绪/本能模型单元32的情绪模型或本能模型值高于预定阈值时,行为决定单元33决定要作出的位置-节点-转换动作。
根据行为决定单元33所提供的行为信息,姿势转换单元34生成一个用于从当前姿势转换到下一姿势的姿势转换信息,并将该姿势转换信息输出到数据控制单元35中。具体地说,姿势转换单元34根据来自旋转编码器121到12N的输出来识别出当前姿势,并计算出机器人装置作出与来自行为决定单元33的行为信息相对应动作(一位置-节点-转换动作)时电动机71到7N的旋转角度和旋转速度,然后将姿势转换信息输出到数据控制单元35中。
数据控制单元35根据来自姿势转换单元34的姿势转换信息生成驱动电动机71到7N的驱动信号,并将这些驱动信号传送给电动机71到7N。机器人装置因此而作出一位置-节点-转换动作。
图7是图4中所示传感器信号处理器31部分的功能方框图,下文当中它被称作为声音识别模块,它根据来自传声器9的声音数据进行声音识别。
声音识别模块利用一个连续的HMM(隐式Markov模型)来识别输入到传声器9中的声音,并输出声音识别结果。
特征参数抽取器41从传声器9中接收声音数据。特征参数抽取器41对输入其中的声音数据逐帧地进行MFCC(Mel频率倒频系数)分析。MFCC分析结果作为特征参数(特征矢量)输出到匹配单元42中。特征参数抽取器41可进一步地抽取线性预测系数、倒频系数、谱线对、及每一预定频带(滤波器组的输出)中的功率作为特征参数。
利用来自特征参数抽取器41的特征参数,必要时同时参考声模型存储器43、词典存储器44以及语法存储器45,匹配单元42根据连续HMM模型来识别出输入到传声器9中的声音。
声模型存储器43保存有代表需识别声音声学特征如音素和音节的声模型。由于在此是用连续HMM来进行声音识别的,所以采用一HMM。词典存储器44保存有一个言词词典,该词典含有被识别的每个言词的发音信息(声音逻辑信息)。语法存储器45保存有说明登记在数据控制单元35中的每一句话是如何链接的语法。该语法可以是与上下文无关的语法,或是基于词串接概率的规则(N-grarn)。
匹配单元42参考词典存储器44中的词典,通过连接保存在词典存储器44中的声模型而生成言词的声模型(言词模型)。匹配单元42参考保存在语法存储器45中的语法进一步地连接几个言词(word)模型,并根据特征参数通过HMM连续方法来处理已连接的言词模型,从而识别出输入到传声器9中的声音。具体地说,匹配单元42从特征参数抽取器41输出的时间序列特征参数中检测出具有最高相关得分(可能性)的言词模型,并输出与该言词模型相对应的言词(词串)。匹配单元42的声音识别结果然后作为传感器信号处理器31的输出而输出到情绪/本能模型单元32和行为决定单元33中。
下面参考图8中所示的流程图来讨论图7中所示声音识别模块的操作。
声音现在输入到传声器9中。与该声音相对应的数字声音数据馈送到传感器信号处理器31、传声器9中。该声音数据然后进一步馈送到特征参数抽取器41中。
在步骤S1中,特征参数抽取器41对声音数据进行声学分析,因此抽取出时间序列特征参数。特征参数然后馈送到匹配单元42中。在步骤S2中,匹配单元42利用来自特征参数抽取器41的特征参数、通过连续HMM方法对输入到传声器9中的声音进行声音识别。
在步骤S3中,匹配单元42确定声音识别结果是否是未知言词(未知词串),即是否是未登记在字典存储器44字典中的言词。当在步骤S3中确定出声音结果是已知言词时,换句话说,当确定出声音识别结果是已登记在字典中的言词时,过程接着进行到步骤S4。声音识别结果输出到情绪/本能模型单元32和姿势转换单元34中。过程结束。
当在步骤S3中确定出声音识别结果是未知言词时,过程接着进行到步骤S5。匹配单元42将与声音识别结果相对应的音素串输出到情绪/本能模型单元32和行为决定单元33中。过程结束。
在此实施例中,当声音识别结果是未知言词时,情绪/本能模型单元32便可忽略该声音识别结果。这是因为当声音识别结果是未知言词时,情绪/本能模型单元32无法理解该声音识别结果的内容。
当声音识别结果是未知言词时,该未知言词的音素串便登记到字典存储器44的字典当中。由此,现已成为已知言词的未知言词便作为登记在字典中的言词来进行声音识别。
匹配单元42原则上输出具有最高相关得分的言词来作为已讨论的声音识别结果。当此最高相关得分低于预定阈值时,输入到传声器9中的声音便被作为未知言词处理,与具有最高相关得分的声逻辑模型序列相对应的音素串输出作为声音识别结果。
由上所述,在普通方式时,当行为决定单元33接收到来自匹配单元42的声音识别结果时,行为决定单元33通常考虑该声音识别结果来决定位置-节点-转换动作。而在学习方式时,行为决定单元33执行行为学习过程。具体地说,行为决定单元33设定了来自匹配单元42的声音识别结果和机器人装置的行为之间的关系,并将此关系登记在行为关系表存储器33B的行为关系表(见图6)中。
当行为决定单元33从传感器信号处理器31中接收到作为声音识别结果的特殊言词(如“学习”)或表示压力值高于预定值且施加时间长于预定时间的压力数据时,行为决定单元33将操作方式从普通方式转换到学习方式,执行学习方式过程。
图9是行为学习过程流程图。
在行为学习过程中,行为决定单元33等待来自声音识别模块的声音识别结果(见图7)。当在步骤S11中行为决定单元33接收到声音识别结果时,过程接着进行到步骤S12。行为决定单元33确定来自声音识别模块的声音识别结果是否是未知言词。
当在步骤S12中确定出声音识别结果是未知言词时,过程接着进行到步骤S13。行为决定单元33将该未知言词词条(entry)(一行)加入到行为关系表存储器33B的行为关系表(见图6)中以进行登记(例如,在图6行为关系表的最末一行加入一行未知言词)。过程接着进行到步骤S14。
假设行为关系表具有登记在声音识别模块字典存储器44字典中的所有言词词条(见图7)。当发现声音识别结果为未知言词时,行为关系表无此声音识别结果词条。在步骤S13中,登记上作为该声音识别结果的未知言词词条。
当在步骤S12中确定出声音识别结果为已知言词时,换句话说,当确定出声音识别结果是登记在行为关系表中的任一言词时,过程跳过步骤S13接着进行到步骤S14。行为决定单元33以随机方式决定动作,使机器人装置进行位置-节点-转换动作。
在步骤S15中,行为决定单元33确定是否已从声音识别模块中接收到了新的声音识别结果。当在步骤S15确定出还未接收到新的声音识别结果时,过程接着进行到步骤S16。行为决定单元33确定自步骤S14中作出位置-节点-转换动作后是否已经过预定时间,换句话说,即是否已到时间。当在步骤S16中确定出已到时间,换句话说,当机器人装置动作后主人然后未说出特殊言词,则行为学习过程结束。
结束行为学习过程的同时,行为决定单元33将操作方式从学习方式切换到普通方式。
当在步骤S16中确定出还未到预定时间时,过程返回步骤S15。接收声音识别结果。过程在步骤S15和步骤S16之间循环直到时间到了。
当在步骤S15中确定出已接收到新的声音识别结果时,过程接着进行到步骤S17,对该新的声音识别结果进行评价。具体地说,在步骤S17中,行为决定单元33认为新的声音识别结果是主人响应于步骤S14中所作出位置-节点-转换动作的反应,从而对该新的声音识别结果进行评价以确定该声音识别结果是鼓励还是不鼓励步骤S14中所作出的位置-节点-转换动作。
根据步骤S17中的评价结果,在步骤S18中,行为决定单元33更新(增大或减少)关系表中与步骤S11中接收到的声音识别结果(下文当中称作为第一声音识别结果)相对应的言词相关得分。行为学习过程结束。
在图9所示的行为学习过程中,例如切换到学习方式后主人即刻说“握手”,该(第一)声音识别结果馈送到行为决定单元33中,进行“握手”动作作为位置-节点-转换动作。主人例如说“好”来鼓励(称赞)它的动作,此(新)声音识别结果又馈送到行为决定单元33中。行为决定单元33评价该声音识别结果认为所作出动作是受鼓励的,于是根据第一声音识别结果“握手”将“握手”动作的相关得分增大预定值。当主人在普通方式时说“握手”时,“握手”动作的出现频率(概率)增大。
现在,响应作为第一声音识别结果的言词“握手”,而进行“向前走”这一位置-节点-转换动作。主人例如通过说“不”不鼓励该位置-节点-转换动作,则相应的声音识别结果馈送到行为决定单元33中。行为决定单元33评价该声音识别结果认为所作动作是不受鼓励的,便根据第一声音识别结果“握手”将“向前走”动作的相关得分降低预定值。当主人在普通方式下说“握手”时,“向前走”这一动作的出现频率(概率)降低。
当主人说话时,机器人装置学习受主人鼓励(称赞)的动作,之后就很可能作出这一动作。由此,主人可以享受到与教导真的宠物学习技巧同样的训练过程。
当此实施例中的第一声音识别结果是一未知言词时,该未知言词被另外登记在行为关系表中,并由主人的下一个声音来更新与此另外登记的未知言词相对应的动作的相关得分。在此实施例中,新言词可以与任何动作相联系。新言词一旦与其动作相联系,当然后说出该新言词时,机器人装置便会作出预定动作。
在以上论述当中,位置-节点-转换动作是在步骤S14中以随机方式决定的。而在普通方式时,位置-节点-转换动作可以根据计及情绪/本能模型单元32的情绪模型和本能模型值的行为模型来决定。
当在步骤S11中接收到的作为声音识别结果的言词登记在行为关系表中时,可根据该言词词条中动作的相关得分来决定位置-节点-转换动作。例如,可采用相对步骤S11中接收到的作为声音识别结果的言词的、具有最高相关得分的动作作为位置-节点-转换动作。在这种情况下,能够避免机器人装置作出与主人将其切换到学习方式后即刻说出的言词无关的动作。
在图9所示的行为学习过程中,主人说完一句话后,机器人装置可作出任何动作。主人然后说出一句话,则对第二个声音进行评价。根据对第二个声音的评价结果,来更新响应于第一声音而作出动作的相关得分。可以以不同的方式来执行行为学习过程。例如机器人装置响应于相关动作、在主人说完一句话后作出一个动作。相应更新言词和动作之间的相关得分。
下面参考图10中所示的流程图来讨论这种行为学习过程。
在步骤S21中,行为决定单元33以与图9中所示步骤S14同样的方式决定位置-节点-转换动作。机器人装置作出位置-节点-转换动作。之后此过程接着进行到步骤S22。
在步骤S22中,行为决定单元33确定是否已从声音识别模块中接收到声音识别结果。当在步骤S22中确定出还未接收到声音识别结果时,过程接着进行到步骤S23。行为决定单元33确定自步骤S21中作出位置-节点-转换动作起是否已经过预定时间,换句话说,即是否已到时间。当在步骤S23中确定出时间已到,换句话说,当自机器人装置作出位置-节点-转换动作起主人未然后说出其他特殊言词,则行为学习过程结束。
当在步骤S23中确定出还未到预定时间时,则过程返回到步骤S22。接收声音识别结果。否则,过程在步骤S22和步骤S23之间循环直到时间到了为止。
当在步骤S22中确定出声音识别结果已接收到,则过程接着进行到步骤S24,行为决定单元33确定该声音识别结果是否是一未知语句。
当在步骤S24中确定出声音识别结果是未知语句时,过程接着进行到步骤S25。与图9中步骤S13的方式一样,行为决定单元33将关于该未知语句词条加入到行为关系表存储器33B的行为关系表(见图6)中以进行登记。过程接着进行到步骤S26。
当在步骤S24确定出声音识别结果是一已知语句时,换句话说,当确定出声音识别结果是登记在行为关系表中的任一语句时,过程跳过步骤S25,接着进行到步骤S26。行为决定单元33响应于步骤S21中所作出的位置-节点-转换动作,将关系表中与声音识别模块中接收到的声音识别结果相对应言词相关得分增大预定值。之后行为学习过程结束。
在图10所示的行为学习过程中,在切换成学习方式后即刻行为决定单元33决定“握手”动作作为位置-节点-转换动作,并实际进行“握手”这一位置-节点-转换动作。例如,主人说出希望与“握手”动作相关联的“握手”,行为决定单元33将与声音识别结果“握手”这一言词相关联的“握手”动作的相关得分增大预定数值。在这种情况下,与图9中所示流程图方式一样,当主人在普通方式下说“握手”时,“握手”动作的出现频率(概率)增大。
图9和图10中的行为学习过程在响应主人的发声来学习未登记成行为模型存储器33A中的按照行为模型的动作时有困难。如果机器人装置响应主人发出的声音来学习未登记按照成行为模型的动作时,不同人的机器人装置将有很大的个性差异,能够带来更多的机器人装置娱乐价值。
下面将参考图11中所示的流程图来讨论以此方式进行的行为学习过程。
在步骤S31中,行为决定单元33通过姿势转换单元34和数据控制单元35将电动机71到7N设定成设定姿势实施状态。具体地说,在步骤S31中,当外力施加到机器人装置上时,电动机71到7N的状态(其旋转角)是可变的(在设定姿势实施状态)。
在此设定姿势实施状态中,电动机71到7N的当前状态维持在扭矩上限。当高于扭矩上限的外力作用到机器人装置上时,行为决定单元33响应于该外力来改变电动机状态(即使电动机旋转)。
之后过程接着进行到步骤S32。行为决定单元33至少使电动机71到7N中之一响应此外力旋转,并确定机器人装置是否改变其姿势。这一确定是根据旋转编码器121到12N的输出来确定的。
当在步骤S32中确定出机器人装置的姿势保持未变时,过程接着进行到步骤S33。行为决定单元33确定自设定姿势实施状态开始起是否经过了预定时间,换句话说,时间是否已到。当在步骤S33中确定出时间已到,换句话说,当确定出主人未然后向机器人装置施加外力时,过程接着进行到步骤S40。
当确定出还未到预定时间时,过程返回到步骤S32,在步骤S32和步骤S33之间循环。
当在步骤S32中确定出机器人装置已改变其姿势,则过程接着进行到步骤S34。行为决定单元33将姿势改变后所采取姿势的新的一行动作(下文称作为新动作)登记在行为关系表存储器33B的行为关系表(见图6)中。此外,行为决定单元33将行为决定单元33的行为模型(见图6)中加入一个新动作节点,并在新加弧形和已有节点之间加入一弧形。
接下来过程接着进行到步骤S35。行为决定单元33确定是否已从声音识别模块中接收到声音识别结果。当在步骤S35中确定出还未接收到声音识别结果时,过程转入步骤S36。行为决定单元33确定自步骤S34之后是否已经过预定时间,换句话说,即确定时间是否已到。当在步骤S36中确定出时间已到,换句话说,当新动作登记到行为关系表和行为模型当中之后、主人然后未说出特定言词,则过程接着进行到步骤S40。
当在步骤S36中确定还未到预定时间,则过程返回步骤S35。接收声音识别结果。否则,过程在步骤S35和步骤S36之间循环直至时间到为止。
当在步骤S35中确定出已接收到声音识别结果时,过程接着进行到步骤S37。行为决定单元33确定声音识别结果是否是未知言词。
当在步骤S37中确定出声音识别结果是未知言词时,过程转入步骤S38。以图9中所示步骤S13同样的方式,行为决定单元33将该未知言词词条额外登记在行为关系表存储器33B的行为关系表(见图6)中。过程接着进行到步骤S39。
当在步骤S37中确定出声音识别结果是已有言词时,过程跳过步骤S38,直接进行到步骤S39。行为决定单元33将行为关系表中、与来自声音识别模块的声音识别结果相对应的、新动作的言词相关得分增大预定数值。之后过程接着进行到步骤S40。
在步骤S40中使姿势设定状态成为禁用状态,行为学习过程结束。
例如,在图11所示的行为学习过程中,主人可使机器人装置以脚单元6A和6B内折、躯干单元2的下部靠在地面上的“卧下”姿势卧下。行为决定单元33另外将采取“卧下”姿势的新动作登记到行为关系表和行为模型中。当主人说“卧下”时,行为决定单元33响应主人声音、将作为声音识别结果的言词“卧下”与动作“卧下”的相关得分增大预定值。
当“卧下”动作未登记为行为模型时,主人的声音“卧下”可使机器人装置作出“卧下”的动作。因此,主人可以让自已的机器人装置作出各种各样的动作。
操作方式从普通方式切换到学习方式是根据上面所述的触发器来执行的。或者,可以由设置在机器人装置上的专用开关来切换操作方式。或者,也可以将一个用于红外通信的通信接口安装在机器人装置上,从一遥控单元发出改变操作方式的命令。主人与机器人装置之间的距离可通过电感应装置或电磁感应装置或利用一热电效应传感器来检测。当主人在机器人装置附近持续预定或更长时间时,便可切换操作方式。
为了执行图11中所示的行为学习过程,需从旋转编码器121到12N的输出信号或其他信号(电动机71到7N的旋转角,电动机71到7N两端之间的电压或流过电动机71到7N的电流)中检测出施加到电动机71到7N上的外力。当该外力连续施加预定时间或更长时间时,便可切换操作方式。在图11所示的行为学习过程中,操作方式可结合响应主人与机器人装置的距离以及所施加的外力来进行切换。
已结合娱乐用机器人装置(如玩具机器人装置)对本发明的实施例进行了讨论。本发明不仅限于此类机器人装置,还可以有很广泛的应用,如工业机器人装置。
在有关本发明此实施例的论述中,电动机71到7N用作为驱动机器人装置的致动器。本发明并不仅限于这些电动机。还可以用其他的致动器、扬声器、蜂鸣器、发光器件等,只要这些器件能够使机器人装置动作即可。
在有关本发明此实施例的论述中,CPU20执行软件程序,从而能执行上述一系列的过程步骤。上述一系列的过程步骤也可以由专用的硬件来执行。
软件程序预存在程序存储器21(见图3)中。或者,软件程序也可以暂时或永久性地保存在可取下存储媒体如软盘、CD-ROM(压缩盘只读存储器)、MO(磁光)盘、DVD(数字通用盘)、磁盘、半导体存储器等当中。可移动存储媒体可以以软件包的形式来提供,软件程序然后安装到机器人装置的程序存储器21上。
软件程序可以从可移动存储媒体上安装。或者,可以以无线形式通过数字广播卫星或以有线形式通过LAN(局域网)或因特网从一下载站点将软件程序安装到程序存储器21上。
当软件程序进行版本更新时,已更新程序可以很方便地安装到程序存储器21上。
所述的软件程序的过程步骤不一定由CPU20按每一流程图中所述的顺序来进行进行各种各样过程。可以并行或单独地进行几个过程步骤(并行处理或通过对象处理)。
软件程序可以由单CPU执行,或者在分散处理中也可以由多个CPUs来执行。
根据本发明,在控制驱动机器人装置的驱动单元的同时识别主人的声音。如此设定声音识别结果和机器人装置动作之间的关系。因此产生了能够根据声音作出各种各样动作的机器人装置。
权利要求
1.一种用于控制机器人装置动作的机器人装置控制装置,包括用于识别声音的声音识别装置;用于对驱动机器人装置动作的驱动装置进行控制的控制装置;以及用于设定声音识别装置提供的声音识别结果和机器人装置动作之间关系的设定装置。
2.根据权利要求1所述的机器人装置控制装置,其中控制装置决定机器人装置将作出的动作,并控制驱动装置驱动机器人装置执行所决定动作,并且其中设定装置用来设定所决定动作和机器人装置作出决定动作后即刻的声音识别结果之间的关系。
3.根据权利要求1所述的机器人装置控制装置,进一步包括用于评价继声音识别装置所提供的第一声音识别结果之后所得到的声音识别结果的评价装置;其中控制装置控制驱动装置,以驱动机器人装置执行响应于第一声音识别结果的预定动作,并且其中设定装置根据对下一声音识别结果的评价结果来设定预定动作和第一声音识别结果之间的关系。
4.根据权利要求1所述的机器人装置控制装置,其中设定装置将声音识别结果和机器人装置动作之间的关系登记在关系表中,该关系表将声音识别装置接收到的、用于进行声音识别的言词与机器人装置动作相互联系起来。
5.根据权利要求4所述的机器人装置控制装置,其中当声音识别装置所提供的声音识别结果表示是未知言词时,设定装置将此未知言词登记在关系表中,并将已登记未知言词和机器人装置动作之间的关系也进行登记。
6.根据权利要求1所述的机器人装置控制装置,进一步包括用于检测机器人装置姿势的姿势检测装置,其中设定装置用来设定声音识别装置的声音识别结果和机器人装置达到姿势检测装置所检测到的姿势而需作出的动作之间的关系。
7.根据权利要求1所述的机器人装置控制装置,其中控制装置根据机器人装置动作和声音识别装置的声音识别结果之间的关系设置来控制驱动装置。
8.一种用于控制机器人装置动作的机器人装置控制方法,该方法包括以下步骤识别声音的声音识别步骤;控制驱动机器人装置动作的驱动装置的控制步骤;及设定声音识别步骤所提供的声音识别结果和机器人装置动作之间关系的设定步骤。
9.一种用于存储控制机器人装置动作的计算机可执行代码的存储媒体,计算机可执行代码用来实现识别声音的声音识别步骤;控制驱动机器人装置动作的驱动装置的控制步骤;及设定声音识别步骤中所提供的声音识别结果与机器人装置动作之间关系的设定步骤。
全文摘要
本发明公开了一种用来控制具有实际娱乐价值的机器人装置的机器人装置控制装置。传感器信号处理器识别出主人的声音,设定声音识别结果和机器人装置动作之间的关系,并将此关系登记在行为关系表存储器的行为关系表中。行为决定单元根据行为关系表来决定机器所作出的动作。
文档编号G05B19/408GK1299991SQ0013728
公开日2001年6月20日 申请日期2000年11月30日 优先权日1999年11月30日
发明者丰田崇 申请人:索尼公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1