一种智能机器人动作生成方法及系统的制作方法_3

文档序号:9921601阅读:来源:国知局
述的机器人的轮子的转动量。
[0069]以实体机器人作为录制目标物,首先可以限制用户行为。用户的行为被限制在操控机器人做出连续动作,与操控机器人无关的行为不会对实体机器人产生影响,也就不会被记录。
[0070]其次,实体机器人可以简单快捷的实现连续动作。实体机器人操控方便,尤其是可以采用直接外力施加摆动机器人肢体形成姿势动作的方式。
[0071 ]再次,录制过程得到简化。实体机器人行为模式可控性高,行为模式简单,视觉采集机器人行为相对简单。进一步的,采用机器人自身或外部传感器采集机器人关节以及其他行为输出单元的状态更可以省略视觉处理的繁琐计算,直接获取机器人当前行为。
[0072]最后,由于机器人行为模式可控性高,行为模式简单,因此实体机器人行为与连续动作数据需要描述的机器人的行为之间的匹配规则的复杂程度就不高。尤其是当连续动作数据需要描述的机器人的硬件结构与实体机器人的硬件结构一致时,录制到的实体机器人在各个时间节点上的行为不需要转化直接就是连续动作数据需要描述的机器人在各个时间节点上的行为。运算量得到进一步削减。
[0073]在本发明另一实施例中,采用机器人操控界面作为用户行为的受体。如图3所示,首先执行步骤S310,采集并录制用户的操控行为。在本实施例中,构造包含机器人操控界面的录制平台,用户在机器人操控界面上执行操控机器人的操控行为,录制平台记录用户在操控界面上的所有操作。
[0074]这里需要注意的是,在本实施例中,用户在操控界面上执行操控行为,录制平台利用虚拟机器人展示用户操控行为对应的操控结果。进一步的,在本发明另一实施例中,录制平台基于虚拟机器人构造操控界面,用户直接对虚拟机器人进行操作(例如,用鼠标直接拖动虚拟机器人的肢体以改变机器人的姿态)。
[0075]在步骤S310后(或步骤S310执行的过程中)执行步骤S320,将操控行为编译为连续动作数据,其中,连续动作数据描述的机器人连续动作与操控行为相匹配。最后执行步骤S330,保存连续动作数据。
[0076]以操控界面作为用户行为的受体,首先限制了用户的操控行为。用户的操控行为被限制在操控界面可以接受的范围内,与操控界面无关的行为不会对操控界面产生影响,也就不会被记录。
[0077]进一步的,录制平台利用操控界面获取录制用户的操控行为,摆脱了实体机器人的硬件结构限制。针对连续动作数据所要描述的机器人的不同硬件结构,只需选用不同的操控界面(以及对应的虚拟机器人)。而不需要准备相应硬件结构(或相似硬件结构的实体机器人)。这样,录制的准备工作以及录制过程都被大大简化,从而降低了工作量,拓展了录制行为的适用性。
[0078]另外,在录制操控行为以及编译过程中可以根据虚拟机器人的行为姿态即时验证录制内容以及编译结果是否符合需求,并基于虚拟机器人的行为姿态及时做出微调和局部修改。大大提高了录制操作以及编译操作的灵活性,实现了对机器人动作的即时修改,从而提高了工作效率。
[0079]衡量机器人连续动作的重要标准包括动作的连贯性、合理性以及灵活性(动作优美程度),动作的连贯性以及动作的合理性的提高依赖各个时间节点上机器人具体动作衔接的合理规划以及每个具体动作的具体姿态。本发明通过编译用户行为数据的方式获取连续动作数据,在保证机器人动作连贯性以及合理性的基础上简化了规划各个时间节点上机器人具体动作的步骤。
[0080]然而,由于用户行为数据本身也存在连贯性、合理性以及灵活性上的问题(例如,基于实体机器人的动作,当用户操控机器人的手法不够理想,操控下的实体机器人的连续动作也就不够理想),这就导致编译出的连续动作数据也会出现连贯性、合理性以及灵活性问题。
[0081]为了进一步提高机器人连续动作的连贯性、合理性以及灵活性,在本发明另一实施例中,直接采集用户本身的动作行为和/或五官动作行为作为用户行为数据。
[0082]具体的,如图4所示,首先执行步骤S400,录制用户行为图像(五官动作图像和/或肢体动作图像)。然后(或在步骤S400执行的过程中)执行步骤S410,分析用户行为图像(五官动作图像和/或肢体动作图像)辨别用户行为(五官动作和/或肢体动作)。接下来(或在步骤S410执行的过程中)执行步骤S420,将用户行为(五官动作和/或肢体动作)编译为连续动作数据。最后执行步骤S430,保存连续动作数据。
[0083]在步骤S420中,连续动作数据描述的机器人连续动作与用户行为(五官动作和/或肢体动作)相匹配。具体的,由于连续动作数据所对应的机器人具体结构与作为录制目标物的用户身体结构不完全相同。因此基于机器人的硬件结构(关节构成以及其他行为输出单元构成)与人体五官以及关节的对应关系构造匹配规则。在编译过程中,基于预设匹配规则将各个时间节点上的用户行为转化为连续动作数据需要描述的机器人的动作行为,将转化后的各个动作行为按照时间节点的先后顺序串联记录以构成连续动作数据。同样,实体机器人连续行为的时间轴基于预设匹配规则拉长或缩短以形成连续动作数据的时间轴,从而达到慢动作或者加速动作的效果。
[0084]例如,连续动作数据需要描述的机器人包含:
[0085]无法移动的躯干;
[0086]躯干上构造有两个手臂,手臂肩关节、肘关节以及腕关节可动,手掌以及手指不可动;
[0087]躯干上还构造有不可弯曲的脖子,脖子上构造有可以左右转动的头部;
[0088]头部上构造有可以开闭的眼睛以及嘴巴。
[0089]那么,在动作转化时,同一时间节点上用户手臂肩关节\肘关节\腕关节的弯曲动作、头部的左右转动以及眼睛嘴巴的开闭直接转化为连续动作数据需要描述的机器人的相应部位的动作;同一时间节点上用户其他动作被忽略(例如腿部动作、腰部动作、手指动作等)O
[0090]需要指出的是,上述实施例中,录制的主要内容以及编译结果主要体现的都是动作行为(实体机器人的动作、用户的动作、连续动作数据需要描述的机器人的动作),即连续动作数据主要描述的是机器人的肢体动作。但是在本发明中,机器人的动作行为并不仅限于肢体动作。
[0091]机器人基于其自身硬件结构的不同,可以拥有众多行为表现方式。在本发明其他实施例中,机器人的动作行为可以包括机器人身体上显示屏的显示内容、机器人语音输出、机器人自身显示灯灯管效果等等。因此,在本发明的方法中,录制的内容也就不仅仅限于动作行为(不限于实体机器人的动作、用户的动作)。例如在图2所示实施例中,录制实体机器人的连续行为,其中也包括实体机器人身体上显示屏的显示内容、机器人语音输出、机器人自身显不灯灯管效果等等。
[0092]进一步的,在本发明一实施例中,针对机器人不同行为模式采用相应种类的录制目标物。例如,基于机器人自身的声音输出硬件设置匹配规则,将外界环境声音与机器人可以发出的声音做匹配。以外界环境声音为录制目标物,录制一段外界环境录音,然后将外界环境录音编译成机器人连续声音输出数据(连续动作数据,这里的动作是广义上的动作,不仅包括肢体动作,还包括声音)。
[0093]进一步的,在本发明一实施例中,通过预设的匹配规则将不同类型的行为关联起来,即录制内容中所体现的行为模式与连续动作数据所要描述的机器人的行为模式不同。
[0094]例如,基于机器人肢体关节设置匹配规则,将外界环境声音与机器人可以做出的动作做匹配(假设机器人可以做出点头动作,令机器人点头动作与外界鼓点声匹配)。以外界环境声音为录制目标物,录制一段外界环境录音,然后将外界环境录音编译成连续动作数据(每个时间节点上,存在鼓点声即被转化为一个点头动作)。
[0095]在本发明中,通过编译用户行为数据获取连续动作数据。随着连续动作数据所要描述的机器人动作的复杂程度的提高(机器人关节数或其他行为单元增加,同一时间需要动作的机器人关节或其他行为单元增多)以及机器人连续动作的持续时间的延长,需要录制获取的用户行为数据的复杂程度以及持续时间也需要相应增加。这就增加了录制的难度。
[0096]针对上述问题,在本发明一实施例中,将多个连续动作数据组合并保存为新的连续动作数据。即首先录制多个持续时间短、简单的用户行为数据并将其编译为连续动作数据,然后组合上述多个连续动作数据以形成复杂的、持续时间长的连续动作数据。
[0097]具体的,在本发明一实施例中,由多个连续动作数据的时间轴前后相接而构成一个新的连续动作数据。
[0098]如图5所示,假设编译用户行为数据A和用户行为数据B可分别得到连续动作数据A和连续动作数据B。连续动作数据A和连续动作数据B所描述的机器人动作分别为机器人持续动作A和机器人持续动作B。
[0099]将连续动作数据A和连续动作数据B的时间轴相接得到连续动作数据C。则连续动作数据C所描述的机器人持续动作C就是机器人持续动作A和机器人持续动作B的结合。
[0100]机器人持续动作C为由时间节点a开始,到时间节点c结束的持续动作。在时间节点a开始机器人持续动作A,在时间节点b结束机器人持续动作A同时开始机器人持续动作B,在时间节点c结束机器人持续动作B。
[0101]在这里需要注意的是,在上述实施例中,不同的连续
当前第3页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1