一种机器人控制方法、机器人及计算机可读存储介质与流程

文档序号:16673472发布日期:2019-01-18 23:45阅读:215来源:国知局
一种机器人控制方法、机器人及计算机可读存储介质与流程

本发明属于机器人控制领域,尤其涉及一种机器人控制方法、机器人及计算机可读存储介质。



背景技术:

随着科技的发展,智能机器人能够理解人类语言,用人类语言同操作者对话,在它自身的“意识”中单独形成了一种使它得以“生存”的外界环境——实际情况的详尽模式。它能分析出现的情况,能调整自己的动作以达到操作者所提出的部分或全部要求。对于无法精确解析建模的物理对象以及信息不足的病态过程,传统控制理论暴露出缺点,近年来许多学者提出了各种不同的机器人智能控制系统。机器人的智能控制方法有模糊控制、神经网络控制、智能控制技术的融合(模糊控制和变结构控制的融合;神经网络和变结构控制的融合;模糊控制和神经网络控制的融合;智能融合技术还包括基于遗传算法的模糊控制方法)等等。

但是,机器人还存在工作异常的情况,严重时会攻击用户或者其所能碰到的物体,如果此时通过机器人身上的面板控制机器人停止运行会比较麻烦和困难,甚至会造成更大的伤害。



技术实现要素:

本发明实施例提供了一种机器人控制方法、机器人及计算机可读存储介质,旨在解决目标机器人工作异常时不能快速控制机器人停止运行的问题。

为了解决上述技术问题,本发明是这样实现的:

第一方面,本发明实施例提供了一种机器人控制方法,所述方法包括以下步骤:

获取用户发出的肢体信息;

根据所述肢体信息控制机器人执行目标操作。

进一步的,在所述获取用户发出的肢体信息之前,所述方法还包括:

检测所述机器人是否处于运动状态,其中,所述运动状态为所述机器人击打目标物体的状态;

如果是,则获取用户发出的肢体信息;

如果否,则监视人类排除区域。

进一步的,在所述获取用户发出的肢体信息之前,所述方法还包括:

检测是否有用户进入人类排除区域,其中,所述人类排除区域为禁止人类进入的区域;

如果是,则获取用户发出的肢体信息;

如果否,则监视人类排除区域。

进一步的,在所述获取用户发出的手势肢体信息之前,所述方法还包括:

检测机器人是否离开人类排除区域;

如果是,则获取用户发出的肢体信息;

如果否,则监视人类排除区域。

进一步的,所述获取用户发出的手势信息,包括:

通过外部摄像头或设置于机器人预设位置的摄像头获取用户发出的手势信息,其中,所述摄像头为3d摄像头。

进一步的,在所述获取用户发出的手势信息之前,所述方法还包括:

通过人工神经网络建立用户手势与机器人执行操作之间的对应关系。

进一步的,所述根据所述手势信息控制机器人的执行目标操作,包括:

根据所述用户作出的肢体信息与机器人执行操作之间的对应关系,确定与用户发出的肢体信息对应的目标操作,控制所述机器人执行所述目标操作。

进一步的,所述目标操作为停止击打所述目标物体。第二方面,本发明实施例提供了一种机器人,所述机器人包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至8中任一项所述的机器人控制方法的步骤。

第三方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的机器人控制方法的步骤。

在本发明实施例中,机器人首先通过摄像头获取用户发出的手势信息,然后根据所述手势信息控制机器人的执行目标操作。即在机器人工作异常击打用户或者机器人碰到的其他物体时,用户发出预设的肢体信息能够控制机器人停止运行,防止机器人工作异常时带来的破坏操作,提升机器人的安全性能。

附图说明

图1是本发明第一实施例提供的机器人控制方法的流程图;

图2是本发明第二实施例提供的机器人控制方法的流程图;

图3是本发明第三实施例提供的机器人控制方法的流程图;

图4是本发明第四实施例提供的机器人控制方法的流程图;

图5是本发明第五实施例提供的机器人控制方法的流程图。

具体实施方式

为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。

以下结合具体实施例对本发明的具体实现进行详细描述:

在本发明实施例中,机器人为能够根据机器人中存储的程序进行智能化操作控制的机器人。

实施例一:

图1示出了本发明第一实施例提供的机器人控制方法的流程图,为了便于说明,仅列出与本发明实施例相关的部分,详述如下:

本发明实施例提供的机器人控制方法,包括以下步骤:

步骤s11,获取用户发出的肢体信息。

具体的,可以通过外部摄像头监视人类排除区域(禁止人类进入的区域),该(外部)摄像头与机器人控制后台连接,机器人控制后台通过无线网络与机器人连接,当摄像头监视到人类进入人类排除区域时,检测人类发出的肢体信息,该肢体信息包括但不限于是身体倾倒或手势等信息;还可以是通过设置于机器人预设位置的摄像头获取用户发出的肢体信息,其中所述预设位置可以是机器人的机身位置,也可以是机器人的眼部位置,还可以根据用户设计设置在机器人的任何部位。

其中,本发明实施例中的摄像头为3d摄像头,摄像头的个数大于等于1个。用户发出的肢体信息即用户做出的肢体动作。在本发明实施例中,以肢体信息为手势信息进行举例说明,用户可以做出多种不同的手势,具体的手势可以是系统预设,也可以是用户自定义,包括但不限于双手交叉、一只手掌心朝下另一只手一根手指顶在掌心上等等。

步骤s12,根据所述肢体信息控制机器人执行目标操作。

具体的,当摄像头获取到用户发出的肢体信息后,将获取的肢体信息发送给机器人控制后台进行图像识别,机器人控制后台根据图像识别结果判断否有与该肢体信息匹配的目标操作,例如,肢体信息对应的动作为双手交叉,而双手交叉的手势对应的目标操作为停止机器人的所有操作,不同的手势对应不同的目标操作,上述为其中的一种举例。

在本发明实施例中,机器人首先通过设置在机器人身上的摄像头获取用户发出的肢体信息,然后根据所述肢体信息控制机器人的执行目标操作。其中,用户发出预设的肢体动作能够控制机器人停止运行,防止机器人工作异常时带来的破坏操作,提升机器人的安全性能。

实施例二:

图2示出了本发明第二实施例提供的机器人控制方法,为了便于说明,仅列出与本发明实施例相关的部分,详述如下:

本发明第二实施例提供的机器人控制方法,基于上述第一实施例,包括以下步骤:

步骤s21,检测所述机器人是否处于运动状态;如果是,则执行步骤s22,否则执行步骤s24。

具体的,在做机器人进行控制之前,需要先判断机器人是否处于运动状态,即判断机器人是否在做出(用户控制或者非用户控制的操作)动作。

步骤s22,获取用户发出的肢体信息;

步骤s23,根据所述肢体信息控制机器人的执行目标操作。

步骤s24,监视人类排除区域。具体的,当机器人没有做出动作,而是处于静止状态,则继续监视人类排除区域,防止用户进入该人类排除区域时造成的伤害。

作为本发明一优选实施例,本发明实施例中的运动状态为机器人击打目标物体的状态。具体的,由于本发明实施例主要解决的技术问题是防止机器人失控后击打用户或者其他物体(例如小孩等等),在机器人检测到用户发出的停止击打的手势后,机器人根据该手势停止运行,即终止击打操作。

实施例三:

图3示出了本发明第三实施例提供的机器人控制方法,为了便于说明,仅列出与本发明实施例相关的部分,详述如下:

本发明第三实施例提供的机器人控制方法,基于上述第一实施例,包括以下步骤:

步骤s31,检测是否有用户进入人类排除区域;如果是,则执行步骤s32,否则执行步骤s34。

具体的,在获取用户发出的肢体信息之前,需要先判断是否有用户进入所述人类排除区域,即判断机器人是否对用户的安全或其他物体的安全造成威胁。

步骤s32,获取用户发出的肢体信息;

步骤s33,根据所述肢体信息控制机器人的执行目标操作。

步骤s34,监视人类排除区域。

在本发明实施例中,主要是检测是否有用户进入人类排除区域,然后根据检测结果作出不同的控制操作,如果有人类进入了机器人工作的区域,即人类排除区域,则存在危险,此时,检测用户发出的肢体信息,如果没有用户进入人类活动排除区域,则继续监视人类排除区域,在检测到用户进入该区域时执行后续的操作。

实施例四:

图4示出了本发明第四实施例提供的机器人控制方法,为了便于说明,仅列出与本发明实施例相关的部分,详述如下:

本发明第四实施例提供的机器人控制方法,基于上述第一实施例,包括以下步骤:

步骤s41,检测机器人是否离开人类排除区域;如果是,则执行步骤s42,否则执行步骤s44。

具体的,在获取用户发出的肢体信息之前,需要先判断机器人是否离开了人类排除区域,即判断机器人是否进入了人类所在的区域,对人类的安全或其他物体的安全造成威胁。

步骤s42,获取用户发出的肢体信息;

步骤s43,根据所述肢体信息控制机器人的执行目标操作。

步骤s44,监视人类排除区域。

在本发明实施例中,主要检测机器人是否离开人类排除区域,即检测机器人是否跑到了有人类活动的区域,如果是则会对用户安全造成威胁,此时检测用户发出的肢体信息,如果机器人没有进入人类活动区域(即没有离开人类排除区域)时,则继续监视人类排除区域。

实施例五:

图5示出了本发明第五实施例提供的机器人控制方法,为了便于说明,仅列出与本发明实施例相关的部分,详述如下:

本发明第三实施例提供的机器人控制方法,基于上述第一实施例,包括以下步骤:

步骤s51,通过人工神经网络建立用户肢体信息与机器人执行操作之间的对应关系。

具体的,在控制机器人做出与用户发出的肢体信息对应的目标操作之前,需要先建立二者之间的对应关系。

其中,人工神经网络是由大量的神经元n相互连接而成。每个神经元n代表一种特定的输出函数,称为激活函数(activationfunction)。每两个节点之间的连接代表加权值,称为权重(weight)。不同的权重和激活函数,则会导致神经网络不同的输出。

在本实施例中,通过预先对神经网络进行训练,从而可以使得机器人能够根据用户发出的不同的肢体信息作出不同的反应。通过越多的训练图像能够训练出越精确的识别能力。利用了经过训练的人工神经网络能够高效和准确进行肢体信息识别,从而更准确的作出与肢体信息对应的操作。

步骤s52,获取用户发出的肢体信息。

步骤s53,根据所述肢体信息控制机器人的执行目标操作。具体的,根据用户发出的肢体信息与机器人执行操作之间的对应关系,确定与用户发出的肢体信息对应的目标操作,控制所述机器人执行所述目标操作。其中,在本发明实施例中,所述目标操作为停止击打所述目标物体。即用户在紧急情况下做出了手势后,机器人能够根据该手势自行控制停止击打目标物体。

在本发明实施例中,机器人首先通过摄像头获取用户发出的手势信息,然后根据所述手势信息控制机器人的执行目标操作。即在机器人工作异常击打用户或者机器人碰到的其他物体时,用户发出预设的肢体信息能够控制机器人停止运行,防止机器人工作异常时带来的破坏操作,提升机器人的安全性能。

本发明实施例还提供了一种机器人,所述机器人包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述所述的机器人控制方法的步骤。

本发明实施例另提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的机器人控制方法的步骤。

本领域技术人员可以理解为上述实施例包括的各个单元只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。

本领域普通技术人员还可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以在存储于一计算机可读取存储介质中,所述的存储介质,包括rom/ram、磁盘、光盘等。

以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1