机器人和机器人控制方法与流程

文档序号:12736957阅读:813来源:国知局
机器人和机器人控制方法与流程

本申请属于移动机器人领域,尤其涉及一种机器人和机器人控制方法。



背景技术:

近年来,机器人技术的发展和人工智能研究不断深入,智能机器人在人类生活中扮演越来越重要的角色。随着人们的需求不断增多,更加人性化的机器人将逐渐会成为机器人界的宠儿。

人们希望机器人能够更加人性化,尤其是希望机器人能够在与人类的交互中更加贴近“人”的特征。但是,目前大多机器人的交互功能比较单一,多为机器人基于用户语音或触摸输入的指令,执行相应的动作。



技术实现要素:

有鉴于此,本申请实施例提供一种机器人,用于扩展机器人的人机交互性能。

本申请实施例提供了一种机器人,包括:在机器人面部上安装的眼部组件、位置检测器以及控制器;

所述位置检测器,用于检测被交互对象的位置信息;

所述控制器,用于根据所述位置信息确定所述眼部组件的调整参数,并根据所述调整参数控制所述眼部组件做出相应调整。

本申请实施例提供了一种机器人控制方法,包括:

检测被交互对象的位置信息;

根据所述位置信息确定机器人的眼部组件的调整参数;

根据所述调整参数控制所述眼部组件做出相应调整。

本申请提供的机器人以及机器人控制方法,通过位置检测器检测被交互对象的位置信息,控制器基于该位置信息确定机器人眼部组件的调整参数,从而调整机器人的眼部组件,使得机器人的面部的眼部组件可以根据被交互对象的位置变化而上下左右变动,扩展了机器人的人机交互性能。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是本申请实施例提供的机器人实施例一的结构示意图;

图2是本申请实施例提供的机器人控制方法实施例一的流程图;

图3是本申请实施例提供的机器人控制方法实施例二的流程图。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

图1是本申请实施例提供的机器人实施例一的结构示意图,如图1所示,该机器人包括:在机器人面部上安装的眼部组件11、位置检测器12以及控制器13:

其中,位置检测器12用于检测被交互对象的位置信息。

控制器13,用于根据位置信息确定眼部组件的调整参数,并根据该调整参数控制眼部组件11做出相应调整。

可选地,控制器13可以使用各种应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、微控制器、微处理器或其他电子元件实现。

可选地,在本申请实施例中,位置信息可以包括:机器人与被交互对象之间的距离和/或方位角度。

在本申请实施例中,上述位置信息通过位置检测器12获取。其中,位置检测器12可以是麦克风阵列、图像识别器、距离传感器、红外传感器、激光传感器以及超声波传感器中的一个或者多个。

可选地,在机器人身上设置有麦克风阵列(MIC阵列),MIC阵列是一组位于空间不同位置的全向麦克风按一定的形状规则布置形成的阵列,是对空间传播声音信号进行空间采样的一种装置,采集到的信号包含了其空间位置信息。本申请实施例中,根据MIC阵列声源定位获取被交互对象的位置信息,从而控制器13在接收到该位置信息后,对眼部组件11的转动参数进行设置。例如,MIC阵列检测到被交互对象位于机器人本体的左侧,则可设置机器人的眼部组件当前的转动角度为向左转动,且转动夹角为5度等。

图像识别器,可以是集成具有拍摄、图像识别、计算等处理能力的设备。通过用摄像机或摄像头采集含有人脸的图像或视频流,并在图像中检测和跟踪人脸,能够在摄像机或者摄像头的可视范围内发现被交互对象,并获得被交互对象的位置信息。其中,基于图像识别器相对被交互对象的拍摄角度对图像成像效果的影响,通过对拍得图像进行计算可以确定被交互对象相对机器人的位置信息,该计算过程可以参照相关现有技术实现,本实施例不赘述。

距离传感器、红外传感器、激光传感器以及超声波传感器均是通过距离测量、相对方位角度来实现定位的位置检测器。一般的,可以通过多个传感器组合的方式来实现上述距离、方位角度的检测。其工作过程为:多个位置检测器同时发出位置检测信号,到达被测物后位置检测信号反射,位置检测器在接收到位置检测信号后记录位置检测信号的往返时间,根据位置检测信号的传播速度计算得到被测物的位置信息,与此同时,根据多个距离传感器的距离检测结果综合分析获得被检测物的方位。

眼部组件11可以是显示屏也可以是机械构件。

当眼部组件11为显示屏时,显示屏上可根据眼部组件的调整参数显示不同类型的眼部图像。具体的,当眼部组件11为显示屏时,控制器13可以通过如下过程控制显示屏中显示的眼部图像:当控制器13接收到位置信息后,查询预设的映射表获取该位置信息对应的眼部图像的标识;根据获取的眼部图像的标识确定需要显示的眼部图像,从而控制在显示屏上显示该眼部图像。

具体地,机器人中可以预先存储有多幅眼部图像,每一幅眼部图像具有一个唯一的标识(ID)。同时,在机器人中还存储有眼部图像标识与位置信息的映射表,该位置信息是交互对象相对机器人的位置信息。该映射表中包含的每组位置信息与眼部图像标识的对应关系是通过预先测定而配置好的。例如,位置信息为左前方1米,偏角为45度时,在映射表中查询到的眼部图像的ID为图像1,位置信息为正前方1米时,在映射表中查询到的眼部图像的ID为图像1。

其中,上述位置、角度为一个准确的数字的方式仅为举例,实际应用中,还可以实现为一个相对较小的距离范围、角度范围。

当眼部组件11为机械构件时,控制器13可以基于位置信息控制眼部组件的转动方向和/或转动角度。

具体来说机械构件可以包括眼球转动器、眼睑开合结构。从而,控制器13可以根据被交互对象的位置信息,控制调整眼球转动器的转动角度、方向,还可以控制眼睑结构的开合等。

可选地,控制器基于位置信息对眼部组件11的控制,可以是基于预先设置的不同位置信息与不同调整参数之间的对应关系实现的。例如,设置位置信息与调整参数之间成一定线性关系,或,将位置信息划分为不同的数值区间,并为每一数值区间设置相应的调整参数。此处的调整参数指的是眼部组件的转动角度、方向。

本实施例中,通过在机器人身上设置的位置检测器来检测被交互对象的位置信息,从而控制器基于该位置信息确定机器人的眼部组件的调整参数,以控制调整机器人的眼部组件,使得机器人的面部的眼部组件可以根据被交互对象的位置变化而上下左右变动,更加人性化,同时扩展了机器人的人机交互模式。

图2是本申请实施例提供的机器人控制方法实施例一的流程图,如图2所示,该方法包括如下步骤:

步骤101、检测被交互对象的位置信息。

步骤102、根据位置信息确定机器人的眼部组件的调整参数。

步骤103、根据调整参数控制眼部组件做出相应调整。

本实施例中,上述位置信息的检测以及对机器人的眼部组件的调整过程,可以参见图1所示实施例中的描述,在此不再赘述。

本实施例中,通过检测被交互对象的位置信息,以基于该位置信息确定机器人的眼部组件的调整参数,从而根据该调整参数控制机器人的眼部组件做出相应调整,使得机器人的面部的眼部组件可以根据被交互对象的位置变化而上下左右变动,扩展了机器人的人机交互性能,使得人机交互更佳人性化。

另外,在本申请实施例中,当位置信息包括机器人与被交互对象之间的距离时,例如,人眼在看近物时上下眼睑的打开程度较大,在看远物时,通常为看的更清楚会眯眼,即上下眼睑的打开程度较小,为进一步提升机器人的人机交互性能,当被交互对象在不断移动时,实时获取机器人与被交互对象之间的距离,并根据不同的距离值对眼部组件进行调整,例如,当眼部组件为机械构件时,可以设置机器人与被交互对象之间的距离与眼部组件中上下眼睑的转动角度成一定的线性关系,或者为不同的距离区间设置相应的上下眼睑转动角度;当眼部组件为显示屏时,可以通过显示屏显示上下眼睑张开程度不同的眼睛图像。

当位置信息包括机器人与所述被交互对象之间的方位角度时,可采用如下实例进行说明。例如,人与人之间进行交流时,通常会有眼神的互动,为使得机器人与被交互人之间有“眼神”的互动,位置检测器获取机器人与被交互对象之间的方位角度。当被交互对象的方位变化时,机器人的眼部组件能够跟随被交互对象的变化而转动。特别的,当存在多个被交互对象时,通过获取多个被交互对象的方位角度,在与不同的被交互对象交流时,都能实现“眼神”的互动。比如,当被交互对象是两个分别位于机器人左前方和右前方的人时,位于左前方的人在说话时,控制器基于位置检测器对位于左前方人的方位角度的检测结果,控制眼部组件中眼球的转动方向对准左前方相应的方位角度;位于右前方的人在说话时,控制器基于位置检测器对位于右前方人的方位角度的检测结果,控制所述眼部组件中眼球的转动方向对准右前方相应的方位角度,从而实现了机器人与被交互对象灵活的“眼神”交流。

图3是本申请实施例提供的机器人控制方法实施例二的流程图,如图3所示,该机器人控制方法包括如下步骤:

步骤201、检测被交互对象的位置信息。

步骤202、检测被交互对象的特征属性。

步骤203、根据特征属性和位置信息确定机器人的眼部组件的调整参数。

步骤204、根据调整参数控制眼部组件做出相应调整。

可选地,特征属性包括被交互对象的情绪、年龄以及性别中的至少一种。

检测被交互对象的特征属性具体可以通过麦克风阵列、图像识别器以及控制器实现。具体的,当采用麦克风阵列获取被交互对象的特征属性时,麦克风阵对被交互对象的声音信号进行采样,控制器对采样得到的声音信号进行声学识别以及分类,从而根据被交互对象的声音特点获取被交互对象的性别、年龄、情绪等信息。图像识别器可以对人脸进行表情识别并从表情识别结果获取被交互对象的性别、年龄、情绪状态。应当理解,上述两种针对被交互对象特征属性识别的方法可以单独使用也可以组合使用,本申请实施例不做限制。

根据包含有上述被交互对象的位置信息、特征属性的调整参数进行机器人眼部组件的控制,例如是:检测到被交互对象的情绪兴奋时,可以不改变眼睛转动的方向以及角度,可以通过控制眼睑结构将上下眼睑的张角增大或在显示屏上显示带着兴奋情绪的眼睛图像。

本实施例中,通过分析被交互对象的属性信息,从而控制机器人的眼部组件根据被交互对象的不同属性呈现不同的状态,进一步提升了用户体验,扩展了机器人的人机交互性能。

以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。

通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。

最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1