具有面部表情及多感知功能的仿人头像机器人的制作方法

文档序号:6469740阅读:300来源:国知局

专利名称::具有面部表情及多感知功能的仿人头像机器人的制作方法
技术领域
:本发明涉及具有面部表情及多感知功能的仿人头像机器人,属于机器人应用领域。
背景技术
:仿人机器人的研究开始于上世纪60年代,经过50几年的发展目前己成为机器人
技术领域
的主要研究方向之一。它集机械、电子、计算机、材料、传感器、控制技术等多门科学于一体,代表着一个国家的高科技发展水平。"仿人"的意义在于机器人具有类人的感知、决策、行为和交互能力。仿人机器人不仅具有类人的外形外观,重要的是具有类人的感觉系统、类人的智能思维方式和控制系统及决策能力,最终表现"行为类人"。在人机交互中,使机器人具有"亲和力",构建更融洽、更人性化的交流桥梁。情感在人类的认知、行为过程中起着至关重要的作用,情感影响人类的创造、判断、决策、合理思维、交流和其他一些认知过程。在人机交互中,被设计成具有情感的机器与人建立友好的交互界面,使其具有参与社会事务和开展人际交往的能力,更易被人类所接受;同时机器人具有"生命"使其主体的思维(或行为)具有明确的目的性和方向性,从而显著地提高思维(或行为)的效率和速度;在动态、不可预知和具有潜在"危险"的环境中,赋予机器人思维上的创造性和行为上的自觉性,提高机器人适应环境的能力。目前,一些仿人头像机器人的研制不具有多种感知功能,对基本面部表情的实现也只限于一种表情。经文献检索发现中国专利公告号为CN201088839,专利号为200720189947.7,名称为机器人笑表情肌肉动作机构。该机构包括头颅架、橡胶表皮,橡胶表皮贴在头颅架上。其特点为机构简单能够实现各种笑的表情。该机构不足之处在于不能实现其他面部表情。中国专利公告号为CN101020315A,专利号为200710038295.1,名称为仿人机器人头部系统。该机构包括一个六自由度的串联型机构,以DSPF2812为主控节点的可扩展处理器网络。六自由度的串联机构本体由六个舵机驱动,用来模拟双眼、颈部和下巴的运动。可扩展处理器网络由视频处理器、语音处理器、接口模块和DSPF2812主控电路组成。能实现人机交互过程中的运动控制和计算要求。但是该仿人机器人头部系统不具有弹性面部皮肤,因此不能实现对人类面部表情的再现,不具有拟人的多感知功能如嗅觉、触觉、视觉等。
发明内容本发明的目的是为了解决现有机器人表情单一、不具有多感知功能的问题,提供了一种具有面部表情及多感知功能的仿人头像机器人。本发明包括机器人本体、运动控制系统、主控机和多感知传感系统,机器人本体包括运动驱动机构、表情驱动机构、面部壳体和面部弹性皮肤,运动控制系统包括舵机控制器和多个舵机,多感知传感系统感知到的信息输出给主控机进行处理,主控机输出相应的命令信息给舵机控制器,舵机控制器输出PWM脉冲驱动相应的舵机转动到指定的位置,所述舵机带动运动驱动机构动作,牵动唇部皮肤一起运动以实现机器人仿人口形的功能,所述舵机带动表情驱动机构动作,以牵动面部弹性皮肤来实现机器人的多种面部表情。本发明的优点本发明的机器人头部可产生多种面部表情,仿人口形的功能强大;具有多感知传感系统,本发明采用舵机作为驱动元件,舵机的体积小、扭矩大,使得机器人的性价比更高。图1本发明结构示意图,图2是多感知传感系统中各传感器分布图,图3是仿人口形各运动控制点分布图,图4是运动驱动机构结构示意图,图5是眼部器官的位置图,图6是仿人口形各运动控制点的滑块分布图,图7是表情驱动各表情控制点分布图,图8是面部表情驱动机构原理图,图9是口形驱动机构原理图,图IO是本发明实现的表情——正常的图片,图11是本发明实现的表情——微笑的图片,图12是本发明实现的表情——大笑的图片,图13是本发明实现的表情——生气的图片,图14是本发明实现的表情——悲伤的图片,图15是本发明实现的表情——厌恶的图片,图16是本发明实现的表情^i京讶的图片,图17是本发明实现的表情——害怕的图片。具体实施例方式具体实施方式一、下面结合图l、图4说明本实施方式,本实施方式包括机器人本体l、运动控制系统2、主控机3和多感知传感系统4,机器人本体1包括运动驱动机构5、表情驱动机构6、面部壳体7和面部弹性皮肤8,运动控制系统2包括舵机控制器9和多个舵机10,多感知传感系统4感知到的信息输出给主控机3进行处理,主控机3输出相应的命令信息给舵机控制器9,舵机控制器9输出PWM脉冲驱动相应的舵机10转动到指定的位置,所述舵机10带动运动驱动机构5动作,牵动唇部皮肤一起运动以实现机器人仿人口形的功能,所述舵机IO带动表情驱动机构6动作,以牵动面部弹性皮肤8来实现机器人的多种面部表情。面部壳体7的材料由快速成型粉末与化学试剂调制经模具成型,该材料具有较强的抗冲击强度和较大的抗耐磨性和机械特性,能够满足壳体对面部弹性皮肤8的支撑作用。另外面部壳体7中的下颚22与面颊部分采用分离式结构,满足机器人头部器官的运动要求。舵机IO是一种位置伺服的驱动器,适用于那些需要角度不断变化并可以保持的控制系统。其工作原理是控制信号由接收机的通道进入信号调制芯片,获得直流偏置电压。它内部有一个基准电路,产生周期为20ms,宽度为1.5ms的基准信号,将获得的直流偏置电压与电位器的电压比较,获得电压差输出。最后电压差的正负输出到电机驱动芯片决定电机的正反转。当电机转速一定时,通过级联减速齿轮带动电位器旋转,使得电压差为0,电机停止转动。本实施方式选用的舵机控制器9可驱动32路舵机10,舵机控制器9的控制精度为0.09。/us。舵机控制器9采用RS232串口与主控机3进行通信,主控机3通过串口发送一定格式的指令到舵机控制器9,就可以从舵机控制器9输出一定占空比的PWM脉冲信号,驱动相应的舵机10转动到指定位置。本实施方式中机器人头部具有10个自由度,其中运动驱动机构5具有4个自由度,表情驱动机构6具有6个自由度。具体实施方式二、下面结合图2说明本实施方式,本实施方式与实施方6式一的不同之处在于,多感知传感系统4包括2个温度传感器33、5个触觉传感器34、2个视觉传感器35、嗅觉传感器36和听觉传感器37,2个温度传感器33分别设置在前额的左右两侧,1个触觉传感器34设置在前额中部位置,左右两侧面颊处各设置2个触觉传感器34,2个视觉传感器35分别设置在左右眼眶内,嗅觉传感器36设置在鼻子位置,听觉传感器37设置在下巴中部位置,其它与实施方式一相同。图2所示为多感知传感系统中各传感器的分布图。在本实施方式中温度传感器33采用CMOS传感集成电路S-8100B;触觉传感器34采用FSR传感器,FSR传感器是一种通过改变电阻值来线性改变压力值的传感器,FSR传感器不仅能检测出非常微弱的力,同时利用FSR传感器的两层结构来检测出不同力的触摸方式,FSR传感器的结构外观像人的皮肤,因此采用FSR传感器作为本实施例的触觉传感器34效果更好;视觉传感器35采用CCD摄像头,双眼内分别安装一个CCD摄像头,双眼采用单独无耦合控制具有更远的视野搜索范围,保证了机器人的视觉成像;嗅觉传感器36采用FIS系列气体传感器;听觉传感器37采用台湾凌阳公司生产的SPCE061A单片机为核心处理芯片。通过机器人的多感知传感系统4实现了机器人的嗅觉、视觉、触觉、听觉等多感知功能。具体实施方式三、下面结合图4、图5说明本实施方式,本实施方式与实施方式一的不同之处在于,运动驱动机构5包括眼睑驱动机构、眼球驱动机构和下颚驱动机构,眼睑驱动机构用于驱动眼睑17的上下运动,眼球驱动机构用于驱动眼球24左右转动和上下转动,下颚驱动机构用于驱动下颚的上下运动,通过与口形驱动机构互相配合实现仿人口形的功能,其它与实施方式一相同。运动驱动机构5具有4个自由度,其中眼球24具有2个自由度、眼睑17具有l个自由度、下颚22具有1个自由度。如图4所示,头部器官包括眼球24、眼睑17、上鄂21和下颚22。上颚21固定不动。眼球24通过固定在眼球上的中转轴19实现左右运动。在绳轮14的驱动下,绕中轴23转动实现眼球的上下运动。下颚22通过下轴20实7现机器人唇部的上下运动。双眼24采用单独无耦合控制具有更远的视野搜索范围,保证了机器人的视觉成像。眼睑17通过侧转轴16实现眼睑的上下运动。在设计过程中,视觉传感器2个CCD摄像头作为视觉传感器35分别安装在双眼24内,如图5所示,实现了真正的"仿人"。具体实施方式四、下面结合图3、图6、图9来说明本实施方式,本实施方式与实施方式三的不同之处在于,实现仿人口形的方法为步骤一、基于汉语发音的特点和音位组成建立基本静态视位集,根据基本静态视位集建立机器人基于汉语的基本口形;步骤二、在机器人的唇部设置运动控制点(bpb2,b3,b4,b5,b6,b7),每个运动控制点处设置一个滑块28,所述滑块28与唇部皮肤连接在一起,每个滑块28与一个导向槽31滑动连接,所述导向槽31设置在面部壳体7上,所述导向槽31的设置方向确定每个运动控制点相应的受力方向;步骤三、将听觉传感器37获得的语音信息按步骤一所述的基本视位集分割成基本的视位和对应的基本口形,在口形模型中找到各运动控制点对应的运动轨迹,通过驱动相应的滑块28在与其相连的导向槽31内运动,牵动唇部皮肤一起运动,实现所述的实现与语音协调的仿人口形,其它与实施方式三相同。.本实施方式通过"视位"的概念建立机器人基于汉语的基本口形。不同语言均具有特定的音位集和特有的发音特点,所以不同语言的视位不能完全公用。本实施方式将"视位"应用于机器人的唇部运动中,根据机器人的唇部机构特点和机器人自身系统的具体要求,基于汉语发音的特点和音位组成建立了IO个基本静态视位集,如表1所示。为在机器人上实现基本视位,在机器人唇部定义了运动控制点(bib2b3b4b5b6b7)。机器人的唇部皮肤采用与面部弹性皮肤8相同的材质,能够满足基本口形的设计要求。8表110个基本静态视位<table>tableseeoriginaldocumentpage9</column></row><table>图3所示为机器人唇部设置的运动控制点的分布图,本实施方式共设置了7个点;!^和b2分别设置在上唇部的左右中部位置,b,和b2受力方向与水平垂直;b3和b4分别设置在左右嘴角处,b3和b4的受力方向为与水平方向平行,b5和b6分别设置在下唇部的左右中部位置,^和b2受力方向与水平垂直;b7设置在唇部正下方lcm2cm处,17受力方向与水平垂直。当机器人通过听觉传感器37获得语音信号,主控机3的处理程序采用Mel频率倒谱系数(MFCC)提取语音的特征值,在语音识别模块中利用基于模板匹配的动态时间规整(DTW)方法识别出在语音库中相应的语音,把所述语音信息按定义的基本视位集分割成基本的视位和对应的口形,在口形模型中找到各运动控制点对应的运动轨迹,通过驱动相应的滑块28在与其相连的导向槽31内运动,实现与语音协调的仿人口形。在本实施例中由于口形与语音的播放存在时间延迟,所以在机器人口形控制与语音播放中应设计时间间隔。各运动控制点的分布及相应的滑块28的分布如图6所示。图9为口形驱动机构的原理图。为实现人类脸部肌肉双向运动,采用滑块28和导向槽31来确定各运动控制点的运动方向和往复运动,本图中给出一个运动控制点为b2点,其它运动控制点的工作原理与此点相同;绳索30采用高分子材料线,直线抗拉力约为100N,直径0.4mm,表面光滑,耐腐蚀,零延展性,可以保证准确的位置控制;绳索30的一端固定在一个表情控制点的滑块28上,另一端缠绕在与舵机10相连的绳轮14上,中间由若干导向定滑轮25组成的导向系统来确定绳索30的拉伸方向。考虑到绳索30在运动过程中的"跳动",绳轮14采用了倾斜挡边的结构。本实施方式中绳轮14的直径为16mm,当舵机10旋转范围为-60。60。时,绳索30直线运动范围为16.7mm,可以满足滑块28的运动范围要求。具体实施方式五、下面结合图7、图8、图10图17说明本实施方式,本实施方式与实施方式一的不同之处在于,舵机10带动表情驱动机构6动作,牵动面部弹性皮肤8来实现机器人的多种面部表情的方法为在机器人的面部设置表情控制点(al,a2,a3,a4,a5,a6,cl,c2,c3,dl,d2,d3,d4),每个表情控制点处设置一个滑块28,所述滑块28与面部弹性皮肤8连接在一起,每个滑块28与一个导向槽31滑动连接,所述导向槽31设置在面部壳体7上,所述导向槽31的设置方向确定每个运动控制点相应的受力方向,舵机10驱动滑块28在与其相连的导向槽31内运动,通过控制不同表情控制点的组合运动来实现机器人的多种面部表情,其它与实施方式一相同。根据美国心理学家Ekman的面部动作编码系统(FacialActionCodingSystem,FACS)的44个运动单元(AU)中,有24个AU与人的表情有关。本实施方式选取了10个AU(AU1,AU2,AU4,AU5,AU6,AU7,AU12,AU15,AU25,AU26)。在机器人的面部弹性皮肤8上设计与各AU点对应的表情控制点(al,a2,a3,a4,a5,a6,cl,c2,c3,dl,d2,d3,d4),如图7所示,驱动舵机10通过绳轮14与导向轮25控制面部弹性皮肤8上的表情控制点运动,通过表情控制点的组合和位移变化从而实现不同的面部表情,如图8所示。在图7中圆点代表表情控制点,箭头代表表情控制点的运动方向。在本实施方式中选取14个表情控制点,本实施方式机器人能实现八种面部表情,如图10图17所示,分别为正常、微笑、大笑、生气、悲伤、厌恶、惊讶和害怕。表情控制点的组合和表情控制点的运动位移如表2和表3所示,其中表3中的负号表示运动方向与图7中箭头相反。^_表2八种面部表情的表情控制点的组合_...I表情控制点<table>tableseeoriginaldocumentpage11</column></row><table>权利要求1、具有面部表情及多感知功能的仿人头像机器人,其特征在于它包括机器人本体(1)、运动控制系统(2)、主控机(3)和多感知传感系统(4),机器人本体(1)包括运动驱动机构(5)、表情驱动机构(6)、面部壳体(7)和面部弹性皮肤(8),运动控制系统(2)包括舵机控制器(9)和多个舵机(10),多感知传感系统(4)感知到的信息输出给主控机(3)进行处理,主控机(3)输出相应的命令信息给舵机控制器(9),舵机控制器(9)输出PWM脉冲驱动相应的舵机(10)转动到指定的位置,所述舵机(10)带动运动驱动机构(5)动作,牵动唇部皮肤一起运动以实现机器人仿人口形的功能,所述舵机(10)带动表情驱动机构(6)动作,以牵动面部弹性皮肤(8)来实现机器人的多种面部表情。2、根据权利要求1所述的具有面部表情及多感知功能的仿人头像机器人,其特征在于多感知传感系统(4)包括2个温度传感器(33)、5个触觉传感器(34)、2个视觉传感器(35)、嗅觉传感器(36)和听觉传感器(37),2个温度传感器(33)分别设置在前额的左右两侧,1个触觉传感器(34)设置在前额中部位置,左右两侧面颊处各设置2个触觉传感器(34),2个视觉传感器(35)分别设置在左右眼眶内,嗅觉传感器(36)设置在鼻子位置,听觉传感器(37)设置在下巴中部位置。3、根据权利要求1所述的具有面部表情及多感知功能的仿人头像机器人,其特征在于运动驱动机构(5)包括眼睑驱动机构、眼球驱动机构和下颚驱动机构,眼睑驱动机构用于驱动眼睑(17)的上下运动,眼球驱动机构用于驱动眼球(24)左右转动和上下转动,下颚驱动机构用于驱动下颚的上下运动,并通过与口形驱动机构互相配合实现仿人口形的功能。4、根据权利要求3所述的具有面部表情及多感知功能的仿人头像机器人,其特征在于实现仿人口形的方法为步骤一、基于汉语发音的特点和音位组成建立基本静态视位集,根据基本静态视位集建立机器人基于汉语的基本口形;步骤二、在机器人的唇部设置运动控制点(bpb2,b3,b4,b5,b6,b7),每个运动控制点处设置一个滑块(28),所述滑块(28)与唇部皮肤连接在一起,每个滑块(28)与一个导向槽(31)滑动连接,所述导向槽(31)设置在面部壳体(7)上,所述导向槽(31)的设置方向确定每个运动控制点相应的受力方向;步骤三、将听觉传感器(37)获得的语音信息按步骤一所述的基本视位集分割成基本的视位和对应的基本口形,在口形模型中找到各运动控制点对应的运动轨迹,通过驱动相应的滑块(28)在与其相连的导向槽(31)内运动,牵动唇部皮肤一起运动,实现与语音协调的仿人口形。5、根据权利要求1所述的具有面部表情及多感知功能的仿人头像机器人,其特征在于舵机(10)带动表情驱动机构(6)动作,牵动面部弹性皮肤(8)来实现机器人的多种面部表情的方法为-在机器人的面部设置表情控制点(al,a2,a3,a4,a5,a6,cl,c2,c3,dl,d2,d3,d4),每个表情控制点处设置一个滑块(28),所述滑块(28)与面部弹性皮肤(8)连接在一起,每个滑块(28)与一个导向槽(31)滑动连接,所述导向槽(31)设置在面部壳体(7)上,所述导向槽(31)的设置方向确定每个运动控制点相应的受力方向,舵机(10)驱动滑块(28)与其相连的导向槽(31)内运动,通过控制不同表情控制点的组合运动来实现机器人的多种面部表情。全文摘要具有面部表情及多感知功能的仿人头像机器人,属于机器人应用领域。本发明的目的是为解决现有机器人表情单一、不具有多感知功能的问题。本发明的机器人本体包括运动驱动机构、表情驱动机构、面部壳体和面部弹性皮肤,运动控制系统包括舵机控制器和多个舵机,多感知传感系统感知到的信息输出给主控机进行处理,主控机输出相应的命令信息给舵机控制器,舵机控制器输出PWM脉冲驱动相应的舵机转动到指定的位置,舵机带动运动驱动机构动作,牵动唇部皮肤运动以实现机器人仿人口形的功能,所述舵机带动表情驱动机构动作,以牵动面部弹性皮肤来实现机器人的多种面部表情。文档编号G06N3/00GK101458778SQ20081020980公开日2009年6月17日申请日期2008年12月26日优先权日2008年12月26日发明者吴伟国,孟庆梅,麟鹿申请人:哈尔滨工业大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1