具有情绪辨别能力的科技馆导游机器人面部装置及控制的制作方法

文档序号:17934016发布日期:2019-06-15 01:11阅读:285来源:国知局
具有情绪辨别能力的科技馆导游机器人面部装置及控制的制作方法

本发明属于智能服务机器人领域,尤其涉及一种具有情绪辨别能力的科技馆导游机器人面部装置及控制。



背景技术:

随着人工智能技术的飞速发展和创建智慧城市脚步的逐步加快,服务机器人逐渐走进人们的生活,在餐饮、家庭、科技馆等各行业都得到了广泛的应用,其可以辅助人类完成具有重复性、复杂性、娱乐性等特性的任务,这使得人们对于良好的人机交互体验有着更高的要求。

本发明应用于科技馆导游服务领域,科技馆作为“普及科学技术知识、传播科学思想和科学方法”的平台,是面对群众尤其是青少年开展科普展览教育活动的重要阵地,现有技术中科技馆导游机器人只能实现基本导游介绍功能,不具备识别参观者面部表情的功能,不能通过辨别参观者的情绪对导游介绍内容进行调整,智能程度较低,根据参观者的情绪信息不能对机器人自身的面部表情进行调整,从而取悦参观者提升参观者的游览体验。



技术实现要素:

本发明克服了上述现有技术上的不足,提供具有情绪辨别能力的科技馆导游机器人面部装置及控制,不但可以实现基本导游介绍功能,还能根据参观者的表情特征实现机器人面部相应的模仿表情,并发出与表情特征对应的语音,提升参观者的游览体验。

为了解决上述问题,本发明的第一目的在于提供一种具有情绪辨别能力的科技馆导游机器人面部装置,第二目的在于提供一种具有情绪辨别能力的科技馆导游机器人面部装置的控制方法。

本发明所采取的第一技术方案是:

具有情绪辨别能力的科技馆导游机器人面部装置,包括面部机构、眼睛机构、嘴部机构和控制系统;所述面部机构为隔板类结构,眼睛机构和嘴部机构设置于面部机构表面;

所述面部机构包括情绪辨别模块、面部框架、语音模块;

所述眼睛机构包括眼睛传动机构和眼睛构件;

所述嘴部机构包括嘴部传动机构和嘴唇构件;

所述控制系统主要包括第一芯片和第二芯片;所述第一芯片与情绪辨别模块控制连接;其中第一芯片与第二芯片通过uart0串口进行通信;

进一步地,所述面部框架包括面板、第一支撑板、第二支撑板;所述面板与第一支撑板和第二支撑板垂直布置,其中第一支撑板和第二支撑板平行布置并与面板固定连接,所述面板端面上加工有一对对称的圆形通孔,用于眼睛机构的定位,所述面板端面上仿人鼻子的位置加工有圆形通孔用于情绪辨别模块的定位,所述语音模块布置在第一支撑板上端,其中语音模块包括wavplayer模块、micosdcardadapter模块和喇叭,所述嘴部机构通过第一支撑板和第二支撑板固定,所述眼睛机构布置于面板的后端面上。

进一步地,第一芯片与情绪辨别模块按sccb总线通信协议连接,所述第一芯片的pb0、pb1引脚分别与情绪辨别模块scl、sda引脚连接,用来传递参数给情绪辨别模块的控制寄存器;所述第一芯片的pd0-pd7引脚与情绪辨别模块的d2-d9引脚连接,用于情绪辨别模块传递经过dsp处理单元处理转换以后的数据给第一芯片;所述第一芯片的pa0-wkup(pa0)引脚与情绪辨别模块的pwdn引脚连接,用于第一芯片控制情绪辨别模块进入低功耗模式;所述第一芯片的pa3、pa4引脚与情绪辨别模块的vsync、hsync引脚连接,用于帧信号同步、行中断信号控制;所述第一芯片的pa8、pa6与情绪辨别模块的xclk、pclk引脚连接,用于时钟信号的同步;所述第一芯片的pd8与情绪辨别模块的fisn引脚连接;所述第一芯片的pa11引脚与情绪辨别模块的reset引脚连接,用于复位情绪辨别模块。

进一步地,所述眼睛传动机构包括第一支架、第一双轴舵机、第一舵盘;所述第一双轴舵机的输出轴嵌套在第一舵盘的输入端内孔中,所述第一舵盘的输出端与眼睛构件固接,所述第一支架将第一双轴舵机与面板固定。

进一步地,所述眼睛构件为鼓状结构,前后鼓面上分别布置有开心、正常的表情图案。

进一步地,第一芯片的pa9uart0_tx、pa10uart0_rx引脚分别与第二芯片的pa10uart0_rx、pa9uart0_tx交叉连接,用于第一芯片与第二芯片之间的数据传输;所述第二芯片的pa0引脚与第一双轴舵机的out引脚连接。

进一步地,嘴部传动机构包括单轴舵机、第一摆杆、第二摆杆、下巴构件、第二双轴舵机、单轴舵机支架、双轴舵机支架、第一金属舵盘、第二金属舵盘;两个所述单轴舵机对称布置在第一支撑板和第二支撑板之间,通过单轴舵机支架与第一支撑板和第二支撑板固定连接;所述单轴舵机的输出轴嵌套在第一金属舵盘输入端内孔中传动连接,所述第一金属舵盘的输出端与第一摆杆固定连接,所述第一摆杆的另一端端面与嘴唇构件固定连接,所述第二双轴舵机与第二支撑板的下端面固定连接,所述第二双轴舵机的输出轴与第二金属舵盘固接,所述第二金属舵盘的输出端与第二摆杆固接,所述第二摆杆的输出端与下巴构件固接。

进一步地,第二芯片的pa1、pa2引脚分别与两个对称的单轴舵机的out引脚连接,第二芯片的pa3引脚与第二双轴舵机的out引脚连接,用于舵机的动作控制,所述第二芯片的pa4、pa11、pa6引脚分别与语音模块中wavplayer模块的cs、sck、sdi引脚连接,第二芯片的pb15、pb13、pb12、pb14引脚分别与语音模块中micosdcardadapter模块的cs、sck、mosi、miso引脚连接,所述wavplayer模块的out+和out-引脚分别于语音模块中喇叭的正负极连接用于输出micosdcardadapter模块中sd卡中的wav文件。

本发明所采取的第二技术方案是:

一种基于所述具有情绪辨别能力的科技馆导游机器人面部装置实现的控制方法,包括以下步骤:

步骤s1、情绪辨别模块采集视频信息;

步骤s2、通过dlib机械学习库提供的shape_predictor方法识别人脸;

步骤s3、人脸识别结果输入到经过训练的bp神经网络中进行情绪辨别;

步骤s4、输出经过bp神经网络分类后的表情信息;

步骤s5、把表情信息表示成ascii码,通过uart0串口通信传输给第二芯片;

步骤s6、第二芯片控制接收到ascii码对应的表情控制相应的舵机进行表情动作控制。

进一步地,所述步骤s2具体包括:

s201、使用特征提取器detector=dlib.get_frontal_face_detector();

s202、加载人脸关键点检测器predictor=dlib.shape_predictor("shape_predictor_

68_face_landmarks.dat");

s203、用opencv的videocapture方法打开情绪辨别模块中的ov7725摄像头;

s204、使用人脸检测器detector检测每一帧图像中的人脸;

进一步地,通过以下步骤对所述bp神经网络进行训练:

对bp算法进行优化改进,采用基于自适应学习率调节的改进bp算法;

利用fer-2013数据集对bp神经网络进行训练;

进一步地,基于自适应学习率的改进bp算法改进方案如下:

当网络训练过程中误差增大时err>pre_e,减少学习率(<1);

当网络训练过程中误差减少时err<pre_e,增大学习率(>1)。

进一步地,经过bp神经网络分类后的表情信息分为正常、开心和疲惫分别用不同的ascii码表示,通过uart0串口通信传输给第二芯片,第二芯片控制接收到ascii码后,控制舵机动作做出检测表情对应的所述机器人的面部表情,同时语音模块触发与表情信息对应的语音,实现人与机器人之间的互动。

进一步地,第二芯片读取串口信息若有信息接收serial.available()>0,读取串口信息comdata+=char(serial.read()),控制对应的舵机动作myservo.write(pos),模仿参观者的表情动作,同时第二芯片读取micosdcardadapter模块中sd卡中的wav文件,如果当前没有语音在播放if(!wave.isplaying),则可以播放串口数据ascii码对应的语音文件playcomplete("xxx.wav")实现所述机器人与人之间的互动。

本发明相对于现有技术具有以下有益效果:

1、本发明提供一种具有情绪辨别能力的科技馆导游机器人面部装置及控制,不但可以实现基本导游介绍功能,还能根据参观者的表情特征实现机器人面部相应的模仿表情,并发出与表情特征对应的语音,提升参观者的游览体验,解决了现有技术中导游机器人互动性差的问题;

2、本发明可以在导游介绍过程中,识别参观者人脸表情实时调整每小结讲解内容的长短,当检测出参观者开心则适当丰富下一小节的介绍内容,当检测出参观者疲惫则适当精简下一小节的介绍内容,当检测到参观者表情正常则不对介绍内容做出调整,在识别参观者人脸表情的同时,本发明可以模仿被识别参观者的表情与参观者进行互动,取悦参观者。

3、本发明情绪辨别采用改进的bp算法来完成对情绪辨别模型的设计,为了构建更加精准的神经网络模型,需要对改进的bp算法选择合适的参数,学习率过大会引起网络不稳定跳过最佳的局部收敛点,学习率过小会增加神经网络的训练时间,本文采用自适应学习率的改进bp算法,当网络训练在过程中误差增大时减小学习率,当误差减小时增加学习率,利用其可以实时的调节学习率大小的优点,有效地加快了神经网络的收敛时间,同时提高了情绪辨别模型的准确度,从而更好的实现与参观者的互动,提高了机器人与人之间的互动性。

附图说明

图1是本发明装置主视图;

图2是本发明装置后方结构图;

图3是本发明嘴部机构结构图;

图4是本发明控制系统第一芯片电路图;

图5是本发明情绪辨别模块中的ov7725摄像头电路图;

图6是本发明第二芯片电路图;

图7是本发明语音模块中wavplayer模块、micosdcardadapter模块和喇叭电路图;

图8是本发明第一双轴舵机、两个单轴舵机、第二双轴舵机电路图;

图9是本发明工作流程图;

图10是本发明改进的bp算法示意图。

图中:1面部机构、2眼睛机构、3嘴部机构、4控制系统、1-1情绪辨别模块、1-2面部框架、1-3语音模块、1-2a面板、1-2b第一支撑板、1-2c第二支撑板、1-3a喇叭、2-1眼睛传动机构、2-2眼睛构件、2-1a第一支架、2-1b第一舵盘、2-1c第一双轴舵机、3-1嘴部传动机构、3-2嘴唇构件、3-1a单轴舵机、3-1b第一摆杆、3-1c第二摆杆、3-1d下巴构件、3-1e第二双轴舵机、3-1f单轴舵机支架、3-1g双轴舵机支架、3-1h第一金属舵盘、3-1i第二金属舵盘。

具体实施方式

以下将结合附图对本发明进行详细说明。

具体实施方式一

具有情绪辨别能力的科技馆导游机器人面部装置,如图1、图2所示,包括1面部机构、2眼睛机构、3嘴部机构和4控制系统;所述1面部机构为隔板类结构,2眼睛机构和3嘴部机构设置于1面部机构表面;

所述2眼睛机构包括2-1眼睛传动机构和2-2眼睛构件;

所述3嘴部机构包括3-1嘴部传动机构和3-2嘴唇构件;

所述4控制系统主要包括第一芯片和第二芯片;所述第一芯片与1-1情绪辨别模块控制连接;第二芯片与1-3语音模块控制连接;其中第一芯片与第二芯片通过uart0串口进行通信。

具体实施方式二

如图1、图2、图3所示,在具体实施方式一的基础上,具有情绪辨别能力的科技馆导游机器人面部装置包括1面部机构、2眼睛机构、3嘴部机构和4控制系统,所述1面部装置包括1-1情绪辨别模块、1-2面部框架、1-3语音模块;所述1-2面部框架包括1-2a面板、1-2b第一支撑板、1-2c第二支撑板;所述1-2a面板与1-2b第一支撑板和1-2c第二支撑板垂直布置,其中1-2b第一支撑板和1-2c第二支撑板平行布置并与1-2a面板固定连接,所述1-2a面板端面上加工有一对对称的圆形通孔,用于2眼睛机构的定位,所述1-2a面板端面上仿人鼻子的位置加工有圆形通孔用于1-1情绪辨别模块的定位,所述1-3语音模块布置在1-2b第一支撑板上端,其中1-3语音模块包括wavplayer模块、micosdcardadapter模块和1-3a喇叭,所述3嘴部机构通过1-2b第一支撑板和1-2c第二支撑板固定,所述2眼睛机构布置于1-2a面板的后端面上。

本实施方式中1-3语音模块为现有技术,生产厂家为广州通信模块科技有限公司,型号为open-smart。

所述2-1眼睛传动机构包括2-1a第一支架、2-1b第一舵盘、2-1c第一双轴舵机;所述2-1c第一双轴舵机的输出轴嵌套在2-1b第一舵盘的输入端内孔中,所述2-1b第一舵盘的输出端与2-2眼睛构件固接,所述2-1a第一支架将2-1c第一双轴舵机与1-2a面板固定,所述2-2眼睛构件为鼓状结构,前后鼓面上分别布置有开心、正常的表情图案。

本实施方式中2-1c第一双轴舵机为现有技术,生产厂家为重庆育松电子经营部,型号为rds3115。

所述3-1嘴部传动机构包括3-1a单轴舵机、3-1b第一摆杆、3-1c第二摆杆、3-1d下巴构件、3-1e第二双轴舵机、3-1f单轴舵机支架、3-1g双轴舵机支架、3-1h第一金属舵盘、3-1i第二金属舵盘;两个所述3-1a单轴舵机对称布置在1-2b第一支撑板和1-2c第二支撑板之间,通过3-1f单轴舵机支架与1-2b第一支撑板和1-2c第二支撑板固定连接;所述3-1a单轴舵机的输出轴嵌套在3-1h第一金属舵盘输入端内孔中传动连接,所述3-1h第一金属舵盘的输出端与3-1b第一摆杆固定连接,所述3-1b第一摆杆的另一端端面与3-2嘴唇构件固定连接,所述3-1e第二双轴舵机与1-2c第二支撑板的下端面固定连接,所述3-1e第二双轴舵机的输出轴与3-1i第二金属舵盘固接,所述3-1i第二金属舵盘的输出端与3-1c第二摆杆固接,所述3-1c第二摆杆的输出端与3-1d下巴构件固接。

本实施方式中3-1a单轴舵机为现有技术,生产厂家为重庆育松电子经营部,型号为ld-20mg。

本实施方式中3-1e第二双轴舵机为现有技术,生产厂家为重庆育松电子经营部,型号为rds3115。

如图4-图8所示,所述4控制系统主要包括第一芯片和第二芯片,所述第一芯片与1-1情绪辨别模块控制连接,其中第一芯片与第二芯片通过uart0串口进行通信,第一芯片与1-1情绪辨别模块通过sccb总线通信协议连接,所述第一芯片的pb0、pb1引脚分别与1-1情绪辨别模块scl、sda引脚连接,用来传递参数给1-1情绪辨别模块的控制寄存器;所述第一芯片的pd0-pd7引脚与1-1情绪辨别模块的d2-d9引脚连接,用于1-1情绪辨别模块输出dsp处理单元处理转换以后的数据给第一芯片;所述第一芯片的pa0-wkup(pa0)引脚与1-1情绪辨别模块的pwdn引脚连接,用于第一芯片控制1-1情绪辨别模块进入低功耗模式;所述第一芯片的pa3、pa4引脚与1-1情绪辨别模块的vsync、hsync引脚连接,用于帧信号同步、行中断信号控制;所述第一芯片的pa8、pa6与1-1情绪辨别模块的xclk、pclk引脚连接,用于时钟信号的同步;所述第一芯片的pd8与1-1情绪辨别模块的fisn引脚连接;所述第一芯片的pa11引脚与1-1情绪辨别模块的reset引脚连接,用于复位1-1情绪辨别模块;第一芯片的pa9usart_tx、pa10usart_rx引脚分别与第二芯片的pa10usart_rx、pa9usart_tx交叉连接,用于第一芯片与第二芯片之间的数据传输;所述第二芯片的pa0引脚与2-1c第一双轴舵机的out引脚连接;第二芯片的pa1、pa2引脚分别与两个对称的3-1a单轴舵机的out引脚连接,第二芯片的pa3引脚与3-1e第二双轴舵机的out引脚连接,用于舵机的动作控制,所述第二芯片的pa4、pa11、pa6引脚分别与1-3语音模块中wavplayer模块的cs、sck、sdi引脚连接,第二芯片的pb15、pb13、pb12、pb14引脚分别与1-3语音模块中micosdcardadapter模块的cs、sck、mosi、miso引脚连接,所述wavplayer模块的out+和out-引脚分别于1-3语音模块中1-3a喇叭的正负极连接用于输出micosdcardadapter模块中sd卡中的wav文件。

第一芯片型号为stm32f427;第二芯片型号为stm32f407。

工作过程:

所述导游机器人面部装置可以实现语音导游的功能,通过读取1-3语音模块内部micosdcardadapter模块中的wav音频文件实现导游内容的语音介绍,同时1-1情绪辨别模块可以实时检测参观者聆听时的表情信息,对下一小节的语音讲解内容进行调整,其中micosdcardadapter模块中每小节内容都储存有三个版本的wav文件,分别是正常版本、精简版本和丰富版本,同时为了取悦参观者所述导游机器人面部装置可以模仿参观者的表情特征,实现语音以及面部表情方面机器人与人之间的互动,其中被检测参观者表情正常时,不改变导游介绍音频文件的类型,其中初始时wav音频文件为正常版本,所述2-2眼睛构件经过所述2-1c第一双轴舵机转动显示为开心的眼部表情图案,当被检测参观者表情开心时,改变导游介绍音频文件的类型为丰富版本,所述2-2眼睛构件经过所述2-1c第一双轴舵机转动显示为正常的眼部表情图案,当被检测参观者表情疲倦时,改变导游介绍音频文件的类型为精简版本,所述2-2眼睛构件经过所述2-1c第一双轴舵机转动显示为开心的眼部表情图案。

具体实施方式三

如图9、图10所示,一种基于所述具有情绪辨别能力的科技馆导游机器人面部装置实现的控制方法,包括以下步骤:

步骤s1、1-1情绪辨别模块采集视频信息;

步骤s2、通过dlib机械学习库提供的shape_predictor方法识别人脸;

步骤s3、人脸识别结果输入到经过训练的bp神经网络中进行情绪辨别;

步骤s4、输出经过bp神经网络分类后的表情信息;

步骤s5、把表情信息表示成ascii码,通过uart0串口通信传输给第二芯片;

步骤s6、第二芯片控制接收到ascii码对应的表情控制相应的舵机进行表情动作控制。

进一步地,所述步骤s2具体包括:

s201、使用特征提取器detector=dlib.get_frontal_face_detector();

s202、加载人脸关键点检测器predictor=dlib.shape_predictor("shape_predictor_

68_face_landmarks.dat");

s203、用opencv的videocapture方法打开1-1情绪辨别模块中的ov7725摄像头;

s204、使用人脸检测器detector检测每一帧图像中的人脸;

进一步地,通过以下步骤对所述bp神经网络进行训练:

对bp算法进行优化改进,采用基于自适应学习率调节的改进bp算法;

利用fer-2013数据集对bp神经网络进行训练;

进一步地,基于自适应学习率的改进bp算法改进方案如下:

当网络训练过程中误差增大时err>pre_e,减少学习率(<1);

当网络训练过程中误差减少时err<pre_e,增大学习率(>1);

进一步地,经过bp神经网络分类后的表情信息分为正常、开心和疲惫分别用不同的ascii码表示,通过uart0串口通信传输给第二芯片,第二芯片控制接收到ascii码后,控制舵机动作做出检测表情对应的所述机器人的面部表情,同时语音模块触发与表情信息对应的语音,实现人与机器人之间的互动。

进一步地,第二芯片读取串口信息若有信息接收serial.available()>0,读取串口信息comdata+=char(serial.read()),控制对应的舵机动作myservo.write(pos),模仿参观者的表情动作,同时第二芯片读取micosdcardadapter模块中sd卡中的wav文件,如果当前没有语音在播放if(!wave.isplaying),则可以播放串口数据ascii码对应的语音文件playcomplete("xxx.wav")实现所述机器人与人之间的互动。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1