一种基于脸部特征的驾驶员路怒症实时识别和预警方法与流程

文档序号:13743251阅读:197来源:国知局
技术领域本发明涉及一种实时识别和预警驾驶员路怒症的方法,特指一种基于脸部特征的驾驶员路怒症实时识别和预警方法。

背景技术:
近年来,由于经济的高速发展使得人民生活水平大大提高,国民拥有私家车的数量不断增加,于此同时交通事故的发生率也不断上升,车辆与安全问题已经成为社会关注的热点。其中驾驶员路怒症也是影响安全驾驶的重要原因。“路怒症”概念最早来自国外心理学。随着中国汽车数量增多,这一心理问题也受到国内越来越多专家的关注。“路怒”(roadrage)是形容在交通阻塞情况下,开车压力与挫折所导致的愤怒情绪,发作者会袭击他人的汽车,有时无辜的同车乘客也会遭殃。医学界把“路怒症”归类为阵发型暴怒障碍,指多重的怒火爆发出来,猛烈程度叫人大感意外。路怒症发作的人经常会口出威胁、动粗甚至毁损他人财物,也就是攻击性驾驶。研究表明,相当多的司机都有这些症状,但是很多司机并意识不到自己的病态。近些年,通过新闻报道也了解到很多交通事故的发生就是因为路怒症,路怒症现象越来越多,给我们的生命和财产造成了重大损失。目前对驾驶员路怒症报道的文献很多,多数主要分析驾驶员愤怒情绪对驾驶安全的影响,而针对驾驶员愤怒情绪的实时识别和预警方法方面的研究,目前还未见报道。虽然很多学者针对日常生活中的情感信息进行分析和识别,取得了一定的突破,但是这些模型复杂,实时性很难达到,在图像光照不好的情况下,识别精度不高,不适合驾驶员愤怒情绪的检测和预警。

技术实现要素:
本发明为了克服现已存在的问题,通过引入Kinect这一高速3D摄像设备提取驾驶员脸部的RGB图像信息和Depth图像信息,并针对这些特征提出了一整套切实可行的基于脸部特征的驾驶员路怒症识别和预警方法,大大提高了识别精度与速度。具体技术方案如下:一种基于脸部特征的驾驶员路怒症实时识别和预警方法,包括CNN模型训练的步骤和表情识别的步骤;所述CNN模型训练的步骤包括:S1,基于Kinect获取驾驶员脸部RGB图像和Depth图像数据库;S2,对S1数据库中的RGB图像和Depth图像分别进行预处理;S3,利用预处理得到的RGB图像训练CNN模型,得到基于RGB信息的驾驶员路怒症识别模型;利用预处理得到的Depth图像训练CNN模型,得到基于Depth信息的驾驶员路怒症识别模型;所述表情识别的步骤包括:S4,实时采集连续N帧驾驶员脸部图像并进行预处理操作;S5,针对S4中采集的N帧图像,利用S3所述的基于RGB信息的驾驶员路怒症识别模型获得基于RGB图像的输出判别信息;S6,针对S4中采集的N帧图像,利用S3所述的基于Depth信息的驾驶员路怒症识别模型获得基于Depth图像的输出判别信息;S7,融合S5的输出判别信息和S6的输出判别信息,对两者分配不同的权重之后求置信度,置信度最大值对应的判别信息即为最终输出的表情识别结果。进一步优选方案,S7还包括:根据表情识别结果通过语音提示对驾驶员进行预警。进一步优选方案,步骤S1的实现包括:S1.1,制定规范,包括录制规范以及图像文件命名规范;S1.2,利用基于FaceBasics-D2D编写的录制软件从Kinect的实时视频流中追踪若干名驾驶员脸部并提取RGB图像和Depth图像信息,建立由若干组RGB信息和Depth信息组成的数据库;S1.3,对S1.2中所述数据库中的若干组RGB信息和Depth信息进行无监督K-means训练分类,然后人工选取和标定愤怒表情和正常表情。进一步优选方案,所述若干名驾驶员为20名,所述若干组RGB信息和Depth信息为20000组。进一步优选方案,步骤S2中所述的预处理具体包括:图像灰度化、图像大小归一化以及均值滤波。进一步优选方案,步骤S3中所述利用预处理得到的RGB图像训练CNN模型的具体实现包括:将愤怒表情的数据的标签置为1,正常表情的数据的标签置为0,然后运用这些标签过的RGB数据训练CNN模型;然后CNN模型识别出给定的RGB数据是否属于正常表情类别,如果是,输出0,否则输出1;步骤S3中所述利用预处理得到的Depth图像训练CNN模型的具体实现包括:将愤怒表情的数据的标签置为1,正常表情的数据的标签置为0,然后运用这些标签过的Depth数据训练CNN模型;然后CNN模型识别出给定的RGB数据是否属于正常表情类别,如果是,输出0,否则输出1。进一步优选方案,所述N=30。进一步优选方案,所述步骤S5的具体实现包括:利用一个长度为30的队列实时存储最新30帧的判别信息:GRGB(i)=CRGB(i)+RRGB(i|j),0<j≤30.CRGB(i)+RRGB(i|j)-RRGB(i|(j-30)),j>30.,(i=1,2;j=1,2...);]]>其中,CRGB(i)表示各帧的识别结果累加和,RRGB(i|j)表示各帧的识别结果,i表示表情类别的编号,j表示帧的序列号;所述步骤S6的具体实现包括:利用一个长度为30的队列实时存储最新30帧的判别信息:GDepth(i)=CDepth(i)+RDepth(i|j),0<j≤30.CDepth(i)+RDepth(i|j)-RDepth(i|(j-30)),j>30.,(i=1,2;j=1,2...);]]>其中,CDepth(i)表示各帧的识别结果累加和,RDepth(i|j)表示各帧的识别结果,i表示表情类别的编号,j表示帧的序列号。进一步优选方案,所述步骤S7的具体实现包括:S7.1,计算RGB通道的正常表情和愤怒表情的概率PRGB(i):PRGB(i)=a*CRGB(i)/(a*CRGB(i)+b*CDepth(i)),i=1,2;S7.2,计算Depth通道的正常表情和愤怒表情的概率PDepth(i):PDepth(i)=b*CDepth(i)/(a*CRGB(i)+b*CDepth(i)),i=1,2;S7.3,比较S7.1、S7.2中计算结果的大小,拥有较高置信度ER的即为对最新30帧图像的最终表情识别结果:ER=max{PRGB(i),PDepth(i)
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1