一种用于疲劳驾驶检测的打哈欠动作检测方法_3

文档序号:8299858阅读:来源:国知局
本获取训练图像样本中目标几何形状的特征点分布的统计信息,并且获取特征点允许 存在的变化方向,实现在目标图像上寻找对应的特征点的位置,从而实现对目标图像上目 标几何形状的匹配和定位。训练样本需要根据先验知识手动标记目标几何形状所有的特 征点的位置,记录特征点的坐标,并且计算每一个特征点对应的局部灰度模型作为局部特 征点调整用的特征向量;再将训练好的模型放在目标图像上,寻找每一个特征点的下一个 位置的时候,采用局部灰度模型寻找目标图像中在当前特征点指定方向上与局部灰度模型 马氏距离最小的位置点作为当前特征点即将移动到的位置,称为跟踪特征点(suggested point),找到所有的跟踪特征点就可W获得一个捜索的跟踪形状(suggested shape),然后 通过调整参数将当前的模型最近似地调整到与跟踪形状相重合的位置上;重复上述步骤进 行迭代直至收敛,则使得模型与目标图像上目标几何形状的位置和形状相匹配,实现对目 标几何形状的匹配和定位。主动形状模型匹配算法的具体处理过程可参见T.F Cootes、 C. J Taylor 等人的文献"Active Shape Models-Their Training and Application[J]. Computer Vision and Image Understanding"。
[0027] 5)从匹配定位得到的面部匹配模板中提取出当前帖视频图像的人脸图像区域中 的嘴部特征区域轮廓,根据嘴部特征区域轮廓的实际形状计算其覆盖的像素高度值H和像 素宽度值W,并计算当前帖视频图像中的嘴部轮廓高宽比0 =H/W。
[002引确定当前帖视频图像中的嘴部轮廓高宽比0,即相当于确定当前帖视频图像中嘴 部的开合程度。
[0029] 6)判断当前帖视频图像中的嘴部轮廓高宽比0是否大于预设定的嘴部轮廓高宽 比阔值e ;若e〉e,则执行步骤7;若0《e,执行步骤8。
[0030] 将体现当前帖视频图像中嘴部的开合程度的嘴部轮廓高宽比0与嘴部轮廓高宽 比阔值e进行比较,若0〉e,则表明在当前帖视频图像中检测到嘴部张开动作。
[0031] 7)令打哈欠状态累加器n的值累加1,然后判断当前打哈欠状态累加器n的值是 否已等于打哈欠状态累加阔值N ;若n<N,则跳转执行步骤10 ;若n=N,则跳转执行步骤9。
[0032] 通过打哈欠状态累加器n的值记录在视频图像中检测到嘴部张开动作的连续帖 数,若n=N,即嘴部张开动作的连续帖数已达到被视为打哈欠动作的帖数判别阔值,则判定 视频图像中人脸图像处于打哈欠动作状态。
[0033] 8)令打哈欠状态累加器n的值重置为0,然后跳转执行步骤10。
[0034] 9)判定视频图像中人脸图像处于打哈欠动作状态,输出打哈欠动作指示信息;然 后跳转执行步骤8。
[0035] 步骤9中输出的打哈欠动作指示信息,可W用于传输至疲劳驾驶检测系统作为一 种及时性的疲劳驾驶提示信号,让疲劳驾驶检测系统能够根据该打哈欠动作指示信息作出 应急处理,对驾驶员进行提醒或警示。
[0036] 10)读取下一帖视频图像,返回执行步骤3。W持续地进行逐帖检测。
[0037] 通过上述检测处理流程可W看到,在本发明用于疲劳驾驶检测的打哈欠动作检测 方法中,借助面部匹配模板中7个面部特征区域各自对应的特征区域轮廓来分别匹配确定 视频图像中人脸图像区域中各个面部特征区域的相对位置关系,确保特征区域轮廓匹配定 位的准确性,同时采用主动形状模型匹配算法对视频图像的人脸图像区域中嘴部区域进行 快速的匹配定位,并获得视频图像的人脸图像区域中嘴部特征区域轮廓的实际形状,进而 识别嘴部开合状态,实现对打哈欠动作的实时性检测。
[003引为了更好地体现本发明用于疲劳驾驶检测的人脸眼睛区域定位方法的技术效果, 下面结合实验对本发明方法加W进一步说明。
[0039] 实验测试; 该实验中,采用摄像头采集人脸视频图像后传输至计算机,采用主动形状模板匹配算 法数据库中的人脸模板"my68-ld. amf"巧日图1所示)作为面部匹配模板,由计算机采用本 发明方法进行打哈欠动作检测处理。摄像头采集的视频图像像素大小为640*480,帖频为 30fps;计算机处理器为 Intel(R) Core(TMH5-2520M CPU @2. 5細Z,处理内存为 4GB RAM。 实验过程共采集5段测试视频,每段测试视频的时长均超过15分钟,且每段测试视频中均 包含超过20次的打哈欠动作。采用本发明方法分别对5段测试视频逐帖地进行打哈欠动 作识别处理,对每段测试视频进行打哈欠动作识别的具体处理流程为: 1)初始化打哈欠状态累加器n的值为0,预设定嘴部轮廓高宽比阔值e和打哈欠状态 累加阔值N的值。
[0040] 通过长期实验数据统计,根据不同人打哈欠动作时嘴型开合程度W及持续时间的 不同,嘴部轮廓高宽比阔值e的设定值优选取值范围为0.3?0.6,即嘴部轮廓高宽比值达 至IJ0. 3?0. 6及其W上的开合度,则判定嘴部处于张开状态;而打哈欠状态累加阔值N的设定 值优选取值范围为3fa?6fa,化表示视频图像的帖频值,即相当于在判定嘴部处于张开状 态的持续时间达到了 3?6秒甚至更长的时间,则判定已出现打哈欠动作。在本实验中,预设 定嘴部轮廓高宽比阔值e =0. 5,打哈欠状态累加阔值N=5fa=25。
[0041] 2)读取一帖视频图像。
[0042] 3)采用级联分类器对当前帖视频图像进行人脸检测,判定当前帖视频图像中是否 检测到人脸图像区域;如果是,则继续执行步骤4 ;否则,跳转执行步骤8。
[0043] 为了更好的确保人脸区域检测的处理效率,本实验借助了开放源代码的计算机 视觉类库(Open Source Computer Vision Library,缩写为OpenCV)中的级联分类器来 完成视频图像中的人脸检测。计算机视觉类库化enCV由因特尔公司位于俄罗斯的研究 实验室开发,是一套可免费获得的由一些C函数和C++类所组成的库,用来实现一些常用 的图像处理及计算机视觉算法,可实现物体轮廓跟踪、图像的几何处理、形体学处理、图像 特征提取、背景分离、金字塔算法、种子填充算法、光流算法、主动轮廓算法、相机的校正、 姿势的识别等众多操作,并集成了相应的分类器和处理函数。因此,在进行人脸检测处理 时,可W通过调用计算机视觉类库化enCV中Cv化arClassifier化scade级联分类器的 CV化arDetect化jects ()函数对当前帖视频图像进行人脸检测,检测效果好、速度快。
[0044] 4)调用预设的面部匹配模板,采用主动形状模型匹配算法将面部匹配模板中的各 个特征区域轮廓与当前帖视频图像中人脸图像区域的各个面部特征区域进行对应的匹配 定位,确定面部匹配模板在当前帖视频图像的人脸图像区域中各个面部特征区域对应的特 征区域轮廓的实际形状。
[0045] 在本实验中,采用主动形状模型算法对面部匹配模板进行匹配定位时,首先调用 主动形状模型匹配算法数据库中的Init化ape化加iDetBox()函数对面部匹配模板进行初 始化,等待匹配定位;然后调用主动形状模型匹配算法数据库中的ASMSeqSearch()函数 在当前帖视频图像的人脸图像区域中分别捜索面部匹配模板中的每个特征区域轮廓的最 佳匹配位置,进行匹配定位处理,确定面部匹配模板在当前帖视频图像的人脸图像区域中 各个面部特征区域对应的特征区域轮廓的实际形状。通过直接调用主动形状模型匹配算法 数据库中的函数执行对面部匹配模板的匹配定位,其处理速度更快,匹配定位的准确性也 能得到很好的保证。
[0046] 5)从匹配定位得到的面部匹配模板中提取出当前帖视频图像的人脸图像区域中 的嘴部特征区域轮廓,根据嘴部特征区域轮廓的实际形状计算其覆盖的像素高度值H和像 素宽度值W,并计算当前帖视频图像中的嘴部轮廓高宽比0 =H/W。
[0047] 在本实验中,计算嘴部特征区域轮廓覆盖的像素高度值H和像素宽度值W的具 体范式是;在当前帖视频图像中绘制匹配定位得到的面部匹配模板中嘴部特征区域轮廓 的外接矩形,确定所述外接矩形左上角的像素坐标点狂?,Y?)和右下角的像素坐标点 狂MAX, Ymx),其中,和Y?分别为所述外接矩形左上角像素坐标点的列像素坐
当前第3页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1