一种在线追踪眨眼活动的方法与流程

文档序号:12468376阅读:225来源:国知局

本发明涉及一种在线追踪眨眼活动的方法,主要用于追踪实时视频中眨眼的动作。



背景技术:

目前,V-J算法和比较法是国内外常用于在线追踪眨眼活动的算法。V-J算法用于面部识别比较多,但是专门用于识别眼睛形状的话,该算法还有一定的欠缺。此算法必须将视频分割成每一个时间片段,然后一个一个的处理计算,运算量大,速度缓慢,还将造成短小的眨眼瞬间不被识别的错误。比较法原先运用于瘫痪者的眼动识别,头部的运动,甚至只是四肢的活动会导致这个算法的不准确性,并且会误将面部的其他部位误算成眼睛。就硬件而言,现有的方法对硬件的要求过高,所需设备昂贵。比如德国SMI的眼动眼镜,它以一套红外线摄像头追踪眼球运动轨迹,其动态通过热点图反映出来。但是造价昂贵,市场价格20多万人民币,不适于广泛推广。



技术实现要素:

本发明的目的是提供一种在线追踪眨眼活动的方法,主要用于追踪实时视频中眨眼的动作。

本发明采用Viola-Jones(V-J)算法来发掘眼部形状。它是建立在Haar的自动学习方法上的。Haar分类器实际上是Boosting算法的一个应用,Haar分类器用到了Boosting算法中的AdaBoost算法,只是把AdaBoost算法训练出的强分类器进行了级联,并且在底层的特征提取中采用了高效率的矩形特征和积分图方法。Haar分类器=Haar-like特征+积分图方法+AdaBoost+级联。

Haar分类器算法的要点如下:

①使用Haar-like特征做检测。

②使用积分图(Integral Image)对Haar-like特征求值进行加速。

③使用AdaBoost算法训练区分人脸和非人脸的强分类器。

④使用筛选式级联把强分类器级联到一起,提高准确率。

采用的第二种算法为比较法,即:计算机系统等待一个时机,这个时机为非机动眨眼瞬间,这个瞬间发生的眨眼的方位被识别为眼睛的部位。这个瞬间的片段被储存在系统中,接下的瞬间通过比较的方法来识别眼睛部位动态的不同。这个算法比V-J优秀的方面有两点:1.所需运算的内容少很多,大大提高的速度;2.比较的内容是确实的眼睛部位,而非通过运算生成的眼睛部位。

本发明的算法是将现有的算法结合起来,即可以增加算法的准确性,又可以降低算法的运算成本。它只采用V-J算法的第一部分,然后将搜寻窗局限在一部分的视频图像中(而不是全频),大大缩小了继续识别的区间,严格的规则也减少错误的产生。

附图说明

图1为步骤图。

具体实施方式

为了更好的理解本发明,下面结合具体实施步骤对本发明进行进一步的描述。本发明分为以下8个实施步骤:

1.显示别脸和鼻子:此步骤和V-J算法一样,识别脸和鼻子,如果有许多脸部,该步骤只识别最大的脸。

2.找出搜寻窗:当脸部被识别之后,整个面部作为搜寻窗口。

3.比较图像区别:下一个时间点的面部图像和刚刚确认的搜寻窗中的作对比,形成差别图。

4.寻找连续点:通过像素的区别连成一个区别的点图。

5.过滤不合法元素:此步骤可以将不符合眼部运算的噪音过滤掉(比如暗光造成的区别而不是眼动造成的区别),其方法为探索法,规律为比较像素的垂直距离。比如:作为眼睛,像素区别点图大小必须差不多,垂直距离不能相差太大,眼部中点间距到眼睛横距离的比率必须在2-5之间。

6.建立眼部范式:当第五步骤确定的眼睛的位置之后,将“闭眼”作为基准图片,寻找“闭眼”运用1/6秒时间,此时的闭眼的图像被存储。

7.追踪眼部区域:此步骤建于眼睛部位的范式建立之后,每一个时间段的截图作一次眼部状态差别的更新。

8.识别眨眼:在眼部周围的区别也会同时被运算。如果连续的动作被发现,一个眨眼被识别并且记录。该动作必须为:当像素的连续点组成的图像位于两眼识别框的1/2-2/3以下,记录为不完全眨眼,2/3以上为完全眨眼。再加上时间的运算,可以计算出每分钟眨眼的频率。

如果头部运动过大,那么有可能识别会丢失。整个程序1-8会重新自动启动。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1