1.本发明属于计算机视觉技术领域,尤其涉及一种驾驶员状态确定方法、装置、驾驶员监控系统、车辆。
背景技术:2.本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
3.汽车工业的大规模发展增强了汽车技术,使得基本可以在硬件方面确保安全,但每天仍有大量的交通事故发生,其中有25%的碰撞事故源于驾驶员的注意力不集中,如分心、疲劳等状态。因此,对驾驶员的驾驶状态进行监控是很有必要的。
4.驾驶分心即驾驶员将注意力从驾驶任务中移开并转移到次级任务中,尽管分心是一种认知状态,研究人员还是把驾驶分心分为了几类,主要的有手动分心、视觉分心和认知分心三个方面:手动分心,指驾驶员在驾驶过程中手离开方向盘进行吃东西、打电话等无关行为;视觉分心,指驾驶员视线离开了前方道路,转而看车后座、风景、其他乘客等与驾驶过程无关的人和物;认知分心,指驾驶员大脑在思考与驾驶任务无关的事情但视线并未离开道路。在这当中,认知分心是最难评估的分心类型,因为很难观察驾驶员的大脑(相对于手或眼睛)在做什么。
5.近几年在各类以驾驶员为主体的驾驶分心识别方法中,根据输入数据类型的不同可以分为基于生理指标和基于视觉指标两种。基于生理指标的分心识别主要是将心率、脑电信号等驾驶员的生理信息作为输入数据进行识别,通常使用的是模拟驾驶器和侵入设备来提取驾驶员的生理指标。这种方法能够直观的反应驾驶员状态的变化,但由于自然数据提取需得用复杂昂贵的侵入式设备,并在实际情况下对驾驶员影响较大,因此通常只在模拟环境中作为辅助使用;基于视觉指标的分心识别一般是利用眼动仪等设备提取眼睛注视信息,或是采用放置在驾驶室内的车载摄像头采集驾驶数据,以提取驾驶员脸部、眼睛、身体及各个关节点的特征。与前者相比,这种方法数据提取简单且基本无侵入,在最近的研究中广泛运用。
技术实现要素:6.为了解决上述背景技术中存在的技术问题,本发明提供一种驾驶员状态确定方法、装置、驾驶员监控系统、车辆,基于视觉指标的驾驶分心识别,以驾驶员的面部,主要是眼睛作为特征输入到多通道卷积神经网络中进行凝视区域识别,再根据单个时间窗内的视线信息计算多个指标,实现了对驾驶员是否处于视线分心和认知分心的判断。
7.为了实现上述目的,本发明采用如下技术方案:
8.本发明的第一个方面提供一种驾驶员状态确定方法。
9.一种驾驶员状态确定方法,包括:
10.获取预设时长内的目标图像帧,判断驾驶员连续注视设定区域的时间是否达到预
设的时间阈值,若是,则确定所述驾驶员处于视线分心驾驶状态;
11.否则,确定驾驶员视线分布的预设视线集中区域,基于预设视线集中区域的不同计算相应的视线活跃度,判断得到的视线活跃度是否小于预设视线集中区域对应的设定的阈值,若是,则确定所述驾驶员处于认知分心驾驶状态;否则,则确定所述驾驶员处于正常驾驶状态。
12.在一种可选的实现方式中,所述驾驶员处于认知分心驾驶状态确定的过程包括:
13.基于驾驶员视线,确定驾驶员视线分布的第一视线集中区域或第二视线集中区域或第三视线集中区域;
14.若驾驶员视线分布在第一视线集中区域,采用第一视线活跃度模型计算视线活跃度,若得到的视线活跃度小于设定第一阈值,确定所述驾驶员处于认知分心驾驶状态;
15.若驾驶员视线分布在第二视线集中区域或者第三视线集中区域,采用第二视线活跃度模型计算视线活跃度,若得到的视线活跃度小于设定第二阈值,确定所述驾驶员处于认知分心驾驶状态。
16.在一种可选的实现方式中,所述获取预设时长内的目标图像帧包括:
17.获取驾驶员的视频帧数据,每秒提取设定的帧数;
18.采用opencv方法对提取的设定帧数的视频帧数据进行标注,得到左眼、右眼、脸部和头部四种类型的目标图像。
19.在一种可选的实现方式中,将左眼、右眼、脸部和头部四种类型的目标图像输入训练好的四通道卷积神经网络,识别驾驶员的视线区域。
20.在一种可选的实现方式中,所述设定区域为驾驶室内区域,所述驾驶室内区域包括仪表盘和控制台。
21.在一种可选的实现方式中,所述确定驾驶员视线分布的预设视线集中区域包括:根据当前时间窗得到的视线区域信息,使用k
‑
means聚类计算驾驶员视线分布的预设视线集中区域。
22.本发明的第二个方面提供一种驾驶员状态确定装置。
23.一种驾驶员状态确定装置,包括:
24.获取模块,用于获取预设时长内的目标图像帧;
25.确定模块,用于判断驾驶员连续注视设定区域的时间是否达到预设的时间阈值,若是,则确定所述驾驶员处于视线分心驾驶状态;否则,确定驾驶员视线分布的预设视线集中区域,基于预设视线集中区域的不同计算相应的视线活跃度,判断得到的视线活跃度是否小于预设视线集中区域对应的设定的阈值,若是,则确定所述驾驶员处于认知分心驾驶状态;否则,则确定所述驾驶员处于正常驾驶状态。
26.本发明的第三个方面提供一种驾驶员监控系统。
27.一种驾驶员监控系统,包括:
28.显示模块,用于显示驾驶员状态确定结果;
29.驾驶员状态确定模块,用于采用权利要求1
‑
6任一项所述的驾驶员状态确定方法对所述驾驶员图像进行驾驶员状态确定。
30.本发明的第四个方面提供一种车辆。
31.一种车辆,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运
行的计算机程序,其特征在于,该程序被处理器执行时实现如第一个方面所述的驾驶员状态确定方法中的步骤。
32.本发明的第五个方面提供一种计算机可读存储介质。
33.一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述第一个方面所述的驾驶员状态确定方法中的步骤。
34.与现有技术相比,本发明的有益效果是:
35.本发明提供的驾驶员状态确定方法、装置、驾驶员监控系统、车辆,可以精确的确定驾驶员的驾驶状态,提高了驾驶状态判断的准确性,实现了驾驶员状态的视线检测,以便于在驾驶员的驾驶状态较差时及时采取相应的措施,保证安全驾驶,避免发生道路交通事故。
36.本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
37.构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
38.图1是本发明驾驶员状态确定方法的流程图;
39.图2是本发明驾驶员状态确定方法的结构图;
40.图3是本发明驾驶员凝视区域分布图;
41.图4(a)是本发明视线在左侧区域的聚类分布图;
42.图4(b)是本发明视线在中间区域的聚类分布图;
43.图4(c)是本发明视线在右侧区域的聚类分布图;
44.图5(a)是本发明阈值在左侧区域分心检测中的表现图;
45.图5(b)是本发明阈值在中间区域分心检测中的表现图;
46.图5(c)是本发明阈值在右侧区域分心检测中的表现图。
具体实施方式
47.下面结合附图与实施例对本发明作进一步说明。
48.应该指出,以下详细说明都是例示性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
49.需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
50.需要注意的是,附图中的流程图和框图示出了根据本公开的各种实施例的方法和系统的可能实现的体系架构、功能和操作。应当注意,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,所述模块、程序段、或代码的一部分可以包括一个或多个用于实现各个实施例中所规定的逻辑功能的可执行指令。也应当注意,在有些作为备选
的实现中,方框中所标注的功能也可以按照不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,或者它们有时也可以按照相反的顺序执行,这取决于所涉及的功能。同样应当注意的是,流程图和/或框图中的每个方框、以及流程图和/或框图中的方框的组合,可以使用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以使用专用硬件与计算机指令的组合来实现。
51.实施例一
52.如图1
‑
2所示,本实施例提供了一种驾驶员状态确定方法,包括:
53.获取预设时长内的目标图像帧,判断驾驶员连续注视设定区域的时间是否达到预设的时间阈值,若是,则确定所述驾驶员处于视线分心驾驶状态;
54.否则,确定驾驶员视线分布的预设视线集中区域,基于预设视线集中区域的不同计算相应的视线活跃度,判断得到的视线活跃度是否小于预设视线集中区域对应的设定的阈值,若是,则确定所述驾驶员处于认知分心驾驶状态;否则,则确定所述驾驶员处于正常驾驶状态。
55.具体的,本实施可以通过以下过程实现:
56.第一部分,数据采集和预处理。模型训练和测试所用的数据皆为自主采集的真实驾驶环境下的自然眼动数据。以驾驶员的角度把车内区域分为9个区域(图3),主要包括了左右镜、后视镜、前挡风玻璃、仪表盘以及控制台区域。在采集时,将行车记录仪安置在后视镜附近,该设备可以采集每秒30帧的彩色视频流,分辨率为1920*1080像素。选取驾驶人员参与采集,要求他们分别在同一辆车内依次注视9个区域,获取静态数据集供模型训练使用;另外采集自然驾驶状态下分心和未分心的视频数据,用于后续的阈值选取实验及模型测试。采集完成后,把彩色视频流转化成视频帧数据,每秒提取的图像帧数fps=3,然后将得到的视频帧数据通过opencv等方式对图像中脸部坐标进行标注,分别提取左眼、右眼、脸部和头部四张子图像保存。由于数据量太大,最终将保存好的图像数据转换成tfrecords格式使用。
57.第二部分,注视区域识别。该模块使用四通道卷积神经网络识别驾驶员视线区域,在训练时,将预处理好的人脸四部分静态数据分别输入到模型的四个通道里学习;在测试时,我们将采集好的总时长为t的驾驶分心视频分解为连续的5s一组的视频帧,利用训练好的权重识别视线区域并将区域数据按时间窗保存,用于分心检测算法的计算和分析。
58.其中,四通道卷积神经网络中使用的基础模型是一个有四层卷积层的cnn模型。第一个卷积层采用了较大的7*7的卷积核,步长为4;第二个卷积层和第三个卷积层使用5*5的卷积核,步长为8;最后一个卷积层使用5*5的卷积核,步长为200。四个通道的输入经过了这四层卷积分别提取出各自的特征。在特征融合时,首先把左右眼睛的特征融合起来,得到眼睛的整体特征。由于眼睛中所包含的信息相较于脸部和头部比较简单,因此只使用一层全连接层。接着将通过两个全连接层的脸部和头部特征与已经处理好的双眼特征进行融合,再通过一次全连接得到eyeface_net。然后利用softmax分类器分类凝视区域。
59.第三部分,驾驶分心检测。在本实施例中,输出的驾驶状态结果有三类:正常驾驶、视线分心和认知分心。首先将连续注视驾驶室内区域(仪表盘和控制台,不包括所有后视镜)两秒作为判断标准。设置一秒提取的视频帧fps=3,一个时间窗t=5s。当检测到一个时间窗内连续6帧看车内区域时,判断驾驶员处于视线分心。由于不同的视线集中区(如左转、
右转、直行等集中区域不同)会导致视线活跃度有较大差别,因此我们将驾驶过程中的视线集中区域分为左、右、中三大类,根据当前时间窗得到的视线区域信息,使用k
‑
means聚类计算集中区域,它的主要思想是在给定k值和k个初始类簇中心点的情况下,把每个点分到离其最近的类簇中心点所代表的类簇中,所有点分配完毕之后,根据同一类簇内的所有点重新计算该类簇的中心点。为了使注视信息表现得更为直观,在聚类时重新定义了9个注视区域,把它们以平面坐标表示出来,具体为0:(0,0)、1:(1,2)、2:(1,1)、3:(1,0)、4:(2,2)、5:(2,
‑
1)、6:(3,2)、7:(3,1)、8:(4,0)。图4(a)
‑
图4(c)为单一时间窗内驾驶员视线的k
‑
means聚类分布。我们将a定义为单一时间窗的类簇中心值,不同区域的中心值范围在多次实验后获得,左侧区域:a<1.1,中间区域:1.1<a<2,右侧区域:a>2。
60.得到视线的具体集中区域之后,计算驾驶员视线活跃度。通过各部分数据的对比发现,当驾驶员视线集中于左侧区域时,因视线活动范围较小,活跃度也会比其他两个区域小,反而不易混淆分心和未分心状态。因此提出左侧活跃度v
l
计算公式如下:
[0061][0062]
其中,fps为每秒提取的帧数,t为一个时间窗的时间,gi为每一帧的注视区域。
[0063]
当驾驶员视线集中于右侧或中部区域时,两者在前挡风玻璃处存在较大的交叉部分,且视线活动范围过大,稍一变换视线便会使视线活跃度发生很大变化。因此为了不因阈值差别过小产生不必要的误差,对活跃度计算方式做了部分改动,中部和右侧活跃度v
mr
如下:
[0064][0065]
利用上述算法计算出时间窗内驾驶员视线活跃度,即可根据接下来实验得出的不同阈值判断驾驶员状态,其中,若得到的视线活跃度小于阈值,当前驾驶员状态表现为认知分心。图5(a)
‑
图5(c)为设置的阈值在驾驶分心检测中的表现。
[0066]
本实施例提出的方法首先利用多通道卷积神经网络分类驾驶员视线区域,然后检测驾驶员是否连续两秒未注意道路。接着,利用k
‑
means均值聚类确定一段时间内的视线集中区域,并进行视线活跃度计算,当驾驶员处于认知分心时,视线活跃度会比正常驾驶状态明显降低。因此通过实验确定视线活跃度阈值,以此达到判断是否认知分心的目的。
[0067]
实施例二
[0068]
本实施例提供了一种驾驶员状态确定装置。
[0069]
一种驾驶员状态确定装置,包括:
[0070]
获取模块,用于获取预设时长内的目标图像帧;
[0071]
确定模块,用于判断驾驶员连续注视设定区域的时间是否达到预设的时间阈值,若是,则确定所述驾驶员处于视线分心驾驶状态;否则,确定驾驶员视线分布的预设视线集中区域,基于预设视线集中区域的不同计算相应的视线活跃度,判断得到的视线活跃度是否小于预设视线集中区域对应的设定的阈值,若是,则确定所述驾驶员处于认知分心驾驶状态;否则,则确定所述驾驶员处于正常驾驶状态。
[0072]
本实施例所述的装置主要集成了基于两秒准则的视线分心检测算法和基于视线
活跃度的认知分心检测算法。
[0073]
第一,提出基于两秒准则的视线分心检测算法:视线分心可以定义为把注意力从道路上移开,转移到其他事物。驾驶员的视线停留在车内1.6s造成了80%的撞车事故,而当视线停留在车里超过2s,事故发生的概率会上升三倍以上。因此,将连续注视驾驶室内区域(仪表盘和控制台,不包括所有后视镜)两秒作为判断标准。设置一秒提取的视频帧fps=3,当检测到一个时间窗内连续六帧看车内区域时,判断驾驶员处于视线分心。
[0074]
第二,提出基于视线活跃度的认知分心检测算法:认知分心由于其仅是大脑分心,视线基本未偏离道路的特殊性,很难从图像中直观地辨别出,因此可以通过驾驶员单位时间内扫视频率变化来判断,也就是视线活跃度,当其处于认知分心状态时,眼睛扫视道路的频率会由于大脑注意力的转移而减小,甚至呈现发呆状态。经过实验发现,不同的视线集中区(如左转、右转、直行等集中区域不同)会导致视线活跃度有较大差别,因此将驾驶过程中的视线集中区域分为左、右、中三大类,根据当前时间窗得到的视线区域信息计算具体的集中区域,接着根据每个区域的阈值判断驾驶员状态,若小于阈值,当前驾驶员状态表现为认知分心。
[0075]
实施例三
[0076]
本实施例提供了一种驾驶员监控系统。
[0077]
一种驾驶员监控系统,包括:
[0078]
显示模块,用于显示驾驶员状态确定结果;
[0079]
驾驶员状态确定模块,用于采用上述实施例一所述的驾驶员状态确定方法对所述驾驶员图像进行驾驶员状态确定。
[0080]
显示模块包括显示器和报警模块,显示器用于显示驾驶员当前处于视线分心还是认知分心;报警模块用于当驾驶员处于视线分心或者认知分心时,发出报警,提醒驾驶员。
[0081]
实施例四
[0082]
本实施例提供了一种车辆。
[0083]
一种车辆,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,该程序被处理器执行时实现如实施例一所述的驾驶员状态确定方法中的步骤。
[0084]
实施例五
[0085]
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述实施例一所述的驾驶员状态确定方法中的步骤。
[0086]
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
[0087]
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实
现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0088]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0089]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0090]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(read
‑
only memory,rom)或随机存储记忆体(random accessmemory,ram)等。
[0091]
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。