预警方法、预警装置、车及计算机可读存储介质与流程

文档序号:33554206发布日期:2023-03-22 11:10阅读:28来源:国知局
预警方法、预警装置、车及计算机可读存储介质与流程

1.本技术涉及智能网联汽车软件变现技术领域,更具体而言,涉及一种预警方法、预警装置、车及非易失性计算机可读存储介质。


背景技术:

2.随着科技的发展及人们生活水平的提高,汽车成了人们生活中必不可少的交通工具。在用户行车时,若两辆车距离太近,则容易引起交通事故。目前,车辆上往往通过安装超声波雷达、毫米波雷达或激光雷达等测距装置,以获取自身车辆与前方车辆的距离,并在自身车辆与前方车辆的距离接近于安全距离时,对自身车辆发出警告,从而避免发生交通事故,但由于车辆上安装了测距装置,导致车辆成本较高。并且仅通过安全距离进行判断,对车辆的预警等级并不准确。


技术实现要素:

3.本技术实施方式提供一种预警方法、预警装置、车及非易失性计算机可读存储介质。
4.本技术实施方式的预警方法包括采集当前车辆前方的场景图像;基于预设的目标检测模型检测所述场景图像中车辆的位置,并根据所述位置计算所述当前车辆与所述车辆的相对距离;获取所述当前车辆的驾驶对象的疲劳状态,并根据所述疲劳状态确定制动距离;及根据所述相对距离和制动距离对所述当前车辆预警。
5.本技术实施方式的预警装置包括采集模块、第一计算模块、第二计算模块和预警模块。所述采集模块用于采集当前车辆前方的场景图像。所述第一计算模块用于基于预设的目标检测模型检测所述场景图像中车辆的位置,并根据所述位置计算所述当前车辆与所述车辆的相对距离。所述第二计算模块用于获取所述当前车辆的驾驶对象的疲劳状态,并根据所述疲劳状态确定制动距离。及所述预警模块用于根据所述相对距离和制动距离对所述当前车辆预警。
6.本技术实施方式的车包括处理器。所述处理器用于采集当前车辆前方的场景图像;基于预设的目标检测模型检测所述场景图像中车辆的位置,并根据所述位置计算所述当前车辆与所述车辆的相对距离;获取所述当前车辆的驾驶对象的疲劳状态,并根据所述疲劳状态确定制动距离;及根据所述相对距离和制动距离对所述当前车辆预警。
7.本技术实施方式的非易失性计算机可读存储介质包含计算机程序,当所述计算机程序被一个或多个处理器执行时,使得所述处理器执行如下预警方法:采集当前车辆前方的场景图像;基于预设的目标检测模型检测所述场景图像中车辆的位置,并根据所述位置计算所述当前车辆与所述车辆的相对距离;获取所述当前车辆的驾驶对象的疲劳状态,并根据所述疲劳状态确定制动距离;及根据所述相对距离和制动距离对所述当前车辆预警。
8.本技术实施方式的预警方法、预警装置、车及非易失性计算机可读存储介质中,通过预设的目标检测模型,以检测当前车辆前方的场景图像中的车辆位置,并计算出当前车
辆与车辆的相对距离,并且还根据当前车辆的驾驶对象的疲劳状态,以确定制动距离,从而根据相对距离和制动距离,以对当前车辆发出预警。可以理解,在对当前车辆发出预警时,由于考虑到当前车辆的驾驶对象的疲劳状态,从而能够更准确的对当前车辆进行预警,以保证行车安全。此外,免去了在当前车辆中安装用于测距的装置,以降低车的制造成本。
9.本技术的实施方式的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本技术的实施方式的实践了解到。
附图说明
10.本技术的上述和/或附加的方面和优点从结合下面附图对实施方式的描述中将变得明显和容易理解,其中:
11.图1是本技术某些实施方式的预警方法的流程示意图;
12.图2是本技术某些实施方式的预警方法的场景示意图;
13.图3是本技术某些实施方式的预警装置的平面示意图;
14.图4是本技术某些实施方式的车的平面示意图;
15.图5是本技术某些实施方式的预警方法的流程示意图;
16.图6是本技术某些实施方式的预警方法的流程示意图;
17.图7是本技术某些实施方式的预警方法的流程示意图;
18.图8是本技术某些实施方式的预警方法的流程示意图;
19.图9是本技术某些实施方式的预警方法的流程示意图;
20.图10是本技术某些实施方式的预警方法的流程示意图;
21.图11是本技术某些实施方式的预警方法的流程示意图;
22.图12是本技术某些实施方式的预警方法的流程示意图;
23.图13是本技术某些实施方式的预警方法的流程示意图;
24.图14是本技术某些实施方式的非易失性计算机可读存储介质和处理器的连接状态示意图。
具体实施方式
25.下面详细描述本技术的实施方式,实施方式的示例在附图中示出,其中,相同或类似的标号自始至终表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本技术的实施方式,而不能理解为对本技术的实施方式的限制。
26.请参阅图1和图2,本技术实施方式提供一种预警方法。该预警方法包括步骤:
27.01:采集当前车辆100前方的场景图像;
28.03:基于预设的目标检测模型检测场景图像中车辆200的位置,并根据位置计算当前车辆100与车辆200的相对距离;
29.05:获取当前车辆100的驾驶对象的疲劳状态,并根据疲劳状态确定制动距离;及
30.07:根据相对距离和制动距离对当前车辆100预警。
31.请参阅图3,本技术实施方式提供一种预警装置10。预警装置10包括采集模块11、第一计算模块12、第二计算模块13和预警模块14。本技术实施方式的预警方法可应用于预
警装置10。其中,采集模块11、检测模块12、计算模块13和预警模块14分别用于执行步骤01、步骤03、步骤05和步骤07。即,采集模块11用于采集当前车辆100前方的场景图像。第一计算模块12用于基于预设的目标检测模型检测场景图像中车辆200的位置,并根据位置计算当前车辆100与车辆200的相对距离。第二计算模块13用于获取当前车辆100的驾驶对象的疲劳状态,并根据疲劳状态确定制动距离。预警模块14用于根据相对距离和制动距离对当前车辆100预警。
32.请参阅图4,本技术实施方式还提供一种车300。本技术实施方式的预警方法可应用于车200。车300包括处理器20。处理器20用于执行步骤01、步骤03、步骤05和步骤07。即,处理器20用于采集当前车辆100前方的场景图像;基于预设的目标检测模型检测场景图像中车辆200的位置;根据车辆200的位置,计算当前车辆100与车辆200的相对距离;及根据相对距离对当前车辆100预警。
33.需要说明的是,本技术实施方式中的当前车辆100即为车300,车300还包括有摄像头30,摄像头30用于拍摄当前车辆100前方的场景图像,以供处理器20获取。其中,摄像头30可以是单目摄像头30,以减少车100的制造成本。
34.具体地,处理器20可通过摄像头30以采集当前车辆100前方的场景图像。可以理解,场景图像可包括当前车辆100前方的路况及前方出现的物体,如车辆、交通灯、交通标志等元素。
35.接下来,处理器20可基于预设的目标检测模型,以检测场景图像中车辆200的位置。其中,预设的目标检测模型可以是yolo目标检测模型,也可以是fast-cnn目标检测模型等。
36.更具体地,当处理器20获取到当前车辆100前方的场景图像后,处理器20便可通过目标检测模型,以得出场景图像中车辆200的位置。可以理解,目标检测模型用于检测场景图像中车辆200的位置,当场景图像中存在车辆200时,便会输出车辆200的具体位置,车辆200的具体位置可以是在场景图形中框选出车辆200的位置;当场景图像中,不存在车辆200时,目标检测模型便会输出未发现车辆200。
37.进一步地,在处理器20获取到车辆200的位置后,处理器20便可计算当前车辆100与车辆200的相对距离。其中,当前车辆100为用户正在驾驶的车辆200,当前车辆100与车辆200的相对距离,即为用户正在驾驶的车辆200与前车200的距离(如图2所示的l1)。
38.再有,处理器20还会获取当前车辆100的驾驶对象的疲劳状态,即用户的疲劳状态,以确定制动距离。其中,处理器20可在一定时间内,通过摄像头30拍摄用户的人脸图像,以通过用户的面部表情,判断用户的疲劳状态。
39.例如,当处理器20通过摄像头30拍摄的用户的人脸图像中,确定用户在一定时间内,多次眨眼,则处理器20认定用户轻度疲劳。又例如,当处理器20通过摄像头30拍摄的用户的人脸图像中,确定用户在一定时间内,多次打哈欠,则处理器20认定用户中度疲劳。还例如,当处理器20通过摄像头30拍摄的用户的人脸图像中,确定用户在一定时间内,多次眨眼且并多次打哈欠,则处理器20认定用户重度疲劳。
40.接下来,在处理器20确定用户的疲劳状态后,便可确定制动距离。其中,根据用户不同的疲劳状态,用户用于刹车的反应时间不同。例如,当用户不疲劳时,反应时间为0.2s,当用户轻度疲劳时,反应时间为0.5s,当用户重度疲劳时,反应时间为1s。
41.如此,针对用户不同的反应时间,则制动距离也不同。其中,制动距离为当前车辆100在当前车速下,用户在反应后踩下刹车,直至当前车辆100停下所需的距离。可以理解,当反应时间越大,即疲劳状态越疲劳时,制动距离则越大。
42.最后,在处理器20得到当前车辆100与车辆200的相对距离,及得到当前车辆100的制动距离后,处理器20则可根据相对距离和制动距离,以对当前车辆100进行预警。
43.具体地,当相对距离和制动距离的差值越大时,则说明用户在踩下刹车后,直到停止时,当前车辆100和车辆200之间的距离越小,则预警等级便越高,从而保证用户不会因疲劳发生交通事,以保证用户的行车安全。即,处理器可根据制动距离和相对距离,以准确地对当前车辆的预警等级进行分级。
44.例如,相对距离和制动距离的差值为100米时,则说明用户有足够的时间使当前车辆100安全停车,预警等级则越低。而当相对距离和制动距离的差值为1米时,则说明用户若反应时间较久,便会发生碰撞的情况,预警等级则越高。
45.在一个实施方式中,预警等级为1级时,处理器20可通过控制仪表盘上的灯光闪烁,以提醒用户注意行车安全。
46.在另一个实施方式中,预警等级为2级时,处理器20可通过控制仪表盘上的灯光闪烁,并控制语音系统发出警示音,以提醒用户注意行车安全。
47.在某些实施方式中,目标检测模型检测场景图像中车辆的位置,可以是位于与当前车辆同一车道的车辆,还可以是位于与当前车辆不同车道的车辆,可以理解,无论车辆中车辆的位置是否位于车辆的正前方,只要判断出当前车辆与前车的相对距离及制动距离满足预警时,处理器便会对当前车辆进行预警,以保证行车安全。
48.本技术实施方式的预警方法、预警装置10和车300通过预设的目标检测模型,以检测当前车辆100前方的场景图像中的车辆200位置,并计算出当前车辆100与车辆200的相对距离,并且还根据当前车辆100的驾驶对象的疲劳状态,以确定制动距离,从而根据相对距离和制动距离,以对当前车辆100发出预警。可以理解,在对当前车辆100发出预警时,由于考虑到当前车辆100的驾驶对象的疲劳状态,从而能够更准确的对当前车辆100预警等级进行分级,以保证行车安全。此外,免去了在当前车辆100中安装用于测距的装置,以降低车300的制造成本。
49.请参阅图3、图4和图5,本技术实施方式的预警方法,还包括步骤:
50.02:在确定当前场景为预设场景的情况下,对场景图像进行预处理。
51.其中,请参阅图6,步骤02,包括步骤:
52.021:获取场景图像的每个像素的不同颜色通道的通道像素值;及
53.022:对每个像素中最小的通道像素值进行增强处理,以使得增强处理后的通道像素值等于所有像素中最大的通道像素值。
54.在某些实施方式中,预警装置10还包括预处理模块15,预处理模块15用于执行步骤02、步骤021和步骤022。即,预处理模块15用于在确定当前场景为预设场景的情况下,对场景图像进行预处理;获取场景图像的每个像素的不同颜色通道的通道像素值;及对每个像素中最小的通道像素值进行增强处理,以使得增强处理后的通道像素值等于所有像素中最大的通道像素值。
55.在某些实施方式中,处理器20用于执行步骤02、步骤021和步骤022。即,处理器20
用于在确定当前场景为预设场景的情况下,对场景图像进行预处理;获取场景图像的每个像素的不同颜色通道的通道像素值;及对每个像素中最小的通道像素值进行增强处理,以使得增强处理后的通道像素值等于所有像素中最大的通道像素值。
56.具体地,在处理器20通过目标检测模型检测场景图像中车辆200的位置之前,处理器20还可先确定场景图像是否为预设场景,并在场景图像为预设场景的情况下,对场景图像进行预处理。其中,预设场景可以是夜间场景、隧道场景、大雾场景等,可以理解,当场景图像为预设场景时,则摄像头30拍摄出的场景图像的质量较差,则会导致在处理器20通过目标检测模型检测场景图像中车辆200的位置时,得到的车辆200的位置的准确性较低。
57.因此,当场景图像为预设场景时,处理器20会先对场景图像进行预处理,从而提高场景图像的图像质量,以保证目标检测模型检测场景图像中车辆200的位置的准确性。
58.更具体地,在处理器20对场景图像进行预处理时,可先获取场景图像中每个像素的不同颜色通道的通道像素值。例如,场景图像可以是可见光图像,其每个像素中可包含红色(r)、绿色(g)和蓝色(b)三个通道,处理器20可获取每个像素的r通道、g通道和b通道三个通道的通道像素值。
59.接下来,处理器20还可对每个像素中,最小的通道像素值进行增强处理,以使得增强处理后的通道像素值等于所有像素中最大的通道像素值。
60.例如,场景图像中,某一像素的r通道的通道像素值为120、g通道的通道像素值为150、b通道的通道像素值为180,则r通道的通道像素值即为该像素的最小的通道像素,而若场景图像内的所有像素中,最大的r通道的通道像素值为200,则会将该像素的r通道的通道像素值增强至为200,如此,便可增强场景图像中,较暗的像素的亮度,以提高场景图像的图像质量,从而保证处理器20在通过目标检测模型检测场景图像中车辆200的位置的准确性。
61.此外,在某些实施方式中,处理器20在对每个像素中最小的通道像素值进行增强处理时,还可以是将增强处理后的通道像素值等于对应该通道像素值的像素中最大的通道像素值。
62.例如,场景图像中,某一像素的r通道的通道像素值为110、g通道的通道像素值为120、b通道的通道像素值为170。则该像素中最小的通道像素值为r通道的通道像素值,而该像素中最大的通道像素值为b通道的通道像素值。处理器20在对该像素中最小的通道像素值,即对r通道的通道像素值进行增强处理器20时,可以是将r通道的通道像素值增强至170,即等于b通道的通道像素值,从而既在一定程度上增强了该像素的亮度,还保证了该像素对应的图像不会严重失真,以提高了场景图像的图像质量,从而保证处理器20在通过目标检测模型检测场景图像中车辆200的位置的准确性。
63.请参阅图3、图4和图7,在某些实施方式中,部分步骤02:对场景图像进行预处理,还包括步骤:
64.0211:获取场景图像的每个像素中像素值最小的通道像素值,以作为暗通道像素值;
65.0212:根据每个像素的暗通道像素值生成暗通道图像;
66.0213:根据暗通道图像确定目标像素;
67.0214:根据目标像素的通道像素值和暗通道图像确定折射率;及
68.0215:基于预设的去雾算法对暗通道图像进行处理以生成预处理后的场景图像。
69.在某些实施方式中,预处理模块15用于执行步骤0211、步骤0212、步骤0213、步骤0214和步骤0215。即,预处理模块15用于获取场景图像的每个像素中像素值最小的通道像素值,以作为暗通道像素值;根据每个像素的暗通道像素值生成暗通道图像;根据暗通道图像确定目标像素;根据目标像素的通道像素值和暗通道图像确定折射率;及基于预设的去雾算法对暗通道图像进行处理以生成预处理后的场景图像。
70.在某些实施方式中,处理器20用于执行步骤0211、步骤0212、步骤0213、步骤0214和步骤0215。即,处理器20用于获取场景图像的每个像素中像素值最小的通道像素值,以作为暗通道像素值;根据每个像素的暗通道像素值生成暗通道图像;根据暗通道图像确定目标像素;根据目标像素的通道像素值和暗通道图像确定折射率;及基于预设的去雾算法对暗通道图像进行处理以生成预处理后的场景图像。
71.具体地,预设场景可包括有大雾场景。其中,处理器20可通过车300的天气服务,以判断当前天气是否为雾天,当天气为雾天时,便可确定当前场景为大雾场景。当当前场景为大雾场景时,处理器20对大雾场景的场景图像的预处理方式如下:
72.处理器20先获取场景图像中每个像素中像素值最小的通道像素值,以作为暗通道像素值。例如,场景图像中,某一像素的r通道的通道像素值为150,g通道的通道像素值为160,b通道的通道像素值为200,则该像素对应的暗通道像素值即为r通道的通道像素值150。如此,处理器20则可获取到场景图像中所有像素对应的暗通道像素值。
73.接下来,处理器20便可根据每个像素的暗通道像素值,以形成暗通道图像。可以理解,暗通道图像由每个像素中像素值最小的通道像素值组成。
74.进一步地,处理器20便可根据暗通道图像,以确定目标像素。其中,目标像素为场景图像中天空区域对应的像素。
75.需要说明的是,针对于大雾场景下的场景图像,天空区域中像素的像素亮度,即像素值是大于其他区域中像素的像素值的。因此,在处理器20获取得到暗通道图像后,暗通道图像中像素值最大的像素,即对应场景图像中天空区域内的像素。
76.如此,处理器20获取得到暗通道图像后,可通过暗通道图像中像素值最大的像素,以获取场景图像中的天空区域内的像素,即目标像素。
77.在处理器20确定目标像素后,则可根据目标像素的通道像素值和暗通道图像,以确定折射率。其中,折射率的计算公式如下述公式(1)所示。
[0078][0079]
具体的,t(x,y)即为折射率,a为目标像素,a(1)、a(2)、a(3)分别为目标像素在场景图像中的三个通道,即r通道、g通道和b通道的通道像素值,ω∈(0,1)作为调节参数,用于调节去雾程度,本技术中ω取值为0.95。i
dark
(x,y)为暗通道图像中的暗通道像素的像素值,x、y为暗通道图像中每个暗通道像素的坐标。
[0080]
可以理解,处理器20可根据上述公式,以计算出目标图像与暗通道图像中每个像素的折射率,即暗通道图像中每个像素均对应有折射率。例如,暗通道图像中,有100个像素,则对应有100个折射率。
[0081]
在处理器20确定目标像素和暗通道图像中的每个像素的折射率后,处理器20便可根据预设的去雾算法,以对暗通道图像进行去雾处理,以生成预处理后的场景图像。可以理
解,经过预处理后的场景图像,相较于原本的大雾场景下的场景图像,雾霾区域较少,即图像质量较好。其中,预设的去雾算法如下公式(2)所示。
[0082][0083]
其中,c∈{r,g,b},例如,ar则为目标像素在r通道的通道像素值,ab则为目标像素在b通道的通道像素值。jc(x,y)为目标图像中每个像素的通道像素值,具体与c的取值有关。t0为t(x,y)中的最小值,即目标像素和暗通道图像中的所有像素的折射率中,最小的折射率。
[0084]
当t0取t(x,y)中的最小值时,可减少噪声的干燥,以保证在大雾场景的场景图像中,非常密集的雾霾区域内,仍保留少量的雾霾,以防止场景图像的失真。如此,既去除了场景图像的雾霾,还防止了场景图像的失真程度,以更全面的提高场景图像的图像质量。
[0085]
请参阅图8,本技术实施方式的预警方法中,当处理器20对预设场景的场景图像进行预处理后,在处理器20根据目标检测模型检测场景图像中车辆200的位置时,便是检测预处理后的场景图像中车辆200的位置,如检测去雾处理后的大雾场景下的场景图像中的车辆200的位置,从而提高了处理器20在通过目标检测模型检测场景图像中车辆200的位置的准确性。
[0086]
请参阅图3、图4和图9,在某些实施方式中,部分步骤02:对场景图像进行预处理,还包括步骤:
[0087]
0216:根据预设的对数缩放函数对场景图像进行处理,以生成第一处理图像;
[0088]
0217:根据预设的指数函数修改场景图像的局部对比度并衰减高强度像素,以生成第二处理图像;
[0089]
0218:基于预设处理模型融合第一处理图像和第二处理图像以生成第三处理图像;
[0090]
0219:基于预设的累积分布函数提高第三处理图像的整体亮度,以生成第四处理图像;及
[0091]
0220:基于预设的归一化函数来缩放第四处理图像的像素值,以生成预处理后的场景图像,缩放后像素值位于预设像素范围内。
[0092]
在某些实施方式中,预处理模块15用于执行步骤0216、步骤0217、步骤0218、步骤0219和步骤0220。预处理模块15用于根据预设的对数缩放函数对场景图像进行处理,以生成第一处理图像;根据预设的指数函数修改场景图像的局部对比度并衰减高强度像素,以生成第二处理图像;基于预设处理模型融合第一处理图像和第二处理图像以生成第三处理图像;基于预设的累积分布函数提高第三处理图像的整体亮度,以生成第四处理图像;及基于预设的归一化函数来缩放第四处理图像的像素值,以生成预处理后的场景图像,缩放后像素值位于预设像素范围内。
[0093]
在某些实施方式中,处理器20用于执行步骤0216、步骤0217、步骤0218、步骤0219和步骤0220。即,处理器20用于根据预设的对数缩放函数对场景图像进行处理,以生成第一处理图像;根据预设的指数函数修改场景图像的局部对比度并衰减高强度像素,以生成第二处理图像;基于预设处理模型融合第一处理图像和第二处理图像以生成第三处理图像;基于预设的累积分布函数提高第三处理图像的整体亮度,以生成第四处理图像;及基于预
设的归一化函数来缩放第四处理图像的像素值,以生成预处理后的场景图像,缩放后像素值位于预设像素范围内。
[0094]
具体地,预设场景还可以包括夜间场景,其中,夜间场景不局限于是夜间,还可以是当前车辆100驶入隧道时,也可以是夜间场景。处理器20可通过车辆200中的时间,以判断当前时间是否是夜间,还可通过地图服务以判断当前车辆100是否驶入隧道。可以理解,当当前时间为夜晚,如20点、21点等时,处理器20便判断当前场景为夜间场景。或者,当处理器20获取当前车辆100驶入隧道时,也可确定当前场景为夜间场景。
[0095]
更具体地,当处理器20确定当前场景为夜间场景时,处理器20会对场景图像进行预处理方式如下:
[0096]
处理器20根据预设的对数函数对场景图像进行处理,以生成第一处理图像。其中,预设的对数函数,如下述公式(3)所示。
[0097][0098]
其中,x为输入的场景图像,i1为通过对数缩放函数,生成的第一处理图像。
[0099]
处理器20还可根据预设的指数函数修改场景图像的局部对比度并衰减高强度像素,以生成第二处理图像。其中,高强度像素指场景图像中亮度较高的像素。预设的指数函数,如下述公式(4)所示。
[0100]
i2=1-exp(-x)(4)
[0101]
其中,i即为第二处理图像。
[0102]
然后,处理器20可基于预设处理模型融合第一处理图像和第二处理图像,以生成第三处理图像。其中,预设处理模型可以是经典对数图像处理模型(logarithmimageprocessing,lip),具体公式如下述公式(5)所示。
[0103][0104]
其中,δ为控制增强过程中的标量,在增强过程中加入δ可避免第三处理图像中的像素产生不合适的像素值。i3即为第三处理图像。
[0105]
在处理器20得到第三处理图像后,处理器20便可基于预设的累计分布函数,以通过第三处理图像的整体亮度,以生成第四处理图像。其中,预设的累计分布函数如下述公署(6)所示。
[0106]
i4=erf(γ*arctan(exp(i3))-0.5*i3)(6)
[0107]
其中,i4即为第四处理图像,erf函数为误差函数,用于增加方程的曲线变换,以提高第三处理图像中暗图像区域的亮度,γ为图像增强量,取值为2≤γ≤7,数值越高,则得到的第四处理图像的亮度越高,再通过减去0.5*i3,即一半的第三处理图像的色调,以使第四处理图像与人眼观察到的场景非常相似,即提高场景图像的质量。
[0108]
最后,在处理器20得到第四处理图像后,处理器20还可根据预设的归一化函数,来缩放第四处理图像中所有像素的像素值,以生成预处理后的场景图像。其中,缩放后的像素值位于预设的像素范围内,预设的像素范围为0到255。例如,在对第四处理图像进行缩放后,若缩放后的第四处理图像中,出现像素值大于255的像素,则将其修正至255。
[0109]
预设的归一化函数如下述公式(7)所示。
[0110][0111]
其中,i5即为预处理后的场景图像。经过归一化处理后的第四处理图像,可是缩放后的像素值位于预设的像素范围内,以消除第四处理图像中发白的部分,从而提高预处理后的场景图像的图像质量。
[0112]
请参阅图8,同理,本技术实施方式的预警方法中,当处理器20对预设场景的场景图像进行预处理后,在处理器20根据目标检测模型检测场景图像中车辆200的位置时,便是检测预处理后的场景图像中车辆200的位置,如检测提亮处理后的夜间场景下的场景图像中的车辆200的位置,从而提高了处理器20在通过目标检测模型检测场景图像中车辆200的位置的准确性。
[0113]
请参阅图3、图4和图10,在某些实施方式中,部分步骤02:对场景图像进行预处理,还包括步骤:
[0114]
0221:获取场景图像对应的亮度图像;
[0115]
0222:根据预设的对数函数对场景图像和亮度图像进行处理,以生成第五处理图像和第六处理图像;及
[0116]
0223:基于预设的中心环绕函数融合第五处理图像和第六处理图像,以生成预处理后的场景图像。
[0117]
在某些实施方式中,预处理模块15用于执行步骤0221、步骤0222和步骤0223。预处理模块15用于获取场景图像对应的亮度图像;根据预设的对数函数对场景图像和亮度图像进行处理,以生成第五处理图像和第六处理图像;及基于预设的中心环绕函数融合第五处理图像和第六处理图像,以生成预处理后的场景图像。
[0118]
在某些实施方式中,处理器20用于执行步骤0216、步骤0217、步骤0218、步骤0219和步骤0220。即,处理器20用于获取场景图像对应的亮度图像;根据预设的对数函数对场景图像和亮度图像进行处理,以生成第五处理图像和第六处理图像;及基于预设的中心环绕函数融合第五处理图像和第六处理图像,以生成预处理后的场景图像。
[0119]
具体地,预设场景可包括有强光场景,处理器20可通过当前场景的环境光的强度,以判断该当前场景是否为强光场景。当确定当前场景为强光场景时,处理器20还可获取场景图像对应的亮度图像。其中,亮度图像中每个像素的像素值可反映场景图像中每个像素的亮度。
[0120]
接下来,处理器20可根据预设的对数函数,对场景图像和亮度图像进行处理,以生成第五处理图像和第六处理图像。
[0121]
其中,第五处理图像为场景图像中每个像素的像素值取对数后得到的图像,第六处理器图像为亮度图像中每个像素的像素值取对数后得到的图像。
[0122]
更具体地,在当前场景为强光场景,则较强的光照会影响场景图像的质量,导致不能更好的显示图像的细节信息。因此,需分离入射光亮,即亮度图像,以对场景图像进行强光抑制处理。
[0123]
更具体地,根据上述可知,在强光环境下,需分离亮度图像,而场景图像中每个像素的像素值、亮度图像中每个像素的像素值的关系式如下述公式(8)所示。
[0124]
i(x,y)=l(x,y)*r(x,y)(8)
[0125]
其中,i(x,y)为场景图像中坐标为(x,y)的像素的像素值,l(x,y)为亮度图像中坐标为(x,y)的像素的像素值,而r(x,y)则为场景图像中坐标为(x,y)的像素的像素值,去除亮度图像中坐标为(x,y)的像素的像素值后的像素的像素值,即经过预处理后的场景图像中坐标为(x,y)的像素的像素值。
[0126]
如此,依据上述公式(8),便可基于预设的对数函数对场景图像和亮度图像处理,以得到下述公式(9)。
[0127]
logr(x,y)=logi(x,y)-logl(x,y)(9)
[0128]
其中,logr(x,y)为预处理后的场景图像中坐标为(x,y)的像素的像素值,logi(x,y)为第五处理图像中坐标为(x,y)的像素的像素值,logl(x,y)为第六处理图像中坐标为(x,y)的像素的像素值。
[0129]
因此,处理器20可基于预设的中心环绕函数,融合第五处理图像和第六处理图像,以生成预处理后的场景图像。其中,预设的中心环绕函数为如下述公式(10)所示,中心环绕函数为低通函数,其能够用于估算亮度图像对应的场景图像的低频部分。
[0130][0131]
其中,γ为常量矩阵,使得∫∫f(x,y)dxdy=1。c为高斯函数的尺度参数,越小动态范围压缩额能力越强,但图像颜色容易失真。一般地,c取值为90,以使得灰度动态范围压缩和对比度增强达到好的平衡。
[0132]
进一步地,第六处理图像中每个像素的像素值可依据预设的中心环绕函数和第五处理图像中每个像素的像素值得到。如下述公式(11)所示。
[0133]
logl(x,y)=logi(x,y)*logf(x,y)(11)
[0134]
可以理解,第六处理图像中坐标为(x,y)的像素的像素值为第五处理图像中坐标为(x,y)的像素的像素值与中心环绕函数的乘积。
[0135]
如此,预处理后的场景图像中每个像素的像素值便为第五处理图像中每个像素的像素值,与第五处理图像中每个像素的像素值与中心环绕函数的乘积的差值。即,logr(x,y)=logi(x,y)-logi(x,y)*logf(x,y)。
[0136]
如此,便可对强光环境下的场景图像进行处理,以保证图像质量,从而保证检测场景图像中车辆的位置的准确性。
[0137]
请参阅图3、图4和图11,在某些实施方式中,步骤03:基于预设的目标检测模型检测场景图像中车辆200的位置,包括步骤:
[0138]
032:根据预设的训练集训练目标检测模型至收敛;
[0139]
033:根据收敛后的目标检测模型检测场景图像,以输出检测位置及置信度;及
[0140]
034:确定置信度大于预设置信度阈值的检测位置为车辆200的位置。
[0141]
在某些实施方式中,检测模块12用于执行步骤031、步骤032和步骤033。即,检测模块12用于根据预设的训练集训练目标检测模型至收敛;根据收敛后的目标检测模型检测场景图像,以输出检测位置及置信度;及确定置信度大于预设置信度阈值的检测位置为车辆200的位置。
[0142]
在某些实施方式中,处理器20用于执行步骤031、步骤032和步骤033。即,处理器20用于根据预设的训练集训练目标检测模型至收敛;根据收敛后的目标检测模型检测场景图
像,以输出检测位置及置信度;及确定置信度大于预设置信度阈值的检测位置为车辆200的位置。
[0143]
具体地,在处理器20根据预设的目标检测模型检测场景图像中车辆200的位置前,为保证目标检测模型检测场景图像的准确性,需先对目标检测模型进行训练。
[0144]
更具体地,处理器20可根据预设的训练集,训练目标检测模型至收敛。其中,预设的训练集可包括正样本和负样本。正样本为包含车辆200的场景图像,负样本为不包含车辆200的场景图像。
[0145]
在一个实施方式中,正样本可以是包含市区、乡村和高速公路等场景采集的图像,且每张图像中均包含有车辆200及障碍物。负样本可以是不含车辆200的交通场景图像,其可包括交通信号灯、交通标志等。
[0146]
如此,在处理器20通过正样本和负样本训练目标检测模型时,正样本可训练目标检测模型检测车辆200的准确度,负样本可消除目标检测模型对交通信号灯、交通标志灯的误识别。
[0147]
其中,在目标检测模型识别预设的训练集的车辆200时,便会输出训练集中车辆200的位置,及该位置为车辆200的概率。处理器20通过训练集训练目标检测模型,直至目标检测模型检测某一位置为车辆200的概率不再发生变化时,则说明目标检测模型收敛。
[0148]
接下来,处理器20便可根据收敛后的目标检测模型检测场景图像,以输出检测位置及置信度。其中,目标检测模型检测场景图像时,会输出多个检测位置,及每个检测位置对应的置信度。
[0149]
处理器20会比较每个检测位置对应的置信度与预设置信度阈值的大小,以确定车辆200的位置。当处理器20确定某一检测位置对应的置信度大于预设置信度阈值时,处理器20便会确定该检测位置为车辆200的位置。
[0150]
如此,处理器20通过训练目标检测模型,再通过训练后的目标检测模型检测场景图像中的车辆200位置,并将置信度大于预设置信度阈值的检测位置作为车辆200位置,从而保证目标检测模型检测场景图像的准确性。
[0151]
请参阅图3、图4和图12,在某些实施方式中,步骤03:根据位置计算当前车辆100与车辆200的相对距离,包括步骤:
[0152]
035:根据车辆200的位置和采集场景图像的摄像头30的内参计算相对距离。
[0153]
在某些实施方式中,计算模块13用于执行步骤035。即,计算模块13用于根据车辆200的位置和采集场景图像的摄像头30的内参计算相对距离。
[0154]
在某些实施方式中,处理器20用于执行步骤035。即,处理器20用于根据车辆200的位置和采集场景图像的摄像头30的内参计算相对距离。
[0155]
具体地,在处理器20根据车辆200的位置,计算当前车辆100与车辆200的相对距离时,可根据车辆200的位置和场景图像的摄像头30的内参计算相对距离。
[0156]
更具体地,处理器20利用相似三角形原理和坐标系转换确定车辆200与摄像头30之间的距离,即车辆200与当前车辆100之间的距离。具体步骤如下:
[0157]
处理器20先对摄像头30进行标定,以获取摄像头30的内参矩阵k。
[0158][0159]
其中,f
x
为摄像头30在x方向上的焦距,fy为摄像头30在y方向上的焦距,u0、v0分别为图像坐标系的原点在像素坐标系上的横坐标和纵坐标。
[0160]
进一步地,在处理器20得到场景图像中车辆200的位置后,便可得到车辆200在场景图像中的矩形区域,以选取该矩形区域下边框的中心点,与摄像头30的光心延长交于地面得到的测距参考点a。
[0161]
接着,处理器20便可计算测距参考点a在驾驶坐标系的y轴上的分量点p,在驾驶坐标系的y轴的分量y。具体计算公式如下公式(8)所示。
[0162][0163]
其中,h为摄像头30的高度,α为摄像机的光轴与地面的夹角,v为p点在场景图像上的投影点的纵坐标。
[0164]
同理,处理器20还可计算测距参考点a在驾驶坐标系的x轴上的分量点q,在驾驶坐标系x轴的分量x。具体计算公式如下公式(9)所示。
[0165][0166]
其中,u为q点在场景图像上的投影点的横坐标。
[0167]
最后,处理器20便可根据分量y和分量x,以计算当前车辆100和车辆200的相对距离。具体计算公式如下公式(10)所示。
[0168][0169]
其中,场景图像的分辨率为m*n,摄像头30的传感器感光元器件尺寸为a*b,单位为毫米。
[0170]
如此,处理器20便可根据车辆200的位置和采集场景图像的摄像头30的内参计算出相对距离,从而根据相对距离,对用户发出预警。
[0171]
请参阅图3、图4和图13,在某些实施方式中,步骤07:根据相对距离和制动距离对当前车辆100预警,包括步骤:
[0172]
071:根据相对距离和制动距离的差值确定预警等级,差值越大,预警等级越低;
[0173]
073:根据预警等级确定对应的目标预警方式;及
[0174]
075:根据目标预警方式进行预警。
[0175]
在某些实施方式中,预警模块14用于执行步骤071、步骤073和步骤075。即,预警模块14用于根据相对距离和制动距离的差值确定预警等级,差值越大,预警等级越低;根据预警等级确定对应的目标预警方式;及根据目标预警方式进行预警。
[0176]
在某些实施方式中,预警模块14用于执行步骤071、步骤073和步骤075。即,处理器20用于根据相对距离和制动距离的差值确定预警等级,差值越大,预警等级越低;根据预警等级确定对应的目标预警方式;及根据目标预警方式进行预警。
[0177]
具体地,在处理器20根据相对距离和制动距离对当前车辆100进行预警时,处理器20可先根据相对距离和制动距离的差值,确定预警等级。
[0178]
其中,相对距离和制动距离的差值越大时,预警等级越低。可以理解,相对距离和制动距离的差值越大,则说明当前车辆100被用户操控以停下车辆时,当前车辆100和车辆200之间的距离越大,那么需要进行预警的等级便越低。例如,相对距离和制动距离的差值为100米时,则预警等级为1级。又例如,相对距离和制动距离的差值为50m时,则预警等级为2级。
[0179]
接下来,处理器20便可根据预警等级确定对应的目标预警方式。可以理解,每种预警等级对应的目标预警方式均不同。例如,当预警等级为1级时,处理器20可控制当前车辆100的仪表盘发起灯光闪烁,以对用户进行预警。又例如,当预警等级为2级时,处理器20可控制当前车辆100的语音系统发出提醒,以对用户进行预警。还例如,当预警等级为3级时,处理器20还可控制当前车辆100逐渐降低车速,并对用户发出语音提示,以防止用户误认为当前车辆100发生故障,避免用户受到惊吓。
[0180]
如此,当处理器20确定目标预警方式后,便可控制当前车辆100发起预警,以防止当前车辆100与前车200发生碰撞,以保证用户的人身安全。
[0181]
在某些实施方式中,处理器20还可根据用户的疲劳状态,以确定缓冲距离。其中,缓冲距离为用户控制当前车辆100停止后,当前车辆100和前车200之间的距离。缓冲距离可与用户的疲劳状态成正比,即,用户的疲劳状态越严重时,缓冲距离便越大,以保证用户有足够的反应时间。其缓冲距离的最大值可设定为50米,即处理器20计算用户控制当前车辆100停止后,当前车辆100和前车200之间的距离在50米之内,处理器20便会不控制当前车辆100发出预警。
[0182]
下面以缓冲距离为q,制动距离为w,相对距离为d进行距离说明。可以理解,d-w即为用户控制当前车辆100停止后,当前车辆100和前车200之间的实际距离。而q为处理器20根据用户的疲劳状态,预估的安全距离。那么,处理器20便可根据缓冲距离和实际距离的关系,以确定预警状态。
[0183]
例如,当q《d-w《50(预估的最大安全距离)时,则说明用户在控制当前车辆100停止后,当前车辆100与前车200之间的实际距离大于安全距离,此时预警等级可以是1级,处理器20可通过控制仪表盘上的灯光闪烁,以提醒用户注意行车安全。
[0184]
又例如,当q≥d-w时,则说明用户在控制当前车辆100停止时,当前车辆100与前车200之间的实际距离小于安全距离,此时,预警等级可以是2级,处理器20可通过控制仪表盘上的灯光闪烁,并控制语音系统发出警示音,以提醒用户注意行车安全。
[0185]
如此,处理器20通过用户的疲劳状态确定缓冲距离,且设定缓冲距离的最大值为50米,可保证用户在控制当前车辆100停止后,当前车辆100与前车200之间的实际距离大于50米,以进一步保证用户的行车安全。
[0186]
请参阅图14,本技术实施方式还提供一种包含计算机程序501的非易失性计算机可读存储介质500。当计算机程序501被一个或多个处理器20执行时,使得一个或多个处理器20执行上述任一实施方式的预警方法。
[0187]
例如,计算机程序501被一个或多个处理器20执行时,使得处理器20执行以下预警方法:
[0188]
01:采集当前车辆100前方的场景图像;
[0189]
03:基于预设的目标检测模型检测场景图像中车辆200的位置,并根据位置计算当前车辆100与车辆200的相对距离;
[0190]
05:获取当前车辆100的驾驶对象的疲劳状态,并根据疲劳状态确定制动距离;及
[0191]
07:根据相对距离和制动距离对当前车辆100预警。
[0192]
又例如,计算机程序501被一个或多个处理器20执行时,使得处理器20执行以下预警方法:
[0193]
021:获取场景图像的每个像素的不同颜色通道的通道像素值;及
[0194]
022:对每个像素中最小的通道像素值进行增强处理,以使得增强处理后的通道像素值等于所有像素中最大的通道像素值。
[0195]
在本说明书的描述中,参考术语“某些实施方式”、“一个例子中”、“示例地”等的描述意指结合实施方式或示例描述的具体特征、结构材料或者特点包含于本技术的至少一个实施方式或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施方式或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施方式或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
[0196]
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本技术的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本技术的实施例所属技术领域的技术人员所理解。
[0197]
尽管上面已经示出和描述了本技术的实施方式,可以理解的是,上述实施方式是示例性的,不能理解为对本技术的限制,本领域的普通技术人员在本技术的范围内可以对上述实施方式进行变化、修改、替换和变型。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1