一种驾驶辅助系统的报警方法、装置及电子设备与流程

文档序号:22388820发布日期:2020-09-29 17:52阅读:290来源:国知局
一种驾驶辅助系统的报警方法、装置及电子设备与流程

本申请涉及智能驾驶领域,特别涉及一种驾驶辅助系统的报警方法、装置及电子设备。



背景技术:

安全驾驶辅助系统(safedriverassistantsystem,sdas)可利用安装在车辆上的监控设备(比如:摄像机和传感器)采集车辆内外的环境参数,进行静、动态物体的识别、侦测与跟踪处理,从而在必要的情况下向驾驶员提示可能存在的危险,以有效降低事故发生的概率,减轻事故伤害。

在相关技术中,通常利用深度学习模型对监控设备采集的图像进行处理,输出图像中待识别的目标对象的位置信息和类别信息,进一步地,查看输出结果是否满足预设的报警策略,并在满足报警策略时报警。

然而,在对深度学习模型训练的过程中,通常利用标定待识别的目标对象的位置信息和类别信息的图像作为训练样本。而由于应用场景的复杂性,监控设备采集的图像中往往包含丰富的信息,可能影响深度学习模型对待识别的目标对象的识别率,进而导致误报警。



技术实现要素:

有鉴于此,本申请提供一种驾驶辅助系统的报警方法、装置及电子设备,用于改善深度学习模型的识别率,进而降低驾驶辅助系统的误报警几率。

具体地,本申请是通过如下技术方案实现的:

一种驾驶辅助系统的报警方法,包括:

将采集到的当前图像输入至已训练的深度学习模型,以由所述深度学习模型对所述当前图像中的目标对象进行识别;其中,所述深度学习模型根据指定训练样本集中的样本图像训练得到,所述指定训练样本集包括携带指定负样本的样本图像,所述样本图像的指定负样本指示的位置不存在目标对象;所述训练样本集中的样本图像的样本标签包括目标属性,该目标属性表征样本标签对应的目标对象是否被遮挡;

基于所述深度学习模型的识别结果确定是否满足预设的报警策略,若是,输出报警信息。

在所述驾驶辅助系统的报警方法中,所述深度学习模型通过以下方法训练得到:

将所述指定训练样本集中的样本图像输入至所述深度学习模型,利用所述深度学习模型输出所述样本图像中每一目标对象的位置信息和类别信息,确定上述位置信息和上述类别信息与已标定的样本标签之间的识别差异;其中,所述样本标签指示样本图像中目标对象的位置信息、类别信息;

从所述识别差异中选择非遮挡目标对象对应的识别差异,并根据预设的损失函数计算非遮挡目标对象对应的识别差异对应的损失参数;其中,所述损失函数中对所述指定负样本的惩罚系数被加大;

依据所述损失参数调整所述深度学习模型的网络参数,直至所述网络参数满足背景误检要求。

在所述驾驶辅助系统的报警方法中,所述基于所述深度学习模型的识别结果确定是否满足预设的报警策略,包括:

对所述深度学习模型识别出的每一目标对象进行跟踪,以根据跟踪数据确定该目标对象在所述当前图像中是否满足预设的报警条件;

若是,确定满足所述报警策略。

在所述驾驶辅助系统的报警方法中,在判断出该目标对象满足所述报警条件之后,且在确定满足所述报警策略之前,进一步包括:

判断所述当前图像的前n个图像中该目标对象满足所述报警条件的图像数量是否大于等于预设阈值m,若是,继续执行确定满足所述报警策略的步骤。

在所述驾驶辅助系统的报警方法中,所述根据跟踪数据确定该目标对象在所述当前图像中是否满足预设的报警条件,包括:

检查该目标对象沿着指定方向移动的移动量是否达到预设的移动阈值;

若达到所述移动阈值,确定该目标对象的目标框的大小偏移量是否超出预设的偏移量阈值;

若未超出所述偏移量阈值,检查所述当前图像之前存在该目标对象的图像是否达到预设的帧数阈值;

若达到所述帧数阈值,确定该目标对象在所述当前图像中满足所述报警条件。

一种驾驶辅助系统的报警装置,包括:

识别单元,用于将采集到的当前图像输入至已训练的深度学习模型,以由所述深度学习模型对所述当前图像中的目标对象进行识别;其中,所述深度学习模型根据指定训练样本集中的样本图像训练得到,所述指定训练样本集包括携带指定负样本的样本图像,所述样本图像的指定负样本指示的位置不存在目标对象;所述训练样本集中的样本图像的样本标签包括目标属性,该目标属性表征样本标签对应的目标对象是否被遮挡;

报警单元,用于基于所述深度学习模型的识别结果确定是否满足预设的报警策略,若是,输出报警信息。

在所述驾驶辅助系统的报警装置中,所述装置还包括训练单元,用于:

将所述指定训练样本集中的样本图像输入至所述深度学习模型,利用所述深度学习模型输出所述样本图像中每一目标对象的位置信息和类别信息,确定上述位置信息和上述类别信息与已标定的样本标签之间的识别差异;其中,所述样本标签指示样本图像中目标对象的位置信息、类别信息;

从所述识别差异中选择非遮挡目标对象对应的识别差异,并根据预设的损失函数计算非遮挡目标对象对应的识别差异对应的损失参数;其中,所述损失函数中对所述指定负样本的惩罚系数被加大;

依据所述损失参数调整所述深度学习模型的网络参数,直至所述网络参数满足背景误检要求。

在所述驾驶辅助系统的报警装置中,所述报警单元,进一步用于:

对所述深度学习模型识别出的每一目标对象进行跟踪,以确定该目标对象在所述当前图像中是否满足预设的报警条件;

若是,确定满足所述报警策略。

在所述驾驶辅助系统的报警装置中,在判断出该目标对象满足所述报警条件之后,且在确定满足所述报警策略之前,所述报警单元,进一步用于:

判断所述当前图像的前n个图像中该目标对象满足所述报警条件的图像数量是否大于等于预设阈值m,若是,继续执行确定满足所述报警策略的步骤。

在所述驾驶辅助系统的报警装置中,所述报警单元,进一步用于:

检查该目标对象沿着指定方向移动的移动量是否达到预设的移动阈值;

若达到所述移动阈值,确定该目标对象的目标框的大小偏移量是否超出预设的偏移量阈值;

若未超出所述偏移量阈值,检查所述当前图像之前存在该目标对象的图像是否达到预设的帧数阈值;

若达到所述帧数阈值,确定该目标对象在所述当前图像中满足所述报警条件。

一种电子设备,所述电子设备包括存储器、处理器及存储在存储器上并可在处理器上运行的机器可执行指令,其中,所述处理器执行所述机器可执行指令时实现如下方法:

将采集到的当前图像输入至已训练的深度学习模型,以由所述深度学习模型对所述当前图像中的目标对象进行识别;其中,所述深度学习模型根据指定训练样本集中的样本图像训练得到,所述指定训练样本集包括携带指定负样本的样本图像,所述样本图像的指定负样本指示的位置不存在目标对象;所述训练样本集中的样本图像的样本标签包括目标属性,该目标属性表征样本标签对应的目标对象是否被遮挡;

基于所述深度学习模型的识别结果确定是否满足预设的报警策略,若是,输出报警信息。

在本申请技术方案中,由于通过增加了指定负样本和目标属性的样本图像训练深度学习模型,可优化训练结果,使得深度学习模型从当前图像中获得更准确的识别结果;进一步地,通过上述报警策略对识别结果进行验证,从而能够在必要的时候输出报警信息,有效地降低了误报警的几率,提高了用户体验。

附图说明

图1是本申请示出的一种目标框的示意图;

图2是本申请示出的一种驾驶辅助系统的报警方法的流程图;

图3是本申请示出的一种驾驶辅助系统的报警装置的实施例框图;

图4是本申请示出的一种电子设备的硬件结构图。

具体实施方式

为了使本技术领域的人员更好地理解本发明实施例中的技术方案,并使本发明实施例的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明实施例中的技术方案作进一步详细的说明。

对于安全驾驶辅助系统的深度学习模型而言,车辆的可行驶区域内和可行驶区域外均可能存在待识别的目标对象,比如:目标对象可以包括道路上行驶的机动车、非机动车、人员等,以及,可行驶区域外(车道护栏之外、绿化带之外、台阶上等车辆无法行驶的区域)的机动车、非机动车、人员等。

其中,在可行驶区域外,目标对象可能被背景(除了待识别的目标以外的其它物体)遮挡,此类目标对象可作为遮挡目标对象,而未被背景遮挡的目标对象可作为非遮挡目标对象。而在行驶区域内,所有目标对象均认为是非遮挡目标对象。

上述深度学习模型可以包括但不限于resnet、googlenet、squeezenet等网络模型,也可以是其它能够被训练用于识别图像中目标的网络模型。

由于遮挡目标对象的目标框内包含有较多背景信息,在训练深度学习模型时可能对网络参数产生干扰,导致后续深度学习模型会将图像中的背景识别为目标对象。参见图1,为本申请示出的一种目标框的示意图,如图1所示,图像中的虚线框为深度学习网络识别出的目标框,而目标框内的黑色部分为目标对象,该目标对象未被背景遮挡,然而目标框内除目标对象以外还存在较多背景信息。而当目标对象为遮挡目标对象时,目标框内会存在更多的背景信息,从而影响深度学习模型的训练结果。

为提高本申请技术方案中深度学习模型对待识别的目标对象的识别率,需优化训练样本和深度学习模型的损失(loss)计算方式。

为使深度学习模型的识别过程中专注于待识别的目标对象,本申请为训练样本添加目标属性,该目标属性可表征样本图像中的目标对象是遮挡目标对象或非遮挡目标对象。

作为一种实施例,可在样本标签“位置信息”和“类别信息”后增加一个标识位,该标识位填1则表示该标签指示的目标对象为非遮挡目标对象,该标识位填0则标识该标签指示的目标对象为遮挡目标对象。

需要指出的是,上述位置信息可以是目标对象在图像中的坐标信息,比如,该位置信息可以是(x1,y1,x2,y2),其中,(x1,y1)表示目标对象的目标框(boundingbox)的左上角坐标,(x2,y2)表示目标框的右下角坐标。

上述类别信息可以表征目标对象类别的标识。比如,深度学习模型被训练用于识别3类目标对象,则可用1、2、3分别表示三类目标对象。

由于应用场景的复杂性,监控设备采集的图像中包含丰富的信息,深度学习模型可能将目标对象以外的物体误识别为目标对象。比如:比如待识别的目标对象为车辆,由于有些复杂场景(目标对象极少出现的场景)不包含在样本集内,因此深度学习模型可能该场景内的灌木丛、斑驳的树影,高架栏杆等可能会误识别为车辆。

在这种情况下,可引入指定负样本降低除待识别的目标对象以外的物体对深度学习模型的影响。这里对通常的正样本和负样本进行说明:在训练过程中,深度学习模型在对图像进行目标对象检测时,会在图像上生成大量表征目标对象位置的候选框,通过计算每一候选框与图像上已标定的目标框的iou(intersectionoverunion,交并比),可将iou低于预设比值阈值的候选框作为负样本,表示该候选框指示的位置不存在目标对象;可将iou高于上述比值阈值的候选框作为正样本,表示该候选框指示的位置存在目标对象。

可见,正样本和负样本表征针对具体一个目标对象的位置而言的检测结果的正确性,正样本表示检测结果正确,负样本表示检测结果错误。

在相关技术中,负样本是深度学习模型自行比对检测结果和样本标签后得到的。本申请可增加指定负样本以提高深度学习模型的泛化能力。

其中,上述指定负样本可通过以下多种方式得到:

第一,在初始情况下,可以利用深度学习模型对训练样本进行识别,将识别结果与训练样本中实际存在目标对象的位置进行比较,检查出识别错误的位置信息(候选框),然后将上述位置信息作为后续训练的指定负样本。

第二,可将训练样本中不存在目标对象的图像作为携带指定负样本的图像。此时,指定负样本对应的位置信息可包含整张图像。

第三,可将特定场景的图像作为携带指定负样本的图像,作为一种例子,特定场景的图像中不存在目标对象。示例性的,上述特定场景是容易为深度学习模型产生错误的识别结果的场景,比如,特定场景可以包含不包含目标对象因此原来不存在于训练集的高速场景、隧道场景、乡村道路等。同样的,指定负样本对应的位置信息可包含整张图像。

获得携带上述指定负样本且标定了目标属性的样本图像后,可将基于大量样本图像构建指定训练样本集,后续通过该指定训练样本集中的样本图像对深度学习模型进行训练。

需要指出的是,对于上述指定负样本而言,其标定的“类别信息”为除待识别的目标对象的类别以外的其它类别。比如:若待识别的目标对象包括机动车、非机动车和人,相应地,类别信息分别为1、2、3,则指定负样本的类别信息可为4。

因此,对于图像中不包含目标对象的指定负样本,样本标签中的“位置信息”指示的目标框包含整个样本图像,“类别信息”为除待识别的目标对象的类别以外的其它类别。另外,对于指定负样本而言,“目标属性”填遮挡或非遮挡都可以。

在为训练样本添加目标属性和引入指定负样本后,需修改深度学习模型的损失计算方式。

由于行驶区域外的目标对象对车辆的安全行驶不会产生影响,而且遮挡目标对象可能会影响深度学习模型的识别能力,因此,在对深度学习模型训练时,可避免遮挡目标对象对深度学习模型的影响。在这种情况下,需修改深度学习模型的损失计算方式,使得遮挡目标对象对应的识别结果在计算损失时既不作为正样本,也不作为负样本,从而提升了非遮挡目标对象在训练过程中对深度学习模型的影响,进而提高了深度学习模型在后续执行应用功能时对待识别的目标对象的识别率。

在本申请一种可能的实施方式中,可为新引入的指定负样本加大惩罚项中的惩罚系数,使得深度学习模型在训练过程中更加关注到指定负样本对识别的影响,从而提高后续执行应用功能时对待识别的目标对象的识别率。

示例性的,可通过向电子设备下发修改指令以完成上述修改。电子设备接收到上述修改指令后,可根据上述修改指令修改上述深度学习模型的损失计算方式,使得修改后的损失计算方式与被遮挡的目标对象无关,并加大上述指定负样本在上述深度学习模型的损失函数中的惩罚系数。

在对深度学习模型的损失计算方式和训练样本做了上述修改以后,可将已构建的上述指定训练样本集中的样本图像输入至上述深度学习模型,利用上述深度学习模型输出样本图像中每一目标对象的位置信息和类别信息,然后确定上述位置信息和上述类别信息与已标定的样本标签之间的识别差异。

示例性的,对于任一目标对象而言,确定识别出的该目标对象的位置信息与该目标对象对应的样本标签中的位置信息的差异,以及,确定识别出的该目标对象的类别信息与该目标对象对应的样本表项中的类别信息的差异。

从上述识别差异中选择非遮挡目标对象对应的识别差异并根据上述修改后的损失函数计算非遮挡目标对象对应的识别差异对应的损失参数,该损失参数用于判定上述深度学习模型的识别准确性。损失参数越大,说明识别准确性越低。

作为一种实施例,可以依据上述损失参数调整上述深度学习模型的网络参数。

对上述深度学习模型进行迭代训练,直至上述深度学习模型的损失函数收敛,即损失参数趋近最小值,从而得到可以识别图像中的目标对象的深度学习模型。此时,上述深度学习模型的网络参数可以满足背景误检要求。

在训练得到上述深度学习模型后,可应用上述深度学习模型执行驾驶辅助系统的报警。

参见图2,为本申请示出的一种驾驶辅助系统的报警方法的流程图,该方法包括以下步骤:

步骤201:将采集到的当前图像输入至已训练的深度学习模型,以由所述深度学习模型对所述当前图像中的目标对象进行识别;其中,所述深度学习模型根据指定训练样本集中的样本图像训练得到,所述指定训练样本集包括携带指定负样本的样本图像,所述样本图像的指定负样本指示的位置不存在目标对象;所述训练样本集中的样本图像的样本标签包括目标属性,该目标属性表征样本标签对应的目标对象是否被遮挡。

上述方法可应用于电子设备,该电子设备可以是安装在车辆上的监控设备或与上述监控设备对接的其它智能设备。

在获得已训练的深度学习模型后,可利用上述深度学习模型识别采集到的当前图像中的待识别的目标对象。由于优化了训练样本和损失计算方式,本申请的深度学习模型可更准确地识别出当前图像中的目标对象。

对于每一帧图像,上述深度学习模型在识别完成后,可输出该图像中待识别的目标对象的“位置信息”和“类别信息”。

比如:深度学习模型可以输出一个矩阵,该矩阵表示为:

则表示图像中存在三个目标对象,第一个目标对象的位置信息为(x1,y1,x2,y2),类别信息为置信度0.7对应的类别;第二个目标对象的位置信息为(x3,y3,x4,y4),类别信息为置信度0.6对应的类别;第三个目标对象的位置信息为(x5,y5,x6,y6),类别信息为置信度0.7对应的类别。

步骤202:基于所述深度学习模型的识别结果确定是否满足预设的报警策略,若是,输出报警信息。

在实际应用中,电子设备会持续对采集到的图像进行处理以判断是否需要报警,而在从当前图像中识别出目标对象后,为区分连续的图像中识别出的目标对象,可对从当前图像中识别出的每一目标对象进行跟踪。这里,具体的跟踪方法可以是基于颜色的方法进行跟踪,在此不做限定。

在示出的一种实施方式中,电子设备首先可以确定每一目标对象在当前图像中是否满足预设的报警条件。

作为一种例子,上述报警条件可以包括:

(1)该目标对象沿着指定方向移动的移动量达到预设的移动阈值。

(2)该目标对象的目标框的大小偏移量未超出预设的偏移量阈值。

(3)所述当前图像之前的图像中存在该目标对象的图像达到预设的帧数阈值。

示例性的,电子设备首先可以检查每一目标对象沿着指定方向移动的移动量是否达到预设的移动阈值。作为一种例子,上述指定方向可以是靠近电子设备所在车辆的方向。

作为一种实施例,电子设备可以计算前后两帧图像之间每一目标对象的目标框的下边框的中点的移动量,然后基于当前图像之前的第一预设数量图像计算出的多个移动量,进而累计第一预设数量的图像中的总移动量,并将该总移动量与上述移动阈值进行比较。需要指出的是,目标对象可能并未存在于每一帧图像中,因此,基于连续n帧图像计算得到的移动量可能少于n-1个。

一方面,该总移动量未达到上述移动阈值,这种情况下,无需为该目标对象报警,继续跟踪该目标对象。

另一方面,该总移动量达到上述移动阈值,这种情况下,需进一步判断是否满足报警条件,具体详见下文相关描述。

作为另一种实施例,电子设备在跟踪过程中可确定每一目标对象的位置信息的位置偏移量,在从当前图像中识别出目标对象后,可基于当前图像中的上述位置偏移量修正该目标对象的在当前图像中的位置信息,从而实现更准确地定位。

比如:上述位置信息的位置偏移量为跟踪过程中确定的每一目标对象的目标框的下边框的中点的偏移量,电子设备可以基于该位置偏移量修正该目标对象的位置信息。

作为一种实施例,电子设备可计算前后两帧图像之间每一目标对象的修正后的目标框的下边框的中点的移动量,然后基于当前图像之前的第一预设数量图像计算出的多个移动量,进而累计第一预设数量的图像中的总移动量,并将该总移动量与上述移动阈值进行比较。

一方面,该总移动量未达到上述移动阈值,这种情况下,无需为该目标对象报警,继续跟踪该目标对象。

另一方面,该总移动量达到上述移动阈值,这种情况下,需进一步判断是否满足报警条件,具体详见下文相关描述。

由于深度学习模型仍有可能在识别过程中出错,将目标对象以外的物体识别为目标对象。而对于误识别的目标对象而言,其在各图像中的目标框不稳定,会出现忽大忽小的现象。因此,电子设备可通过目标框在各图像中的大小偏移量过滤误识别的目标对象。

当任一目标对象在指定方向的移动量达到上述移动阈值后,电子设备可以确定该目标对象的目标框的大小偏移量是否超出预设的偏移量阈值。

示例性的,目标框的大小偏移量可以是基于前后两帧图像识别出的目标框的面积的差值,或者,也可以是基于前后两帧图像识别出的目标框的下边框长度的差值。需要指出的是,目标对象可能并未存在于每一帧图像中,因此,基于连续n帧图像计算得到的大小偏移量可能少于n-1个。

电子设备基于当前图像和当前图像之前第一预设数量图像确定出任一目标对象在指定方向的移动量达到移动阈值后,可计算出当前图像和当前图像之前第二预设数量中多个该目标对象的目标框的大小偏移量。

作为一种实施例,电子设备可以计算上述目标框的大小偏移量的平均值,然后确定该平均值是否达到上述偏移量阈值。

一方面,该平均值达到上述偏移量阈值,则可以确定该目标对象为误识别的目标对象,在这种情况下,无需为该目标对象报警。

另一方法,该平均值未达到上述偏移量阈值,在这种情况下,需进一步判断是否满足上述报警条件,具体详见下文相关描述。

作为另一种实施例,电子设备可以选择上述目标框的大小偏移量的最大值,然后确定该最大值是否达到上述偏移量阈值。

一方面,该最大值达到上述偏移量阈值,则可以确定该目标对象为误识别的目标对象,在这种情况下,无需为该目标对象报警。

另一方面,该最大值未达到上述偏移量阈值,在这种情况下,需进一步判断是否满足上述报警条件,具体详见下文相关描述。

对于目标框的大小偏移量未超出上述偏移量阈值的目标对象,可进一步判断其是否为误识别的目标对象。对于误识别的目标对象而言,其在图像中出现的情况并不稳定。因此,电子设备可通过目标对象在各图像中出现次数来过滤误识别的目标对象。

当任一目标对象的目标框的大小偏移量未达到上述偏移量阈值时,电子设备可以确定当前图像之前存在该目标对象的图像是否达到预设的帧数阈值。

作为一种实施例,电子设备通过第一预设数量的图像确定该目标对象在指定方向的移动量达到上述移动阈值,并且通过上述第二预设数量的图像确定该目标对象的目标框的大小偏移量未超出预设的偏移量阈值后,可确定存在该目标对象的图像是否达到上述帧数阈值。比如:若上述帧数阈值可以是5,电子设备判断当前图像之前存在该目标对象的图像是否有至少5帧。另外,上述第一预设数量和第二预设数量可以相同,也可以不相同。

一方面,存在该目标对象的图像未达到上述帧数阈值,则暂时无法确定该目标对象不是误识别的目标对象,在这种情况下,无需为该目标对象报警。

另一方面存在该目标对象的图像达到上述帧数阈值,则可以确定该目标对象在当前图像中满足上述报警条件。

上述深度学习模型识别出多个目标对象后,电子设备在跟踪各目标对象时,若任一目标对象在当前图像中满足上述报警条件,则确定满足报警策略。在这种情况下,可以输出报警信息。

在示出的一种实施方式中,为进一步过滤误识别的目标对象产生的误报警,可统计对一定数量的图像的目标对象的跟踪过程中满足报警条件的次数,若满足报警条件的次数达到预设的次数阈值,则可确定需输出报警信息。

换而言之,当电子设备确定该目标对象在当前图像中满足上述报警条件,电子设备可以进一步判断当前图像的前n个图像中该目标对象满足上述报警条件的图像数量是否大于等于预设阈值m。示例性的,n和m均为正整数,m小于n。

若是,则可以确定满足上述报警策略,进而输出报警信息。

比如:电子设备可以统计对连续的一系列图像的目标对象的跟踪过程中满足报警条件的次数,若n为3,则阈值m可以是2次。电子设备确定任一目标对象在当前图像中满足上述报警条件后,检查当前图像之前的3帧图像中该目标对象满足上述报警条件的图像是否有至少2帧。

通过该措施,可进一步降低误报警的几率,提升客户体验。

本申请技术方案可应用于盲区检测、开门预警和移动物体检测三种功能上。以盲区检测为例,车辆上的监控设备可实时监控驾驶员的盲区,从而在目标对象进入盲区后,输出报警信息。实际的报警策略可更为复杂,可以视应用效果进行配置。而开门预警和移动物体检测同理,只是监控设备监控的位置不同,对应的报警策略也可相应地进行调整。

综上所述,在本申请技术方案中,电子设备可基于指定训练样本集中的样本图像训练深度学习模型,使得深度学习模型的网络参数可满足精度要求,进而后续将采集到的当前图像输入至上述深度学习模型以后,可由深度学习模型输出准确的识别结果,基于上述识别结果确定是否满足预设的报警策略,若是,则可输出报警信息;

由于上述指定训练样本集包括携带指定负样本的样本图像,上述样本图像标定了目标属性,可优化训练结果,使得深度学习模型从图像中获得更准确的识别结果;通过上述报警策略对识别结果进行验证,从而能够在必要的时候输出报警信息,有效地降低了误报警的几率,提高了用户体验。

与前述驾驶辅助系统的报警方法的实施例相对应,本申请还提供了驾驶辅助系统的报警装置的实施例。

参见图3,为本申请示出的一种驾驶辅助系统的报警装置的实施例框图:

如图3所示,该驾驶辅助系统的报警装置30,包括:

识别单元310,用于将采集到的当前图像输入至已训练的深度学习模型,以由所述深度学习模型对所述当前图像中的目标对象进行识别;其中,所述深度学习模型根据指定训练样本集中的样本图像训练得到,所述指定训练样本集包括携带指定负样本的样本图像,所述样本图像的指定负样本指示的位置不存在目标对象;所述训练样本集中的样本图像的样本标签包括目标属性,该目标属性表征样本标签对应的目标对象是否被遮挡。

报警单元320,用于基于所述深度学习模型的识别结果确定是否满足预设的报警策略,若是,输出报警信息。

在本例中,所述装置还包括训练单元330,用于:

将所述指定训练样本集中的样本图像输入至所述深度学习模型,利用所述深度学习模型输出所述样本图像中每一目标对象的位置信息和类别信息,确定上述位置信息和上述类别信息与已标定的样本标签之间的识别差异;其中,所述样本标签指示样本图像中目标对象的位置信息、类别信息;

从所述识别差异中选择非遮挡目标对象对应的识别差异,并根据预设的损失函数计算非遮挡目标对象对应的识别差异对应的损失参数;其中,所述损失函数中对所述指定负样本的惩罚系数被加大;

依据所述损失参数调整所述深度学习模型的网络参数,直至所述网络参数满足背景误检要求。

在本例中,所述报警单元320,进一步用于:

对所述深度学习模型识别出的每一目标对象进行跟踪,以确定该目标对象在所述当前图像中是否满足预设的报警条件;

若是,确定满足所述报警策略。

在本例中,在判断出该目标对象满足所述报警条件之后,且在确定满足所述报警策略之前,所述报警单元320,进一步用于:

判断所述当前图像的前n个图像中该目标对象满足所述报警条件的图像数量是否大于等于预设阈值m,若是,继续执行确定满足所述报警策略的步骤。

在本例中,所述报警单元320,进一步用于:

检查该目标对象沿着指定方向移动的移动量是否达到预设的移动阈值;

若达到所述移动阈值,确定该目标对象的目标框的大小偏移量是否超出预设的偏移量阈值;

若未超出所述偏移量阈值,检查所述当前图像之前存在该目标对象的图像是否达到预设的帧数阈值;

若达到所述帧数阈值,确定该目标对象在所述当前图像中满足所述报警条件。

本申请驾驶辅助系统的报警装置的实施例可以应用在电子设备上。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在电子设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。

从硬件层面而言,如图4所示,为本申请驾驶辅助系统的报警装置所在电子设备的一种硬件结构图,该电子设备可包括处理器401、存储有机器可执行指令的机器可读存储介质402。处理器401与机器可读存储介质402可经由系统总线403通信。处理器401通过加载并执行机器可读存储介质402存储的机器可执行指令,能够实现上述驾驶辅助系统的报警。

本文中提到的机器可读存储介质402可以是任何电子、磁性、光学或其它物理存储装置,可以包含或存储信息,如可执行指令、数据,等等。例如,机器可读存储介质可以是:ram(radomaccessmemory,随机存取存储器)、易失存储器、非易失性存储器、闪存、存储驱动器(如硬盘驱动器)、固态硬盘、任何类型的存储盘(如光盘、dvd等),或者类似的存储介质,或者它们的组合。

上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。

对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。

以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1