用于物体融合的目标分类集合技术的制作方法

文档序号:17825115发布日期:2019-06-05 22:35阅读:169来源:国知局
用于物体融合的目标分类集合技术的制作方法

本发明一般涉及物体检测系统中增强的目标识别,并且更具体来说,涉及用于将物体传感器测量分类集合到目标中的方法,该方法使用道路曲率信息、额外的目标属性以及距离压缩来提高分类集合精确度,以及使用散列表的基于网络的匹配以提高计算性能。



背景技术:

如今,许多车辆包括使用若干用于检测和识别主车辆附近的物体的不同技术中的任一种的物体检测系统,其中物体可以包括其他车辆、行人、固定物体等。用于物体检测的技术包括具有图像处理算法的摄像机、雷达、激光雷达和超声波以及其他技术。来自物体检测系统的数据通常被用于车辆中的一个或多个下游系统中,包括碰撞警告系统、碰撞避免系统以及其他驾驶者警报类型系统。

物体检测系统还可以用来识别路缘、车道条纹、护轨和中央隔离壁,并且这些物品的位置可以用于车道感测系统中以确定在主车辆前面的道路中的车道几何形状。

考虑到车辆上的物体检测传感器的激增以及多种多样的有待检测的物体,处理所有物体传感器数据的速度和精确度是极为重要的。尽管过去在此领域中已经做出一些发展,但是需要更多的改进来实现有效地将一组原始传感器测量转化为主车辆附近的车辆和其他目标的精确列表这一目标。



技术实现要素:

根据本发明的教示,披露一种用于改进物体检测系统中的传感器测量的目标分类集合的方法。该方法使用道路曲率信息以便通过更好地预测已知目标物体的新位置并且将其与传感器测量相匹配来提高分类集合精确度。还使用额外的目标属性来提高分类集合精确度,其中属性包括范围变率、目标断面以及其他属性。还使用距离压缩来提高分类集合精确度,其中在对数尺度计算中压缩范围以减小远距离物体的测量中的误差。基于网格的技术包括使用散列表和泛洪填充算法以提高目标物体识别的计算性能,其中计算的次数可以被减少一定的数量级。

本发明包括以下方案:

1. 一种用于将物体传感器测量与物体检测系统中的目标物体分类集合的方法,所述方法包括:

提供由物体检测系统追踪的目标物体列表,其中目标物体列表包括由物体检测系统在主车辆前方的区域中识别出的已知目标;

对于目标物体列表中的每个已知目标计算假设位置和定向,其中假设位置和定向包括自先前计算目标物体列表以后每个已知目标的移动的预测;

提供来自至少一个物体感测系统的传感器测量点,其中传感器测量点指定在主车辆前方的区域中检测到的物体的点;

使用微处理器将传感器测量点与在假设位置和定向处的已知目标分类集合;

基于所述分类集合验证假设位置和定向;

基于与已知目标中的一个不相关的传感器测量点的任何丛集来识别新目标;以及

更新目标物体列表以包括假设位置和定向处的已知目标以及识别出的任何新目标。

2. 如方案1所述的方法,其中对于已知目标中的每一个,目标物体列表包括属性数据,所述属性数据包括微多普勒数据、目标断面、测量点中的信噪比以及在能从基于摄像机的物体感测系统获得的情况下的视觉属性。

3. 如方案1所述的方法,其中对于已知目标中的每一个,目标物体列表包括相对于主车辆的范围和方位角以及相对于主车辆的范围变率。

4. 如方案3所述的方法,其中将传感器测量点与已知目标分类集合包括比较所述点与所述目标的范围和范围变率以建立相关性。

5. 如方案1所述的方法,其中对于每个已知目标计算假设位置和定向包括使用数字地图数据以便基于道路曲率数据和目标速度来预测每个已知目标的位置和定向。

6. 如方案1所述的方法,其中对于每个已知目标计算假设位置和定向包括使用由主车辆外部的一个或多个源提供的物体数据,包括由其他车辆提供的物体数据和由路边基础设施检测和提供的物体数据。

7. 如方案1所述的方法,其中将传感器测量点与已知目标分类集合包括使用基于网格的技术,所述基于网格的技术基于位置将测量点中的每一个分配给网格单元,识别已知目标中的每一个的邻域中的网格单元子集,以及将识别出的网格单元子集中的测量点与已知目标分类集合。

8. 如方案7所述的方法,其中基于网格的技术包括通过在已知目标中的每一个的几何中心周围建立网络单元的九个单元方阵来识别已知目标中的每一个的邻域中的网格单元子集。

9. 如方案7所述的方法,其中基于网格的技术包括使用泛洪填充算法来识别已知目标中的每一个的邻域中的网格单元子集,其中已知目标能够具有任何任意形状和定向。

10. 如方案1所述的方法,其中提供来自至少一个物体感测系统的传感器测量点包括提供来自基于雷达的物体感测系统和来自基于摄像机的物体感测系统的传感器测量点。

11. 如方案1所述的方法,其进一步包括使用主车辆上的碰撞警告系统中的目标物体列表。

12. 一种用于将物体传感器测量与物体检测系统中的目标物体分类集合的方法,所述方法包括:

提供由物体检测系统追踪的目标物体列表,其中目标物体列表包括由物体检测系统在主车辆前方的区域中识别出的已知目标;

对于目标物体列表中的每个已知目标计算假设位置和定向,其中假设位置和定向包括基于道路曲率数据和目标速度自先前计算目标物体列表以后每个已知目标的移动的预测;

提供来自至少一个物体感测系统的传感器测量点,其中传感器测量点指定在主车辆前方的区域中检测到的物体的点;

使用微处理器将传感器测量点与在假设位置和定向处的已知目标分类集合,包括比较所述点与所述目标的范围和范围变率以建立相关性,以及进一步包括使用关于测量点和已知目标的映射的范围值,其中映射的范围值是使用对数尺度从实际范围值计算;

基于所述分类集合验证假设位置和定向;

基于与已知目标中的一个不相关的传感器测量点的任何丛集来识别新目标;以及

更新目标物体列表以包括假设位置和定向处的已知目标以及识别出的任何新目标。

13. 如方案12所述的方法,其中将传感器测量点与已知目标分类集合包括使用基于网格的技术,所述基于网格的技术基于位置将测量点中的每一个分配给网格单元,识别已知目标中的每一个的邻域中的网格单元子集,以及将识别出的网格单元子集中的测量点与已知目标分类集合。

14. 一种物体检测系统,包括:

主车辆车载的至少一个物体感测系统,所述物体感测系统提供指定在主车辆前方的区域中检测到的物体的点的传感器测量点;

用于存储由物体检测系统追踪的目标物体列表的存储器模块,其中目标物体列表包括由物体检测系统在主车辆前方的区域中识别出的已知目标;

与存储器模块和至少一个物体感测系统通信的物体检测处理器,所述物体检测处理器被配置成:

对于目标物体列表中的每个已知目标计算假设位置和定向,其中假设位置和定向包括自先前计算目标物体列表以后每个已知目标的移动的预测;

将传感器测量点与在假设位置和定向处的已知目标分类集合;

基于所述分类集合验证假设位置和定向;

基于与已知目标中的一个不相关的传感器测量点的任何丛集来识别新目标;以及

更新目标物体列表以包括假设位置和定向处的已知目标以及识别出的任何新目标。

15. 如方案14所述的物体检测系统,其中对于已知目标中的每一个,目标物体列表包括属性数据,所述属性数据包括微多普勒数据、目标断面、测量点中的信噪比以及在能从基于摄像机的物体感测系统获得的情况下的视觉属性。

16. 如方案14所述的物体检测系统,其中对于已知目标中的每一个,目标物体列表包括相对于主车辆的范围和方位角以及相对于主车辆的范围变率,并且其中通过处理器将传感器测量点与已知目标分类集合包括比较所述点与所述目标的范围和范围变率以建立相关性。

17. 如方案14所述的物体检测系统,其中通过处理器对于每个已知目标计算假设位置和定向包括使用数字地图数据以基于道路曲率数据和目标速度来预测每个已知目标的位置和定向。

18. 如方案14所述的物体检测系统,其中通过处理器将传感器测量点与已知目标分类集合包括使用基于网格的技术,所述基于网格的技术基于位置将测量点中的每一个分配给网格单元,识别已知目标中的每一个的邻域中的网格单元子集,以及将识别出的网格单元子集中的测量点与已知目标分类集合。

19. 如方案18所述的物体检测系统,其中基于网格的技术包括使用泛洪填充算法来识别已知目标中的每一个的邻域中的网格单元子集,其中已知目标能够具有任何任意形状和定向。

20. 如方案14所述的物体检测系统,其中通过处理器将传感器测量点与已知目标分类集合包括使用关于测量点和已知目标的映射的范围值,其中映射的范围值是使用对数尺度从实际范围值计算。

本发明的额外特征将从结合附图进行的以下描述和随附权利要求变得显而易见。

附图说明

图1是具有两种不同类型的物体检测系统的车辆的示意图;

图2是传统的物体检测系统如何将传感器测量与潜在目标相匹配的图示;

图3是如何可以使用道路曲率信息来追踪目标物体的移动并且将它们与传感器测量相匹配的图示;

图4是使用两个道路曲率信息源和外部信息源连同已知目标物体的列表来将传感器测量分类集合到新的目标列表中的系统的方框图;

图5A是追踪前方道路中的固定和移动物体的主车辆的图示;

图5B是示出将传感器测量与目标分类集合的模糊度的图表,该模糊度可能在仅使用范围作为参数时出现;

图5C是包括物体范围变率以改进传感器测量到目标的分类集合的图表;

图6是映射的范围测量对实际范围测量的图表,其中在对数尺度上计算映射的范围;

图7A是传感器测量相对于主车辆的极坐标的图表,其中在径向尺度上使用实际范围测量;

图7B是传感器测量相对于主车辆的极坐标的图表,其中在径向尺度上使用对数映射的范围测量,由此减少范围的变化;

图8A是可以用来将传感器测量与已知目标分类集合的网格的图示;

图8B是使用图8A的网格来有效地将传感器测量与已知目标分类集合的散列表和技术的图示;

图9是可以与泛洪填充算法一起使用以将传感器测量与任意形状的已知目标分类集合的网格的图示;以及

图10是用于将物体传感器测量与物体检测系统中的目标分类集合的方法的流程图。

具体实施方式

本发明的针对用于将物体传感器测量与物体检测系统中的目标分类集合的方法的实施例的以下论述实质上仅是示例性的,而绝不意欲限制本发明或其应用或使用。

物体检测系统在现代车辆中变得越来越常见,因为碰撞警告和避免系统以及其他先进的系统变得更受消费者欢迎。为了提供精确和及时的物体信息,已经开发出使用不同的传感器技术和不同的物体辨识技术的物体检测系统。然而,所有这些系统可以受益于提高的目标追踪精确度和提高的计算效率。

图1是车辆10的示意图,该车辆包括从第一物体感测系统20和第二物体感测系统30接收关于周围物体的信息的物体检测系统12。第一物体感测系统20从可以检测车辆10前方的许多不同类型的物体的前部摄像机22接收图像。前部摄像机22可以检测前导车辆、行人、路缘和中央隔离壁、天桥、标牌以及其他物体,并且第一物体感测系统20相对于车辆10追踪这些检测到的物体。

第二物体感测系统30从车辆10周围的多个传感器接收测量。传感器可以包括后部传感器32、前部传感器34以及侧面传感器36和38。所有传感器32-38可以使用雷达、激光雷达、超声波或者一些其他感测技术来检测车辆10周围的物体。物体感测系统20和30仅是可以用于车辆10上的物体传感器的示例性类型。车辆10不需要排他地包括一个基于摄像机的物体感测系统和一个不基于摄像机的系统。事实上,可能仅存在一个物体感测系统,或者存在使用摄像机、雷达、激光雷达、超声波等的不同组合的多于一个物体感测系统。

物体感测系统20和30将其传感器测量提供到物体检测系统12,物体检测系统12实时将传感器测量与追踪的目标物体(车辆、天桥、树、行人等)列表相关。物体检测系统12的主要目标在于提供传感器测量到目标物体的精确且高效分类集合。

应理解,物体检测系统12、第一物体感测系统20和第二物体感测系统30包括至少一个处理器和存储器模块,其中处理器被配置有设计成接收传感器测量并识别和追踪目标物体的软件。下文将详细论述物体检测系统12中所使用的逻辑和计算。

应进一步理解,在不脱离所披露发明的精神的情况下,可以与本文所描述不同地分割物体检测系统12、第一物体感测系统20和第二物体感测系统30的特征和计算。例如,在物体检测系统12中的单个处理器中执行所有传感器测量分类集合和目标融合计算。也就是说,系统12、20和30可以实施在单个物理设备或多个不同的模块中;这些配置选择中的任一个都不会对以下论述的发明方法产生任何影响。

图2是传统物体检测系统如何将传感器测量与潜在目标相匹配的图示。目标车辆10由假设几何中心位置82连同长度L和宽度W表示,其中几何中心位置82在位置处。车辆80被用作可以由物体检测系统检测到的一个普通类型的物体的实例。将检查传感器测量点84或86,以确定它们是否属于目标车辆80并支持假设几何中心位置82。一种确定此的方法是通过检查以下不等式:

(1)

其中xy是被检查的测量点84和86的坐标,并且以上描述其他变量。如果方程(1)的不等式为真,则确认点坐标落在以为中心的矩形内,并且测量点84例如被确定属于目标车辆80并且支持假设几何中心位置82。

虽然方程(1)中实施的传统技术足以用于在主车辆前方直线行进的目标车辆,但是在道路曲率影响目标位置和定向的情况下或者在其他情况下,在其他类型的物体的状况下该技术可能产生不精确的结果。传感器测量点与目标的错误相关导致错误的目标融合结果,这可能导致使用该物体检测数据的下游系统中的误差。

以下论述增加将传感器测量点与目标物体列表分类集合的精确度和计算效率的若干技术。

图3是如何可以使用道路曲率信息来追踪目标物体的移动并且将它们与传感器测量相匹配的图示。道路100向主车辆102右前方弯曲,如图所示。车辆102中的物体检测系统(诸如图1的系统12)正在追踪前方的两个目标车辆——车辆110和车辆120。在主车辆102的物体检测系统中,目标车辆110具有假设几何中心位置112,并且目标车辆120具有假设几何中心位置122,其中两个假设几何中心位置112和122是基于先前的时间步长几何中心位置和道路100的已知曲率来确定。也就是说,主车辆102中的物体检测系统预期车辆110和120遵循曲线向右而非在其先前速度向量的方向上继续直线向前。

若干传感器测量点(130-140)需要被识别为属于目标车辆110或120或者不属于其中任一个。如图3中所示,其中目标车辆110和120具有遵循道路曲率的位置和定向,测量点130和132属于目标车辆110,点136和138属于目标车辆120,并且点134和140离开到道路100的左侧并且推测地属于不同的物体,诸如树或标牌。

图3中可以看出,如果主车辆102不考虑道路曲率,并且假设几何中心位置112和122在其先前位置的正前方,则点与目标物体的所得分类集合将会非常不同。在此情况下,测量点130将有可能不像其本应那样与车辆110分类集合,点134将有可能错误地与车辆110分类集合,测量点136将有可能不像其本应那样与车辆120分类集合,并且点140将有可能错误地与车辆120分类集合。总之,使用道路曲率来预测目标位置防止此实例中的六个测量点中的四个的错误目标车辆分类集合结果。

图4是使用两个道路曲率信息源和外部信息源连同已知目标物体的列表来将传感器测量分类集合到新的目标列表中的系统150的方框图。系统150实施图3中所示的道路曲率预期。数据库152含有包括追踪的目标列表{ T }和其几何中心位置的当前物体融合数据。在框154提供数字地图数据,其中数字地图数据具有通常用于车辆导航系统中的类型,包括道路类型、道路曲率以及更多信息。在框156,由车辆中的车道追踪系统(如果可用)提供车道曲率数据。车辆中的车道追踪系统在使用摄像机图像或其他类型的数据获取来识别和追踪车道边界(诸如路缘、道路条纹、中央隔离壁等)的许多车辆中可用。在框156来自车道追踪系统(如果可用)的车辆曲率数据提供道路曲率信息源,该信息源可以作为来自框154的数字地图的道路曲率信息的补充或者可以替代其使用。

在框158提供来自主车辆102外部的任何源的物体数据。框158处的数据通过使用车辆对车辆(V2V)、车辆对基础设施(V2I)或者甚至车辆对行人通信技术(诸如专用短程通信(DSRC)、Wi-Fi等)的无线通信通道来提供。框158处的数据可以由一个或多个外部源提供,并且共同地包括外部源所已知的物体列表{ O }。例如,框158处的数据可以包括由另一个车辆通过V2V广播的目标车辆位置,和/或已经由路边摄像机检测到并且正通过V2I广播的建筑物障碍群。许多类型的物体现在正变得“位置知晓”,并且具有适合的通信能力的这些物体中的任一个可以在框158处提供其物体数据(类型、尺寸、位置、定向、移动)。框158处的物体列表{ O }是可选的,因为不可能始终存在外部数据源和已知物体。

在框160处提供来自主车辆102车载的物体传感器的物体传感器测量。物体传感器测量包括检测的物体的点,诸如图3的点130-140。框162含有处理器,诸如图1的物体检测系统12中的处理器,该处理器运行将传感器测量点与已知目标相匹配的分类集合算法。如以上关于图3所论述,在框162中运行的算法使用道路曲率信息来确定车辆110和120的假设几何中心位置,从而产生传感器测量点与追踪的目标车辆的更好的多的匹配。框162中运行的分类集合算法还受益于从框158处提供的外部源对固定或移动物体的先前了解。提供具有物体几何中心位置的更新的目标列表{ T′ }作为线164上的输出。

在先前论述中,传感器测量与目标车辆的分类集合是仅基于测量和目标车辆的位置(范围和方位角)。然而,可以使用传感器测量和目标车辆的其他属性来提高分类集合过程的精确度。图5A是追踪前方道路上的固定和移动物体的主车辆的图示。在道路170上,主车辆180正在行驶并通过物体检测系统(诸如图1的系统12)追踪前方物体。目标车辆190正由主车辆180追踪。横跨道路170的天桥200也在由主车辆180追踪为物体。天桥200可以是横跨道路170的任何结构,包括桥/天桥、标牌结构、隧道入口等。在此实例中,可以使用路边物体(如树或行人或道路中的障碍物)来替代天桥200获得相同效果。

在此说明性实例中,车辆180中的物体检测系统提供三个传感器测量——容易地与车辆190相关的测量点192、与天桥200相关的点202以及测量点188。由于车辆190与天桥200接近,所以仅范围信息不足以确定点188属于哪个目标。方位角信息也不会帮助解决该模糊度,如图5A中可以看出。

图5B是示出将传感器测量与目标分类集合的模糊度的图表210,如图5A中所示该模糊度可能仅在使用范围作为参数时出现。图表210在轴线212上绘制范围。测量点192、188和202被展示在轴线212上的其各自位置中。车辆190和天桥200的几何中心位置也被展示在轴线212的正下方。车辆190的几何中心位置指定与中心线196的概率分布194,并且天桥200的几何中心位置指定与中心线206的概率分布204。在此实例中,为了简化将概率分布194和204展示为相同。图5B中可以看出,测量点188完全落在车辆190的概率分布194和天桥200的概率分布204内。因此,不可能单独地基于范围来将点188与车辆190或天桥200精确地分类集合。

图5C是其上包括物体范围变率以改进传感器测量到目标的分类集合的图表220。物体检测系统(可以基于雷达或基于激光雷达)通常将提供用于传感器测量的范围变率数据连同范围和方位角数据。对于基于摄像机的物体检测系统而言,范围变率可以通过在多个时间步长内追踪目标范围并且将范围改变除以经过的时间来确定。在图表220上,范围被绘制在轴线222上,并且范围变率被绘制在轴线224上。车辆190和天桥200的几何中心位置连同测量点192、188和202被展示在其各自的范围位置中。如以上所论述,车辆190、天桥200以及点192、188和202的范围值中存在极小分离。

然而,现在范围变率提供车辆190和天桥200与其相关的测量点之间的清楚分离。在与主车辆180大致相同速度下行驶的车辆190具有非常小的范围变率,如在图表220上可以看出。另一方面,静止的天桥200具有相对于主车辆180的大的负范围变率。使用目标和测量点的范围和范围变率属性,清楚点202与天桥200相关并且点192与车辆190相关,这些都从图5B已知。更重要的是,现在清楚测量点188与车辆190相关,因为点188具有近零的范围变率。

图5A-5C中示出并且以上论述的实例使用范围变率作为传感器测量和追踪的目标车辆的属性以提高分类集合精确度。除了范围变率之外,可以类似的方式使用许多其他属性。这些其他属性包括:微多普勒数据(可从雷达或激光雷达系统获得),该数据可以检测小的移动,诸如车身运动和振动;目标断面,其由雷达或激光雷达信号中从物体返回多少能量来确定,并且指示物体尺寸和/或材料;测量点中的信噪比;以及可以由基于摄像机的物体感测系统提供的若干属性,包括颜色、图案、外观/纹理和尺寸。

如以上所论述,范围是用于将传感器测量点与追踪的目标分类集合的关键参数。然而,传感器测量在较大距离处存在固有的精确度损失。例如,一些基于雷达的物体感测系统具有范围的约5%的范围误差。在较长范围处,范围误差可能足以导致传感器测量点位于追踪的车辆的边界之外。此差异可以通过使用范围数据的对数尺度表示来克服。

图6是映射的范围测量对实际范围测量的图表230,其中在对数尺度上计算映射的范围。轴线232测量实际范围测量,而轴线234测量映射的范围测量。在一个实施例中,映射的范围值可以使用以下方程来确定:

(2)

其中r是实际范围值,L是距离压缩比,并且是映射区域的网格划分中使用的单元尺寸。图6示出通过L等于3%和等于1米的值使用方程(2)所得的范围的非线性映射。此范围映射技术减小在较大范围值处的范围差异。

图7A是传感器测量相对于主车辆的极坐标的图表240,其中在径向尺度上绘制实际范围测量并且圆周地绘制方位角。测量点242和244被展示在图表240上。点242和244在图表240上分开相当远,从而使得此范围差异大于典型车辆的长度。然而,此范围差异中的许多可能是由于在长范围处传感器测量中的误差。因此,不清楚点242和244是否属于相同的车辆。

图7B是传感器测量相对于主车辆的极坐标的图表250,其中在径向尺度上使用对数映射的范围测量,由此减少范围的变化。当映射的范围如同在图表250上一样用于径向尺度上时,距离受到压缩,并且距离误差减少。当使用其映射的范围值绘制在图表250上时,点242′和244′足够靠近在一起以清楚地与相同目标车辆相关。

个别地和共同使用的上述技术显著地提高传感器测量与追踪的目标分类集合的精确度。计算效率与精确度一起也是物体检测系统性能中的极其重要的因素。以下描述增加传感器测量与追踪的目标分类集合的计算效率的技术。

在传统的目标分类集合算法中,列举并评估传感器测量点(从雷达系统等返回的点)与已知融合目标(车辆等)的所有可能组合。在此传统方法中,对于具有N个传感器测量和N个融合目标的情况而言,计算复杂度是N2级。以下提出改进的方法,其中物体(即,传感器测量)在匹配之前在散列表中被分类,从而产生一个数量级的更快计算(N级而非N2级)。

图8A是可以用来将传感器测量与已知目标分类集合的网格270的图示。网格270表示主车辆前方的x-y空间,其中存在追踪的目标并提供传感器测量点。网格270的每个单元是具有等于W的尺寸(272)的正方形。坐标处的传感器测量点274被分配给单元,从而使得:

(3)

其中i和j被四舍五入为整数单元数量。以此方式,每个测量点是使用散列表280通过其单元号来索引,如图8B中所示。

例如,如果坐标处的传感器测量点274被分配给单元,则可以创建链接的列表282,该列表含有也被分配给单元的所有测量点。此列表是使用方程(3)对于每个点的坐标来创建,从而对含有任何点的网格270中的每个单元产生链接的列表(诸如列表282)。

随后直接识别作为单元的邻近单元的单元——也就是说,单元周围的八个单元,范围在变化。图8A的框276中所示的九单元群组可以代表融合目标,诸如车辆。随后,对于具有落在单元内的假设几何中心位置284的融合目标而言,可以创建包括框276中的所有九个单元的列表286,并且可以从链接的列表282填充与每个单元相关的传感器测量点。以此方式,对于所有融合目标,可以创建相关的测量点列表。用于链接的列表282的点与单元的相关计算为点的数量级N。用于链接的列表286的点与融合目标的相关计算也为融合目标的数量级N。这两个计算是加法的,彼此不考虑为因子。因此,总的点与目标分类集合计算为N级而非如同传统的全因子方法中一样N2级。

以上论述的网格分类集合技术可以扩展为与任何所需形状的融合目标一起工作,而非仅图8A的简单的框276。

图9是可以与泛洪填充算法一起使用以将传感器测量与任意形状的融合目标分类集合的网格300的图示。网格300再次表示主车辆前方的x-y空间,其中存在追踪的目标并提供传感器测量点。与之前一样,网格300的每个单元是具有等于W的尺寸(302)的正方形。测量点可以使用散列表和链接的列表与网格300中的单元相关,如以上所论述。

然而,现在替代识别单个框内的邻近点,可以定义任意形状目标,并且可以使用泛洪填充算法来创建单元列表。在图9的情况下,融合目标具有假设几何中心位置304。融合目标可以具有由椭圆形306定义的形状,其轴线不需要与网格300的矩形图案对齐。可以使用直接几何形状计算来识别网格单元列表,该列表的任何部分在椭圆形306之内。一旦已知椭圆形306“接触”(任何部分在其之内)的单元列表,则测试这些单元中的每一个以确定其邻近单元(上方、下方、左边和右边——如之前一样创建九单元框)也包括在单元列表中。由泛洪填充算法识别出的所得单元群组(椭圆形306接触的单元或者椭圆形306接触的单元的邻近单元)被展示为图9的区域308内的阴影。

在执行以上论述的泛洪填充计算之后,已知在以几何中心304为中心的椭圆形306邻近的单元列表。随后可以使用先前描述的散列表和链接的列表技术来识别与椭圆形306相关的测量点,并且因此将识别融合目标与几何中心304相关。在现实应用中,网格300所覆盖的区域非常大——例如,在主车辆前方延伸100米,并且含有数千个尺寸1平方米的网格单元。在此状况下,即使在追踪几个目标车辆的情况下,也将填充仅几百个网格单元。因此,与将每个测量点与每个融合目标相比较的全因子方法相比,图9的泛洪填充和散列表技术在计算方面非常高效。

图10是用于将物体传感器测量与物体检测系统中的目标分类集合的方法的流程图400。流程图400的方法包括以上论述的精确度和计算效率技术。流程图400的方法被设计为在物体检测系统(诸如图1的物体检测系统12)中的处理器上执行。

在框402,提供追踪的目标列表。追踪的目标列表在以上有时被描述为融合目标,因为融合技术通常用于识别目标。在框404,创建假设目标位置和定向的列表。使用来自框402的先前目标位置/定向数据连同目标速度(如果移动)、道路曲率信息等来创建假设目标数据。在框406,传感器测量点由一个或多个物体感测系统(诸如图1的物体感测系统20和30)提供。如先前所论述,传感器测量点可以使用雷达、激光雷达、超声波、摄像机或其他适合的物体感测技术来获得。

在框408,将传感器测量点与假设目标分类集合。点/目标分类集合使用至少几何数据(位置)来将点与目标相匹配。分类集合可以使用在图8A/8B和图9中描述的基于网格的散列表技术。分类集合还可以使用补充目标属性——诸如范围变率、微多普勒数据、目标断面、测量点中的信噪比以及由基于摄像机的物体感测系统提供的视觉属性。这些补充的目标属性提供将测量点与目标分类集合的更大确定性。在框408处的分类集合也可以使用范围的对数映射的表示而非实际范围。

在框410,验证假设几何中心位置,并且如果有必要可以将其调整以获得最佳分类集合结果。如果在框410处调整假设几何中心位置,则过程循环回到框408以重新计算点/目标分类集合。在框412,基于在框408未与已知目标分类集合的测量点的任何丛集来识别新目标。在框414,输出更新的目标位置和定向列表。来自框414的更新的目标列表被车载车辆应用(诸如碰撞警告和碰撞避免系统)用作输入。来自框414的更新的目标列表还被提供回给框402,以开始点/目标分类集合方法的下一次迭代。

使用本文披露的方法,可以大大提高物体检测系统中的点/目标分类集合计算的速度和精确度。许多重要的车载系统可以使用快速、精确的物体检测数据,以向驾驶者警告潜在的碰撞危害或者自动地采取避让动作以避免碰撞以及用于其他目的。

以上论述仅披露和描述本发明的示例性实施例。本领域技术人员将从此论述和从附图和权利要求容易地认识到,在不脱离如以下权利要求中定义的本发明的精神和范围的情况下可以在其中进行各种改变、修改和变化。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1