用于车辆的对象检测设备和方法与流程

文档序号:22086065发布日期:2020-09-01 20:04阅读:119来源:国知局
用于车辆的对象检测设备和方法与流程

相关申请的交叉引证

本申请要求于2019年2月26日提交的韩国专利申请号10-2019-0022268的优先权和权益,出于所有目的,其内容通过引用结合于此,如同在此完全阐述一样。

示例性实施方式总体上涉及用于车辆的对象检测设备及方法,并且更具体地,涉及用于使用例如相机来检测车辆前方的对象的设备及方法。



背景技术:

随着汽车电子技术的发展,越来越多的技术被用来辅助或替代驾驶员的驾驶操作。例如,这些技术可以包括从常规碰撞感测系统到自主车辆的各种技术。利用这类技术的最基本的前提之一是检测车辆周围的对象,并且这类技术不断地被研究与开发。

应用于车辆的对象检测系统可以利用各种传感器来实现,诸如超声波传感器、激光雷达传感器、雷达传感器、视觉传感器(例如,相机)等。雷达传感器可以容易地识别位于本车辆周围的对象的位置信息或距本车辆的距离信息,但是难以识别对象的形状。相机可以容易地识别对象的形状,但是难以通过使用单个相机来识别对象的位置信息。因此,通常使用组合使用相机与其他传感器的对象检测系统。

使用各种传感器的常规对象检测系统基本上被配置为不仅计算从本车辆到检测到的对象的距离信息和围绕检测到的对象的边界框,还将计算出的信息传送到用于车辆控制的控制系统。即,对象检测系统将检测到的对象信息传送到例如转向控制系统、制动控制系统、自主驾驶控制系统等,使得各个系统可以使用对象信息执行车辆控制。

为了执行对象检测,越来越多的车辆使用安装在其上的前置相机。这类前置相机也被称为多功能相机(mfc)。通常,前置相机被安装在车辆中的室内镜(例如,后视镜)周围,以便面向前方,并且因此捕获车辆前方区域的图像。这类mfc甚至可以捕获车辆前方相当长距离处的区域的图像,并且通常具有广阔的视场(fov)。作为车辆的各种便利装置之一,环绕视图监视器(svm)系统可以被使用。这类svm系统使车辆中的驾驶员能够通过安装在车辆的前表面、后表面以及侧表面上的相机看到车辆周围的区域。通常,相机被安装在面向地面的方向上,以便捕获有限区域的图像。

在2017年10月26日公开的标题为《systemandmethodfordetectingobject》的韩国专利申请公开号10-2017-0119167中公开了用于检测对象的常规系统和方法。

在本节中所公开的上面的信息仅用于理解本发明的概念的背景,并且因此可能包含不构成现有技术的信息。



技术实现要素:

一些方面提供了能够使用与车辆相关联的两种相机系统来检测对象的用于车辆的对象检测设备。

一些方面提供了能够使用与车辆相关联的两种相机系统来检测对象的用于车辆的对象检测方法。

另外的方面将在随后的详细描述中阐述,并且部分将从公开内容中显而易见、或者可以通过本发明的概念的实践来学习。

根据一些方面,对象检测设备包括第一相机单元、第二相机单元以及控制单元。第一相机单元包括一个或多个相机,并且被配置为捕获车辆周围的图像。第二相机单元包括一个或多个相机,并且被配置为捕获车辆前方区域的图像。控制单元被配置为:从经由第一相机单元获取的图像来确定位于公共区域中的特征点的位移;确定经由第二相机单元获取的图像中的特征点的像素位移;以及基于特征点的位移和特征点的像素位移来确定到经由第二相机单元捕获的图像中识别出的对象的距离信息。

在一个实施方式中,控制单元可以被配置为:基于特征点的位移和特征点的像素位移来确定经由第二相机单元捕获的图像的每像素距离信息;并且使用每像素距离信息来确定到所识别的对象的距离信息。

在实施方式中,控制单元可以被配置为将经由第一相机单元获取的图像的每像素距离信息存储为预定信息。

在实施方式中,公共区域可以是第一相机单元的拍摄区域与第二相机单元的拍摄区域重叠的区域。

在一个实施方式中,第一相机单元可以包括环绕视图监视器(svm)相机,并且第二相机单元可以包括多功能相机(mfc)。

在一个实施方式中,对象检测设备还可以包括被配置为照亮公共区域的灯模块。控制单元可以被配置为经由该灯模块在该公共区域中生成特征点。

在一个实施方式中,对象检测设备还可以包括照度传感器和灯模块。照度传感器可以被配置为检测车辆外部的照度。灯模块可以被配置为照亮公共区域。控制单元可以被配置为响应于照度满足预设参考值,经由灯模块在公共区域中生成特征点。

在一个实施方式中,为了生成对象的边界框,控制单元可以被配置为:耦接第一和第二相机单元的相机当中的相邻的相机的图像以形成耦接图像;对该耦接图像执行对象识别;并基于对象识别生成边界框。

根据一些方面,一种对象检测方法包括:由控制单元确定位于图像的公共区域中的特征点的位移,该图像经由被配置为捕获车辆周围的图像的第一相机单元获取;由该控制单元确定经由被配置为捕获该车辆前方的区域的图像的第二相机单元获取的图像中的特征点的像素位移;以及由该控制单元基于该特征点的位移和该特征点的像素位移来确定到经由该第二相机单元捕获的图像中识别出的对象的距离信息。

在一个实施方式中,确定到对象的距离信息可以包括:由控制单元基于特征点的位移和特征点的像素位移来确定经由第二相机单元捕获的图像的每像素距离信息;以及由控制单元使用该每像素距离信息来确定到该对象的距离信息。

在一个实施方式中,对象检测方法还可以包括:至少部分地使灯模块在确定特征点的位移之前在公共区域中生成特征点。

在一个实施方式中,对象检测方法还可以包括由控制单元经由照度传感器在生成特征点之前检测车辆外部的照度。控制单元可以被配置为响应于照度满足预设参考值,至少部分地使灯模块生成特征点。

在一个实施方式中,对象检测方法还可以包括:由控制单元耦接第一和第二相机单元的相机当中的相邻的相机的图像;并且由控制单元经由对象识别生成针对耦接图像中识别出的对象的边界框。

在一个实施方式中,对象检测方法还可以包括至少部分地使灯模块照亮整个公共区域。

根据一些方面,一种设备包括至少一个处理器和至少一个存储器。该至少一个存储器包括一个或多个指令的一种或多种序列,该一个或多个指令的一种或多种序列被配置为响应于经由该至少一个处理器而执行,使该设备至少:经由一个或多个第一图像确定特征点的位移,该一个或多个第一图像对应于车辆周围的区域;经由一个或多个第二图像确定该特征点的像素位移,该一个或多个第二图像对应于该车辆的行进路径中的区域;以及基于特征点的位移和特征点的像素位移来确定到第二图像中的对象的距离信息。

在一个实施方式中,特征点可以位于一个或多个第一图像和一个或多个第二图像公共的区域中。

在一个实施方式中,至少一个存储器和该一个或多个指令的一种或多种序列可以被配置为:响应于经由该至少一个处理器而被执行,使该设备至少:基于该特征点的位移和该特征点的像素位移,经由该一个或多个第二图像来确定每像素距离信息;并且基于每像素距离信息来确定到对象的距离信息。

在一个实施方式中,至少一个存储器和一个或多个指令的一种或多种序列还可以被配置为响应于经由该至少一个处理器而被执行,使该设备至少照亮该车辆行进路径中的该区域的一部分,以生成特征点。

在一个实施方式中,至少一个存储器和一个或多个指令的一种或多种序列还可以被配置为响应于经由该至少一个处理器而被执行,使该设备至少检测周围环境的照度。特征点的生成可以响应于照度对预定条件的满足。

在一个实施方式中,至少一个存储器和该一个或多个指令的一种或多种序列还可以被配置为:响应于经由该至少一个处理器而被执行,使该设备至少:耦接该一个或多个第一图像中的第一图像与该一个或多个第二图像中的第二图像;并生成于相对于该对象的边界框信息。

根据各种示例性实施方式,用于车辆的对象检测设备和用于车辆的对象检测方法可以使用安装在车辆中、车辆上或以其他方式与车辆相关联的两种相机系统来检测对象的距离信息和边界框。因此,可以不使用诸如雷达传感器和激光雷达传感器的传感器。此外,用于车辆的对象检测设备和用于车辆的对象检测方法可以通过光发射和图像耦接来改善在恶劣环境条件(例如,低照度和背光)和易损区域(例如,低分辨率/低图像质量)下的对象识别性能。

应当理解,前面的总体描述和下面的详细描述都是示例性和解释性的,并且旨在提供对所要求保护的本发明的进一步解释。

附图说明

为进一步理解本发明的概念而包括在本说明书中并构成本说明书部分的附图说明了本发明的概念的示例性实施方式,并与说明书一起用于解释本发明的概念的原理。

图1是示出根据一些示例性实施方式的用于车辆的对象检测设备的配置的框图。

图2是根据一些示例性实施方式的用于描述用于图1的车辆的对象检测设备中的多功能相机(mfc)和环绕视图监视器(svm)相机的拍摄区域的图。

图3至图6是示出根据各种示例性实施方式的用于车辆的对象检测方法的流程图。

具体实施方式

在以下描述中,出于解释的目的,阐述了许多具体细节,以便提供对各种示例性实施方式的透彻理解。如本文所使用,术语“实施方式”和“实现方式”可互换地使用,并且是采用本文所公开的一个或多个发明概念的非限制性示例。然而,显而易见的是,可以在没有这些具体细节的情况下或在具有一个或多个等效设置的情况下实践各种示例性实施方式。在其他实例中,为了避免不必要地模糊各种示例性实施方式,以框图形式示出公知的结构和装置。此外,各种示例性实施方式可以是不同的,但不一定是排他性的。例如,在不脱离本发明的概念的情况下,可以在另一示例性实施方式中使用或实现示例性实施方式的具体形状、配置和特性。

除非另有说明,否则所示的示例性实施方式应被理解为提供一些示例性实施方式的变化细节的示例性特征。因此,除非另有说明,在不脱离本发明的概念的情况下,各种图示的特征、部件、模块、层、膜、面板、区域、方面等(在下文中单独地或共同地被称为“元件”)可以以其他方式组合、分离、互换和/或重新排列。

通常提供附图中的交叉阴影线和/或阴影线的使用以澄清相邻元件之间的边界。因此,交叉阴影线或阴影线的存在或不存在都不传达或指示对特定材料、材料特性、尺寸、比例,所示元件之间的共性和/或元件的任何其他特性、属性、性质等的任何偏好或要求,除非指定。此外,在附图中,为了清楚和/或描述的目的,元件的尺寸和相对尺寸可以被夸大。因此,各个元件的尺寸和相对尺寸不必限于附图中所示的尺寸和相对尺寸。当示例性实施方式可以以不同方式实现时,具体处理顺序可以以不同于所述顺序来被执行。例如,两个连续描述的处理基本上可以同时被执行,或者以与所述顺序相反的顺序被执行。同样,相同的附图标记表示相同的元件。

当元件被称作是“在……上”、“连接到”或“耦接到”另一元件时,它可以直接在另一元件上面、直接连接到或耦接到另一元件,或者可以存在中间元件。然而,当一个元件被称作是“直接在……上”、“直接连接到”或“直接耦接到”另一个元件时,不存在中间元件。用于描述元件之间关系的其他术语和/或短语应当以类似的方式解释,例如,“在……之间”相对于“直接在……之间”、“相邻”相对于“直接相邻”、“在……上面”相对于“直接在……上面”等。此外,术语“连接”可以指物理、电和/或流体连接。为了本公开的目的,“x、y和z中的至少一个”和“从由x、y和z组成的组中选择出的至少一个”可以解释为仅x、仅y、仅z,或者x、y和z中的两个或更多个的任意组合,例如xyz、xyy、yz和zz。如本文所使用,术语“和/或”包括一个或多个相关联的列出项的任意和所有组合。

虽然术语“第一”、“第二”等在本文中可用于描述各种元件,但这些元件不应受限于这些术语。这些术语用于区分一个元件和另一个元件。因此,在不脱离本公开的教导的情况下,下面所讨论的第一元件可以被称为第二元件。

如附图中所示,空间相关的术语,诸如“在...之下”、“在...下面”、“在...下方”、“下部”、“在...之上”、“上部”、“上方”、“更高”、“侧”(例如,如在“侧壁”中)等,可以在本文中用于描述的目的,并由此描述一个元件与另一个元件的关系。除了图中所示的方位之外,空间上的相关术语旨在包含设备在使用、操作和/或制造中的不同方位。例如,如果将附图中的设备翻转,则被描述为“在其他元件或特征下面”或“在其他元件或特征之下”的元件将被定向为“在其他元件或特征之上”。因此,示例性术语“在...之下”可以包含上面和下面这两个方位。此外,设备可以以其他方式定向(例如,旋转90度或其他方位),并且因此,在本文中使用的空间相关的描述符被相应地解释。

本文所使用的术语是为了描述具体实施方式的目的,而不是为了限制。如本文所使用的,除非上下文另有明确指示,单数形式“一”、“一个”和“该”也旨在包括复数形式。此外,当在本说明书中使用时,术语“包含”、“含有”和/或“包括”指定该特征、整体、步骤、操作、元件、组件和/或其组的存在,但不排除一个或多个其他特征、整体、步骤、操作、元件、组件和/或其组的存在或添加。还应当注意,如本文所使用,术语“基本上”、“大约”和其他类似术语用作近似术语而不是程度术语,并且因此被用作本领域普通技术人员将认识到的说明所测量、所计算和/或所提供的值中的固有偏差。

在此可以参考作为理想化示例性实施方式和/或中间结构的示意图的截面图、等轴视图、透视图、平面图和/或分解描述来描述各种示例性实施方式。因此,可以预期由于例如制造技术和/或公差的结果而不同于图示的形状的变化。因此,本文所公开的示例性实施方式不应被解释为受限于特定图示的区域形状,而是包括例如由制造引起的形状偏差。为此,附图中所示出的区域本质上可以是示意性的,并且这些区域的形状可以不反映装置的区域的实际形状,并且因此该区域不旨在是限制性的。

除非另有定义,否则本文所使用的所有术语(包括技术和科学术语)都具有如本公开内容所涉及的本领域的普通技术人员通常所理解的相同含义。除非本文明确如此定义,否则诸如那些通常所使用的词典中定义的术语应当被解释为具有与其在相关领域的上下文中的含义一致的含义,并且将不以理想化的或过于正式的意思来解释。

如本领域中的惯例,在附图中以功能块、单元和/或模块来描述和示出一些示例性实施方式。本领域技术人员将理解,这些块、单元和/或模块由电子(或光学)电路(诸如逻辑电路、分立部件、微处理器、硬连线电路、存储器元件、布线连接等)物理地实现,该电路可使用基于半导体的制造技术或其他制造技术而形成。在块、单元和/或模块由微处理器或其他类似硬件实现的情况下,可以使用软件(例如,微码)编程和控制它们以执行本文所讨论的各种功能,并且可以任选地由固件和/或软件驱动它们。还可以设想,每个块、单元和/或模块可以由专用的硬件来实现,或者作为专用硬件的组合来实现以执行一些功能和作为处理器以执行其他功能(例如,一个或多个已编程的微处理器和相关联的电路)。此外,在不脱离本发明的概念的情况下,一些示例性实施方式的每个块、单元和/或模块可以物理地分离成两个或更多个相互作用的且离散的块、单元和/或模块。此外,在不脱离本发明的概念的情况下,一些示例性实施方式的块、单元和/或模块可以物理地组合成更复杂的块、单元和/或模块。

下文,将参考附图描述用于车辆的对象检测设备和用于车辆的对象检测方法的各种示例性实施方式。

图1是示出根据一些示例性实施方式的用于车辆的对象检测设备的配置的框图。图2是根据一些示例性实施方式的用于描述图1的用于车辆的对象检测设备中的多功能相机(mfc)和环绕视图监视器(svm)相机的拍摄区域的图。参考图1和图2,下面将根据一些示例性实施方式描述用于车辆的对象检测设备。

如图1所示,根据一些示例性实施方式的用于车辆(例如车辆230)的对象检测设备可包括控制单元100、第一相机单元110、第二相机单元120、照度传感器130和灯模块140。

第一相机单元110和第二相机单元120中的每一个可以被安装以捕获车辆230周围的区域的图像,并且包括一个或多个相机。例如,第一相机单元110可以是svm相机,并且第二相机单元120可以是mfc。为此,与第二相机单元120相比,第一相机单元110可以以具有面向地面的拍摄角度被安装,第二相机单元120可以具有面向例如向前方向、向后方向等的拍摄角度。

图2示出第一相机单元110的拍摄区域200、第二相机单元120的拍摄区域210,以及拍摄区域200和210彼此重叠的公共区域220。如下所述,对象检测设备可以使用公共区域220或从公共区域220确定的信息来确定(例如,计算)前方的对象的距离信息。

照度传感器130可以检测(例如,测量)外部的照度,例如车辆230的附近环境的照度。

灯模块140可用于向车辆230的外部提供照明,如车辆230的前灯。灯模块140可以指安装在车辆230中(或上)的外部照明设备中的所有或一些。

灯模块140可以被配置为将光发射到图2的公共区域220上,并且可以包括激光源以及另一类型的光源。

控制单元100可以检测车辆230前方的对象,并且将检测到的对象的信息(例如,距离信息和边界框信息)传送到诸如转向控制器150、制动控制器160等的控制器中的至少一个,以执行例如自主驾驶功能或防碰撞功能。

在一些示例性实施方式中,控制单元100可首先根据经由第一相机单元110获取的图像来计算位于公共区域220中的特征点的位移。

第一相机单元110被安装在面向地面的方向上,以如svm相机那样仅捕获有限区域的图像。因此,当第一相机单元110被安装在车辆230中且然后被输运时,根据相机的规格和安装位置以及车辆230的规格来确定捕获的图像的每像素的距车辆230的距离信息。因此,控制单元100可以使用第一相机单元110的每像素距离信息来计算特征点在预定时间内的位移,该每像素距离信息可以存储在例如控制单元100可访问的存储器中。例如,控制单元100可以通过将第一相机单元110的每像素距离乘以特征点的像素位移来计算特征点的位移。

由于这样的特征点位于公共区域220中,所以该特征点也存在于经由第二相机单元120获取的图像中。因此,控制单元100还可以计算位于经由第二相机单元120获取的图像中的公共区域220中的特征点的像素位移。

例如,由于第二相机单元120被配置为面向前方而不是地面,所以第二相机单元120可能难以准确识别存在于经由第二相机单元120拍摄的捕获图像中的特征点的距离信息。因此,控制单元100可能不能直接从经由第二相机单元120获取的图像来计算位于公共区域220中的特征点的位移,而是可以计算特征点在预定时间内的像素位移。

控制单元100可以通过耦接经由第一相机单元110获取的特征点的位移和经由第二相机单元120获取的特征点的像素位移来计算经由第二相机单元120捕获的图像的每像素距离。例如,当经由第一相机单元110获取的特征点的位移为10厘米且经由第二相机单元120获取的特征点的像素位移为20像素时,经由第二相机单元120获取的图像的每像素距离可以计算为0.5厘米。

为了精确计算在这样的处理期间中的距离信息,控制单元100可以使第一相机单元110和第二相机单元120的图像的时间同步,或者通过进一步利用车辆230的时间信息和车辆速度信息来检查计算出的距离信息。

另一方面,根据外部的照度条件,在公共区域220中可能不存在特征点,或者车辆230可能位于不容易检测特征点的环境中。在这种情况下,控制单元100可以使用灯模块140在公共区域220中生成特征点。例如,控制单元100可以通过经由灯模块140将激光和/或另一类型的光发射到公共区域220上来生成光学特征点,并且使用所生成的如上所述的特征点来计算经由第二相机单元120捕获的图像的每像素距离。

根据一些示例性实施方式,控制单元100可以被配置为考虑到外部的照度来生成特征点。例如,当经由照度传感器130测量的外部照度极高(例如,大于或等于背光参考值)或极低(例如,小于或等于低照度参考值)时,可能不容易确定特征点。因此,控制单元100可以通过经由灯模块140将激光或另一类型的光发射到公共区域220上(或发射到公共区域220中)来生成光学特征点。

控制单元100可以改变激光或其他光的发射位置(例如,垂直角),以使用所生成的特征点计算上述距离信息。此外,控制单元100可以被配置为根据车辆230的速度改变激光或其他光的发射位置,使得激光或其他光的发射位置被固定到具体位置或被设置为一绝对位置,而不是相对于车辆230的相对位置。

在一些示例性实施方式中,控制单元100可以被配置为通过确定经由第一相机单元110和/或第二相机单元120捕获的图像的亮度值而不使用照度传感器130来生成特征点,或者基于照度传感器130的测量值和捕获的图像的亮度值的组合来确定是否要生成特征点。

控制单元100可以使用经由第二相机单元120捕获的图像的已经通过上述过程计算出的每像素距离来计算到车辆230前方的对象的距离信息。

控制单元100还可以被配置为从经由第二相机单元120捕获的图像检测对象。

例如,控制单元100可以使用常规图像处理技术或基于深度学习(例如,人工神经网络)的图像识别技术来计算捕获图像中的对象的边界框。由于通过图像处理技术或基于深度学习的图像识别技术的边界框的计算在本公开的技术领域中被广泛使用,所以本文将省略其详细描述以避免模糊示例性实施方式。

控制单元100可以使用图像的上述每像素距离信息来计算所计算的边界框与车辆230的距离,并且将计算出的边界框和距离信息传送到车辆230的其他控制装置或将该信息用于自身。

控制单元100可以被配置为当从经由第二相机单元120捕获的图像中检测对象时,执行用于改善针对对象的识别性能的操作。例如,由于灯模块140可被配置为将光发射到第一相机单元110和第二相机单元120的拍摄区域上,因此灯模块140可将光发射到这种区域上以改善在夜间低照度条件或白天背光条件下对对象的识别性能。

例如,公共区域220可能对应于相机的边缘部分,在该部分中在经常使用的基于深度学习的图像识别技术或常规图像处理技术中对象极有可能未被识别或被错误识别。因此,控制单元100可以将光发射到整个公共区域220上,以改善对象识别性能。

当如上所述对通过相机捕获的图像执行基于深度学习的图像识别或常规图像处理时,在许多情况下边缘区域可能无法被准确地识别出。因此,控制单元100可以被配置为耦接第一相机单元110和第二相机单元120的相机当中的相邻的相机的图像,并且通过对耦接的图像执行基于深度学习的图像识别和/或常规图像处理来执行对象识别。

图3至图6是示出根据各种示例性实施方式的用于车辆的对象检测方法的流程图。

如图3所示,根据一些示例性实施方式的用于车辆230的对象检测方法从步骤300开始,在该步骤300中,控制单元100接收经由svm相机捕获的一个或多个图像和经由mfc捕获的一个或多个图像,诸如经由第一相机单元110和第二相机单元120捕获的一个或多个图像。

在步骤310中,控制单元100可以确定(例如,计算)位于svm图像中的公共区域220中的特征点的位移(或位置)。由于svm图像是通过捕获在面向地面的方向上的预定区域的图像而获得的,所以当车辆230在输运时可以确定(或预定)svm图像的每像素距离信息。控制单元100可以使用svm图像的每像素距离信息来计算特征点在预定时间内的位移。

在步骤320中,控制单元100计算mfc图像中的特征点的像素位移。由于mfc被配置为面向前面而不是地面,所以可能难以准确地识别存在于捕获的图像中的特征点的距离信息。因此,控制单元100不直接计算位于经由mfc获取的图像中的公共区域220中的特征点的位移,而是计算预定时间内(或超过预定时间)的特征点的像素位移。

作为步骤330的部分,控制单元100基于在步骤310中计算出的svm图像中的特征点的位移和在步骤320中计算出的mfc图像中的特征点的像素位移来计算mfc图像的每像素距离。例如,当svm图像中的特征点的位移为10cm且mfc图像中的特征点的像素位移为20个像素时,mfc图像的每像素距离可以计算为0.5cm。

在步骤340中,控制单元100计算在车辆230前方识别出的对象的距离信息。例如,控制单元100可以使用mfc图像的每像素距离来计算在mfc图像中检测到的对象的距离信息。

如图4所示,根据一些示例性实施方式的用于车辆230的对象检测方法以步骤400开始,在该步骤400中,控制单元100接收经由svm相机捕获的一个或多个图像和经由mfc捕获的一个或多个图像,例如经由第一相机单元110和第二相机单元120捕获的一个或多个图像。

在步骤410中,控制单元100确定外部的照度对应于低照度还是高照度。控制单元100可以被配置为通过确定经由照度传感器130测量的外部照度是极高(例如,大于或等于背光参考值)还是极低(例如,小于或等于低照度参考值)来估计外部照度,或者确定捕获图像的亮度值。作为另一示例,控制单元100可以被配置为基于照度传感器130的测量值和捕获图像的亮度值的组合来估计外部照度。

当外部照度对应于低照度或高照度时,控制单元100可将激光或其他类型的光发射到公共区域220上(或发射到公共区域220中)以生成特征点或者改善对象识别性能。例如,由于可能难以在低照度或高照度条件下检测车辆230周围的特征点,所以控制单元100可通过控制灯模块140将激光或其他光发射到公共区域220上来生成光学特征点。

公共区域220对应于相机的边缘部分,在该部分中对象极有可能未被识别或被错误识别。因此,在低照度或高照度条件下,控制单元100可将光发射到公共区域220上以改善对象识别性能。

然后,控制单元100可以在步骤430至步骤460中通过特征点计算对象的距离信息。该处理可以以与图3的步骤310至步骤340相同的方式执行。

如图5所示,根据一些示例性实施方式的用于车辆230的对象检测方法以步骤500开始,在该步骤500中,控制单元100接收经由svm相机捕获的一个或多个图像和经由mfc捕获的一个或多个图像,诸如经由第一相机单元110和第二相机单元120捕获的一个或多个图像。

在步骤510中,控制单元100通过耦接多个相机当中的相邻的相机的图像来生成耦接图像。当对经由相机捕获的图像执行基于深度学习的图像识别或常规图像处理技术时,在许多情况下边缘区域可能无法被准确地识别。因此,控制单元100可以通过耦接mfc和svm相机的相机当中的相邻的相机的图像来生成耦接图像。

在步骤520中,控制单元100识别存在于耦接图像中的对象,并在步骤530中计算所识别的对象的边界框。例如,当控制单元100对通过相机捕获的图像执行基于深度学习的图像识别或常规图像处理技术时,在许多情况下边缘区域可能无法被准确地识别。因此,控制单元100可以被配置为通过基于耦接图像执行基于深度学习的图像识别或常规图像处理技术来识别对象。

图6是根据一些示例性实施方式的将图4和图5的处理示出为一个处理的流程图。例如,步骤610至步骤650可以参考如图4所描述的那样执行。并且步骤660至步骤680可以参考如图5所描述的那样执行。通过这种操作,控制单元100可以计算mfc图像的每像素距离信息和在车辆230前方识别出的对象的边界框。因此,在步骤690中,控制单元100可以计算识别出的对象的边界框的距离信息,例如,识别出的对象的距离信息。

根据各种示例性实施方式,用于车辆的对象检测设备和用于车辆的对象检测方法可以使用安装在车辆中、车辆上或以其他方式与车辆相关联的两种相机系统来检测对象的距离信息和边界框。因此,可以不使用诸如雷达传感器和激光雷达传感器的传感器。此外,用于车辆的对象检测设备和用于车辆的对象检测方法可以通过光发射和图像耦接来改善在恶劣环境条件(例如,低照度和背光)和易损区域(例如,低分辨率/低图像质量)下的对象识别性能。

虽然本文描述了某些示例性实施方式和实现,但是在该描述中其他实施方式和修改将是显而易见的。因此,本发明的概念不受限于这样的实施方式,而是受限于所附权利要求书的更广泛范围以及对本领域普通技术人员来说显而易见的各种明显的修改和等效设置。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1