图像处理装置、图像处理方法和图像处理程序与流程

文档序号:23068560发布日期:2020-11-25 17:56阅读:107来源:国知局
图像处理装置、图像处理方法和图像处理程序与流程

本发明涉及图像处理装置、图像处理方法和图像处理程序。



背景技术:

在对由摄像装置取得的摄像图像数据(以下也称作“摄像图像”)进行噪声去除处理时,有时摄像图像中的被摄体的微小部分模糊即画质降低。作为其对策,提出如下的装置:根据摄像图像的亮度判断是否需要噪声去除处理,在判断为需要的情况下,对摄像图像实施噪声去除处理(例如参照专利文献1)。

现有技术文献

专利文献

专利文献1:日本特开2005-94087号公报



技术实现要素:

发明要解决的课题

但是,上述现有的装置在摄像图像较暗的情况下进行噪声去除处理,因此,不适用于对夜间的室外进行监视的系统。例如,在对包含较暗的道路和道路上的空域的摄像图像进行噪声去除处理时,存在监视优先级较高的道路和道路上的物体(例如车辆)的图像区域模糊这样的问题。

本发明正是为了解决上述现有技术的课题而完成的,其目的在于,提供如下的图像处理装置、图像处理方法和图像处理程序:在进行了噪声去除处理的情况下,监视优先级较高的图像区域也不会产生模糊。

用于解决课题的手段

本发明的一个方式的图像处理装置进行降低摄像图像的噪声的图像处理,其特征在于,所述图像处理装置具有:图像区域运算部,其根据对所述摄像图像进行分割而得到的多个图像区域计测表示所述多个图像区域的亮度偏差的第1纹理量,根据所述第1纹理量预先决定作为所述图像处理的对象的图像处理对象区域;亮度判定部,其根据当前的摄像图像的所述图像处理对象区域的亮度,判定是否需要对所述当前的摄像图像进行所述图像处理;纹理判定部,其计算表示由所述亮度判定部判定为需要进行所述图像处理的所述图像处理对象区域的亮度偏差的第2纹理量,根据所述第2纹理量判定是否对所述图像处理对象区域进行所述图像处理;以及图像处理部,其对由所述纹理判定部判定为要进行所述图像处理的所述图像处理对象区域执行所述图像处理。

本发明的另一个方式的图像处理方法进行降低摄像图像的噪声的图像处理,其特征在于,所述图像处理方法具有以下步骤:对象区域决定步骤,根据对所述摄像图像进行分割而得到的多个图像区域计测表示所述多个图像区域的亮度偏差的第1纹理量,根据所述第1纹理量预先决定作为所述图像处理的对象的图像处理对象区域;亮度判定步骤,根据当前的摄像图像的所述图像处理对象区域的亮度,判定是否需要对所述当前的摄像图像进行所述图像处理;纹理判定步骤,计算表示在所述亮度判定步骤中判定为需要进行所述图像处理的所述图像处理对象区域的亮度偏差的第2纹理量,根据所述第2纹理量判定是否对所述图像处理对象区域进行所述图像处理;以及图像处理步骤,对在所述纹理判定步骤中判定为要进行所述图像处理的所述图像处理对象区域执行所述图像处理。

发明效果

根据本发明,在进行了噪声去除处理的情况下,监视优先级较高的图像区域也不会产生模糊。

附图说明

[图1]是概略地示出本发明的实施方式1的图像处理装置的结构的框图。

[图2]是概略地示出图1的图像区域运算部的结构的框图。

[图3]是示出由摄像装置拍摄到的摄像图像的例子的图。

[图4]是示出实施方式1的图像处理装置进行的摄像图像的区域分割动作和图像处理对象区域的选定动作的流程图。

[图5]是示出在实施方式1的图像处理装置中将摄像图像分割成2个图像区域而得到的分割区域图像的例子的图。

[图6]是示出在实施方式1的图像处理装置中是否对图像处理对象区域应用图像处理的判定动作的流程图。

[图7]是概略地示出本发明的实施方式2的图像处理装置的结构的框图。

[图8]是示出实施方式2的图像处理装置的被摄体位置检测部、遮蔽处理部和图像处理部的动作的流程图。

[图9]是示出将摄像机坐标系的被摄体坐标转换成摄像机图像坐标系的被摄体坐标的处理的说明图。

[图10]的(a)是示出在被摄场照度较低(较暗)的夜间由摄像装置拍摄到的摄像图像内存在被摄体的情况的图,(b)是示出在实施方式2的图像处理装置实施了处理后的分割区域图像上重叠显示不实施图像处理的遮蔽范围的情况的图。

[图11]是说明在被摄体的移动速度已知的情况下进行了速度校正的校正后遮蔽范围的大小的图。

具体实施方式

下面,参照附图对本发明的实施方式的图像处理装置、图像处理方法和图像处理程序进行说明。以下的实施方式只不过是例子,能够在本发明的范围内进行各种变更。

《1》实施方式1

《1-1》结构

图1是概略地示出实施方式1的图像处理装置1的结构的框图。图2是概略地示出图1的图像区域运算部110的结构的框图。图像处理装置1是能够实施实施方式1的图像处理方法的装置。图像处理装置1可以是能够执行实施方式1的图像处理程序的计算机。

如图1所示,图像处理装置1具有控制部10、存储部20、输入接口30和输出接口40。控制部10具有图像区域运算部110、图像区域读出部120、亮度判定部130、纹理判定部140和图像处理部150。如图2所示,图像区域运算部110具有图像区域分割部111、纹理计测部112和图像处理区域选定部113。

控制部10例如具有对信息进行处理的1个以上的处理器即进行处理的1个以上的ic(integratedcircuit:集成电路)。具体而言,控制部10具有1个以上的cpu(centralprocessingunit:中央处理单元)。控制部10能够对其他硬件进行控制。控制部10能够执行存储部20中存储的软件。

控制部10将信息、数据、信号值和变量值等存储在存储装置210、存储器220或控制部10内的寄存器或高速缓冲存储器中。在图1中,连接控制部10内的各结构和存储装置210的箭头表示控制部10内的各结构将处理结果存储在存储装置210中,或者控制部10内的各结构从存储装置210读出信息。此外,连接控制部10内的结构彼此的箭头表示处理的流程。另外,在图1中,控制部10内的结构之间的图像信息的授受有时经由存储器220来进行,但是,在图1中,未示出连接存储器220和控制部10内的各结构的箭头或连接线。

实现控制部10的功能的计算机能读取的程序也可以存储在磁盘、软盘、光盘、高密度盘、蓝光(注册商标)盘、dvd(digitalversatiledisc:数字多功能盘)等移动记录介质中。

存储部20是存储信息的信息存储单元。存储部20包含1个以上的存储装置210和1个以上的存储器220。存储装置210例如具有rom(readonlymemory:只读存储器)、闪存或hdd(harddiskdrive:硬盘驱动器)。存储器220例如具有ram(randomaccessmemory:随机存取存储器)。另外,存储部20不限于图1的结构。

在存储装置210中例如存储有对摄像区域进行分割时使用的预定的第1阈值即纹理阈值211、图像处理区域信息212、为了判定图像处理的必要性而使用的预定的亮度判定阈值213、以及同样为了判定图像处理的必要性而使用的预定的第2阈值即纹理判定阈值214。

在存储装置210中也可以存储用于实现控制部10的功能的图像处理程序。该图像处理程序载入到存储器220,由控制部10读入,由控制部10执行。在图像处理装置1是计算机的情况下,在存储装置210中也可以存储os(operatingsystem:操作系统)。os的至少一部分载入到存储器220,控制部10一边执行os,一边执行图像处理程序。

输入接口30是与摄像装置3连接的端口。输入接口30是通过摄像装置3将摄像图像取入到图像处理装置1的图像输入接口。由输入接口30取入的摄像图像例如存储在存储器220中。此外,输入接口30也可以具有与鼠标、键盘、触摸面板等输入装置(即用户操作部)连接的端口。输入接口30例如可以是与lan(localareanetwork:局域网)(注册商标)等网络连接的端口。输入接口30可以是usb(universalserialbus:通用串行总线)端子。输入接口30也可以是sdi(serialdigitalinterface:串行数字接口)、hdmi(注册商标)(highdefinitionmultimediainterface:高清晰度多媒体接口)、vga(videographicsarray:视频图形阵列)、dvi(digitalvideointerface:数字视频接口)、组件等能够将影像信号取入到图像处理装置1的撷取板。

输出接口40是连接有显示器等显示设备的缆线的端口。输出接口40例如是usb端子或hdmi(注册商标)端子。显示器例如是lcd(liquidcrystaldisplay:液晶显示器)。

《1-2》动作

图3是示出由摄像装置3拍摄到的摄像图像的例子的图。在图3的例子中,摄影对象包含道路301和在道路301上行驶的车辆。摄像装置3例如是对道路状况进行监视的监视摄像机。监视对象(被摄体)是在位于摄像图像300内的下部的道路上行驶的车辆。在摄像图像300内的上部映出空域。

摄像装置3是具有ccd(charged-coupleddevice:电荷耦合元件)或cmos(complementarymetal-oxide-semiconductor:互补金属氧化物半导体)等摄像元件和镜头的摄像设备。摄像装置3例如是固定摄像机。此外,优选摄像装置3具有agc(automaticgaincontrol:自动增益控制)功能。agc是指进行可变控制,使得在输入信号较弱(被摄场照度较低)的情况下提高感光度,相反在输入信号较强(被摄场照度较高)的情况下降低感光度,由此,输出始终恒定。摄像装置3向图像处理装置1提供摄像图像。

图4是示出图像处理装置1进行的摄像图像的区域分割动作和图像处理对象区域的选定动作的流程图。

首先,图像处理装置1对存储装置210中的图像处理区域信息212进行复位(步骤s11)。即,图像处理装置1使存储装置210存储表示不存在图像处理区域信息212的信息。

接着,由摄像装置3取得的摄像图像通过输入接口30取入到图像处理装置1,暂时保持在存储器220中,然后,被送到图像区域运算部110。图像区域运算部110的图像区域分割部111进行检测摄像图像内的图像的具有深浅差的边缘部分(即图像的轮廓)的处理,根据表示边缘部分的边缘信息将图像分割成n个(n≧2)图像区域(步骤s12)。即,图像区域运算部110例如进行用于将摄像图像分割成监视的优先级较高的图像区域和监视的优先级较低的图像区域的分割处理。

接着,图像区域运算部110的纹理计测部112计测被分割出的图像区域各自的第1纹理量。第1纹理量被计测为表示被分割出的图像区域各自的像素值(即亮度值)的偏差(即亮度偏差)的方差(步骤s13)。

接着,图像区域运算部110的图像处理区域选定部113判定被分割出的图像区域各自的第1纹理量(即亮度偏差)是否为预定的纹理阈值211以下(步骤s14)。

图像区域运算部110的图像处理区域选定部113选定被分割出的图像区域各自的第1纹理量为纹理阈值211以下的区域作为图像处理对象区域,将表示被选定为图像处理对象区域的图像区域在摄像图像内的位置的位置信息作为图像处理区域信息212预先存储在存储装置210中(步骤s15)。

反复进行步骤s11~s15的处理,直到对全部被分割出的图像区域执行该处理为止(步骤s16)。在全部被分割出的图像区域的第1纹理量超过纹理阈值211的情况下,在图像处理区域信息212中存储表示不存在图像处理对象区域的“无”信息。

在实施方式1中,监视优先级较高的区域是包含道路301的地表部分,空域的监视优先级较低。图像处理区域选定部113选定如空域那样图像区域内的第1纹理量较少(即亮度偏差较少)的图像区域作为图像处理对象区域。

另外,不需要始终进行图像区域运算部110的处理,例如,在监视动作开始前、或监视动作中定期地(间歇地)、或监视区域产生变更的情况下,即在预定的时点进行图像区域运算部110的处理即可。由此,能够避免对图像处理装置1施加过度的运算负荷。此外,在被摄场照度较高(较亮)的情况下,如果进行图像区域运算部110的处理,则摄像图像内的图像区域中的第1纹理量之差较大,因此,能够提高区域分割的精度。

图5是示出将摄像图像300分割成2个图像区域而得到的分割区域图像的例子的图。在图5的例子中,分割区域图像310被二分割成第1纹理量较多的图像区域330和第1纹理量较少的图像区域320(对应于图3中的空域)。该情况下,图像处理对象区域是第1纹理量较少(即亮度偏差较少)的图像区域320。

图6是示出是否对图像处理对象区域应用图像处理的判定动作的流程图。首先,图像区域读出部120读出存储装置210中存储的图像处理区域信息(步骤s21)。图像区域读出部120判定存储装置210中是否存在图像处理区域信息212(步骤s22),在不存在的情况下(步骤s22:否),不进行图像处理而结束处理。

在存在图像处理区域信息212的情况下(步骤s22:是),亮度判定部130根据图像处理区域信息212计算摄像图像内的图像处理对象区域的平均亮度(步骤s23)。

接着,亮度判定部130判定计算出的平均亮度是否为存储装置210中预先存储的亮度判定阈值213以下(步骤s24)。在图像处理对象区域的平均亮度为亮度判定阈值213以下的情况下,被摄场照度较低(较暗),因此,通过摄像装置3的agc功能将摄像感光度设定为较高,摄像图像容易产生噪声,亮度判定部130判定为需要进行图像处理。另一方面,在图像处理对象区域的平均亮度高于亮度判定阈值213的情况下,被摄场照度较高(较亮),亮度判定部130判定为不需要进行噪声校正等图像处理。

在步骤s22中判定为平均亮度为亮度判定阈值213以下的情况下(步骤s24:是),纹理判定部140计算当前的摄像图像即由摄像装置3取得的监视对象摄像图像的图像处理对象区域的第2纹理量(即亮度偏差)(步骤s25),将计算出的第2纹理量与存储装置210中预先存储的第2阈值即纹理判定阈值214进行比较(步骤s26)。另外,第2纹理量(即亮度偏差)也可以为图像处理对象区域内的像素值的方差,但是,优选利用不依赖于图像处理对象区域内的像素值的绝对值的、图像处理对象区域内的像素值的变动系数(即标准偏差/平均值)求出。

在第2纹理量(即亮度偏差)为纹理判定阈值214以上的情况下(步骤s26:是),图像处理部150判断为图像处理对象区域内的噪声较多,执行用于校正(降低)噪声的图像处理(步骤s27)。在第2纹理量(即亮度偏差)少于纹理判定阈值214的情况下(步骤s26:否),图像处理部150判断为图像处理对象区域内的噪声较少,判断为不需要进行用于校正(降低)噪声的图像处理。针对全部图像处理对象区域执行步骤s23~s27的处理(步骤s28)。

如上所述生成的图像处理后的图像经由输出接口40被输出到显示器等显示设备。另外,这里的图像处理示出降低(校正)图像中产生的噪声的处理。图像处理例如存在使用平滑滤波器的处理等。但是,图像处理的方法不限于此,只要是降低图像中产生的噪声的处理即可,也可以是其他处理。

《1-3》效果

在图3的摄像图像300中,在夜间等被摄场照度较低(较暗)的情况下,在摄像图像300内与摄像装置3相距较远距离的空域中,摄像图像容易产生噪声。监视者虽然希望观察作为监视优先级较高的区域的画面下部(道路301、车辆),但是,由于监视优先级较低的画面上部(空域)产生的噪声的影响,画面整体成为难以观察的图像。特别是在动态图像的情况下,噪声被察觉为影像的闪烁,成为更加难以观察的图像(影像)。根据实施方式1的图像处理装置1,将作为监视摄像机的摄像装置3的摄像图像分割成多个图像区域,对监视优先级较低的区域实施噪声校正处理,因此,能够降低监视优先级较低的区域的噪声,并且,在监视优先级较高的区域中,不会由于噪声校正的影响而产生图像的模糊,因此,能够得到容易观察的监视图像。

此外,构成为在监视动作开始前、或监视动作中定期地(间歇地)、或监视区域产生变更的情况下进行需要进行图像处理的区域判定处理,因此,能够减轻施加给图像处理装置1的运算负荷。

此外,根据作为噪声校正处理对象的监视优先级较低的区域内的平均亮度和亮度偏差(变动系数)来判断是否需要进行噪声校正处理,因此,是否需要进行噪声校正处理的判断精度提高。因此,不会实施不必要的噪声校正,能够防止由于不必要的图像处理而引起的画质劣化。

《2》实施方式2

《2-1》结构

在实施方式1中,说明了应该监视的被摄体位于图像处理对象区域外的情况。在实施方式2中,对作为监视对象之一的被摄体位于图像处理对象区域内的情况下的图像处理(即噪声校正处理)的动作进行说明。

图7是概略地示出实施方式2的图像处理装置2的结构的框图。在图7中,对与图1所示的结构要素相同或对应的结构要素标注与图1所示的标号相同的标号。图像处理装置2是能够实施实施方式2的图像处理方法的装置。图像处理装置2也可以是能够执行实施方式2的图像处理程序的计算机。

如图7所示,图像处理装置2具有控制部10a、存储部20a、输入接口30、输出接口40、以及取得被摄体的实际空间位置信息的被摄体位置信息取得部50。控制部10a具有图像区域运算部110、图像区域读出部120、亮度判定部130、纹理判定部140、将实际空间中的被摄体位置转换成由摄像装置3拍摄到的摄像机图像内的位置的被摄体位置检测部160、在图像处理对象区域内决定不施加图像处理的区域的遮蔽处理部170、以及图像处理部150。存储部20a包含1个以上的存储装置210和1个以上的存储器220。在存储装置210中例如存储有预定的纹理阈值211、图像处理区域信息212、预定的亮度判定阈值213、预定的纹理判定阈值214、以及表示摄像装置3的设置位置信息的摄像机设置信息215。

《2-2》动作

实施方式2的图像处理装置2中的直到选定图像处理对象区域为止的动作与实施方式1的动作(即图4所示的动作)相同。

图8是说明实施方式2的图像处理装置2的被摄体位置检测部160、遮蔽处理部170和图像处理部150的动作的流程图。

在由纹理判定部140判断为需要进行图像处理对象区域的图像处理(即噪声校正处理)的情况下,被摄体位置检测部160从存储装置210读出预先存储的与摄像装置3(即摄像机)有关的摄像机设置信息215,从被摄体位置信息取得部50读出被摄体的位置信息(步骤s31、s32)。这里,摄像机设置信息215包含摄像机的视场角、焦距、摄像机的图像的大小(像素数)、以及表示实际空间(世界坐标系)中的摄像机位置的坐标信息。被摄体的位置信息包含表示实际空间中的被摄体位置的坐标信息。在设置摄像装置3时预先取得摄像机设置信息215。此外,从被摄体位置信息取得部50送来的被摄体位置信息例如是由搭载于被摄体的gps(globalpositioningsystem:全球定位系统)模块取得且从设置于被摄体的发送机发送的gps信息(例如纬度、经度、高度)。该情况下,被摄体位置信息取得部50具有gps接收机。实施方式2中的被摄体例如是搭载有gps模块的无人飞机(例如无人机)。

接着,被摄体位置检测部160根据被摄体位置信息和摄像机设置信息215,将实际空间坐标系的被摄体位置转换成从摄像装置3观察的图像的坐标位置(步骤s33)。具体而言,被摄体位置检测部160将实际空间坐标系的被摄体位置转换成摄像机坐标系后,将其转换成摄像装置3拍摄的图像上的坐标。摄像机坐标系例如是以作为摄像机的摄像装置3的镜头中心为原点的坐标系。被摄体位置信息(世界坐标系)能够根据摄像机设置信息215(世界坐标系下的镜头位置坐标、光轴的朝向等)转换成摄像机坐标系。接着,被摄体位置检测部160将转换成摄像机坐标系后的被摄体位置坐标转换成摄像机图像坐标。

图9是示出将摄像机坐标系的被摄体坐标转换成摄像机图像坐标的处理的说明图。在图9中,c表示摄像机坐标系的原点(镜头中心),z轴表示穿过c且与镜头面正交的直线(光轴)。(x,y,z)表示位于实际空间中的被摄体q的摄像机坐标。摄像机图像面500位于从摄像机坐标系的原点c分开焦距f的位置。摄像机图像面500的坐标轴u、v与摄像机坐标系的坐标轴x、y分别平行。(u,v)表示摄像机图像面500上的被摄体q(图9中用白色圆形记号表示)的坐标。此时,q的坐标(u,v)通过以下的式子求出。

u=f·(x/z)…(1)

v=f·(y/z)…(2)

由此,如果存在摄像机坐标系下的被摄体q的坐标位置(x,y,z)即被摄体q在实际空间坐标系下的纬度、经度、高度(高度)的信息,则能够在摄像机图像上表示被摄体q的位置。另外,焦距f的信息包含在摄像机设置信息215内。

接着,被摄体位置检测部160判定摄像机图像400上的被摄体坐标q(u,v)是否包含在图像处理对象区域内(步骤s34)。在q(u,v)包含在图像处理对象区域内的情况下(步骤s34:是),被摄体位置检测部160设定包含(u,v)坐标在内的周边区域例如m×n的矩形范围作为不施加图像处理的遮蔽范围(步骤s35)。m和n为2以上的整数。此时,作为不进行图像处理的区域即遮蔽范围的m×n的矩形范围的大小也可以根据被摄体与摄像装置3的距离来决定。例如,在从被摄体到摄像装置3的距离较大的情况下,减小遮蔽范围,在从被摄体到摄像装置3的距离较小的情况下,增大遮蔽范围。从被摄体到摄像装置3的距离能够根据摄像机设置信息215和从被摄体位置信息取得部50取得的被摄体位置信息求出。另外,遮蔽范围不限于矩形,也可以是圆形等其他形状。

在步骤s34中判断为q(u,v)未包含在图像处理对象区域内的情况下,不进行步骤s35的处理,对下一个(别的)被摄体执行步骤s33~步骤s35的处理(步骤s36)。在针对全部被摄体的处理结束的情况下,在图像处理对象区域内,在图像处理部150中,对除了被设定为遮蔽范围的区域以外的部分执行作为图像处理的噪声校正处理(步骤s38)。

这里,对实施方式2的图像处理装置2的处理结果进行说明。图10的(a)是示出实施方式2中的在被摄场照度较低(较暗)的夜间由摄像装置3拍摄到的摄像图像300内存在被摄体510的情况的图,示出实施实施方式2的图像处理之前的状态。在实施方式2中,直到选定图像处理对象区域的纹理判定部140的动作为止,与实施方式1的动作相同,示出被摄体510位于图5所示的图像处理对象区域即第1纹理量为纹理阈值211以下的区域(也称作“第1纹理量较少的区域”)320。

被摄体510与摄像装置3分开距离,因此,在摄像图像300上,映出被摄体510作为微小物体。该状态下,在对图像处理对象区域320实施图像处理(即噪声校正处理)时,由于被摄体510在摄像图像300上的区域微小,因此,被摄体510的图像部分可能被误判定为噪声,在判定为噪声的情况下,通过噪声去除处理,被摄体510可能从摄像图像300上消失。特别是在夜间,在被摄体510具有照明灯或闪烁灯这样的发光单元的情况下,判定为噪声的可能性较高。

图10的(b)是在实施了实施方式2的图像处理装置2的处理后的分割区域图像310上重叠显示不实施图像处理的遮蔽范围520的矩形范围的图。遮蔽范围520在作为图像处理对象区域的第1纹理量较少的区域320内位于包含摄像图像300上的被摄体510的位置的位置,当在该状态下实施噪声校正处理时,对被摄体510所在的遮蔽范围520进行噪声校正处理,因此,即使摄像图像300上的被摄体510是微小物体,也不会从摄像图像300上消失。因此,监视者能够在摄像图像300上视觉辨认被摄体510。此外,在容易产生噪声的遮蔽范围520以外的第1纹理量较少的区域320中进行噪声校正处理,因此,能够得到监视者容易观察的图像。

另外,也可以使用有颜色的框线等增强显示来显示遮蔽范围520的轮廓。由此,对于监视者来说,更加容易判定被摄体510的位置。

另外,在实施方式2中,将由被摄体位置检测部160得到的信息是表示被摄体的方位和高度的位置信息(例如经度、纬度、高度)作为前提。但是,在由被摄体位置检测部160得到的信息还包含被摄体的个体信息(例如识别信息、机体信息)的情况下,被摄体的大小已知,因此,也可以根据被摄体的大小和与被摄体之间的距离来决定遮蔽范围520的大小。例如,在与被摄体之间的距离为l,摄像图像的宽度方向的像素数为w,摄像装置3的摄像机视场角为θ的情况下,每单位像素的被摄体的大小δd通过以下的式(3)求出。

δd=(2l/w)·tan(θ/2)…(3)

在被摄体的水平方向的大小为w的情况下,根据式(3),遮蔽范围的宽度方向所需要的像素数m所需要的条件能够通过以下的式(4)表示。

m>w/δd…(4)

同样,如果被摄体的垂直方向的大小已知,则通过与式(4)相同的计算,能够求出遮蔽范围的纵向所需要的像素数。

此外,在实施方式2中,将按照摄像装置3拍摄的每个图像从被摄体位置检测部160得到被摄体位置信息作为前提,但是,在动态图像摄影的情况下,摄像装置3的拍摄周期和被摄体位置检测部160的被摄体位置信息的取得周期有时不同。一般而言,摄像装置3的拍摄周期比被摄体位置信息的取得周期短。这种情况下,在决定遮蔽范围520时,在取得下一个被摄体位置信息之前,使用之前取得的被摄体位置信息。例如,在摄像装置3的拍摄周期为1/30[秒](即1秒内拍摄30张),被摄体位置检测部160的被摄体位置信息的取得周期为1[秒](即每1秒拍摄1张)的情况下,针对第1张图像,使用此时取得的被摄体位置信息决定遮蔽范围520,针对此后的29张图像,使用根据针对所述之前的1张图像的被摄体位置信息决定的遮蔽范围520取得下一个被摄体位置信息后,新求出遮蔽范围520。此时,优选将遮蔽范围520设定为具有余量的大小,使得下一个被摄体位置收敛于之前设定的遮蔽范围520内。

在被摄体位置信息包含被摄体的速度信息的情况下、或者能够根据过去的被摄体位置信息估计被摄体的移动速度的情况下,例如,也可以如下所述决定遮蔽范围520的大小。在取得被摄体位置信息的周期为f[秒],被摄体的移动速度为r[m/秒],每单位像素的被摄体的大小为δd[m]的情况下,被摄体在被摄体位置检测部160取得下一个被摄体位置信息的期间内移动的图像上的距离(像素数)p能够通过以下的式(5)表示。

p=r·f/δd…(5)

图11是说明在被摄体的移动速度已知的情况下进行了速度校正的校正后的遮蔽范围530的大小的图。当设最初求出的遮蔽范围520的大小为宽m、纵n时,根据式(5),校正后的遮蔽范围为宽m+2p、纵n+2p。另外,在宽度方向和纵向上分别对原来的大小加上2p的理由是,不清楚被摄体的移动方向是向上下左右的哪个方向移动。在被摄体的移动方向已知的情况下,校正后的遮蔽范围530也可以根据被摄体的移动方向,设为在上下左右的任意方向上对原来的大小加上p而得到的大小。

《2-3》效果

如以上说明的那样,根据实施方式2的图像处理装置2,在被摄体510所在的遮蔽范围520内不进行噪声处理,因此,即使摄像图像300上的被摄体510微小,也不会从摄像图像300上消失,监视者能够在摄像图像300上进行视觉辨认。此外,在容易产生噪声的遮蔽范围520以外的第1纹理量较少的区域320中进行噪声校正处理,因此,能够得到监视者容易观察的图像。

《3》变形例

在上述实施方式中,设监视对象为道路,但是,图像处理装置1、2的使用例不限于此。例如,图像处理装置1、2能够应用于飞行场面(机场面、跑道面)的监视用途。该情况下,图3中的道路相当于跑道面,被摄体(车辆)相当于飞机,它们是监视优先级较高的区域。此外,监视优先级较低的区域是飞行场面上空的空域,但是,在飞机的情况下,位于空域的情况也较多,因此,通过应用图像处理装置2,能够降低第1纹理量较少的区域即空域的噪声,并且,能够以容易观察的方式显示位于空域的被摄体(飞机)。在飞行场面的情况下,能够根据机场监视雷达的信息等得到飞机的位置信息。例如,如果将被摄体位置信息取得部50构成为取得ssr(secondarysurveillanceradar:二次监视雷达)的信息和飞机的飞行信息,则能够得到空域的飞机的位置信息(距离、方位、高度)和机型信息。

标号说明

1、2:图像处理装置;3:摄像装置;10、10a:控制部(处理器);20、20a:存储部;30:输入接口;40:输出接口;50:被摄体位置信息取得部;110:图像区域运算部;111:图像区域分割部;112:纹理计测部;113:图像处理区域选定部;120:图像区域读出部;130:亮度判定部;140:纹理判定部;150:图像处理部;160:被摄体位置检测部;170:遮蔽处理部;210:存储装置;220:存储器;211:纹理阈值(第1阈值);212:图像处理区域信息;213:亮度判定阈值;214:纹理判定阈值(第2阈值);215:摄像机设置信息;300:摄像图像;301:道路;310:分割区域图像;320:第1纹理量较少的区域;330:第1纹理量较多的区域;500:摄像机图像面;510:被摄体;520:遮蔽范围;530:校正后遮蔽范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1