用于显示识别区域和图像的方法及摄像设备的制作方法

文档序号:7643108阅读:272来源:国知局
专利名称:用于显示识别区域和图像的方法及摄像设备的制作方法
技术领域
本发明涉及一种能够从图像数据中识别出识别对象的位置并在基于该图像数据而生成的图像上显示识别对象位置的技术。
背景技术
传统的技术可以预先注册表示主被摄体(即,满足预定条件的识别对象)的特征数据,基于捕获的图像数据和注册的特征数据之间的比较来识别主被摄体。
例如,如日本特开平09-251534号公报所论述的,可以基于识别对象的图像数据和预先注册的脸部图像数据之间的相关值来识别脸部区域。
此外,如日本特开平10-162118号公报所论述的,可以将图像数据划分为多个频带分量,估计脸部区域。然后,可以计算所估计的脸部区域和预先注册的脸部图像数据之间的相关值。这些技术可应用于照相机。
例如,日本特开2003-107335号公报公开了一种照相机,其可以使利用形状分析从获得的图像数据中检测主被摄体的处理自动化,显示与检测到的主被摄体相对应的焦点检测区域,并执行施加到焦点检测区域的焦点调节动作。
如日本特开2004-317699号公报所论述的,可以通过从图像数据中提取特征点来识别脸部区域(即,主被摄体),根据识别区域的大小来设置焦点检测区。
此外,如日本特开2004-320286号公报所论述的,可以通过从图像数据中提取特征点来识别脸部区域,基于识别区域的大小来进行变焦控制。
通常,可以显示识别主被摄体的区域(下文中称为“识别区域”)以使用户可以容易地检查从图像数据中识别出的被摄体。
根据上述日本特开2003-107335和2004-317699,可以显示围绕识别区域的脸部的框以使用户辨认识别出的脸部区域。
如果主被摄体运动,则周期性地检测主被摄体并更新表示识别区域的框(下文中称为“对象识别标记”)是有用的。更具体地,如果主被摄体移动,则可以立即更新该标记以跟踪运动被摄体。虽然响应取决于计算速度,但是当标记的更新周期短时,标记可以快速地跟踪被摄体。
然而,如果标记的更新周期短,则出现如下问题。例如,当主被摄体(即,对象)走动或者跑动时,主被摄体产生如图14所示的上下运动。通常,人眼可以容易地辨认走动或跑动物体的横向(前进)移动。
然而,很难辨认走动物体的上下运动。例如,如果将人脸设置为主被摄体,且更新周期短,则表示走动或跑动物体的标记在上下方向上频繁振动,如图15所示。在上下方向上频繁振动的图像显示与用户的实际辨认不同,且被用户看起来不自然。
为了克服上述问题,可以增大标记的更新周期。然而,如果更新周期长,则用户可能感觉标记不能平滑地跟踪运动对象。此外,如果主被摄体的移动距离短,则固定标记是理想的。然而,在主被摄体移动一定距离之前,标记不会开始移动。因此,用户可能感觉标记不能平滑地跟踪运动物体。
因此,为了提高标记的可视性,需要表示主被摄体的识别区域的标记的运动自然地跟踪用户所辨认出的主被摄体的运动。

发明内容
本发明针对表示主被摄体的识别区域的对象识别标记的显示,该对象识别标记可以自然地跟踪用户辨认出的主被摄体的运动,其结果是,可以提高标记的可视性。
本发明的一个方面提供一种显示图像的方法,包括从图像数据中获得与满足预定条件的识别对象相对应的识别区域;产生表示识别区域的对象识别标记;以及以标记能以根据识别区域的移动方向而不同的响应特性来跟踪识别区域的方式,使显示单元显示包含标记和基于图像数据而生成的图像的合成图像。
此外,本发明的另一个方面提供一种执行上述显示方法的摄像设备。
从以下参考附图对示例性实施例的详细说明,本发明的其它特征和方面将变得明显。


包含在说明书中并构成说明书的一部分的附图示出本发明的示例性实施例、特征和方面,与说明书一起用于说明本发明的原理。
图1是示出根据第一示例性实施例的示例摄像设备的框图。
图2是示出根据第一示例性实施例的摄像设备的数字信号处理电路部分的电路图。
图3是示出根据第一示例性实施例的摄像设备中的示例主处理例程的流程图。
图4是示出根据第一示例性实施例的由摄像设备执行的识别区域显示处理的示例细节的流程图。
图5是示出根据第二示例性实施例的由摄像设备执行的识别区域显示处理的示例细节的流程图。
图6是示出根据第三示例性实施例的由摄像设备执行的识别区域显示处理的示例细节的流程图。
图7是示出根据第四示例性实施例的由摄像设备执行的识别区域显示处理的示例细节的流程图。
图8是示出根据第四示例性实施例的由摄像设备执行的识别区域显示处理的示例细节的流程图。
图9是示出根据第四示例性实施例的由摄像设备执行的识别区域显示处理的示例细节的流程图。
图10是根据本发明一个方面的示出与表示识别区域的对象识别标记结合的显示图像数据的示例性图像的示例显示画面的图。
图11是根据第一示例性实施例的Y轴方向上的识别区域和对象识别标记之间的示例位置关系的图。
图12是根据第一示例性实施例的X轴方向和Y轴方向上的识别区域和对象识别标记之间的示例位置关系的图。
图13是根据第一示例性实施例的X轴方向上的识别区域和对象识别标记之间的示例位置关系的图。
图14是根据本发明一个方面的走动物体的示例上下运动的图。
图15是用于显示与识别区域有关的对象识别标记的传统方法的图。
具体实施例方式
以下对本发明的示例性实施例、特征和方面的说明本质上仅仅是说明性的,而不旨在限制本发明、其应用或使用。
应当指出,在整个说明书中,附图中类似的附图标记是指类似的项目,因此,一旦在一个图中定义了项目,将不在随后的附图中进行讨论。
下面,参考附图详细说明本发明的示例性实施例、特征和方面。
第一示例性实施图1是示出根据第一示例性实施例的摄像设备100的框图。在本示例性实施例中,具有显示主被摄体的识别区域的功能的装置是电子静止照相机或可以处理运动图像的任何其它装置(例如,摄像机或监视照相机)。
摄像设备100包括物镜组101、包含光圈设备和快门设备的光量调节器102、可以将通过物镜组101的光通量(即,被摄体图像)转换为电信号的图像传感器103(例如,CCD或CMOS)以及可以对从图像传感器103生成的模拟信号施加箝位处理和增益处理的模拟信号处理电路104。
此外,摄像设备100包括可以将模拟信号处理电路104的输出转换为数字信号的模拟/数字(下文中称为A/D)转换器105。通过数字信号处理电路107和存储器控制电路106或者仅通过存储器控制电路106将A/D转换器105的输出数据写入存储器108。
数字信号处理电路107可以对从A/D转换器105生成的数据或者对从存储器控制电路106生成的数据施加像素插值处理和颜色转换处理。数字信号处理电路107可以计算表示被摄体的聚焦状态的值或亮度值,并且可以基于从A/D转换器105获得的图像数据来调节白平衡。
数字信号处理电路107包括被摄体识别电路115,被摄体识别电路115预先存储主被摄体的特征数据,可以基于图像数据和特征数据之间的比较来识别主被摄体。
在本示例性实施例中,被摄体识别电路115可以基于检测来自从A/D转换器105获得的数据或存储在存储器108中的数据的脸部特征(例如,眼睛、嘴等)来识别存在人脸的区域。注册脸部特征作为特征数据。在本公开的情况下,将存在人脸(即,主被摄体)的区域称为“识别区域”。
系统控制电路112可以基于数字信号处理电路107的计算结果来控制曝光控制电路113和焦点控制电路114。更具体地,系统控制电路112执行对通过物镜组101的被摄体的光通量所施加的焦点控制处理、曝光控制处理和调光处理。
此外,系统控制电路112包括显示控制电路117,显示控制电路117可以基于被摄体识别电路115所获得的识别结果来控制表示识别区域的对象识别标记。
存储器控制电路106可以控制模拟信号处理电路104、A/D转换器105、数字信号处理电路107、存储器108和数字/模拟(下文中称为“D/A”)转换器109。
通过数字信号处理电路107和存储器控制电路106或者仅通过存储器控制电路106将A/D转换器105进行了A/D转换后的数据写入存储器108。存储器108存储要在显示单元110上显示的数据。显示单元110可以显示从存储器108通过D/A转换器109发送的数据。
此外,存储器108存储摄像设备捕获的静止图像和运动图像。存储器108可以用作系统控制电路112的工作区。包含液晶监视器的显示单元110可以显示在拍摄操作中获得的图像数据。显示单元110可以用作连续显示图像传感器103所获得的捕获图像数据(即,被摄体)的电子取景器。
显示单元110可以响应于从系统控制电路112发出的指令,任意地打开或关闭图像显示。当显示单元110处于关闭(OFF)状态时,摄像设备100可以减少电能消耗。此外,显示单元110可以根据系统控制电路112的命令用图像和字符来显示操作状态和消息。
接口111可以控制摄像设备100和外部存储介质(例如,存储卡或硬盘)之间的通信。摄像设备100可以通过接口111向外围设备(例如,其它计算机或打印机)传送图像数据和管理信息、或从外围设备接收图像数据和管理信息。
还应当指出,可以将接口111配置为符合PCMCIA卡或Compact FlashTM卡协议地工作,可以将各种类型的通信卡插入接口111的卡槽中。例如,可以从LAN卡、调制解调器卡、USB卡、IEEE1394卡、P1284卡、SCSI卡和PHS卡中选择通信卡。
姿态检测电路116可以检测摄像设备100并将检测结果输出到系统控制电路112。系统控制电路112可以控制摄像设备100的整体动作。系统控制电路112包括存储常量、变量和系统控制电路112执行各种动作所需的程序的存储器(未示出)。
曝光控制电路113可以驱动安装在光量调节器102中的光圈设备和快门设备。焦点控制电路114可以驱动物镜组101的聚焦透镜和变焦透镜。
图2是示出数字信号处理电路107的示例性部分的电路图。颜色转换电路201可以将从A/D转换器105输入的RGB信号分离为亮度信号Y与色度(chrominance)信号Cr和Cb。颜色处理电路202可以对色度信号Cr和Cb施加白平衡处理,并执行使高亮度或低亮度颜色变淡的消色处理。亮度处理电路203可以对亮度信号Y施加滤波处理、亮度校正处理和伽马处理。
轮廓强调电路204可以对亮度信号施加滤波处理以强调轮廓。带通滤波器(BPF,band-pass filter)或高通滤波器(HPF,high-pass filter)205可以从经过亮度处理的亮度信号中提取高频信号。场景检测电路206可以检测拍摄操作中的场景变化。数字信号处理电路107可以将亮度信号Y与色度信号Cr和Cb合成,输出合成的YCrCb信号作为图像数据。
图3~7是示出根据本示例性实施例的电子照相机的示例动作的流程图。用于执行该处理的程序存储在系统控制电路112的存储器中,在系统控制电路112的控制下执行该程序。
示例性主处理例程图3是示出根据本示例性实施例的在摄像设备100中执行的示例主处理例程的流程图。例如,可以响应于紧接在更换电池之后的电源接通操作,开始图3所示的处理。
首先,在步骤S101中,系统控制电路112初始化存储在其存储器中的各种标志和控制变量。在步骤S102中,系统控制电路112将显示单元110的图像显示设为关闭状态作为初始设置。接下来,在步骤S103中,系统控制电路112判断执行拍摄操作并记录图像数据的摄像设备100是否选择了拍摄模式。
如果没有选择拍摄模式(即,步骤S103中的“否”),则该处理流程进行到步骤S104。在步骤S104中,系统控制电路112执行对应于所选择的与拍摄模式不同的所需模式的处理。然后,该处理流程返回到步骤S103。
如果选择了拍摄模式(即,步骤S103中的“是”),则该处理流程进行到步骤S105。在步骤S105中,系统控制电路112判断电源的剩余容量或操作状态是否处于可能引起摄像设备100故障的警报水平。
如果系统控制电路112判断为电源处于警报水平(步骤S105中的“否”),则该处理流程进行到步骤S107。在步骤S107中,系统控制电路112使显示单元110执行具有图像和声音的预定警报显示。然后,该处理流程返回到步骤S103。
当系统控制电路112判断为电源没有处于警报水平(步骤S105中的“是”)时,该处理流程进行到步骤S106。在步骤S106中,系统控制电路112判断存储介质的操作状态是否处于警报水平,根据该警报水平,摄像设备100可能在记录和重放图像数据时发生故障。
如果系统控制电路112判断为存储介质处于警报水平(步骤S106中的“否”),则该处理流程进行到上述步骤S107,使显示单元110执行具有图像和声音的预定警报显示。然后,该处理流程返回到步骤S103。
当系统控制电路112判断为存储介质不处于警报水平(步骤S106中的“是”),则该处理流程进行到步骤S108。在步骤S108中,系统控制电路112使显示单元110用图像和声音显示摄像设备100的各种设置状态。这称为用户界面(即,UI,user interface)显示。因此,用户可以执行各种设置。
接下来,在步骤S109中,系统控制电路112将显示单元110设为打开(ON)状态。此外,在步骤S110中,系统控制电路112使显示单元110开始用于连续显示从图像传感器103所获得的图像数据生成的图像的观察显示。在观察显示状态下,显示单元110可以用作连续显示存储在存储器108中的图像数据的电子取景器。
在步骤S111中,系统控制电路112基于获得的图像数据执行焦点控制处理和曝光控制处理。如果已获得了与识别区域,即存在脸部的区域(下文中称为“脸部区域”)有关的信息,则系统控制电路112可以对检测到的识别区域执行焦点控制处理。
虽然稍后将详细说明,但是在显示单元110上显示的最新的标记可能与最新的识别区域不一致。在这种情况下,系统控制电路112可以对识别区域而不是对标记施加焦点控制处理和曝光控制处理。更具体地,在本示例性实施例中,施加了焦点控制处理和曝光控制处理的区域与标记不一致。
在步骤S112中,系统控制电路112使被摄体识别电路115开始从图像数据中识别脸部区域的脸部识别处理。为了减小脸部识别处理的计算时间,例如通过适当地稀疏识别对象的图像数据而生成用于识别的图像数据的总数是理想的。
可以使用各种方法作为用于检测脸部区域的技术。例如,神经网络是基于学习技术来检测脸部区域的典型方法。此外,模板匹配可以用于提取表示眼睛、鼻子、嘴或任何其它来自图像区域的物理形状的特征。
此外,根据其它传统方法,可以从图像中检测皮肤颜色或眼睛形状等特征量,使用统计方法来分析该特征量(例如,参考日本特开平10-232934号公报或者日本特开2000-48184号公报)。
此外,检查先前检测到的脸部区域的位置、检查脸部区域附近的衣服颜色或者降低屏幕中央区域中的脸部识别的阈值是有用的。此外,使用预先指定主被摄体区域的直方图和颜色信息并获得相关值以跟踪主被摄体是有用的。
本示例性实施例使用检测一对眼睛(双眼)、鼻子、嘴和脸部轮廓并基于检测到的相对位置确定人脸区域的方法来执行脸部检测处理。然后,本示例性实施例根据检测到的脸部区域的大小设置围绕脸部区域的矩形区域,获得该矩形区域的坐标值。
围绕脸部区域的矩形区域的坐标值表示对象的识别区域(即,主被摄体的位置)。围绕脸部区域的区域不限于矩形,可以是能够围绕检测到的脸部轮廓的椭圆形或其它形状。
在步骤S113中,系统控制电路112接收来自被摄体识别电路115的识别结果,使数字信号处理电路107执行显示识别区域的识别区域显示处理。
参考图4的流程图详细说明步骤S113的识别区域显示处理的细节,即本示例性实施例的典型特征。在本示例性实施例中,如果预先确定了关闭观察显示状态的设置,则可以忽略步骤S109、S110和步骤S113的处理。
在步骤S114中,系统控制电路112判断快门开关SW1是否处于按下状态。如果快门开关SW1处于未按下状态(步骤S114中的“否”),则该处理流程返回到步骤S103。当快门开关SW1处于按下状态(步骤S114中的“是”)时,该处理流程进行到步骤S115。
在步骤S115中,系统控制电路112使曝光控制电路113执行曝光控制,使得识别区域的亮度值变为合适的值。对识别区域分配大的加权因子使得整个屏幕的亮度值变为合适的值也是有用的。
在这种情况下,如果需要,系统控制电路112可以根据曝光控制的结果在拍摄操作中启动闪光装置(未示出)。此外,根据皮肤颜色,白平衡可能变得不合适。为了避免该缺点,排除识别区域或者对识别区域分配小的加权因子以适当地调节白平衡是有用的。此外,系统控制电路112使焦点控制电路114执行焦点控制使得识别区域变为对焦状态。
在步骤S116中,系统控制电路112保持观察显示状态直到用户按下快门开关SW2。接下来,在步骤S117中,系统控制电路112判断快门开关SW2处于接通(ON)还是断开(OFF)状态(即,SW2是否处于按下状态)。如果快门开关SW2断开(未按下状态)(步骤S117中的“否”),且快门开关SW1处于断开状态(即,被释放)(步骤S118中的“否”),则该处理流程返回到步骤S103。另一方面,如果快门开关SW2处于接通状态(即,被按下)(步骤S117中的“是”),则该处理流程进行到步骤S119。或者可选地,如果快门开关SW2断开(未按下状态)(步骤S117中的“否”),而快门开关SW1处于接通状态(即,未释放)(步骤S118中的“是”),则该处理流程返回到步骤S117。
在步骤S119中,系统控制电路112执行拍摄处理以将捕获的图像数据存储到存储器108中。曝光控制电路113根据步骤S115中的曝光控制结果驱动光圈设备,打开快门对图像传感器103进行曝光。然后,如果需要,曝光控制电路113使闪光设备发光,当经过了预置曝光时间时关闭快门。
通过A/D转换器105、数字信号处理电路107和存储器控制电路106将从图像传感器103生成的电荷信号发送到存储器108(即,图像数据存储装置)。此外,系统控制电路112使存储器控制电路106和数字信号处理电路107读取存储在存储器108中的图像数据,执行垂直加法处理。
接下来,系统控制电路112使数字信号处理电路107连续执行颜色处理以生成显示图像数据。然后,系统控制电路112使存储器108存储处理后的显示图像数据。在步骤S120中,系统控制电路112使显示单元110基于在步骤S119中获得的图像数据显示拍摄图像。
在步骤S121中,系统控制电路112读取存储在存储器108中的图像数据,使存储器控制电路106(和数字信号处理电路107,如果需要)执行各种图像处理。此外,系统控制电路112执行记录处理以压缩图像数据并将压缩图像数据写入存储介质。
在完成步骤S121的记录处理之后,系统控制电路112在步骤S122中判断快门开关SW2是否处于按下状态。如果在步骤S122中判断为开关SW2处于接通状态(即,按下状态)(步骤S122中的“是”),则该处理流程进行到步骤S123。如果在步骤S122中判断为开关SW2处于断开状态(即,未按下状态)(步骤S122中的“否”),则该处理进行到步骤S124。
在步骤S123中,系统控制电路112判断连续拍摄标志是否处于打开(ON)状态。可以将连续拍摄标志存储在系统控制电路112的内部存储器或者存储器108中。如果在步骤S123中判断为连续拍摄标志处于ON状态(步骤S123中的“是”),则该处理流程返回到步骤S119。然后,在步骤S119中,系统控制电路112使摄像设备110拍摄下一个图像以实现连续拍摄。
如果在步骤S123中判断为连续拍摄标志处于关闭(OFF)状态(步骤S123中的“否”),则该处理流程返回到步骤S122。系统控制电路112重复步骤S122和S123的处理,直到断开快门开关SW2。
如果在步骤S121的记录处理完成之后立刻断开快门开关SW2,则该处理流程从步骤S122进行到步骤S124。类似地,如果在步骤S121的记录处理完成之后用户连续按下快门开关SW2以显示并确认捕获的图像,然后,如果断开快门开关SW2,则该处理流程从步骤S122进行到步骤S124。
然后,在步骤S124中,系统控制电路112判断是否预定显示时间已过去。在预定显示时间已过去(步骤S124中的“是”)之后,该处理流程进行到步骤S125。在步骤S125中,系统控制电路112使显示单元110在观察显示状态下工作。该处理流程进行到步骤S126。通过上述处理,用户可以在显示单元110上确认捕获图像,显示单元110可以开始下一个拍摄操作的观察显示。
在步骤S126中,系统控制电路112判断快门开关SW1是否处于接通状态。如果快门开关SW1处于接通状态(步骤S126中的“是”),则该处理流程进行到下一个拍摄操作的步骤S117。当断开快门开关SW1(步骤S126中的“否”)时,系统控制电路112完成连续拍摄动作。该处理流程返回到步骤S103。
示例性识别区域显示处理接下来,更详细地说明在图3的步骤S113中执行的示例性识别区域显示处理(即,本示例性实施例的特征)。
本示例性实施例可以根据主被摄体的移动方向来改变表示主被摄体的识别区域的标记的更新周期。本示例性实施例可以根据主被摄体的移动方向来改变标记的跟踪响应特性。
图4是示出根据本示例性实施例的识别区域显示处理的示例细节的流程图。在步骤S201中,显示控制电路117判断是否已在被设置为观察显示状态的显示单元110上显示了标记(即表示识别区域的框)。如果没有显示标记(步骤S201中的“否”),则该处理流程进行到步骤S202。
在步骤S202中,显示控制单元117判断在步骤S112中是否识别出了脸部区域。如果脸部区域检测成功(步骤S202中的“是”),则该处理流程进行到步骤S203。如果脸部区域检测失败(步骤S202中的“否”),则显示控制电路117停止该例程的处理。
在步骤S203中,显示控制电路117将变量N设为1。该处理流程进行到步骤S204。在步骤S204中,显示控制电路117指示数字信号处理电路107将存储在存储器108中的显示图像数据与基于在步骤S112中获得的识别区域的坐标值而产生的标记合成。接下来,显示控制电路117使显示单元110显示数字信号处理电路107所产生的合成图像数据的图像。然后,显示控制电路117停止该例程的处理。
图10示出显示单元110显示与数字信号处理电路107所产生的表示识别区域的标记合成的显示图像数据的示例性图像的示例显示画面。参考识别出的脸部的大小来确定标记的大小,使得标记足够大以覆盖可能沿上下方向运动的走动物体的脸部是理想的。
更具体地,如果脸部沿Y轴方向移动的量等于基准值A2,则脸部保持在标记内是理想的。这里,X轴是沿画面的水平方向延伸的轴,而Y轴是沿画面的垂直方向延伸的轴。
在图4所示的流程图的处理完成之后,如果在图3的步骤S114中判断为没有按下快门开关SW1(步骤S114中的“否”),则该处理流程再次返回到图3的步骤S103。即,当没有按下快门开关SW1时,显示控制电路117重复步骤S110(即连续显示捕获图像的处理)至步骤S113(即显示标记的处理)的处理。因此,当人体(即识别对象)运动时,标记相应地移动。
现在,返回参考步骤S201,如果在显示单元110上已显示了表示识别区域的框(步骤S201中的“是”),则该处理流程进行到步骤S205。在步骤S205中,显示控制电路117判断在步骤S112中是否识别出了脸部区域。如果脸部区域检测成功(步骤S205中的“是”),则该处理流程进行到步骤S206。当脸部区域检测失败(步骤S205中的“否”)时,该处理流程进行到步骤S217,显示控制电路117清除标记,停止该例程的处理。
在步骤S206中,显示控制电路117将已显示的标记的中心坐标(X,Y)与包含主被摄体的最新的识别区域的中心坐标进行比较。然后,显示控制电路117将比较后的中心坐标的差分离为X轴和Y轴分量,获得X轴差ΔX和Y轴差ΔY。
当竖直放置摄像设备100时,在Y轴方向上产生人体的上下运动。显示控制电路117可以将最多5个最新的ΔY值存储在系统控制电路112的内部存储器(未示出)中。
在步骤S207中,显示控制电路117判断在步骤S206中获得的ΔX值是否小于基准值A1。基准值A1与走动物体的上下运动相比是足够小的值。如果ΔX值等于或大于基准值A1(步骤S207中的“否”),则该处理流程进行到步骤S208。
在步骤S208中,显示控制电路117将ΔX值与主被摄体的X轴中心坐标X相加。换句话说,显示控制电路117用主被摄体的识别区域的最新X轴中心坐标来更新标记的X轴中心坐标。然后,该处理流程进行到步骤S209。
另一方面,当ΔX值小于基准值A1(步骤S207中的“是”)时,显示控制电路117判断为X轴方向上的标记与主被摄体的最新识别区域之间的差值是小的、可以忽略的值。因此,显示控制电路117保持标记的X轴中心坐标。然后,该处理流程进行到步骤S209。
在步骤S209中,显示控制电路117判断在步骤S206中获得的ΔY值是否小于基准值A2。基准值A2是稍大于走动物体的上下运动的变化宽度的值。
如果ΔY值等于或大于基准值A2(步骤S209中的“否”),则该处理流程进行到步骤S210。在步骤S210中,显示控制电路117判断为识别区域由于走动物体的上下运动之外的原因而产生了变化。因此,显示控制电路117将ΔY值与主被摄体的Y轴中心坐标Y相加。换句话说,显示控制电路117用主被摄体的识别区域的最新Y轴中心坐标来更新标记的Y轴中心坐标。然后,该处理流程进行到步骤S215。
另一方面,当ΔY值小于基准值A2(步骤S209中的“是”)时,显示控制电路117判断为识别区域由于走动物体的上下运动而沿Y轴方向产生了移动。然后,该处理流程进行到步骤S211。
在步骤S211中,显示控制电路117判断变量N是否小于5。如果变量N小于5(步骤S211中的“是”),则显示控制电路117将变量N增加1(参考步骤S212)。然后,该处理流程进行到步骤S216。
步骤S211和S212的处理是需要等待经过预定时间的操作(等同于相同脸部区域的5个连续检测)。换句话说,如果识别区域由于走动物体的上下运动而在Y轴方向上变化,则显示控制电路117不会立即使标记沿Y轴方向移动以跟踪识别区域。
可以充分抑制Y轴方向上标记的移动,从而不会迫使用户频繁地辨认由走动物体引起的标记的上下运动。
被摄体的前进方向相对于画面可以是倾斜或者上下方向的。在完成5个连续脸部检测之前,在标记和识别区域之间可能产生大的偏差。在这种情况下,在变量N达到5之前,该处理流程从步骤S209进行到步骤S210。标记可以快速地跟踪识别区域。
应当指出,在判断步骤S211中的基准值不限于5,可以根据被摄体识别电路115的计算速度将其设置为可选择的任何其它合适的值。
如果在步骤S211中变量N等于或大于5(步骤S211中的“否”),则该处理流程进行到步骤S213,用主被摄体的最新识别区域的Y轴中心坐标更新标记的Y轴中心坐标。
在步骤S213中,显示控制电路117判断ΔY值是否小于基准值A1。即,显示控制电路117判断Y轴方向上标记和主被摄体的最新识别区域之间的差是否是小的、可忽略的值。如果ΔY值等于或大于基准值A1(步骤S213中的“否”),则该处理流程进行到步骤S214。当ΔY值小于基准值A1(步骤S213中的“是”)时,显示控制电路117保持标记的Y轴中心坐标。然后,该处理流程进行到步骤S215。
在步骤S214中,显示控制电路117读取存储在系统控制电路112的内部存储器(未示出)中的以前的5个ΔY值,计算以前的5个ΔY值的平均值ΔYave。显示控制电路117通过将平均值ΔYave与标记的Y轴中心坐标相加来获得标记的新的Y轴中心坐标。
因为可以将标记调整到走动物体上下运动的中心,所以使用以前的5个ΔY值的平均值是有用的。
在步骤S215中,显示控制电路117响应于重新设置标记的Y轴中心坐标,将变量N初始化为1。然后,该处理流程进行到步骤S216。
在步骤S216中,显示控制电路117指示数字信号处理电路107显示所保持的标记或基于更新的中心坐标而产生的新的标记。然后,显示控制电路117使显示单元110显示从数字信号处理电路107中生成的图像数据的合成图像。然后,显示控制电路117停止该例程的处理。
如上所述,本示例性实施例参考走动物体上下运动的变化宽度来设置基准值A2,只在对应于走动物体的上下运动的Y轴方向上判断识别区域的变化是否小于基准值A2。
如果判断为走动物体的上下运动导致识别区域在Y轴方向上变化,则可以只在Y轴方向上抑制更新标记(表示识别区域)的位置的频率。
图11示出当主被摄体走动时识别区域和标记之间的位置关系。如果识别区域在Y轴方向上的变化小于基准值A2,则不改变标记的Y轴坐标值。
图12示出标记在X轴方向和Y轴方向上的变化。括号中的数字是变量N的值。当变量N从1开始变为2、3和4时,连续更新标记的X轴坐标值,而Y轴坐标值保持不变。
图13示出当Y轴方向上的变化超过基准值A2时标记和识别区域之间的位置关系。图13示出首先走下斜坡、然后走下台阶在平面上走动的示例性被摄体(即,识别对象)。
当被摄体在向下倾斜的斜坡上走动或者走下台阶时,在变量N达到5之前,标记和识别区域之间的位置差可能超过基准值A2。如果识别区域的上下运动超过基准值A2,则可以每次都适当地更新Y轴坐标值。因此,与X轴方向上的跟踪操作相比,标记可以以更高的响应特性跟踪识别区域。
以这种方式,本示例性实施例可以防止标记响应于走动物体的上下运动沿上下方向频繁移动。同时,本示例性实施例可以使标记在横向方向上快速地移动以准确地跟踪主被摄体。
因此,本示例性实施例可以显示与用户看到并辨认出的主被摄体的实际运动类似的标记。因此,可以大大提高标记的可视性。
本示例性实施例将标记和识别区域之间的差分离为X轴和Y轴分量。然而,将差值分量分离到三个或更多方向是有用的。如果在主被摄体的上下方向上发生变化,则可以准确地防止频繁更新标记。
此外,检测主被摄体的方法不限于检测人脸。主被摄体(即,识别对象)可以是任何其它运动对象。
此外,当主被摄体显示在汽车或电车上上下运动时,降低标记的跟踪响应是有用的。另外,使用户可以任意地选择标记的跟踪响应特性是有用的。
第二示例性实施例接下来,说明在图3的步骤113中执行的识别区域显示处理的另一个示例性实施例。根据图4的流程图,当识别区域由于走动物体的上下运动而在Y轴方向上变化时,增大更新表示识别区域的标记在Y轴方向上的位置的更新周期。
第二示例性实施例的特征在于,与X轴方向上标记的移动距离相对于标记和识别区域之间的距离的比值相比,Y轴方向上的比值小。
更具体地,与标记在X轴方向上的跟踪速度相比,标记在Y轴方向上的跟踪速度慢。因此,通过使标记在Y轴方向上的运动变慢,可以根据主被摄体的移动方向来区分标记的跟踪响应特性。
示例性识别区域显示处理图5是示出根据第二示例性实施例的由摄像设备执行的识别区域显示处理的示例细节的流程图,其中,相同的附图标记表示与图4类似的步骤。
在步骤S201中,显示控制电路117判断是否已在被设置为观察显示状态的显示单元110上显示了标记(即,表示识别区域的框)。如果没有显示标记(步骤S201中的“否”),则该处理流程进行到步骤S202。如果显示了标记(步骤S201中的“是”),则该处理流程进行到步骤S205。
在步骤S202中,显示控制电路117判断在步骤S112中是否识别出了脸部区域。如果脸部区域检测成功(步骤S202中的“是”),则该处理流程进行到步骤S204。如果脸部区域检测失败(步骤S202中的“否”),则显示控制电路117停止该例程的处理。
本示例性实施例没有增大标记的更新周期。因此,省略图4所示的步骤S203的处理(即,设置变量N的处理)。
在步骤S204中,显示控制电路117指示数字信号处理电路107将存储在存储器108中的显示图像数据与基于在步骤S112中获得的识别区域的坐标值而产生的标记合成。接下来,显示控制电路117使显示单元110显示数字信号处理电路107所产生的合成图像数据的图像。然后,显示控制电路117停止该例程的处理。
参考识别出的脸部的大小来确定标记的大小使得标记足够大以覆盖可能沿上下方向运动的走动物体的脸部是理想的。
在步骤S205中,显示控制电路117判断在步骤S112中是否识别出了脸部区域。如果脸部区域检测成功(步骤S205中的“是”),则该处理流程进行到步骤S206。当脸部区域检测失败(步骤S205中的“否”)时,该处理流程进行到步骤S217,显示控制电路117清除标记,停止该例程的处理。
在步骤S206中,显示控制电路117将已显示的标记的中心坐标(X,Y)与包含主被摄体的最新的识别区域的中心坐标进行比较。然后,显示控制电路117将比较后的中心坐标的差分离为X轴和Y轴分量,获得X轴差ΔX和Y轴差ΔY。
在步骤S207中,显示控制电路117判断在步骤S206中获得的ΔX值是否小于基准值A1。如果ΔX值小于基准值A1(步骤S207中的“是”),则显示控制电路117保持标记的X轴中心坐标X。该处理流程进行到步骤S213。如果ΔX值等于或大于基准值A1(步骤S207中的“否”),则该处理流程进行到步骤S208。
在步骤S208中,显示控制电路117将ΔX值与主被摄体的X轴中心坐标X相加。然后,该处理流程进行到步骤S213。
在步骤S213中,显示控制电路117判断ΔY值是否小于基准值A1。如果ΔY值小于基准值A1(步骤S213中的“是”),则显示控制电路117保持标记的Y轴中心坐标Y。该处理流程进行到步骤S216。如果ΔY值等于或大于基准值A1(步骤S213中的“否”),则该处理流程进行到步骤S301。
在步骤S301中,显示控制电路117将ΔY值与常数K相乘,将乘积与主被摄体的Y轴中心坐标Y相加。该处理流程进行到步骤S216。常数K小于1,从而主被摄体的中心坐标可以逐渐接近识别区域的中心坐标。通过增大常数K,跟踪速度表现为上升,通过减小常数K,跟踪速度表现为下降。
在步骤S216中,显示控制电路117指示数字信号处理电路107显示所保持的标记或基于更新的中心坐标而产生的新的标记。然后,显示控制电路117使显示单元110显示从数字信号处理电路107生成的图像数据的合成图像。然后,显示控制电路117停止该例程的处理。
从前述说明显然可知,本示例性实施例可以只在对应于走动物体上下运动的Y轴方向上,用小于标记和识别区域之间的距离的量来控制标记的运动以跟踪识别区域。因此,标记可以以合适的时间常数来跟踪识别区域。
另一方面,对X轴方向上的跟踪操作不设时间常数。因此,与第一示例性实施例类似,如果主被摄体沿横向方向移动,则标记可以快速地跟踪主被摄体。
因此,与第一示例性实施例类似,本示例性实施例可以与用户看到并辨认出的主被摄体的实际运动类似地显示标记。因此,可以大大提高标记的可视性。
此外,与步骤S301的处理类似,可以将合适的常数与X轴方向和Y轴方向两个方向上标记的中心坐标与主被摄体最新的识别区域的中心标记之间的差相乘。
如果X轴方向的常数大于Y轴方向的常数,则与在X轴方向上标记相对于识别区域和标记之间的偏移的移动量相比,Y轴方向上的移动量小。
以这种方式,与在横向方向上的跟踪速度相比,当主被摄体沿垂直方向移动时,本示例性实施例可以降低标记的跟踪速度。
如果希望,可以用在本示例性实施例的图5的步骤S301中使用的加法公式代替第一示例性实施例的图4的步骤210所示的加法公式。
第三示例性实施例接下来,说明在图3的步骤S113中执行的识别区域显示处理的另一个示例性实施例。上述图5所示的流程图使用基准值A1来判断是更新还是保持标记在X轴方向和Y轴方向两个方向上的中心坐标。
第三示例性实施例通过在X轴方向上使用基准值A1而在Y轴方向上使用基准值A2来判断是更新还是保持标记的中心坐标。换句话说,第三示例性实施例根据主被摄体的移动方向使用两个不同的基准值(即,基准值A1和A2)来改变标记的跟踪响应特性。
示例性识别区域显示处理图6是示出根据第三示例性实施例的由摄像设备执行的识别区域显示处理的示例细节的流程图,其中,相同的附图标记表示与图5类似的步骤。第三示例性实施例与第二示例性实施例不同之处在于,用图6的判断步骤S209来代替图5所示的判断步骤S213。
在本示例性实施例中,在步骤S206中,显示控制电路117将已显示的标记的中心坐标(X,Y)与包含主被摄体的最新的识别区域的中心坐标进行比较。然后,显示控制电路117将比较后的中心坐标的差分离为X轴和Y轴分量,获得X轴差ΔX和Y轴差ΔY。
在步骤S207中,显示控制电路117判断在步骤S206中获得的ΔX值是否小于基准值A1。如上所述,与走动期间人体的上下运动相比,基准值A1是足够小的值。
如果ΔX值等于或大于基准值A1(步骤S207中的“否”),则显示控制电路117将ΔX值与主被摄体的X轴中心坐标X相加(参考步骤S208)。当ΔX值小于基准值A1(步骤S207中的“是”)时,显示控制电路117保持标记的X轴中心坐标X。然后,该处理流程进行到步骤S209。
在步骤S209中,显示控制电路117判断在步骤S206中获得的ΔY值是否小于基准值A2(其大于在步骤S207中使用的基准值A1)。基准值A2是稍大于走动物体的上下运动的变化宽度的值。显示控制电路117使用基准值A2来判断走动物体的上下运动是否导致识别区域沿Y轴方向运动。
如果ΔY值等于或大于基准值A2(步骤S209中的“否”),则显示控制电路117将ΔY值乘以常数K,将乘积与主被摄体的Y轴中心坐标Y相加(参考步骤S301)。换句话说,显示控制电路117用主被摄体的识别区域的最新Y轴中心坐标来更新标记的Y轴中心坐标。
另一方面,当ΔY值小于基准值A2(步骤S209中的“是”)时,显示控制电路117保持标记的Y轴中心坐标。然后,该处理流程进行到步骤S216。
如上所述,本示例性实施例获得标记的中心坐标和主被摄体的最新的识别区域的中心坐标之间的差,基于所获得的差判断是否更新标记的中心坐标。
Y轴差的基准值大于X轴差的基准值。Y轴方向的基准值包括走动物体上下运动的变化宽度。
因此,本示例性实施例可以抑制标记响应于走动物体的上下运动而频繁地上下移动。另一方面,如果主被摄体沿横向方向移动,则标记可以快速地跟踪主被摄体。
因此,本示例性实施例可以与用户看到并辨认出的主被摄体的实际运动类似地显示标记。因此,可以大大提高标记的可视性。
虽然本示例性实施例包括在步骤S207中显示控制电路117判断在步骤S206中获得的ΔX值是否小于基准值A1的处理,如果ΔX值总是与主被摄体的X轴中心坐标X相加,则可以忽略该处理。
第四示例性实施例此外,说明在图3的步骤S113中执行的识别区域显示处理的另一个示例性实施例。第四示例性实施例可以判断识别区域大小的变化,还可以判断图像传感器103的姿态。
示例性识别区域显示处理图7~9是示出根据第四示例性实施例的由摄像设备执行的识别区域显示处理的细节的流程图,其中,相同的附图标记表示与图4~6相同的步骤。
在步骤S201中,显示控制电路117判断是否已在被设置为观察显示状态的显示单元110上显示了标记(即,表示识别区域的框)。如果没有显示标记(步骤S201中的“否”),则该处理流程进行到步骤S202。如果显示了标记(步骤S201中的“是”),则该处理流程进行到步骤S205。
在步骤S202中,显示控制单元117判断在步骤S112中是否识别出了脸部区域。如果脸部区域检测成功(步骤S202中的“是”),则该处理流程进行到步骤S203。如果脸部区域检测失败(步骤S202中的“否”),则显示控制电路117停止该例程的处理。
在步骤S203中,显示控制电路117将变量N设为1。该处理流程进行到步骤S204。在步骤S204中,显示控制电路117指示数字信号处理电路107将存储在存储器108中的显示图像数据与基于在步骤S112中获得的识别区域的坐标值而产生的标记合成。然后,显示控制电路117使显示单元110显示数字信号处理电路107产生的合成图像数据的图像。然后,该处理流程进行到步骤S601。
参考识别出的脸部的大小来确定标记的大小,使得标记足够大以覆盖可能沿上下方向运动的走动物体的脸部是理想的。
在步骤S601中,显示控制电路117基于标记的大小或者基于识别出的脸部的大小设置基准值A2。
例如,当脸部大时,主被摄体位于摄像设备的附近。因此,当检测到的脸部大时,走动物体的上下运动大。因此,当标记大时,或者当识别出的脸部大时,本示例性实施例设置大的基准值A2。在设置合适的基准值A2之后,显示控制电路117停止该例程的处理在步骤S205中,显示控制单元117判断在步骤S112中是否识别出了脸部区域。如果脸部区域检测成功(步骤S205中的“是”),则该处理流程进行到步骤S602。当脸部区域检测失败(步骤S205中的“否”)时,该处理流程进行到步骤S217,显示控制电路117清除标记,停止该例程的处理。
在步骤S602中,显示控制电路117计算ΔXa(表示在X轴方向上显示的标记和识别区域之间的宽度差)和ΔYa(表示在Y轴方向上标记和识别区域之间的宽度差)。
在步骤S603中,显示控制电路117判断ΔXa值和ΔYa值中的至少一个是否处于普通用户可以辨认出脸部大小的变化的预定水平。如果存在显著的变化(步骤S603中的“是”),则该处理流程进行到步骤S616,显示控制电路117设置新的标记。
可选地,显示控制电路117可以判断标记的X轴和Y轴宽度的比值或者识别区域的X轴和Y轴宽度的比值是否处于普通用户可以辨认出脸部方向的变化的预定水平。
如果存在显著的变化(步骤S603中的“是”),则该处理流程进行到步骤S616,显示控制电路117设置新的标记。如果识别区域的形状和大小基本上没有变化(步骤S603中的“否”),则该处理流程进行到步骤S206。在步骤S616中,显示控制电路117参考最新的识别区域的坐标值设置新的标记的坐标值和大小,而与已显示的标记的坐标值和大小无关。
在步骤S617中,显示控制电路117响应于标记的更新将变量N初始化为1。然后,该处理流程进行到图8的步骤S216。
在步骤S206中,显示控制电路117将已显示的标记的中心坐标(X,Y)与包含主被摄体的最新的识别区域的中心坐标进行比较。然后,显示控制电路117将比较后的中心坐标的差分离为X轴和Y轴分量,获得X轴差ΔX和Y轴差ΔY。
在步骤S604中,显示控制电路117从姿态检测电路116获得摄像设备100的姿态信息。在本示例性实施例中,姿态检测电路116可以提供姿态信息。然而,被摄体识别电路115可以基于识别出的脸部的方向来估计图像传感器103的姿态。在这种情况下,姿态检测电路116不获得姿态信息。该处理流程进行到图8的步骤S605。
在步骤S605中,显示控制电路117基于姿态信息来判断走动物体是导致Y轴方向还是X轴方向上的上下运动。如果Y轴方向是垂直方向(步骤S605中的“是”),则该处理流程进行到步骤S207。如果Y轴方向不是垂直方向(步骤S605中的“否”),则该处理流程进行到图9的步骤S607。
在步骤S207~S215中,显示控制电路117执行与图4中的步骤S207~S215类似的处理。然后,该处理流程进行到步骤S216。
此外,在图9的步骤S607~S615中,显示控制电路117执行除了交换X轴方向和Y轴方向之外与图8中的步骤S207~S215类似的处理。然后,该处理流程进行到步骤S216。
然后,在步骤S216中,显示控制电路117指示数字信号处理电路107显示保持的标记或基于更新的中心坐标而产生的新的标记。然后,显示控制电路117使显示单元110显示从数字信号处理电路107生成的图像数据的合成图像。然后,该处理流程进行到步骤S618。
在步骤S618中,显示控制单路117基于更新的标记的大小或者基于识别出的脸部的大小设置基准值A2。然后,显示控制电路117停止该例程的处理。
如上所述,本示例性实施例可以根据标记的大小或识别出的脸部的大小来改变用于判断走动物体上下运动的变化宽度的基准值A2。因此,本示例性实施例可以参考主被摄体的距离适当地判断走动物体的上下运动。
此外,本示例性实施例可以使用图像传感器103的姿态信息来调节对应于走动物体的上下运动的方向。即使用户改变摄像设备100的姿态或方位,本示例性实施例也可以适当地判断走动物体的上下运动。
与走动物体的上下运动相对应的方向不限于上述X轴方向和Y轴方向。因此,设置三个或多个方向以准确地识别与走动物体的上下运动相对应的方向、准确地控制显示框的跟踪响应特性是有用的。
其它示例性实施例参考摄像设备100说明了上述示例性实施例。然而,本发明的应用不限于摄像设备。
例如,本发明可应用于能够输入来自监视照相机的图像数据并在阴极射线管(CRT,cathode ray tube)显示器或其它显示单元上显示图像的计算机设备。计算机设备可以从图像数据中检测脸部区域并基于识别结果产生标记,可以使相关显示单元显示包含标记的合成图像。
此外,根据本发明的计算机设备可以从外部存储介质或通过因特网获得图像数据,从该图像数据中识别脸部区域,可以基于识别结果使相关显示单元显示包含标记的合成图像。
在这种情况下,如果图像数据包括姿态信息,则计算机设备可以基于姿态信息判断与走动物体的上下运动相对应的方向。
此外,可以向连接到各种装置的系统或设备提供用于实现上述示例性实施例的功能的软件程序代码。系统或设备中的计算机(或CPU或微处理单元(MPU,micro-processing unit))可以执行程序以操作装置实现上述示例性实施例的功能。因此,当计算机可以实现示例性实施例的功能或处理时,本发明包含可在计算机中安装的程序代码。
在这种情况下,程序代码本身可以实现示例性实施例的功能。如果程序的等同物具有类似的功能,则可以使用该等同物。此外,本发明包含用于向计算机提供程序代码的装置,例如存储程序代码的存储(或记录)介质。在这种情况下,程序的类型可以是目标代码、解释程序和OS脚本数据中的任何一种。可以从软(floppy)盘、硬盘、光盘、磁光(MO)盘、光盘-ROM(CD-ROM)、CD-可记录(CD-R)、CD-可擦写(CD-RW)、磁带、非易失性存储卡、ROM和DVD(DVD-ROM,DVD-R)中的任何一个中选择提供程序的存储介质。
提供程序的方法包括当主页允许每个用户将本发明的计算机程序或具有自动安装功能的程序的压缩文件下载到硬盘或用户的其它记录介质中时,使用客户计算机的浏览功能访问因特网的主页。
此外,可以将构成本发明的程序的程序代码分割为多个文件,从而可以从不同的主页下载各文件。即,本发明包含允许大量用户下载程序文件从而可以在其计算机上实现本发明的功能或处理的WWW服务器。
此外,当将本发明的程序分发给用户时,将本发明的程序加密、在CD-ROM或类似的记录介质上存储加密程序是示例性方法。允许授权用户(即,满足预定条件的用户)从因特网的页面上下载密钥信息。用户可以用获得的密钥信息解密程序,将程序安装在其计算机上。当计算机读取并执行安装的程序时,可以实现上述示例性实施例的功能。
另外,在计算机上运行的操作系统(OS,operating system)或其它应用程序软件可以基于程序的指令执行部分或全部实际处理。
此外,可以将从存储介质中读出的程序代码写入安装在计算机中的功能扩展板的存储器中或者写入连接到计算机的功能扩展单元的存储器中。在这种情况下,基于程序的指令,在功能扩展板或功能扩展单元上设置的CPU可以执行部分或全部处理,从而可以实现上述示例性实施例的功能。
本发明可以应用于包括多个装置的系统,或者可以应用于单个设备。此外,可以通过向系统或设备提供程序来实现本发明。在这种情况下,系统或设备可以从存储器介质中读取与本发明有关的软件程序。
虽然参考示例性实施例说明了本发明,但是应当理解,本发明不限于公开的示例性实施例。所附权利要求的范围符合最宽的解以覆盖全部变形、等同结构和功能。
权利要求
1.一种显示方法,包括从图像数据中获得与满足预定条件的识别对象相对应的识别区域;产生表示所述识别区域的对象识别标记;以及以所述标记能以根据所述识别区域的移动方向而不同的响应特性来跟踪所述识别区域的方式,使显示单元显示包含所述标记和基于所述图像数据而生成的图像的合成图像。
2.根据权利要求1所述的显示方法,其特征在于,通过根据所述识别区域的移动方向使更新所述标记的位置的更新周期不同,来显示所述标记。
3.根据权利要求1所述的显示方法,其特征在于,通过根据所述识别区域的移动方向使所述标记的移动距离相对于所述标记和所述识别区域之间的距离的比值不同,来显示所述标记。
4.根据权利要求1所述的显示方法,其特征在于,当所述标记和所述识别区域之间的距离超过基准值时,通过更新所述标记的位置并根据所述识别区域的移动方向使所述基准值不同,来显示所述标记。
5.根据权利要求2所述的显示方法,其特征在于,所述识别区域的移动方向被分离为两个或多个方向,其中,通过与其它移动方向上所述标记的位置的更新周期相比增大与所述识别对象的上下运动相对应的移动方向上所述标记的位置的更新周期,来显示所述标记。
6.根据权利要求3所述的显示方法,其特征在于,所述识别区域的移动方向被分离为两个或多个方向,其中,通过与其它移动方向上所述标记的移动距离相对于所述标记和所述识别区域之间的距离的比值相比,减小与所述识别对象的上下运动相对应的移动方向上所述标记的移动距离相对于所述标记和所述识别区域之间的距离的比值,来显示所述标记。
7.根据权利要求4所述的显示方法,其特征在于,所述识别区域的移动方向被分离为两个或多个方向,其中,通过与在其它移动方向上的基准值相比增大与所述识别对象的上下运动相对应的移动方向上的基准值,来显示所述标记。
8.根据权利要求1所述的显示方法,其特征在于,还包括获得被配置为生成所述图像数据的图像传感器的姿态信息的处理,其中,通过根据所述姿态信息和所述识别区域的移动方向使更新所述标记的位置的更新方法不同,来显示所述标记。
9.根据权利要求1所述的显示方法,其特征在于,通过基于与被配置为生成所述图像数据的图像传感器有关的镜头的焦距信息以及基于所述识别区域的移动方向使更新所述标记的位置的更新方法不同,来显示所述标记。
10.根据权利要求1所述的显示方法,其特征在于,所述识别对象是走动物体。
11.一种摄像设备,用于从图像传感器所获得的图像数据中获得与满足预定条件的识别对象相对应的识别区域,并产生表示所述识别区域的对象识别标记,所述摄像设备包括显示控制电路,用于以所述标记能以根据所述识别区域的移动方向而不同的响应特性来跟踪所述识别区域的方式,使显示单元显示包含所述标记和基于所述图像数据而生成的图像的合成图像。
12.根据权利要求11所述的摄像设备,其特征在于,所述显示控制电路通过根据所述识别区域的移动方向使更新所述标记的位置的更新周期不同,来使所述显示单元显示所述标记。
13.根据权利要求11所述的摄像设备,其特征在于,所述显示控制电路通过根据所述识别区域的移动方向使所述标记的移动距离相对于所述标记和所述识别区域之间的距离的比值不同,来使所述显示单元显示所述标记。
14.根据权利要求11的摄像设备,其特征在于,当所述标记和所述识别区域之间的距离超过基准值时,所述显示控制电路通过更新所述标记的位置并根据所述识别区域的移动方向使所述基准值不同,来使所述显示单元显示所述标记。
全文摘要
本发明涉及一种用于显示识别区域和图像的方法及摄像设备。当主被摄体移动时,用户自然地看到并辨认出的主被摄体的预定与主被摄体实际频繁的运动不同。如果对象识别标记的显示准确地跟踪运动对象,则标记的可视性可能恶化。本发明提供一种根据主被摄体的移动方向来区分标记的跟踪响应特性的显示方法。例如,如果主被摄体导致上下运动,则降低标记的跟踪响应。
文档编号H04N1/387GK101014095SQ20071000041
公开日2007年8月8日 申请日期2007年1月31日 优先权日2006年1月31日
发明者角田悠子 申请人:佳能株式会社
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1