基于影像的物件追踪方法及其系统与电脑可读取存储媒体与流程

文档序号:17773040发布日期:2019-05-28 19:40阅读:208来源:国知局
基于影像的物件追踪方法及其系统与电脑可读取存储媒体与流程

本发明涉及一种检测移动物体的技术,且特别涉及一种基于影像的物件追踪方法及其系统与电脑可读取存储媒体。



背景技术:

随着科技的进步,视觉监视设备具有广大的应用潜力,而视频影像检测技术已广泛用于识别以及追踪移动物体的多种应用中。其中,基于影像处理的追踪演算法是视觉监视系统中不可或缺的核心技术。通过使用基于影像处理的追踪演算法,视觉监视系统可通过分析视频画面来被追踪估测物体于监视环境中的位置与移动状态。

然而,对于不同的监视环境与情境来说,被追踪物体的特性、形态,以及移动习性以及监视环境的类型皆不相同。因此,演算法设计人员往往会根据监视环境与情境来设计出更合适的演算流程,以更准确且有效率地检测与追踪监视者感兴趣的物体。一般而言,目前常见的物件追踪演算法大多是针对开放空间里出现的人或物体(例如:车辆)进行检测与追踪。所谓的开放空间表示,被监测空间里的被追踪物体来来去去,开放空间里的被追踪物体并非是固定不变的。因此,对于开放空间的追踪演算法来说,往往是着重于监视被追踪物体的移动趋势、被追踪物体是否重复出现、或被追踪物体是否进入禁止进入的区域。然而,目前较少见到的是,针对封闭空间里的被追踪物体进行准确追踪的完善流程。此外,如何针对形态变化较大的被追踪物体提升追踪准确度也为本领域技术人员关心的议题。



技术实现要素:

有鉴于此,本发明提供一种基于影像的物件追踪方法及其系统与电脑可读取存储媒体,其可通过分析针对封闭空间所拍摄的视频串流,而准确且有效率地追踪封闭空间里形态变化较大的移动物体。

在本发明的一实施例中,上述基于影像的物件追踪方法适用于一物件追踪系统,所述方法包括下列步骤。接收包括多张影像图框的视频串流。于此,此视频串流是由影像获取装置朝封闭空间拍摄而产生,而多个观测物的移动范围限制于此封闭空间内。接着,自视频串流中检测出多个移动物件,并且针对这些影像图框产生与各移动物件相关联的框架。这些影像图框包括当前图框与先前图框。通过分析当前图框内的当前框架与先前图框内的先前框架之间的位置投射关系,来建立当前图框内的当前框架与这些观测物的连结关系。之后,依据所建立的连结关系来追踪封闭空间里的这些观测物。

在本发明的一实施例中,上述基于影像的物件追踪系统包括影像获取装置、存储装置,以及处理器,其中处理器耦接影像获取装置与存储装置。影像获取装置用以朝封闭空间进行拍摄而产生视频串流,而多个观测物的移动范围受限于此封闭空间内。存储装置用以存储数据,而处理器用以执行下列步骤。接收包括多张影像图框的视频串流。自视频串流中检测出多个移动物件,并且针对这些影像图框产生与各移动物件相关联的框架。这些影像图框包括当前图框与先前图框。通过分析当前图框内的当前框架与先前图框内的先前框架之间的位置投射关系,来建立当前图框内的当前框架与这些观测物的连结关系。之后,依据所建立的连结关系与这些框架来追踪封闭空间里的这些观测物。

在本发明的一实施例中,上述电脑可读取记录媒体记录电脑程序,其经由上述物件追踪系统的处理器载入以执行上述基于影像的物件追踪方法的步骤。

基于上述,通过分析相邻图框的框架的对应关系,本发明实施例可提供一种具有针对性且高准确度的物件追踪方法。

为让本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合说明书附图作详细说明如下。

附图说明

图1为根据本发明一实施例所示出的基于影像的物件追踪系统的方框图。

图2为根据本发明一实施例所示出的基于影像的物件追踪系统的情境示意图。

图3为根据本发明一实施例所示出的基于影像的物件追踪方法的流程图。

图4根据本发明一实施例所示出的当前图框与先前图框的范例。

图5为根据本发明一实施例所示出的基于影像的物件追踪方法的流程图。

图6a与图6b为根据本发明一实施例所示出的建立当前图框内的框架与观测物的连结关系的流程图。

图7a至图7e为根据本发明一实施例所示出的当前图框与先前图框的范例。

附图标记说明:

10:物件追踪系统

110:影像获取装置

120:存储装置

130:处理器

210:电脑系统

obj1~obj3:观测物

s1:封闭空间

v1:视频串流

img21、img22:影像图框

s301~s304、s501~s511、s601~s615:步骤

j1、j2、j3、j4、j5:移动物件

img31、img71、img73、img75、img77、img79:先前图框

img32、img72、img74、img76、img78、img80:当前图框

w34、w35、w36、w72、w73、w75、w76、w77、w83、w84、w85、w86、w87:当前框架

w31、w32、w33、w74、w78、w79、w80、w81、w82、w88、w89、w90:先前框架

w91:第一修正框架

w92:第二修正框架

c71、c72、c73、c74:当前物件中心

c75、c76、c77、c78、c79、c80、c81、c82:先前物件中心

具体实施方式

本发明的部分实施例接下来将会配合附图来详细描述,以下的描述所引用的元件符号,当不同附图出现相同的元件符号将视为相同或相似的元件。这些实施例只是本发明的一部分,并未公开所有本发明的可实施方式。更确切的说,这些实施例只是本发明的专利申请范围中的基于影像的物件追踪方法、系统以及电脑可读取存储媒体的范例。

图1是根据本发明一实施例所示出的基于影像的物件追踪系统的方框图,但此仅是为了方便说明,并不用以限制本发明。首先图1先介绍显示系统中的所有构件以及配置关系,详细功能与操作将配合图2与图3一并公开。

请参照图1,基于影像的物件追踪系统10包括影像获取装置110、存储装置120,以及处理器130,其中处理器130耦接至影像获取装置110以及存储装置120。在一实施例中,基于影像的物件追踪系统10可包括具有存储装置120与处理器130的电脑系统,以及外接于上述电脑系统的影像获取装置110。例如,基于影像的物件追踪系统10可以是由笔记本电脑或台式电脑与外接摄影机而构成,本发明不在此设限。在另一实施例中,基于影像的物件追踪系统10可以是将影像获取装置110、存储装置120,以及处理器130整合为单一电子装置。例如,基于影像的物件追踪系统10可以是智能手机、平板电脑等具有影像获取功能的电子装置,本发明不在此设限。

影像获取装置110用以朝封闭空间获取影像而产生视频串流,并且包括具有透镜以及感光元件的摄像镜头。感光元件用以感测进入透镜的光线强度,进而产生影像。感光元件可以例如是电荷耦合元件(chargecoupleddevice,ccd)、互补性氧化金属半导体(complementarymetal-oxidesemiconductor,cmos)元件或其他元件,本发明不在此设限。

存储装置120用以存储影像、程序代码等数据,其可以例如是任意形式的固定式或可移动式随机存取存储器(randomaccessmemory,ram)、只读存储器(read-onlymemory,rom)、快闪存储器(flashmemory)、硬盘或其他类似装置、集成电路及其组合。

处理器130用以控制基于影像的物件追踪系统10的构件之间的动作,其可以例如是中央处理器(centralprocessingunit,cpu),或是其他可程序化的一般用途或特殊用途的微处理器(microprocessor)、数字信号处理器(digitalsignalprocessor,dsp)、可程序化控制器、特殊应用集成电路(applicationspecificintegratedcircuits,asic)、可程序化逻辑装置(programmablelogicdevice,pld)或其他类似装置或这些装置的组合。

需说明的是,于本发明的实施例中,监视者意图监控的空间属于封闭空间,多个观测物于上述封闭空间里自由移动。并且,这些观测物的移动范围受限于此封闭空间内。也就是说,在本发明的实施例中,监测情境主要设定为针对封闭空间中固定数量的观测物进行监测与追踪。没有外力介入的情况下,封闭空间里的观测物的数量不会变动。基于影像的物件追踪系统10可通过影像获取装置110朝封闭空间进行拍摄,并通过影像处理技术与本发明的物件追踪方法来追踪封闭空间里的观测物。

举例而言,图2为根据本发明一实施例所示出的基于影像的物件追踪系统的情境示意图。于图2的范例中,被监视的封闭空间s1为一水族箱的内部空间,而被追踪的观测物obj1~obj3为饲养于水族箱里的鱼群。影像获取装置110设置于一个固定位置,并对着水族箱持续进行拍摄而产生视频串流v1。影像获取装置110将视频串流v1提供给由处理器130与存储装置120组成的电脑系统210。视频串流v1包括分别对应至不同时间点的多张影像图框,像是影像图框img21以及影像图框img22。因此,于本发明的实施例中,通过分析视频串流v1,水族箱里的鱼群(亦即,观测物obj1~obj3)的移动状态与位置是可以被追踪的。为了方便明了,图2的范例与以下的多个实施例当中主要以水族箱内的鱼来做为观测物来说明,但本发明并不限制于此。于其他实施例中,观测物也可以是其他种类的活体生物,而封闭空间可为限制这些活体生物的移动范围的空间。

以下即搭配图1的基于影像的物件追踪系统10的各元件列举实施例,以说明基于影像的物件追踪系统10执行其物件追踪方法的详细步骤。图3为根据本发明一实施例所示出的基于影像的物件追踪方法的流程图。请同时参照图1与图3。

首先,于步骤s301,处理器130接收包括多张影像图框的视频串流。于此,此视频串流是由影像获取装置110朝封闭空间拍摄而产生,而多个观测物的移动范围限制于此封闭空间内。于步骤s302,处理器130自视频串流中检测出多个移动物件,并且针对这些影像图框产生与各移动物件相关联的框架。

详细而言,处理器130可通过视频串流中连续图框之间像素值的差异来检测出移动区域,以检测出移动中的移动物件。像是,通过背景相减法(backgroundsubtraction),处理器130可将多张影像图框中不随着时间所改变的信息(亦即,不移动的信息)定义为背景,并将当前图框与先前图框相减来得到动态的移动物件的信息。此外,处理器130还可执行例如是二值化(binarization)、模糊化(blur)、侵蚀(erosion)、去噪声等影像处理,以完成移动物件的检测。

接着,在检测出当前图框中的移动物件之后,处理器130可定义出这些移动物件各自的框架(一般称为感兴趣区域(regionofinterest,roi))。这些框架分别归属于各个移动物件,且这些框架的尺寸至少足以包围对应的移动物件。除了视频串流中的第一张影像图框无法检测出移动物件并定义出这些框架之外,其余的影像图框都可通过上述说明来检测出移动物件与产生与这些移动物件相关连的框架。

以图4根据本发明一实施例所示出的先前图框img31以及当前图框img32为例,先前图框img31与当前图框img32是源自同一视频串流但不同时间点的连续图框,而当前图框img32为处理器130正在进行影像分析的影像图框。在此,当处理器130对当前图框img32进行移动物件的检测时,处理器130可以依据先前图框img31与当前图框img32之间的像素差异来检测出当前图框内的移动物件j1、j2、j3。接着,处理器130可分别产生对应于移动物件j1、j2、j3的当前框架w34、w35、w36。相似的,对于先前图框img31而言,处理器130也是依据相同的处理方式,而利用早于先前图框img31的另一影像图框来产生对应于各移动物件的先前框架w31、w32、w33。也就是说,除了视频串流的第一张影像图框之外,处理器130可针对视频串流中的其他各张影像图框检测出移动物件并框出对应的框架。然而,图4是以框架为四边型为例,但本发明对此并不限制。于其他实施例中,框架也可以是圆形、椭圆形、五边形、六边形等其他形状。但为了方便说明,以下实施例说明将以框架为四边型为例继续说明。

请再回到图3的流程,于步骤s303,处理器130通过分析当前图框内的当前框架与先前图框内的先前框架之间的位置投射关系,来建立当前图框内的当前框架与这些观测物的连结关系。详细而言,由于这些框架是通过检测影像图框中移动物件而产生,因此这些框架基本上可分别对应至被拍摄到的观测物。于本发明的实施例中,处理器130可先分析当前图框内的当前框架与先前图框内的先前框架之间的位置投射关系,以获取两连续图框上对应至同一观测物的两框架之间的关联性。于此,两连续图框的两框架间的关联性建立于是否对应于同一观测物的基础上。通过利用不同影像图框(先前图框与当前图框)上对应至同一观测物的两框架之间的关联性,当前图框内的当前框架与这些观测物的连结关系可以被建立。

换言之,处理器130可先分析当前图框内的当前框架与先前图框内的先前框架之间的位置投射关系,以依据这些先前框架与观测物之间的连结关系而将当前框架分别连结至对应的观测物。于一实施例中,当前图框内的当前框架与观测物的连结关系经由物件编号而建立,上述连结关系代表观测物与框架对应至相同的物件编号。也就是说,通过依据当前图框的当前框架与先前图框的先前框架之间的关联性而赋予物件序号给当前图框的框架,当前图框的当前框架与这些观测物的连结关系可据以建立。

最后,于步骤s304,处理器130依据所建立的连结关系与这些框架来追踪封闭空间里的这些观测物。具体而言,由于各框架与观测物的连结关系是可以得知的,因此观测物的移动状态与位置可通过分析多张影像图框上的框架位置而被据以估测出来,致使监视者可达到监视与追踪观测物的目的。值得一提的是,由于本实施例中的追踪方法是具有针对性的,因此在建立框架与观测物之间的连结关系后,可依据上述连结关系与框架所在位置而将观测物个别的信息栏添加至视频串流的画面中。因此当监测者观赏合成视频时,画面中观测物的信息栏可追随着画面中的观测物而随侍在侧。

为了更清楚说明建立当前图框的框架与观测物之间的连结关系的内容,以下即搭配图1的基于影像的物件追踪系统10的各元件列举实施例,以说明基于影像的物件追踪系统10执行其物件追踪方法的详细步骤。图5为根据本发明一实施例所示出的基于影像的物件追踪方法的流程图。请同时参照图1与图5。

于步骤s501,处理器130接收影像获取装置110所拍摄的视频串流的影像图框。于步骤s502,处理器130计数图框编号(framenumber)。进一步来说,视频串流是由具有图框编号的多张影像图框组成,这些影像图框依据其被拍摄顺序而按序编号。通过计数影像图框的图框编号,处理器130可识别当前分析的当前图框是否为视频串流中的第一张影像图框或第二张影像图框。于步骤s503,处理器130对当前图框进行灰阶化处理,而获取当前图框的灰阶影像。

于步骤s504,处理器130判断当前图框是否为视频串流中的第一张影像图框。若步骤s504判断为是,代表处理器130目前只接收到单一张图框而无法检测出移动物件。因此,继续步骤s510,处理器130将存储装置内的先前图框更新为当前图框,亦即将第一张影像图框存储为先前图框。

若步骤s504判断为否,于步骤s505,处理器130依据当前图框与先前图框检测移动物件,并产生当前图框内各移动物件的当前框架。处理器130例如可依据下述影像处理而检测移动物件并产生当前框架。影像相减处理→二值化处理→模糊化处理→二值化处理→定义roi处理。接着,于步骤s506,处理器130判断当前图框是否为视频串流中的第二张影像图框。若步骤s506判断为是,代表处理器130首次检测出移动物件与首次产生框架。因此,于步骤s507,处理器130生成各观测物的物件编号,并赋予物件编号给当前图框的各当前框架。处理器130记录各当前框架与对应的物件编号于存储装置120之中。之后,于步骤510,处理器130将存储装置内的先前图框更新为当前图框,亦即将第二张影像图框存储为先前图框。假设当前图框为视频串流中的第二张影像图框,表1为处理器130记录第二张图框内的各框架与对应的物件编号的范例。

表1

于表1的范例中,处理器130可产生三个观测物各自的物件编号id1、id2、id3,并将物件编号id1、id2、id3指派给经过影像处理产生的三个框架。通过记录各个框架的顶点坐标(例如四边形框架的顶点坐标)与中心点坐标于如表1所示的框架清单,当前图框上的当前框架可被存储下来。然而,表1仅为示范性说明,并非用以限定本发明。

另一方面,若步骤s506判断为否,代表目前分析的当前影像为第二张影像图框后的影像图框,而处理器130已经产生并记录过先前图框的先前框架,也已经指派过物件编号给先前图框的先前框架。于是,于步骤s508,处理器130分析当前图框内的当前框架与先前图框内的先前框架之间的位置投射关系,以将观测物的物件编号指派给当前图框的当前框架。具体而言,处理器130可判断当前框架是否一对一对应至先前框架,并依据当前框架与先前框架之间的对应关系,而将先前框架对应的物件编号指派给对应的当前框架。

需说明的是,于通过影像相减法检测移动物件的过程中,可能发生两观赏物因为相当接近而被识别为同一移动物件的状况,并因此只产生一个框架。于本公开中,因为将两观赏物合并识别同一移动物件而产生的框架称的为重叠框架,重叠框架的产生将导致观测物、框架与物件编号之间的连结发生错乱。基此,依据先前框架与当前框架之间的位置投射关系,处理器130可判断当前图框内是否存在对应至先前框架其中的两者的重叠框架。

之后,于步骤s509,若先前框架其中的两者对应于该当前图框的一重叠框架,处理器130修正当前图框的重叠框架而产生第一修正框架以及第二修正框架,并再次指派物件编号给第一修正框架以及第二修正框架。在移除重叠框架并产生第一修正框架与第二修正框架之后,处理器130记录各当前框架(包括第一修正框架以及第二修正框架)与对应的物件编号于存储装置120之中。于步骤s510,处理器130将存储装置内的先前图框更新为当前图框。于步骤s511,处理器130输出结果。

通过重复执行图5的流程,视频串流里每一张影像图框都可被当作当前图框而被分析,而每一张影像图框的框架与物件编号之间的连结关系也都被记录下来。如此一来,通过获取对应至同一物件编号的多个框架,观测物的移动信息与位置信息可依据所获取的框架的位置而得知。

需特别说明的是,由于观赏物的数量是不变的,因此通过影像分析而检测出来的移动物件的数量理应与观赏物的数量相同。然而,于通过视频串流监视观测物的过程中,移动中的观测物可能因为静止物件的存在而被完全遮蔽或突然出现,致使检测出来的移动物件的数量与观赏物的数量不相符。又或者,于取得框架的过程中,可能因为噪声干扰或观赏物的形态变化而将一个移动物件误区别为两个移动物件,致使检测出来的移动物件的数量与观赏物的数量不相符。又或者,于利用先前图框与当前图框检测移动物件时,可能发生两观赏物因为相当接近而被识别为同一移动物件的状况,致使检测出来的移动物件的数量与观赏物的数量不相符。上述现象将可能引发错误的识别与追踪结果。

为了解决上述现象,本发明实施例更公开一种完善的流程,以避免对应至相同观测物的移动物件没有对应至相同的物件编号。于一实施例中,处理器130可计算当前图框的当前框架的多个当前物件中心点,与计算先前图框的先前框架的多个先前物件中心点。接着,依据当前物件中心点与先前图框内的先前框架的位置,以及依据先前物件中心点与先当前图框内的当前框架的位置,处理器130判断当前框架是否一对一对应至先前框架。若当前框架一对一对应至先前框架,处理器130可直接将物件编号指派给当前框架,从而建立当前框架与观赏物之间的连结关系。若当前框架并未一对一对应至先前框架,处理器130可合并或分割部分当前框架,或执行一遗失物件识别机制。

以下即搭配图1的基于影像的物件追踪系统10的各元件列举实施例,以说明基于影像的物件追踪系统10执行其物件追踪方法的详细步骤。图6a与6b为根据本发明一实施例所示出的建立当前图框内的框架与观测物的连结关系的详细流程图。图6a与6b示出了图5实施例中步骤s508的详细实施内容,请同时参照图1、图6a与6b。

首先,于步骤s601,处理器130计算当前图框的当前框架的当前物件中心点。于一实施例中,假设当前框架为矩形,则当前物件中心点可为当前框架的两对角线的交会点。于步骤s602,处理器130将当前物件中心点投射至先前图框。于步骤s603,处理器130获取位于先前图框内的当前物件中心点。处理器130可依据当前物件中心的坐标来判断当前物件中心是否落在先前框架所围绕的范围内。于步骤s604,处理器130判断各先前框架内是否包括一个以上的当前物件中心点。

若步骤s604判断为是,代表将单一观赏物误判为两个移动物件的状况发生。因此,于步骤s605,处理器130合并当前图框的当前框架。具体而言,若一个以上的当前物件中心点位于先前框架其中之一内时,亦即第一当前框架与第二当前框架的当前物件中心点位于先前框架其中之一内,处理器130将合并第一当前框架与第二当前框架而产生一合并框架。接着,于步骤s615,处理器130指派包括一个以上当前物件中心点的先前框架的物件编号给合并框架,并指派其他的物件编号给其他对应的当前框架。

举例而言,请参照图7a,在依据先前图框img71以及当前图框img72进行移动物件的检测之后,处理器130可产生当前图框img72的当前框架w72以及当前框架w73。处理器130将当前框架w72、w73的当前物件中心c71、c72分别投射至先前图框img71。于图7a的范例中,处理器130判定当前物件中心点c71、c72位于相同的先前框架w71之内,因此处理器130将合并当前框架w72、w73来产生对应至单一观赏物的合并框架。若先前框架w71对应至物件编号‘fish_id1’,则处理器130将物件编号‘fish_id1’指派给上述合并框架。于一实施例中,处理器130可依据当前框架w72、w73的四个顶点坐标产生新的合并框架。

回到图6的流程,若步骤s604判断为否,代表将单一观赏物误判为两个移动物件的状况未发生。接着,于步骤s606,处理器130判断当前物件中心点是否全部位于先前框架内。若步骤s606判断为否,代表当前图框出现了未出现于先前图框的新移动物件。举例而言,当水族箱里的鱼从静止石头后方游出来时,当前图框上会检测到没有出现于先前图框的移动物件。因此,若步骤s606判断为否,继续步骤s607,处理器130依据遗失物件识别机制,增加一个当前框架于当前图框的框架清单内。换言之,若各先前框架内不包括一个以上的当前物件中心点且当前物件中心点并非全部位于先前框架内时,处理器130依据遗失物件识别机制,将没有位于先前框架内的当前物件中心点所对应的新增当前框架新增于框架清单内。接着,于步骤s615,处理器130指派物件编号给新增当前框架,并指派物件编号给对应的当前框架。

详细而言,于一实施例中,遗失物件识别机制包括记录遗失物件步骤与搜索遗失物件步骤。于步骤s607中,处理器130执行遗失物件识别机制的搜索遗失物件步骤,而搜索一遗失物件清单,上述遗失物件清单记录至少一遗失物件的外观特征,以及遗失物件对应的物件编号。当处理器130判定一个当前物件中心点不位于先前框架内时,通过比对遗失物件的物件外观特征,处理器130可重新建立一个新增当前框架并从遗失物件清单找到对应的物件编号。对于遗失物件识别机制中建立遗失物件清单的内容将于图6b的后续流程说明。

举例而言,请参照图7b,在依据先前图框img73以及当前图框img74进行移动物件的检测之后,处理器130可产生当前图框img74的当前框架w75以及当前框架w76。处理器130将当前框架w75、w76的当前物件中心c73、c74分别投射至先前图框img73。于图7b的范例中,处理器130判定当前物件中心点c74没有位于任何一个先前框架之内,因此处理器130依据遗失物件识别机制而将当前物件中心点c74所对应的新增当前框架w76新增于当前图框img74的一框架清单内,并指派物件编号给包括新增当前框架w76的各个当前框架。举例而言,处理130可查找如表2所示的遗失物件清单,并比对移动物件j4的物件外观特征与遗失物件清单里所有的物件外观特征。一旦搜索到与移动物件j4的物件外观特征相似于遗失物件清单中物件外观特征(a),处理器130可依据搜索结果得知对应的遗失物件编号(例如物件编号‘fish_id9’),并将此遗失物件编号(例如物件编号‘fish_id9’)与框架w76新增至当前图框img74的框架清单内。

表2

接着,若步骤s606判断为是,继续步骤s608,处理器130指派物件编号给当前图框的各当前框架,而建立连结关系。详细而言,处理器130可依据先前框架与当前框架之间的对应关系来指派物件编号给各当前框架。由于处理器130已经获取位于先前图框内的当前物件中心点,因此处理器130可将先前框架的物件编号直接指派给对应的当前框架。

请继续参照图6b,于步骤s609,处理器130计算先前图框的先前框架的先前物件中心点。于步骤s610,处理器130将先前框架的先前物件中心点投射至当前图框。于步骤s611,处理器130获取当前框架内的先前物件中心点。相较于步骤s601~s603中将后出现图框内的当前物件中心点投影至先出现图框,步骤s609~s6611的执行内容是将先出现图框内的先前物件中心点投影至后出现图框。

于步骤s612,处理器130判断先前物件中心点是否全部位于当前框架内。若步骤s612判断为否,代表出现于先前图框的移动物件消失于当前图框。举例而言,当水族箱里的鱼游动至静止石头后方而被遮蔽时,出现于先前图框的移动物件将消失于当前图框。因此,若步骤s612判断为否,继续步骤s613,处理器130依据遗失物件识别机制,记录遗失物件编号与物件外观特征。

详细而言,于一实施例中,遗失物件识别机制包括记录遗失物件步骤与搜索遗失物件步骤。于步骤s613中,处理器130执行记录遗失物件步骤,而通过记录遗失物件的外观特征,以及遗失物件对应的物件编号来新增一遗失物件于遗失物件清单内。进一步而言,若先前物件中心点并非全部位于当前框架之内,处理器130依据遗失物件识别机制,记录没有位于当前框架内的先前物件中心点所对应的遗失物件编号以及物件外观特征。因此,于步骤s615,处理器130指派不包括遗失物件编号的物件编号给各个当前框架。

举例而言,请参照图7c,在依据先前图框img75以及当前图框img76进行移动物件的检测之后,处理器130可产生当前图框img76的当前框架w77。处理器130将先前框架w78的先前物件中心点c75与先前框架w79的先前物件中心c76分别投射至当前图框img76。于图7c的范例中,处理器130判定先前物件中心点c76没有位于任何一个当前框架之内,因此处理器130将记录移动物件j5对应的遗失物件编号与物件外观特征至遗失物件清单中。于此,遗失物件清单的范例例如表2所示。

若步骤s612判断为是,继续步骤s614,处理器130判断当前框架内是否存在一个以上的先前物件中心点。经由步骤s614的判断,处理器130可检测是否有重叠框架出现于当前框架。若步骤s614判断为否,代表当前图框内的当前框架一对一对应至先前图框内的先前框架。如图7d所示,在依据先前图框img77以及当前图框img78进行移动物件的检测之后,处理器130可产生当前图框img78的当前框架w83、w84、w85。处理器130可判定先前物件中心点c77、c78、c79各自位于对应的当前框架w83、w84、w85之内,并没有任何当前框架内存在一个以上的先前物件中心点。因此,处理器130可将先前框架w80、w81、w82的物件编号分别按序指派给当前框架w83、w84、w85。

另一方面,若步骤s614判断为是,代表重叠框架出现于当前图框。因此,若一个以上的先前物件中心点位于当前框架中的重叠框架内时,于步骤s509,处理器130修正当前图框的重叠框架而产生第一修正框架以及第二修正框架,并再次指派物件编号给第一修正框架以及第二修正框架。

举例而言,请参照图7e,在依据先前图框img79以及当前图框img80进行移动物件的检测之后,处理器130可产生当前图框img80的当前框架w86、w87。处理器130将先前物件中心c80、c81、c82分别投射至当前图框img80。于图7e的范例中,处理器130判定先前物件中心点c80、c81位于相同的当前框架w86之内,因此处理器130将修正当前图框img80的重叠框架(亦即当前框架w86)而产生第一修正框架w91以及第二修正框架w92。于一实施例中,处理器130可参考先前框架w88和w89的位置与尺寸而将重叠框架w86切割为第一修正框架w91以及第二修正框架w92。换言之,处理器130将移除框架清单中的重叠框架,并将两修正框架新增至框架清单中。此外,若先前框架w88对应至物件编号‘fish_id2’,则处理器130将物件编号‘fish_id2’指派给第一修正框架w91。若先前框架w89对应至物件编号‘fish_id3’,则处理器130将物件编号‘fish_id3’指派给第二修正框架w92。如此一来,基于图6a与图6b的流程,各个影像图框内的当前框架与各观测物之间的连结关系可正确建立。

本发明另提供一种非暂态的电脑可读取媒体,此电脑可读取媒体可存储多数个程序码片段,并且这些程序码片段在载入基于影像的物件追踪系统10的处理器130中并执行之后,即可完成上述基于影像的物件追踪方法的各步骤。

综上所述,于本发明的实施例中,用以标示各影像图框内移动物件的框架可以基于影像处理而产生。通过分析当前图框内的当前框架与先前图框内的先前框架之间的位置投射关系,当前图框内的各个当前框架与这些观测物的连结关系可以被建立。随着按序处理视频串流的各张影像图框而不断地分析两连续图框内的框架的位置投射关系,各影像图框内的框架与观测物之间的连结关系可以准确建立。如此一来,基于这些影像图框里的框架位置,这些观测物在封闭空间内的移动状态与位置可以被准确地追踪,以利于依据追踪结果分析出观测物的活动性或其他特性,也利于使用追踪结果而将物件标示信息嵌入至视频串流的画面中。此外,通过本实施例中通过分析框架的对应关系来进行追踪的方式,对于形态变化较大的观测物可提供更高准确度的追踪结果。

虽然本发明已以实施例公开如上,然其并非用以限定本发明,任何所属技术领域中技术人员,在不脱离本发明的构思和范围内,当可作些许的变动与润饰,故本发明的保护范围当视权利要求所界定者为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1