基于颜色区域特征的行人重识别方法及系统的制作方法

文档序号:6627115阅读:265来源:国知局
基于颜色区域特征的行人重识别方法及系统的制作方法
【专利摘要】一种数字图像处理【技术领域】的基于在线聚类提取的颜色区域特征的行人重识别方法及系统,以只包含单个行人的矩形图像或通过跟踪结果从原始视频图像中裁取出目标矩形框作为输入图像,经前景提取和在线聚类提取得到颜色区域,再将颜色区域的统计特征作为局部特征应用于人物重识别。本发明能够充分地利用行人外貌的局部颜色分布结构信息,从而大大提高行人重识别的准确率。
【专利说明】基于颜色区域特征的行人重识别方法及系统

【技术领域】
[0001] 本发明涉及的是一种数字图像处理【技术领域】的方法及系统,具体是一种基于在线 聚类提取的颜色区域特征的行人重识别方法及系统。

【背景技术】
[0002] 在智能视频处理日益发达的现代社会,摄像头已经遍布大街小巷,对于海量的视 频数据,如何智能地进行视频分析为十分重要的课题。行人检测、目标跟踪等研究领域都取 得了长足的发展,而作为衔接这两个课题的人物重识别技术也在最近十年取得了飞速的发 展,涌现了一大批的行人外貌特征提取和表示方法。在视频监控中,往往有成千上万个摄像 头,而这些摄像头彼此之间没有交叠,那么如何将两个互不交叠的摄像头中检测出的目标 联系起来,实现跨摄像头的接力跟踪就是行人重识别要解决的问题。行人重识别在安防、居 家养老等方面都有巨大的应用前景。但是由于不同的摄像头安放的位置、场景不同,导致不 同摄像头下的人物图像存在不同程度的颜色变化和几何变化,再加上复杂的监控场景下, 行人之间存在不同程度的遮挡,使得不同摄像头下的行人重识别问题变得更加棘手。行人 重识别面临的主要问题是光照、视角、姿势、遮挡等的变化,为了解决上述问题,目前针对行 人重识别的研究主要分为以下两类。一类是基于底层特征提取的行人外貌特征匹配方法, 它的侧重点是提取出对不同摄像头间的光照、视角、姿势、遮挡等变化具有不变性的特征, 以提高行人外貌的匹配准确率。另一类方法则是对简单的欧式空间的距离比较方法进行改 进,设计能够反映不同摄像头间的光照、视角、姿势、遮挡等变化的度量方法,使得即使不是 很有区分度的特征,也能达到很高的匹配率。第一类方法一般是非监督的,不需要进行数据 的标定,但是特征提取的方法往往比第二类方法复杂,第二类方法一般是基于学习的方法, 需要进行数据的标定,但是因为它能够有监督的学习到摄像头间的变换关系,因此行人重 识别的准确率一般高于第一类方法,但是这种变换关系只是针对特定的摄像机间,对于每 一对摄像机都要学习它们的变换关系,使得这类方法的泛化能力不够好。
[0003] 通过大量的文献检索,我们发现现有的运用底层特征匹配进行行人重识别的方 法,提取的特征主要包括颜色特征(如HSV直方图,MSCR)、纹理特征(如局部二值模式LBP, Garbor filters等),形状特征(如H0G特征)以及关键点(SIFT,SURF等),大部分的方 法是将上述几种特征进行组合,以弥补单个特征区分度和代表性不足的缺点。但是它们 大多数是基于像素点的特征(MSCR除外),而基于像素点的特征不够鲁棒且很容易受到噪 声影响。此外,由于以上特征提取方法在特征提取过程中没有考虑位置信息,所以研究者 们设计了一些位置对准的策略,但是仍然很难解决由行人姿势变化带来的特征位置不对准 情况。经过文献检索,我们还发现,颜色特征在多数情况下,是最好的行人外貌描述特征, 目前已经有研究者开始关注利用颜色的分布特征来表征行人外貌,进行行人重识别。Igor Kviatkovsky 等人在 2013 年的〈〈IEEE Transactions on Pattern Analysis and Machine Intelligence》中的"Color Invariants for Person Reidentification"一文中,利用行人 外貌颜色的多模态分布特性(multimodal distribution),将行人的上下身颜色信息分布 进行建模,再通过模型匹配进行人物重识别。这种方法虽然仅仅利用了颜色信息,却取得了 很好的行人重识别效果。但是这种方法将上下身颜色的结构信息限制为椭圆形分布,而实 际情况下,行人外貌的颜色分布显然不一定是上下身颜色信息简单地服从椭圆分布,因此 这种方法还是没有能够充分利用颜色的局部分布信息。
[0004] 中国专利文献号0附038104764,公开(公告)日2014.05.21,公开了一种基于小 群体信息关联的视频监控网络中行人重识别方法,该技术监控网络中多摄像头的行人重识 别过程中,尤其是在行人特征的提取和匹配的过程中,行人的特征极易受到场景变化、光照 变化的影响而造成重识别率的降低,同时大范围的监控网络中也会存在一些穿着相似的行 人造成行人错误的重识别,为了提高行人的重识别率,降低外界因素对行人重识别的影响, 该技术根据小群体信息的关联性,将行人小群体特征作为行人重识别的一个重要特征,主 要解决视频监控网络中行人重识别准确率低、精度不高的问题。但该技术首先要对人体进 行分割,并且利用了视频跟踪过程中的轨迹信息,其使用过程复杂度较高。
[0005] 中国专利文献号CN104021544A公开(公告)日2014. 09. 03,公开了一种温室蔬菜 病害监控视频关键帧提取方法及提取系统,该技术将视觉显著性与在线聚类算法相结合, 首先利用X2直方图法进行帧间差异度量,剔除具有相似特征的视频帧图像对算法计算量 的影响;其次将视频帧图像转到HSV颜色空间,结合温室蔬菜监控视频的特点,利用H、S通 道计算视觉显著图,提取视频帧图像中的显著性区域,然后利用形态学方法对显著性区域 中可能丢失的病斑信息进行修复;最终利用在线聚类算法和像素帧平均算法实现关键帧提 取。该方法可以有效的获取温室蔬菜监控视频中病害的信息,为温室蔬菜病害的准确识别 奠定坚实的基础。该技术得与图像处理、模式识别等技术结合的基础上,会在设施蔬菜病害 识别方面有很大的贡献。但该技术需要先进行显著性区域的提取,再利用在线聚类进行关 键帧的提取。而在人物重识别中,由于光照、视角、姿势等的变化,同一行人在不同摄像头下 的显著性区域,往往是不相同的,因此该技术也难以适用于人物重识别领域。


【发明内容】

[0006] 本发明针对现有技术存在的上述不足,提出一种基于在线聚类提取的颜色区域特 征的行人重识别方法及系统,能够充分地利用行人外貌的局部颜色分布结构信息,从而大 大提商行人重识别的准确率。
[0007] 本发明是通过以下技术方案实现的:
[0008] 本发明涉及一种基于在线聚类提取的颜色区域特征的行人重识别方法,以只包含 单个行人的矩形图像或通过跟踪结果从原始视频图像中裁取出目标矩形框作为输入图像, 经前景提取和在线聚类提取得到颜色区域,再将颜色区域的统计特征作为局部特征应用于 人物重识别。所述的方法具体包括以下步骤:
[0009] 步骤1)利用前景提取算法进行目标行人图像的前景背景分离,得到前景区域;
[0010] 步骤2)对提取的前景区域进行在线聚类,得到原始的颜色区域;
[0011] 所述的在线聚类是指:以像素为单位遍历图像,计算图像中任一一点的通道值与 初始聚类中心之间的距离,以满足其与最小值之差小于聚类阈值为条件,将满足条件的像 素点作为该最小值的聚类,否则作为新建聚类,同时将初始聚类中心更新为该聚类的平均 值;完成遍历后同一个聚类内的像素点可以视为属于同一个颜色区域,且区域的颜色值统 一为聚类中心的颜色值。
[0012] 所述的通道值优选为:在lab颜色空间的(a,b)通道下的通道值。
[0013] 所述的初始聚类中心是指:图像任一一个像素点的(a,b)通道值,优选为左上角 且遍历结束于右下角。
[0014] 步骤3)考虑空间分布和颜色距离,将相关颜色区域进行合并,得到最终的局部颜 色区域;
[0015] 所述的合并是指:当任两个颜色区域同时满足其之间的聚类中心颜色值的欧氏距 离以及其聚类中心的平均位置的欧氏距离分别小于颜色阈值和平均位置阈值时,合并该两 个颜色区域,且设置合并后区域内所有像素点的通道值的平均值为新的聚类中心。
[0016] 所述的聚类中心的平均位置指的是聚类内所有像素点的坐标的平均值;
[0017] 步骤4)对提取出的颜色区域进行描述,作为行人重识别的特征表达;
[0018] 步骤5)利用步骤4中的特征进行行人重识别。
[0019] 本发明涉及上述方法的实现装置,包括:依次连接的背景分离模块、在线聚类模 块、颜色区域合并模块、特征描述模块以及重识别模块,其中:背景分离模块进行前景提取 处理,并向在线聚类模块输出前景蒙版信息,在线聚类模块进行行人外貌主要颜色区域的 提取处理,并向颜色区域合并模块输出初始的颜色区域信息,颜色区域合并模块对初始的 颜色区域模块进行合并处理,并向特征描述模块输出最终的颜色区域信息,特征描述模块 进行特征的描述与表达处理,并向重识别模块输出六维的特征向量信息,重识别模块进行 行人间特征向量的匹配处理,并给出最终的重识别结果。

【专利附图】

【附图说明】
[0020] 图1为本发明流程图。
[0021] 图2为本发明特征提取算法流程图。
[0022] 图3为人物重识别常用的数据集中的随机抽取的几组待匹配的行人图像。
[0023] 图4为本发明所提出的方法的可视化的识别效果图,第一列为待匹配的图像,其 他列为利用本发明提取的特征,进行特征匹配后,得出的排名前十的匹配图像,第二列为按 照本发明的方法得到的最匹配图像。
[0024] 图5为本发明所提出的特征,应用于人物重识别时,与其他方法的准确率比较图。

【具体实施方式】
[0025] 下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行 实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施 例。 实施例1
[0026] 如图1所示,本实施例包括以下步骤:
[0027] 步骤1)利用前景提取算法进行目标行人图像的前景背景分离,得到前景区域。
[0028] 步骤 1 具体是利用文献"Stel component analysis:Modeling spatial correlations in image class structure(STEL成分分析:对图像类结构的空间相关性 建模),'(J〇jic,N. Microsoft Res. , Redmond, WA, USA Perina, A. ;Cristani, M. ;Murino, V. ;Frey, B. <Computer Vision and Pattern Recognition),2009. CVPR 2009.IEEE Conference 2009.6.20)中的方法,本方法直接使用了作者提供的代码进行前景分离,具体 使用方法如下:
[0029] 1. 1)将数据集中所有的图像进行聚类(本实施例中聚类数设为128);
[0030] 1. 2)再将每一幅图像的每一个像素点与聚类中心进行比较,将距离最近的距离中 心号作为该像素的值,这样可以得到输入矩阵;
[0031] 1. 3)将得到的输入矩阵带入上述文献中所提供的scadlearn.m程序中,并对输出 后验概率Qs进行二值化(本实施例将阈值设为0. 5),Qs大于阈值的点设为1,反之为0,得 到前景蒙版。
[0032] 1. 4)将前景蒙版与原始图像逐像素相乘,可以提取出前景区域。
[0033] 步骤2)对提取的前景区域进行在线聚类,得到原始的颜色区域。
[0034] 所述的前景区域是由步骤1)得到的,背景区域的像素值被设为0。为了减小光照 等带来的影响,在线聚类在lab颜色空间的(a,b)通道进行,所述的在线聚类方法如图2所 示,具体步骤如下:
[0035] 2. 1)将图像左上角像素点的(a,b)通道值作为第一个聚类的聚类中心;
[0036] 2. 2)顺序扫描像素点(从上到下、从左到右),并将每一个像素点(a,b)通道值与 现有的聚类中心进行欧式距离比较,并找出最小距离d ;
[0037] 2. 3)若d彡thresholdl,则将当前像素点归入距离为d的聚类,并且将此聚类的 聚类中心更新为类内所有像素的通道值的平均值,此处的thresholdl设为15 ;
[0038] 2. 4)反之,若d > thresholdl,则初始化一个新的类,并将该聚类中心初始化为当 前像素点的颜色值;
[0039] 2. 5)如此循环,直到计算到右下角的像素点,这样同一个聚类内的像素点可以视 为属于同一个颜色区域,且区域的颜色值统一为聚类中心的颜色值。
[0040] 步骤3)考虑空间分布和颜色距离,将相关颜色区域进行合并,得到最终的局部颜 色区域。
[0041] 由于步骤2)得到的颜色区域,仅仅考虑了颜色信息,而没有考虑到颜色的空间分 布,所述的空间分布,指的是步骤2)初步得到的颜色区域间的位置信息,具体的颜色区域 合并的步骤如下:
[0042] 3. 1)将步骤2)得到的任两个颜色区域的聚类中心颜色值进行欧式距离比较,得 到dc ;
[0043] 3. 2)将步骤2)得到的任两个颜色区域的聚类中心的平均位置进行欧氏距离比 较,得到ds ;
[0044] 所述的聚类中心的平均位置指的是聚类内所有像素点的坐标的平均值;
[0045] 3. 3)若d。< threshold〗且ds < threshold3则将两个颜色区域合并起来,并更新 新的聚类中心为合并后的类内的所有像素的通道值的平均值,此处的threshold〗设为25, threshold3 设为 20 ;
[0046] 3. 4)将步骤2)中的所有颜色区域都两两进行比较后,将与同一个颜色区域合并 的所有区域合并为一个区域,直到得到的所有的颜色区域都无法再进行合并。
[0047] 步骤4)对提取出的颜色区域进行描述,作为行人重识别的特征表达。
[0048] 所述的对颜色区域进行描述,是指对于步骤3)提取出的所有颜色区域,每一个颜 色区域用下述特征进行描述:
[0049] f = (x, y, 1, a, b, F) (1)
[0050] 其中x,y是该颜色区域内所包含的所有像素点的平均坐标,1,a,b是该颜色区域 内所包含的所有像素点的平均颜色值,而F为衡量颜色区域大小的参数,可以由下式计算 得到: mun ^ area
[0051] F=fnun + area (2]
[0052] 其中:num是该颜色区域所包含的像素点的个数,area是该颜色区域的外接矩形 的面积,具体的计算方法是得到该类所包含的所有像素点的X,y坐标的最大值x_,y max和 最小值Xmin, ymin,则area的计算方法如下:
[0053] area = (xmax-xmin) * (ymax-ymin) ⑶
[0054] 其中:X,y是为了描述该颜色区域的位置信息,1,a,b是为了描述该颜色区域的平 均颜色信息,而F的引入是为了避免将很大的颜色区域与很小的颜色区域进行匹配,即使 二者的位置和颜色都很相似,这样可以减轻背景噪声的影响。
[0055] 步骤5)利用步骤4)中的特征进行行人重识别。
[0056] 如图3所示,为从人物重识别VIPER数据集中随机抽取的几组待匹配的行人图像。 通过步骤4),第i个行人可以得到&个特征,其中&对应于步骤3)中得到的第i个行人的 颜色区域的个数。要实现人物重识别,则需要对不同行人的特征进行距离计算,实现匹配。 具体的实现方法如下:
[0057] 5. 1)对于某一个数据集(如:VIPER),将数据分成两组,每组包含所有行人的一张 图片,VIPER共有612对行人,所以第一组包含612对行人的其中一幅图像,而第二组包含 另一张图像,同一个行人在两组中的排列顺序相同。
[0058] 5. 2)将第一组的第一张图像的特征与第二组的所有图像的特征进行特征距离比 较,得到距离矩阵Μ的第一行数据A,由于第二组有612个行人,所以A包含612个距离数 据。所述的两幅图像的特征距离比较方法具体如下:
[0059] 5. 2. 1)比较两幅图像的颜色区域的个数,得到个数较少的图像的颜色区域个数 number ;
[0060] 5. 2. 2)将区域较少的图像的第一个颜色区域的特征,与区域较多的图像的所有区 域的特征进行欧式距离比较,得到距离最小的区域,作为匹配的区域,并记录最小距离dl ;
[0061] 5. 2. 3)重复步骤5. 2. 2),直到颜色区域个数较少的图像的每一个颜色区域都找 到匹配区域,并记录最小距离d2, d3,. . .,dnumbOT,最终得到number个距离;
[0062] 5. 2. 4)将这number距离求平均数,作为这两幅图像的特征距离。
[0063] 5. 3)重复步骤5. 2)直到第一组中的所有行人都与第二组进行了特征距离比较, 并得到距离矩阵M2,M3,...,M 612,最终得到612X612大小的矩阵,其中Mu表示第一组中的 第i个行人与第二组中的第j个行人的特征距离;
[0064] 5. 4)将Μ的每一行从小到大排序,排在第i位的距离对应的第二组中的图像,就是 本方法给出的与第一组中该行所对应图像第i匹配的图像,其中排在第一列的是最匹配的 图像。
[0065] 上述方法可通过以下装置具体实现,该装置包括:依次连接的背景分离模块、在线 聚类模块、颜色区域提取模块、特征描述模块以及重识别模块,其中:背景分离模块进行前 景提取处理,并向在线聚类模块输出前景蒙版信息,在线聚类模块进行行人外貌主要颜色 区域的提取处理,并向颜色区域合并模块输出初始的颜色区域信息,颜色区域合并模块对 初始的颜色区域模块进行合并处理,并向特征描述模块输出最终的颜色区域信息,特征描 述模块进行特征的描述与表达处理,并向重识别模块输出六维的特征向量信息,重识别模 块进行行人间特征向量的匹配处理,并给出最终的重识别结果。
[0066] 如图4所示,为本实施例得出的排名前十的匹配图像,第一列为待匹配图像,后面 各列依次为本实施例给出的排名第一到十匹配的匹配图像,其中红框框出的为实际的匹配 图像,可以看出本实施例所提出的方法能够很好的进行同一行人的识别和匹配。
[0067] 如图5所示,为本实施例与其他方法的重识别准确率比较图,其中:SDALF为基于 对称性进行颜色、纹理等特征的提取,并将各类特征融合进行人物重识别的方法;LDFV是 利用费舍尔向量对基于像素点的特征进行特征表达,再利用欧式距离进行特征匹配的方; 而bLDFV、eLDFV都是对LDFV的延伸,bLDFV是将LDFV基于像素点的特征拓展为基于小矩 形区域的特征,而eLDFV是将LDFV与SDALF相结合的方法;eBiCov为利用Gabor滤波器和 协方差特征,并结合SDALF进行人物重识别的方法;Proposed即本实施例准确率结果,可以 看出本实施例在识别准确率上大大优于其他现有技术。
【权利要求】
1. 一种基于在线聚类提取的颜色区域特征的行人重识别方法,其特征在于,以只包含 单个行人的矩形图像或通过跟踪结果从原始视频图像中裁取出目标矩形框作为输入图像, 经前景提取和在线聚类提取得到颜色区域,再将颜色区域的统计特征作为局部特征应用于 人物重识别; 所述的在线聚类是指:以像素为单位遍历图像,计算图像中任一一点的通道值与初始 聚类中心之间的距离,以满足其与最小值之差小于聚类阈值为条件,将满足条件的像素点 作为该最小值的聚类,否则作为新建聚类,同时将初始聚类中心更新为该聚类的平均值;完 成遍历后同一个聚类内的像素点可以视为属于同一个颜色区域,且区域的颜色值统一为聚 类中心的颜色值; 所述的合并是指:当任两个颜色区域同时满足其之间的聚类中心颜色值的欧氏距离以 及其聚类中心的平均位置的欧氏距离分别小于颜色阈值和平均位置阈值时,合并该两个颜 色区域,且设置合并后区域内所有像素点的通道值的平均值为新的聚类中心。
2. 根据权利要求1所述的方法,其特征是,所述方法具体包括以下步骤: 步骤1)利用前景提取算法进行目标行人图像的前景背景分离,得到前景区域; 步骤2)对提取的前景区域进行在线聚类,得到原始的颜色区域; 步骤3)考虑空间分布和颜色距离,将相关颜色区域进行合并,得到最终的局部颜色区 域; 步骤4)对提取出的颜色区域进行描述,作为行人重识别的特征表达; 步骤5)利用步骤4中的特征进行行人重识别。
3. 根据权利要求2所述的方法,其特征是,所述的步骤1)具体包括: I. 1)将数据集中所有的图像进行聚类; 1. 2)再将每一幅图像的每一个像素点与聚类中心进行比较,将距离最近的距离中心号 作为该像素的值; 1. 3)将得到的输入矩阵带入scadlearn.m程序中,并对输出后验概率Qs进行二值化, 得到前景蒙版; 1. 4)将前景蒙版与原始图像逐像素相乘,可以提取出前景区域。
4. 根据权利要求2所述的方法,其特征是,所述的步骤2)具体包括: 2. 1)将图像左上角像素点的(a,b)通道值作为第一个聚类的聚类中心; 2.2) 顺序扫描像素点,并将每一个像素点(a,b)通道值与现有的聚类中心进行欧式距 离比较,并找出最小距离d; 2. 3)若d彡thresholdl,则将当前像素点归入距离为d的聚类,并且将此聚类的聚类 中心更新为类内所有像素的通道值的平均值; 2. 4)反之,若d>thresholdl,则初始化一个新的类,并将该聚类中心初始化为当前像 素点的颜色值; 2. 5)如此循环,直到计算到右下角的像素点,这样同一个聚类内的像素点可以视为属 于同一个颜色区域,且区域的颜色值统一为聚类中心的颜色值。
5. 根据权利要求2所述的方法,其特征是,所述的步骤3)具体包括: 3. 1)将步骤2)得到的任两个颜色区域的聚类中心颜色值进行欧式距离比较,得到d。; 3.2) 将步骤2)得到的任两个颜色区域的聚类中心的平均位置进行欧氏距离比较,得 到ds; 3. 3)若d。<threshold〗且ds <threshold〗则将两个颜色区域合并起来,并更新新 的聚类中心为合并后的类内的所有像素的通道值的平均值; 3.4)将步骤2)中的所有颜色区域都两两进行比较后,将与同一个颜色区域合并的所 有区域合并为一个区域,直到得到的所有的颜色区域都无法再进行合并。
6. 根据权利要求2所述的方法,其特征是,所述的步骤4)具体是指:对于步骤3)提取 出的所有颜色区域,每一个颜色区域描述为f= (x,y,1,a,b,F),其中:x,y是该颜色区域内 所包含的所有像素点的平均坐标,1,a,b是该颜色区域内所包含的所有像素点的平均颜色 值,F为衡量颜色区域大小的参数:
实中:num是该颜色区域所包含的像素 点的个数,area是该颜色区域的外接矩形的面积,area= (Xmax-Xmin) *(ymax_ymin),其中:该类 所包含的所有像素点的X,y坐标的最大值x_,和最小值Xniin, yniin。
7. 根据权利要求2所述的方法,其特征是,所述的步骤5)具体包括: 5. 1)将数据集中的数据分成两组,每组包含所有行人的一张图片,第一组包含行人的 一幅图像,而第二组包含另一张图像,同一个行人在两组中的排列顺序相同; 5. 2)将第一组的第一张图像的特征与第二组的所有图像的特征进行特征距离比较,得 到距离矩阵M的第一行数据M1; 5.3)重复步骤5. 2)直到第一组中的所有行人都与第二组进行了特征距离比较,并得 到距离矩阵M2,M3, ...,M612,其中Mu表示第一组中的第i个行人与第二组中的第j个行人 的特征距离; 5. 4)将M的每一行从小到大排序,排在第i位的距离对应的第二组中的图像,即与第一 组中该行所对应图像第i匹配的图像,其中排在第一列的是最匹配的图像。
8. 根据权利要求7所述的方法,其特征是,所述的特征距离比较是指: 5.2. 1)比较两幅图像的颜色区域的个数,得到个数较少的图像的颜色区域个数number; 5. 2. 2)将区域较少的图像的第一个颜色区域的特征,与区域较多的图像的所有区域的 特征进行欧式距离比较,得到距离最小的区域,作为匹配的区域,并记录最小距离Cl1 ; 5. 2. 3)重复步骤5. 2. 2),直到颜色区域个数较少的图像的每一个颜色区域都找到匹 配区域,并记录最小距离d2,d3,. . .,dnumbOT,最终得到number个距离; 5. 2. 4)将这number距离求平均数,作为这两幅图像的特征距离。
9. 一种基于在线聚类提取的颜色区域特征的行人重识别系统,其特征在于,包括:依 次连接的背景分离模块、在线聚类模块、颜色区域提取模块、特征描述模块以及重识别模 块,其中:背景分离模块进行前景提取处理,并向在线聚类模块输出前景蒙版信息,在线聚 类模块进行行人外貌主要颜色区域的提取处理,并向颜色区域合并模块输出初始的颜色区 域信息,颜色区域合并模块对初始的颜色区域模块进行合并处理,并向特征描述模块输出 最终的颜色区域信息,特征描述模块进行特征的描述与表达处理,并向重识别模块输出六 维的特征向量信息,重识别模块进行行人间特征向量的匹配处理,并给出最终的重识别结 果。
【文档编号】G06K9/46GK104268583SQ201410472544
【公开日】2015年1月7日 申请日期:2014年9月16日 优先权日:2014年9月16日
【发明者】周芹, 郑世宝, 苏航, 王玉 申请人:上海交通大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1