一种无重叠视域下的行人再识别方法

文档序号:9811039阅读:221来源:国知局
一种无重叠视域下的行人再识别方法
【技术领域】
[0001] 本发明属于智能视频监控领域,特别涉及一种无重叠视域下的行人再识别方法。
【背景技术】
[0002] 行人再识别是智能视频监控领域最具有挑战性的问题之一,随着视频监控技术的 广泛应用,大量的监控摄像头被应用于各种公共场所,在对视频进行监控的时候,视频中的 行人是我们重点监控的对象之一,由于摄像机监控区域的局限性,无重叠视域的摄像机联 合监控在监控系统中的应用越来越广泛。在无重叠视域下,目标行人的再识别是一种将曾 经在监控网络中出现过的目标行人在其他摄像机的场景内出现时再次识别出来的技术;在 对行人进行再识别匹配的时候往往我们很难仅根据行人的某一张图片信息或者某一种单 一的特征信息来进行很好的匹配,同时单一的一种度量准则也很难对不同的特征达到相同 的匹配基准,因此如何有效的利用行人图片的序列信息以及提出一种综合鲁棒的表示特征 和相应的度量准则是解决行人再识别的关键。

【发明内容】

[0003] 本发明的目的在于提出了一种无重叠视域下行人再识别的方法,通过对行人序列 的采集以及行人的精确提取与分割从而减小外界干扰信息的影响,最终构建一个行人的分 块多通道稀疏字典,计算待识别行人的重构误差并进行融合判决,该方法能够很好的提高 行人目标再识别的可靠性。
[0004] 为了实现上述目的,本发明采用以下技术方案:一种无重叠视域下的行人再识别 方法,包括步骤如下: 步骤A、监控视域中行人目标的检测与跟踪; 步骤B、精确行人区域的提取与行人模型的分割; 步骤C、行人序列上下半身HSV三通道稀疏字典的构建; 步骤D、另一监控视域中行人目标的检测分割预处理; 步骤E、稀疏重构融合判决,得出行人目标识别相似度。
[0005] 所述步骤A包括以下步骤:对监控视域下的视频采用基于H0G+SVM的行人检测算法 进行行人检测,获取行人的最小矩形框i*j,然后采用TLD算法对目标行人进行跟踪,保存每 一帧跟踪结果信息。
[0006] 所述步骤B中包括以下步骤:步骤B-1,结合行人跟踪结果框坐标信息以及视频帧 信息,采用GrabCut算法对视频序列的每一个行人区域进行前景分割处理,分割出精确的行 人前景区域并归一化到统一大小i*j保存; 步骤B-2,将精确的行人前景采用固定的行人模型进行分割,将行人分割为上半身和下 半身并保存分割后的行人上下半身序列,分割比例为7:5。
[0007] 所述步骤C中包括以下步骤:利用步骤B-2中分割出来的行人目标的上半身以及下 半身序列,将其颜色从RGB颜色通道转化为HSV颜色通道,然后将每一个通道颜色分量合成 一维特征矢量,之后利用提取到的特征矢量分别构建上下半身的H、S和V三通道的稀疏字 典,分别为上半身字典0111、031和0^以及下半身字典0112,0 32和0^。
[0008] 所述步骤D中包括以下步骤:利用步骤A中行人检测方法对行人目标进行检测并将 检测到的行人矩形框归一化到i*j大小,然后再利用步骤B中所提到的行人分割方法对行人 区域进行精确的提取和行人模型的分割,从而精确提取出行人的上下半身序列,将待识别 行人目标的上下半身序列从RGB颜色通道转换为HSV颜色通道。
[0009] 所述步骤中E包括以下步骤:对步骤D处理过后的行人上下半身序列分别提取其 HSV三通道值,每一个颜色分量合成一维特征矢量,然后计算其在对应稀疏字典Dhl、Dsl、D vl、 〇112、032、0^下的重误差3111、3;51人1、5[ 12、3;52人2,之后对六个字典的重构差赋予不同的权重并 进行融合判决,融合原则为δ总=0.65*(5 hl+5sl+5vl)+0. 35*(5hl+5sl+5vl),从而由总的重构误 差知.判决待识别行人目标的识别相似度。
[0010] 总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得以下有 益效果:(1)本发明能够有效的利用到行人目标的图片序列信息,同时大大减小了外界信息 对行人目标信息的干扰以及行人角度、姿态变化对识别所带来的影响,能够使提取到的特 征信息更加鲁棒可靠;(2)本发明能够很好的利用行人HSV颜色通道信息,构建行人分块多 通道稀疏字典,计算待识别目标分块后的多通道重构误差,最后通过分别赋予上下半身字 典不同权重比例进行融合判决从而大大提高了待识别行人的识别准确度。
【附图说明】
[0011] 图1是本发明的无重叠视域下的行人再识别方法的流程图。
【具体实施方式】
[0012] 为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图实施例对本发 明作进一步的详细说明。
[0013] 本发明的流程图如图1所示,以下为一个具体的实施例,其具体步骤依次为: 步骤A:监控视域中行人目标的检测与跟踪: 首先采用H0G+SVM的行人检测算法对视域下的行人目标进行行人检测,获取行人目标 的最小矩形框i*j,然后将检测到的行人目标框作为TLD算法的初始跟踪框对行人目标进行 跟踪,同时保存当前帧跟踪坐标信息(1 1,71,12,72),其中#」为矩形框的大小,(1 1,71),(^, y2)分别为当前跟踪结果矩形框左上角和右下角的坐标。
[0014] 步骤B:精确行人区域的提取与行人模型的分割: 在对行人目标进行跟踪的同时结合跟踪算法的跟踪结果坐标,采用GrabCut算法对当 前视频帧的行人区域进行前景分割处理,从而分割出不包含背景信息的行人目标,保存分 割出的行人目标矩形框,同时将图片大小归一化为统一大小i*j,依次保存为Im gl,Img2, Img3,"_,Imgn,直至目标跟踪消失;然后将图片按照行人分割模型进行分割,上下半身分割 比为7 : 5,从而分割成上半身和下半身,依次保存为Imgi上,ImgrF,Img2上,Img2上,…,Imgn上, Imgn下序列集,其中Imgi上,ImgrF,Img2上,Img2上,…,Imgn上,Img n下,分别为对应图片Imgi,Img2, Img3,···,Imgn分割出来的上半身和下半身。
[0015]步骤C、行人上下半身序列HSV三通道稀疏字典的构建: 首先将保存的行人上下半身序列从RGB颜色空间转换到HSV
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1