基于全局特征损失函数的行人再识别方法与流程

文档序号:16211004发布日期:2018-12-08 07:44阅读:485来源:国知局
基于全局特征损失函数的行人再识别方法与流程

本发明属于计算机视觉行人再识别技术领域,尤其是一种基于全局特征损失函数的行人再识别方法。

背景技术

随着监控范围的增大,监控数据呈现爆炸式增长。依靠人眼识别监控画面中的行人身份显然十分低效,行人再识别技术的任务是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术。行人再识别技术广泛被认为是一个图像检索的子问题:给定一个监控行人图像,检索跨设备下的该行人图像,旨在弥补目前固定的摄像头的视觉局限。

现有的行人再识别方法主要包括两个步骤,首先进行特征提取,然后通过度量学习得到不同样本的距离。颜色、纹理和梯度等基本的单一特征可以快速计算,并且可以利用积分图技术快速计算,但是,只从某一方面如梯度或者纹理来描述行人特征,判别力较差。使用多种底层特征的融合,或者是底层特征的高阶统计特征能从不同的侧面来刻画图像特征,提高检测的准确率,但是随着特征的维度增加,特征的计算和分类器的检测时间也增加,影响实时性。这些特征配合不同的度量学习方法,取得了很好的效果。

基于学习的特征是指神经网络直接从原始图像学习得到的特征。这种特征能从大量的样本中学习出判断能力较强的特征,在行人检测中表现很出色,但是它的计算依赖高性能的硬件,也和训练样本密切相关,若样本不具有代表性,很难学习到好的特征。



技术实现要素:

本发明的目的在于克服现有技术的不足,提出一种设计合理且匹配准确率高的基于全局特征损失函数的行人再识别方法。

本发明解决其技术问题是采取以下技术方案实现的:

一种基于全局特征损失函数的行人再识别方法,包括以下步骤:

步骤1、将全部输入图像分成所有可能图像对,所述图像对包括表示同一人的同类对和表示不同人的异类对;

步骤2、使用神经网络计算所有图像的特征,计算所有可能图像对之间的特征距离,从两类图像对之间的特征距离中分别统计形成全局的距离均值和方差;

步骤3、构建全局特征损失函数并使用该全局特征损失函数在学习过程中减小两个方差以及增大两个均值之间的差;

步骤4、将全局特征损失函数与分类损失函数和验证损失函数联合使用,共同增强特征的学习。

进一步,所述步骤3构建全局特征损失函数为:

lg=avar2++bvar2-+cmax(0,marigin-(mean+-mean-))

其中,var2+,var2-分别为给定同类对和异类对距离分布方差,mean+,mean-分别为给定同类对和异类对距离均值,lg表示中心像素的灰度值,a,b,c是决定各项权重的参数,margin是一个尺度参数,margin=1。

进一步,所述参数a、b、c分别等于0.02,0.0001和0.01;所述尺度参数margin=1。

本发明的优点和积极效果是:

本发明设计合理,将图像对划分为表示同一人的同类对和表示不同人的异类对,从图像对中提取全局的距离均值和方差,构建全局损失函数模型从全体输入图像中提取的特殊空间域特征,充分利用了输入全体图像中相比于单张图像更为丰富的信息,使得特征的描述能力性能远远高于单纯的单张图片特征,使得系统整体匹配率大大提升,

附图说明

图1是本发明的全局特征损失函数原理图。

具体实施方式

以下结合附图对本发明实施例做进一步详述。

一种基于全局特征损失函数的行人再识别方法,包括以下步骤:

步骤1、将全部输入图像分成所有可能的图像对,将图像对划分为表示同一人的同类对和表示不同人的异类对。

本步骤将全部输入图像视为一个整体,并分成所有可能的图像对,并以此作为特征的提取对象。

步骤2、使用神经网络计算所有图像的特征,计算所有可能图像对之间的特征距离。从两类图像对距离中分别统计形成全局的距离均值和方差。

步骤3、构建全局特征损失函数,并在学习过程中减小两个方差以及增大两个均值之间的差。

在本步骤中,构建全局特征损失函数原理如下:

(1)给定同类对和异类对距离分布方差var2+,var2-和均值mean+,mean-,则损失函数公式如下:

lg=avar2++bvar2-+cmax(0,marigin-(mean+-mean-))

其中,lg表示中心像素的灰度值,a,b,c是在决定各项权重的参数,a,b,c分别等于0.02,0.0001,0.01。margin=1是一个尺度参数。

(2)如图1所示,将全体同类对和异类对的距离分布考虑为两个互相独立的分布,两个分布之间的重叠代表网络无法分辨的样本,为降低重叠面积的大小,两个分布的方差应该减小,而均值之间的差应该增大。

(3)计算全局损失函数时,我们考虑到对于一个准确描述图像的特征学习网络,同类对的特征距离分布均值应大于异类对的,加入一个尺度参数margin以限定这一条件。

(4)计算全局损失函数时,考虑到降低运算复杂度,将提取的图像特征由rgb颜色空间转化为灰度图像。

步骤4、将全局特征损失函数与分类和验证损失函数联合使用,共同增强特征的学习。

本步骤的具体实施方法如下:

将得到的全局损失与分类损失和验证损失分别乘上不同的权重后相加获取最后的总体权重,其中全局损失、分类损失和验证损失的权重分别为0.2、1、1。将获取最后的总体权重,指导网络对特征的学习。

下面按照本发明方法进行实验,说明本实验的实验效果。

测试环境:matlabr2015a

测试数据:所选数据集是用于行人再识别的图像序列数据集market-1501。

测试指标:

本发明使用了cumulatedmatchingcharacteristics(cmc)作为评价指标,该指标表示正确匹配的样本在备选集中相似度的排名。所获得的值越接近100%性能越好。

如表1所示,考虑组合不同的损失函数,可以确定全局损失函数对距离度量学习有较好的效果。其中,i指代模型使用分类损失、v指代模型使用验证损失、g指代模型使用全局损失;vgg16指代使用vgg16网络进行学习。

表1不同参数及不同特征的性能对比分析表

表2给出了本发明与现有算法的性能比较表,其中,vgg16指代使用vgg16网络进行学习,resnet-50指代使用resnet-50网络进行学习。从表中可以看出本发明相比现有算法匹配率明显提高。

表2本发明与现有算法的性能比较表

需要强调的是,本发明所述的实施例是说明性的,而不是限定性的,因此本发明包括并不限于具体实施方式中所述的实施例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,同样属于本发明保护的范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1