一种基于卷积神经网络和哈希编码的掌纹图像识别方法与流程

文档序号:13031635阅读:1510来源:国知局
一种基于卷积神经网络和哈希编码的掌纹图像识别方法与流程

本发明涉及掌纹图像识别领域,具体涉及一种基于卷积神经网络和哈希编码的掌纹图像识别方法。



背景技术:

目前,生物特征识别技术,如面部指纹、掌纹、虹膜和静脉识别等取得了飞速的发展。在这些生物识别技术中,掌纹识别因其具有的丰富的特征信息、高精度、稳定性好、低成本等特点,正受到越来越广泛的关注。近年来,出现了多种基于掌纹特征的掌纹识别方法,如基于结构、编码、纹理、子空间和统计的方法等。其中,基于编码的方法,例如palmcode、compcode、ordicode、smcc,通过滤波器(高斯滤波器、gabor滤波器)从掌纹图像提取纹理信息,已经可以实现非常高的掌纹识别精度。尤其是smcc方法的等错误率可达到eer=0.0140%的精度。虽然该方法具有非常高的精度,但要实现eer=0.0000%的精度仍然非常困难。而基于学习的掌纹编码表示方法,可以实现更好的识别精度。

卷积神经网络(cnn)作为一种基于多层监督学习的人工神经网络,具有较好的容错性、自适应性和自学习能力,可有效改善传统方法存在的特征提取不充分的问题,被广泛应用于图像分类、物体检测与识别和目标跟踪等领域。此外,作为一种近似最近邻搜索方法,哈希编码(hashingcode)正变得广受欢迎,该方法可以基于优化算法直接从样本中学习哈希编码。因此将cnn网络作为特征提取器,并与哈希编码方法相结合,可以获得一种更有效的图像特征表示方法,从而进一步提高分类、识别或检测方法的精度。



技术实现要素:

本发明为解决上述现有技术存在的识别精度不高的缺点,提出了一种基于卷积神经网络和哈希编码的掌纹图像识别方法。该方法结合了卷积神经网络能够获取掌纹的全局信息和局部信息以及哈希编码能大幅度降低时间和空间的复杂度的优点,可有效地区分不同的掌纹,显著提高了掌纹图像的识别精度。

本发明为解决其问题所采用的技术方案包括:

1.特征提取:

运用预训练的卷积神经网络(cnn)对给定数据库的掌纹图像进行特征提取,将中间的一层掌纹卷积特征向量化形成一个高维卷积特征矩阵;采用主成分分析方法(pca)对得到高维特征进行降维,得到低维的卷积特征矩阵x∈rn×n,其中n表示掌纹图像个数,n表示维度。

2.构造语义相似矩阵l与哈希矩阵btrain:

假设训练集有n1张掌纹图像,则语义相似矩阵定义如下:

其中,ii和ij分别表示第i张和第j张掌纹图像;

假设每张掌纹图像的哈希编码q位,则训练集的哈希码通过优化得到函数:

其中,btrain=[bz,bm],

3.训练分类器:

根据训练集的低维卷积特征xtrain,训练一个线性分类器,其预测函数模型为:

u=wtx+b

其中,w表示投影矩阵,b=0;

为使btrain与u之间的差别最小,采用均方误差最小化并引入正则项进行优化,即

其中,λe表示正则项系数;

利用最小二乘法对w进行评估,可得,

最终训练出的线性分类器为

4.掌纹识别:

将测试样本集低维卷积特征xtest输入上述的线性分类器,得到测试样本的哈希编码btest,即

最后,通过汉明(hamming)匹配,实现高精度的掌纹识别。

本发明的有益效果:首先预训练的卷积神经网络可以很好的提取掌纹的全局和局部图像特征信息,其次,通过二进制哈希编码,使图像特征更简洁,存储所需空间更少,更容易进行后期的相似度计算以及匹配,从而提高掌纹识别的精度,大大的降低掌纹图像的等错误率(eer)。

附图说明

下面结合附图和具体的实施方式对本发明作进一步详细的说明。

图1为本发明一种基于卷积神经网络(cnn)和哈希编码(hashingcode)的掌纹图像识别方法的流程图。

图2为本发明在polyu掌纹图像库上同类掌纹与异类掌纹的汉明(hamming)匹配曲线图。

具体实施方式

为使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施方式对本发明进行详细描述。

图1为本发明的流程图。为实现本发明基于卷积神经网络和哈希编码掌纹图像识别的目的,首先,基于预训练的卷积神经网络生成掌纹图像卷积特征,选择中间的一层卷积特征向量化形成高维卷积特征;其次,对高维卷积特征执行pca降维操作,得到掌纹图像的低维卷积特征;然后,根据训练样本集的标签构造语义相似矩阵,采用有监督哈希编码的方法进行编码得到二进制哈希编码;最后,根据训练集掌纹图像的低维特征和二进制哈希编码,训练一个q位的二进制分类器,将测试集的低维特征输入到分类器中,得到测试集的哈希编码,通过与掌纹数据库进行汉明匹配,从而实现高精度的掌纹图像识别。

本发明具体实施所采用的数据来自香港理工大学公开的polyu掌纹数据库。此数据库是目前世界上公开的最大的掌纹数据库,它包含了来自386个不同手掌的7752张灰度bmp格式的掌纹图像,其中分两次获取,每次平均每个掌纹获取10张图像。每张掌纹图像经过预处理之后得到roi区域为128×128像素。本发明具体实施选取第一次获取掌纹图像,其中平均每个手掌10张图像。

本发明具体提取掌纹图像卷积特征所采用的卷积神经网络为vgg-f,它是一种基于imagenet大规模图像库训练的深度网络,共有21层,要求的输入图像大小为224×224像素。

本发明具体实施过程如下:

步骤一:获取polyu掌纹图像库中的掌纹图像,其大小为128×128像素,将其放大到224×224像素,然后放入预训练的vgg-f网络中进行特征提取。取掌纹图像的第13层卷积特征,并得到每一张图像的特征图谱m13,大小为13×13×256,将其特征图谱向量化为f13∈r1×(13×13×256)

步骤二:对每一张掌纹图像的f13∈r1×(13×13×256)执行pca降维操作,得到掌纹数据集的低维卷积特征x∈r3860×1024

步骤三:根据训练集的标签构造语义相似矩阵l∈{-1,1}1930×1930定义如下,

其中,ii和ij分别表示第i张和第j张掌纹图像,1930表示训练集掌纹个数;

本发明中通过对每张图像编码64、128、256位,通过优化:

得到btrain1∈{-1,1}1930×64,btrain2∈{-1,1}1930×128,btrain3∈{-1,1}1930×256,分别将btrain1∈{-1,1}1930×64,btrain2∈{-1,1}1930×128,btrain3∈{-1,1}1930×256和xtrain∈r1930×1024组合输入线性分类器得到

将测试集xtest带入上述等式中,得到测试集不同位数的哈希编码。

步骤四:对测试集的哈希编码进行同类图像和异类图像汉明匹配,然后对所有匹配结果进行统计,可得出相对应测试集掌纹图像的eer值,通过匹配可进一步达到识别的目的。

使用卷积神经网络提取的高维卷积特征测得的eer值结果为0.2623%,对高维特征进行pca降维得到特征测得的eer为0.2643%,降维对最终的评估结果影响可以忽略不计。最终对掌纹图像编128位码时在测试集上测的eer=0.0000%。

图2为在128位编码时同类图像与异类图像匹配曲线,可以看出同类间掌纹图像哈希编码的汉明距离最大值为13,异类间掌纹图像哈希编码的汉明距离最小值为40。因此在进行掌纹识别时,将汉明距离的阈值设为13到40之间某一值时均可区分出同类与异类间的图像,并且识别的精度为100%。

综上所述,本发明提出的基于卷积神经网络和哈希编码的掌纹图像识别方法具有很好的效果。首先预训练的卷积神经网络可以很好的提取掌纹的全局和局部图像特征信息,其次,通过二进制哈希编码,使图像特征更简洁,存储所需空间更少,更容易进行后期的相似度计算以及匹配,从而提高掌纹识别的精度,大大的降低掌纹图像的等错误率eer。

以上仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1