基于混合KAZE算法构建词包模型的图像检索方法与流程

文档序号:32980834发布日期:2023-01-17 22:01阅读:31来源:国知局
基于混合KAZE算法构建词包模型的图像检索方法与流程
基于混合kaze算法构建词包模型的图像检索方法
技术领域
1.本技术涉及图像识别技术领域,特别是涉及一种基于混合kaze算法构建词包模型的图像检索方法。


背景技术:

2.随着互联网的兴起,网络中的图片数据以惊人的速度增长,形成了巨大的图像检索数据库,针对海量的图片数据,如何通过图像检索获得用户所需的图片成为当下需要解决的技术问题。
3.传统技术中,最通用的图像检索借鉴文本检索的思想,将图像类比为一段文本,图像上提取到的局部特征对应文本中的单词,使用单词出现的频数建立词包向量来表示图像,并通过计算比较词包向量之间的相似度来检索图像。这一方法被称为基于词包模型的图像检索方法,主要包括如下五个步骤:特征提取、特征量化、构建索引、特征匹配以及后处理。
4.然而,在实现本发明的过程中,发明人发现前述传统的图像检索方法仍存在着图像检索精度不高的技术问题。


技术实现要素:

5.基于上述传统图像检索技术的精度不高的问题,提供一种基于混合kaze算法构建词包模型的图像检索方法,以解决上述问题。
6.一种基于混合kaze算法构建词包模型的图像检索方法,包括:
7.利用预先设置的区域特征提取算法提取参考图像的区域特征向量,利用预先设置的边缘特征提取算法提取参考图像的边缘特征向量;图像数据库中所有参考图像的所有区域特征向量用于生成区域视觉词典,所有边缘特征向量用于生成边缘视觉词典;
8.分别对区域特征向量和边缘特征向量进行特征量化以及构建索引,得到区域视觉词包和边缘视觉词包,将区域视觉词包和边缘视觉词包向量化得到区域视觉词包向量和边缘视觉词包向量;视觉词包包括视觉单词索引、特征位置和视觉词典容量,视觉词包为区域视觉词包或边缘视觉词包;
9.对区域视觉词包与边缘视觉词包进行并列操作,得到混合视觉词包并将混合视觉词包存入后处理程序中;
10.分别对区域视觉词包向量与边缘视觉词包向量进行特征匹配,得到区域相似度与边缘相似度;
11.将边缘相似度的平方与区域相似度的平方之和开方得到混合相似度;
12.将图像数据库中所有参考图像按照混合相似度进行降序排列,获得初始图像检索结果;
13.基于初始图像检索结果结合混合视觉词包进行后处理,得到最终图像检索结果。
14.在其中一个实施例中,并列操作的过程,包括:
15.将区域视觉词包中的视觉单词索引与边缘视觉词包中的视觉单词索引进行并列操作,构成混合视觉词包的混合视觉单词索引;
16.将区域视觉词包中特征位置与边缘视觉词包中的特征位置进行并列操作,构成混合视觉词包的混合特征位置;
17.将区域视觉词包与边缘视觉词包中的视觉词典容量进行求和操作,构成混合视觉词典容量;
18.混合视觉单词索引、混合特征位置与混合视觉词典容量构成混合视觉词包。
19.在其中一个实施例中,混合视觉词包包括(n+m)个混合视觉单词索引、(n+m)个混合特征位置和混合视觉词典容量,其中n为区域特征数量,m为边缘特征数量,混合视觉词典容量大小为2num。
20.在其中一个实施例中,区域视觉词包包括n个区域视觉单词索引、n个区域特征位置和区域视觉词典容量,其中区域视觉词典容量大小为num。
21.在其中一个实施例中,边缘视觉词包包括m个边缘视觉单词索引、m个边缘特征位置和边缘视觉词典容量,其中边缘视觉词典容量大小为num。
22.在其中一个实施例中,特征量化以及构建索引的过程,包括:
23.将区域特征向量按照向量相似度聚类为区域视觉单词;
24.将边缘特征向量按照向量相似度聚类为边缘视觉单词;
25.将区域视觉单词与边缘视觉单词合并生成视觉词典;
26.将图像的图像特征与视觉词典中的视觉单词进行一一对应生成视觉单词索引,将视觉词典中的视觉单词与图像的图像特征进行一一对应生成倒排索引;
27.将图像特征在图像中的位置进行定位得到特征位置,利用视觉单词索引、特征位置和视觉词典容量构成视觉词包。
28.在其中一个实施例中,向量化的过程,包括:
29.提取视觉词包的视觉单词索引;
30.根据视觉单词索引中视觉单词出现的频次以及先后顺序进行排列;
31.得到视觉词包向量;视觉词包向量包括区域视觉词包向量与边缘视觉词包向量。
32.在其中一个实施例中,特征匹配的过程,包括:
33.计算查询图像的区域视觉词包向量与图像数据库中所有参考图像的区域视觉词包向量的余弦距离,得到区域余弦距离,使用1减去区域余弦距离,得到查询图像与所有参考图像的区域相似度;
34.计算查询图像的边缘视觉词包向量与图像数据库中所有参考图像的边缘视觉词包向量的余弦距离,得到边缘余弦距离,使用1减去边缘余弦距离,得到查询图像与所有参考图像的边缘相似度。
35.在其中一个实施例中,后处理的过程,包括:
36.提取初始图像检索结果中混合相似度从高到低的k个参考图像,得到第一参考图像集;
37.利用混合视觉词包中的特征位置以及视觉单词索引,将第一参考图像集中参考图像与查询图像进行二次比对;
38.通过二次比对产生新的相似度指标,根据新的相似度指标再次进行降序排列,得
到最终图像检索结果。
39.值得注意的是预先设置的区域特征提取算法与预先设置的边缘特征提取算法为混合kaze算法。
40.上述一种基于混合kaze算法构建词包模型的图像检索方法,通过使用预先设置的区域特征提取算法提取图像中的区域特征向量,使用预先设置的边缘特征提取算法提取图像中的边缘特征向量,然后将提取的图像特征向量进行特征构建以及量化索引得到区域视觉词包和边缘视觉词包,然后将区域视觉词包和边缘视觉词包向量化得到区域词包向量和边缘词包向量,将区域视觉词包和边缘视觉词包进行并列操作得到混合视觉词包,并将其用于后续后处理的验证过程;同时也分别将区域词包向量和边缘词包向量继续进行特征匹配分别得到区域相似度和边缘相似度,根据区域相似度和边缘相似度进行计算得到混合相似度,再将图像数据库中的参考图像按照混合相似度进行降序排列得到初始图像检索结果,最后在后处理中结合混合视觉词包对初始图像检索结果进行进一步的过滤和重排序,得到最终图像检索结果。通过将区域视觉词包与边缘视觉词包进行并列得到混合视觉词包,获得更加完整全面的图像特征,将其用于后续后处理的校验过程,使得校验之后的最终图像检索结果更加准确;同时通过计算区域相似度与边缘相似度得到混合相似度,获得更加完整准确的初始图像检索结果,从而整体提升图像检索整体的精确度,使得图像检索精度得到有效的提高。
附图说明
41.为了更清楚地说明本技术实施例或传统技术中的技术方案,下面将对实施例或传统技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
42.图1为一个实施例中基于混合kaze算法构建词包模型的图像检索方法的方法流程示意图;
43.图2为一个实施例中基于混合kaze算法构建词包模型的图像检索装置的模块结构示意图。
具体实施方式
44.为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本技术,并不用于限定本技术。除非另有定义,本文所使用的所有的技术和科学术语与属于本技术的技术领域的技术人员通常理解的含义相同。本文中在本技术的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本技术。
45.需要说明的是,在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置展示该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员可以理解,本文所描述的实施例可以与其它实施例相结合。在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有
可能组合,并且包括这些组合。
46.下面将结合本发明实施例图中的附图,对本发明实施方式进行详细说明。
47.在本技术的研究中,发明人发现传统的图像检索技术在使用基于词包模型的图像检索方法时,在特征提取阶段,一般采用的特征检测提取算法如sift、surf、brisk或orb等,其中sift和surf算法针对斑点(blob)特征,而brisk和orb算法针对角点(corner)特征。其提取的局部特征比较单一,导致局部特征构建的视觉词包不能够全面地描述整体图像,从而相似度也不能够完全反映查询图像与参考图像的相似程度,在后处理时也因为视觉词包的不全面导致在错误结果的剔除与正确结果的返回的不准确,最终降低了图像检索的精度。
48.在一个实施例中,如图1所示,提供了一种基于混合kaze算法构建词包模型的图像检索方法,包括:
49.步骤102,利用预先设置的区域特征提取算法提取参考图像的区域特征向量,利用预先设置的边缘特征提取算法提取参考图像的边缘特征向量;图像数据库中所有参考图像的所有区域特征向量用于生成区域视觉词典,所有边缘特征向量用于生成边缘视觉词典。
50.本步骤中的区域特征向量是指检索图像中宽度较大的图像区域部分的图像特征中一部分的聚合;边缘局部特征是指图像中靠近边界的图像区域部分的图像特征中一部分的聚合,这部分特征往往容易被忽视从而导致图像检索不准确,本步骤将其与区域局部特征作为同等重要的参考,可以避免由于图像边界信息的不完整导致整体图像检索不准确的问题。
51.步骤104,分别对区域特征向量和边缘特征向量进行特征量化以及构建索引,得到区域视觉词包和边缘视觉词包,将区域视觉词包和边缘视觉词包向量化得到区域视觉词包向量和边缘视觉词包向量;视觉词包包括视觉单词索引、特征位置和视觉词典容量,视觉词包为区域视觉词包或边缘视觉词包。
52.本步骤中视觉单词索引代表该局部特征所对应的视觉单词,特征位置代表该局部特征在该图像上的空间坐标,视觉词典容量代表从一个图像数据库中所有图像提取的所有视觉单词的数量,视觉词包向量是在统计每个视觉单词在该图像中出现的次数的基础上,将图像表示为一个k维数值向量。通过构建视觉词包和视觉词包向量,使图像的特征与视觉单词索引一一对应可以在图像进行检索时准确快速的得到对应的图像检索结果,且按照有序的排列顺序进行排列,可以,提高检索的效率。
53.步骤106,对区域视觉词包与边缘视觉词包进行并列操作,得到混合视觉词包,并将混合视觉词包存入后处理程序中。
54.值得注意的是,本步骤中的并列操作是分别对视觉单词索引、特征位置和视觉词典容量进行并列操作,再将并列操作后的结果进行整合得到混合视觉词包,本步骤扩大了图像的图像特征数量,且根据步骤102有针对性的特征提取与步骤104更加精确的检索过程使得混合视觉词包有着更加全面精确的图像特征容量,从而进一步在后续的后处理过程中过滤不匹配的图像,重排序得到最终检索结果,以达到提高图像检索精度的目的。
55.步骤108,分别对区域视觉词包向量与边缘视觉词包向量进行特征匹配,得到区域相似度与边缘相似度。
56.本步骤中设查询图像表示为q,参考图像表示为r,余弦距离表示为d,边缘视觉词
包向量表示为i
edge
,区域视觉词包向量表示为i
region
,则查询图像与参考图像的区域视觉词包向量的余弦距离表示为查询图像与参考图像的边缘视觉词包向量的余弦距离表示为则区域相似度s
region
和边缘相似度s
edge
的计算方法为:
[0057][0058][0059]
本步骤通过对区域视觉词包向量与边缘视觉词包向量进行特征匹配,得到区域相似度与边缘相似度,为后续混合相似度的计算提供准确的数据。
[0060]
步骤110,将边缘相似度的平方与区域相似度的平方之和开方得到混合相似度。
[0061]
本步骤中边缘相似度可以表示为s
region
,混合相似度可以表示为s
edge
,混合相似度可以表示为s
mixed
,其三者关系可以表示为:
[0062][0063]
步骤112,将图像数据库中所有参考图像按照混合相似度进行降序排列,获得初始图像检索结果。
[0064]
本步骤中降序排列的具体方式是将图像数据库中的所有参考图像按照其混合相似度的数值越高越优先与查询图像进行对比,经过对比后得到一定数值的参考图像,然后将这一定数值的参考图像作为初始图像检索结果,并在后续后处理阶段作为输入值。通过降序排列的方式保证了初始图像检索结果的可信性。
[0065]
步骤114,基于初始图像检索结果对混合视觉词包进行后处理,得到最终图像检索结果。
[0066]
结合混合视觉词包的视觉单词索引、特征位置对初始图像检索结果进行验证,过滤不匹配的图像,重排序得到最终图像检索结果。本步骤中通过混合视觉词包中丰富准确的图像特征对初始图像检索结果进行再次校验,使得最终图像检索结果更加精确。
[0067]
上述基于混合kaze算法构建词包模型的图像检索方法中,使用预先设置的区域特征提取算法提取参考图像的区域特征向量,以及利用预先设置的边缘特征提取算法提取参考图像的边缘特征向量。再将所得区域特征向量和边缘特征向量进行特征量化以及构建索引得到对应的视觉词包以及视觉词包向量,并将其应用于后续混合词包的构建和混合相似度的计算,使得混合词包更完整的描述图像,混合相似度更完全准确的反映查询图像与参考图像的相似程度,将所有参考图像按照混合相似度降序排列,得到初始图像检索结果,基于初始图像检索结果结合混合视觉词包进行后处理,过滤不匹配的图像,重排序得到最终图像检索结果,从而提升图像检索整体的精确度,使得图像检索精度得到有效的提高。
[0068]
在一个实施例中,并列操作过程,包括:
[0069]
将区域视觉词包中的视觉单词索引与边缘视觉词包中的视觉单词索引进行并列操作,构成混合视觉词包的混合视觉单词索引;
[0070]
将区域视觉词包中特征位置与边缘视觉词包中的特征位置进行并列操作,构成混合视觉词包的混合特征位置;
[0071]
将区域视觉词包与边缘视觉词包中的视觉词典容量进行求和操作,构成混合视觉词典容量;
[0072]
混合视觉单词索引、混合特征位置与混合视觉词典容量构成混合视觉词包。
[0073]
其中局部特征所属的视觉单词索引wordindex,特征位置location,视觉词典容量vocabularysize可以构成一个图像特征的视觉词包。值得说明的是区域视觉词包,边缘视觉词包,混合视觉词包都属于含有局部特征的视觉词包。本实施例中通过将区域视觉词包与边缘视觉词包进行并列操作获得混合视觉词包,既保证了视觉单词索引和特征位置排列顺序,又扩大了本身的视觉单词索引和特征位置的数量,从而使得在后续后处理的过程中更准确的过滤掉不匹配的图像检索结果。
[0074]
在其中一个实施例中,混合视觉词包包括(n+m)个混合视觉单词索引、(n+m)个混合特征位置和混合视觉词典容量,其中n为区域特征数量,m为边缘特征数量,混合视觉词典容量大小为2num。
[0075]
其中混合视觉单词索引可以表示为其中混合视觉单词索引可以表示为混合特征位置索引可以表示为混合特征位置索引可以表示为混合视觉词典容量可以表示为2num。其中混合视觉单词索引中num意在表示经过并列操作后将之前的视觉单词对应在混合视觉词典中,保证程序在执行时的正确性。值得注意的是,本实施例中界定了混合视觉单词索引与混合特征位置的排列顺序和数量,保证了混合视觉词包的准确性。
[0076]
在其中一个实施例中,区域视觉词包包括n个区域视觉单词索引、n个区域特征位置和区域视觉词典容量,其中区域视觉词典容量大小为num。
[0077]
其中区域视觉单词索引可以表示为区域特征位置可以表示为区域视觉词典容量可以表示为num。本实施例中界定了区域视觉单词索引与区域特征位置的排列顺序和数量,保证了区域视觉词包的准确性,从而进一步保证混合视觉词包以及后续区域相似度的准确性。
[0078]
在其中一个实施例中,边缘视觉词包包括m个边缘视觉单词索引、m个边缘特征位置和边缘视觉词典容量,其中边缘视觉词典容量大小为num。
[0079]
其中边缘视觉单词索引可以表示为边缘特征位置可以表示为边缘视觉词典容量可以表示为num。本实施例中界定了边缘视觉单词索引与边缘特征位置的排列顺序和数量,保证了边缘视觉词包的准确性,从而进一步保证混合视觉词包以及后续边缘相似度的准确性。
[0080]
通过将区域视觉词包与边缘视觉词包进行并列操作得到混合视觉词包,使得在混合视觉词包中的信息更加丰富准确,从而在后续的后处理程序中更为精确的对初始图像检索结果进行校验,得到更为准确的图像检索结果。
[0081]
在一个实施例中,特征量化以及构建索引的过程,包括:
[0082]
将区域特征向量按照向量相似度聚类为区域视觉单词;
[0083]
将边缘特征向量按照向量相似度聚类为边缘视觉单词;
[0084]
将区域视觉单词与边缘视觉单词合并生成视觉词典;
[0085]
将图像的图像特征与视觉词典中的视觉单词进行一一对应生成视觉单词索引,将视觉词典中的视觉单词与图像的图像特征进行一一对应生成倒排索引;
[0086]
将图像特征在图像中的位置进行定位得到特征位置,利用视觉单词索引、特征位置和视觉词典容量构成视觉词包。
[0087]
本实施例中,将区域特征向量按照向量相似度聚类为区域视觉单词,边缘特征向量按照向量相似度聚类为边缘视觉单词的目的是因为图像特征的数量往往是成千上万的,本步骤中将得到的相似度高的图像特征聚类为相同视觉单词,可以降低后续步骤的计算和存储开销,提高检索效率。利用k均值聚类算法对所有特征向量进行聚类,例如:总共有n个向量,聚类为k个簇,每一个簇围绕一个聚类中心,共k个聚类中心,簇内的向量相似度较高,簇与簇之间的相似度较低。也就是说,将所有的特征向量生成一个视觉词典,该视觉词典内总共有k个视觉单词,视觉词典的容量就是k。然后利用这些视觉单词表示图像:计算图像中的特征向量到这k个视觉单词的距离,距离最近的视觉单词为该特征对应的视觉单词。比如说,某视觉词典一共包含5个视觉单词:(单词1,单词2,单词3,单词4,单词5)某个图像提取了7个特征:(特征1,特征2,特征3,特征4,特征5,特征6,特征7)将特征对应到距离最近的视觉单词上:假设特征1、2、5属于单词1,特征3、7属于单词2,特征4、6属于单词4,那么该图像的视觉单词索引为(1,1,2,4,1,4,2),定义一个图像的视觉词包中除了包括特征对应的视觉单词的索引,还包括该特征在本图像上的位置坐标和视觉词典的容量,我们再假设特征1-7的位置为a,b,c,d,e,f,g,则该图像的视觉词包为:{(1,1,2,4,1,4,2),(a,b,c,d,e,f,g),5}。通过该过程可以得到可信的视觉词包,保证了视觉词典中的视觉单词与图像特征是对应的。
[0088]
在其中一个实施例中,向量化的过程,包括:
[0089]
提取视觉词包的视觉单词索引;
[0090]
根据视觉单词索引中视觉单词出现的频次以及先后顺序进行排列;
[0091]
得到视觉词包向量;视觉词包向量包括区域视觉词包向量与边缘视觉词包向量。
[0092]
本实施例中通过将视觉单词索引中视觉单词出现的频次以及先后顺序进行排列,得到可靠的视觉词包向量,保证了在后续计算相似度时信息的准确性。
[0093]
在其中一个实施例中,特征匹配的过程,包括:
[0094]
计算查询图像的区域视觉词包向量与图像数据库中所有参考图像的区域视觉词包向量的余弦距离,得到区域余弦距离,使用1减去区域余弦距离,得到查询图像与所有参考图像的区域相似度;
[0095]
计算查询图像的边缘视觉词包向量与图像数据库中所有参考图像的边缘视觉词包向量的余弦距离,得到边缘余弦距离,使用1减去边缘余弦距离,得到查询图像与所有参考图像的边缘相似度。
[0096]
本实施例中,将具体运算过程进行举例说明,如下:
[0097]
参考图像1的词包向量为(3,2,0,2,0);
[0098]
参考图像2的词包向量为(1,1,1,0,0);
[0099]
查询图像为(3,2,0,2,1);
[0100]
那么很明显参考图像1与查询图像的词包向量的余弦距离更近,所以他们相似度
更高,故将参考图像1排列在初始图像检索结果的靠前位置,即根据所得的相似度的大小进行排列,越大的排列在越靠前位置,直到达到初始图像检索结果的最大容量值。最后将所得的初始图像检索结果作为输入,输入至后续后处理程序当中。该过程将图像检索的数量进行了缩减,排除了大部分与查询图像不匹配的结果。
[0101]
在其中一个实施例中,后处理的过程,包括:
[0102]
提取初始图像检索结果中混合相似度从高到低的k个参考图像,得到第一参考图像集;
[0103]
利用混合视觉词包中的特征位置以及视觉单词索引,将第一参考图像集中参考图像与查询图像进行二次比对;
[0104]
通过二次比对产生新的相似度指标,根据新的相似度指标再次进行降序排列,得到最终图像检索结果。
[0105]
本实施例中,通过提取初始图像检索结果中混合相似度从高到低的k个参考图像得到第一参考图像集,进一步的减少图像检索时的工作量,提升了检索的效率;同时更值得注意的是利用混合视觉词包中信息进行,将第一参考图像集中参考图像与查询图像进行二次比对,产生新的相似度指标,因为相对于单一来源的视觉词包,混合视觉词包中的信息更加丰富准确,所以产生的新的相似度指标更加准确,从而能够进一步提高检索精度。
[0106]
值得注意的是,预先设置的区域特征提取算法与边缘特征提取算法为kaze算法,kaze算法中使用的传导函数中包括:
[0107][0108][0109][0110]
其中l
σ
为高斯平滑图像,为l
σ
的梯度,k为扩散控制因子。g2为区域特征提取算法,很好的保留宽度较大的图像区域;g3为边缘特征提取算法,很好的保留图像的边界信息。通过本步骤对图像的局部进行有针对性的特征提取,使得提取的图像特征更为丰富全面。
[0111]
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
[0112]
请参阅图2,在一个实施例中,提供一种基于混合kaze算法构建词包模型的图像检索装置100,包括特征提取模块11、特征索引模块12、词包混合模块13、特征匹配模块14、相似混合模块15、初始排列模块16和后处理模块17。其中:
[0113]
特征提取模块11用于利用预先设置的区域特征提取算法提取参考图像的区域特征向量,利用预先设置的边缘特征提取算法提取参考图像的边缘特征向量;图像数据库中所有参考图像的所有区域特征向量用于生成区域视觉词典,所有边缘特征向量用于生成边缘视觉词典。特征索引模块12用于分别对区域特征向量和边缘特征向量进行特征量化以及构建索引,得到区域视觉词包和边缘视觉词包,将区域视觉词包和边缘视觉词包向量化得到区域视觉词包向量和边缘视觉词包向量;视觉词包包括视觉单词索引、特征位置和视觉词典容量,视觉词包为区域视觉词包或边缘视觉词包。词包混合模块13用于对区域视觉词包与边缘视觉词包进行并列操作,得到混合视觉词包并将混合视觉词包存入后处理程序中。特征匹配模块14用于分别对区域视觉词包向量与边缘视觉词包向量进行特征匹配,得到区域相似度与边缘相似度。相似混合模块15用于将边缘相似度的平方与区域相似度的平方之和开方得到混合相似度。初始排列模块16用于将图像按照混合相似度降序排列,获得初始图像检索结果。后处理模块17用于基于初始检索结果结合混合视觉词包进行后处理,得到最终图像检索结果。
[0114]
上述基于混合kaze算法构建词包模型的图像检索装置100,通过各模块的协作,使用预先设置的区域特征提取算法提取参考图像的区域特征向量,以及利用预先设置的边缘特征提取算法提取参考图像的边缘特征向量。再将所得区域特征向量和边缘特征向量进行特征量化以及构建索引得到对应的视觉词包以及视觉词包向量,并将其应用于后续混合词包的构建和混合相似度的计算,使得混合词包更完整的描述图像,混合相似度更完全准确的反映查询图像与参考图像的相似程度,将所有参考图像按照混合相似度降序排列,得到初始图像检索结果,基于初始图像检索结果结合混合视觉词包进行后处理,过滤不匹配的图像,重排序得到最终图像检索结果,从而提升图像检索整体的精确度,使得图像检索精度得到有效的提高。
[0115]
在一个实施例中,上述基于混合kaze算法构建词包模型的图像检索装置100的各模块,还可以用于实现上述基于混合kaze算法构建词包模型的图像检索方法的其他各实施例的相应处理步骤。
[0116]
关于基于混合kaze算法构建词包模型的图像检索装置100的具体限定,可以参见上文中基于混合kaze算法构建词包模型的图像检索方法的相应限定,在此不再赘述。上述基于混合kaze算法构建词包模型的图像检索装置100中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于具体数据处理功能的设备中,也可以软件形式存储于前述设备的存储器中,以便于处理器调用执行以上各个模块对应的操作,前述设备可以是但不限于本领域已有的各型便携式数据分析处理设备。
[0117]
在一个实施例中,还提供一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现如下处理步骤:
[0118]
利用预先设置的区域特征提取算法提取参考图像的区域特征向量,利用预先设置的边缘特征提取算法提取参考图像的边缘特征向量;图像数据库中所有参考图像的所有区域特征向量用于生成区域视觉词典,所有边缘特征向量用于生成边缘视觉词典。分别对区
域特征向量和边缘特征向量进行特征量化以及构建索引,得到区域视觉词包和边缘视觉词包,将区域视觉词包和边缘视觉词包向量化得到区域视觉词包向量和边缘视觉词包向量;视觉词包包括视觉单词索引、特征位置和视觉词典容量,视觉词包为区域视觉词包或边缘视觉词包。对区域视觉词包与边缘视觉词包进行并列操作,得到混合视觉词包并将混合视觉词包存入后处理程序中。分别对区域视觉词包向量与边缘视觉词包向量进行特征匹配,得到区域相似度与边缘相似度。将边缘相似度的平方与区域相似度的平方之和开方得到混合相似度。将图像按照混合相似度降序排列,获得初始图像检索结果。基于初始检索结果结合混合视觉词包进行后处理,得到最终图像检索结果。
[0119]
可以理解,上述计算机设备除上述述及的存储器和处理器外,还包括其他本说明书未列出的软硬件组成部分,具体可以根据不同应用场景下的具体数据处理设备的型号确定,本说明书不再一一列出详述。
[0120]
在一个实施例中,处理器执行计算机程序时还可以实现上述基于混合kaze算法构建词包模型的图像检索方法各实施例中增加的步骤或者子步骤。
[0121]
在一个实施例中,还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现如下处理步骤:
[0122]
利用预先设置的区域特征提取算法提取参考图像的区域特征向量,利用预先设置的边缘特征提取算法提取参考图像的边缘特征向量;图像数据库中所有参考图像的所有区域特征向量用于生成区域视觉词典,所有边缘特征向量用于生成边缘视觉词典。分别对区域特征向量和边缘特征向量进行特征量化以及构建索引,得到区域视觉词包和边缘视觉词包,将区域视觉词包和边缘视觉词包向量化得到区域视觉词包向量和边缘视觉词包向量;视觉词包包括视觉单词索引、特征位置和视觉词典容量,视觉词包为区域视觉词包或边缘视觉词包。对区域视觉词包与边缘视觉词包进行并列操作,得到混合视觉词包并将混合视觉词包存入后处理程序中。分别对区域视觉词包向量与边缘视觉词包向量进行特征匹配,得到区域相似度与边缘相似度。将边缘相似度的平方与区域相似度的平方之和开方得到混合相似度。将图像按照混合相似度降序排列,获得初始图像检索结果。基于初始检索结果结合混合视觉词包进行后处理,得到最终图像检索结果。
[0123]
在一个实施例中,计算机程序被处理器执行时,还可以实现上述基于混合kaze算法构建词包模型的图像检索方法各实施例中增加的步骤或者子步骤。
[0124]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成的,计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线式动态随机存储器(rambus dram,简称rdram)以及接口动态随机存储器(drdram)等。
[0125]
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例
中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
[0126]
以上所述实施例仅表达了本技术的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本技术构思的前提下,还可以做出若干变形和改进,这些都属于本技术的保护范围。因此,本技术专利的保护范围应以所附权利要求为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1