一种基于语义映射空间构建的图像检索方法

文档序号:6623159阅读:243来源:国知局
一种基于语义映射空间构建的图像检索方法
【专利摘要】本发明公开了一种基于语义映射空间的图像检索方法,其特征是按如下步骤进行:步骤1、学习语义映射空间;步骤2、估计每个未标注图像的语义概念;步骤3、将语义空间中语义概念对应的图像进行升序排列;步骤4、输入待检索的文本查询词,返回语义概念所对应的图像。本发明能有效地提高图像检索的准确性。
【专利说明】一种基于语义映射空间构建的图像检索方法

【技术领域】
[0001] 本发明属于信息检索【技术领域】,主要涉及一种基于语义映射空间构建的图像检索 方法。

【背景技术】
[0002] 21世纪是信息时代,计算机和网络技术进一步普及和快速发展,互联网上以图像 为代表的多媒体数据呈现爆炸式地增长。因此,图像检索技术受到了来自不同领域的研究 人员越来越多的关注,研究人员旨在给用户提供更优质的图像浏览和检索服务,以提高图 像检索的用户满意度。
[0003] 主流的图像检索方法当前可以分为两类:基于文本的图像检索和基于内容的图像 检索。
[0004] 基于文本的图像检索方法通常利用文本信息来描述图像内容,使用简短的注释或 者文本标签来对数据库中的图像进行索引。基于文本的图像检索方法的有效性严重依赖于 检索算法的性能以及文本标注的准确性。然而,对互联网时代的大规模网络图像进行标注 却是一件极其耗费人力物力的事情,随着网络图像数据的规模呈几何级数式地增长,基于 文本的图像检索方法已经不再适用。
[0005] 基于内容的图像检索方法是一种"以图搜图"的方法,主要存在两个问题:首先,每 次查询用户都被要求提高一个事例图像;其次,视觉查询由于众所周知"语义鸿沟"的存在, 其无法表示高层语义概念。
[0006] 因此,目前的网络图像检索方法都不再满足实际需求,导致目前网络图像检索的 准确度不高,效率低下。


【发明内容】

[0007] 本发明旨在解决当前网络图像检索准确度不高以及效率低下的问题,提出了一种 基于语义映射空间构建的图像检索方法,能有效地提高图像检索的准确性。
[0008] 本发明为解决技术问题采用如下技术方案:
[0009] 本发明一种基于语义映射空间的图像检索方法的特点是按如下步骤进行:
[0010] 步骤1、学习语义映射空间F :
[0011] 步骤1. 1、从网络图像数据集中获取训练图像数据集与未标注图像数据集,所述训 练图像数据集包括η幅训练图像;所述未标注图像数据集包括m幅未标注图像;获取与所 述η幅训练图像相对应的语义概念,并令相同的语义概念用一个索引号来索引,从而获得 语义概念集G = {gu g2,…,gY,…,gc},γ为索引号,γ e {1,2,…c},c表征所述语义概 念的个数,c < η ;
[0012] 步骤1.2、提取所述训练图像数据集和所述未标注图像数据集中每幅训练图像 和未标注图像的高维特征向量,从而获得高维特征向量集X = {xu ···,χ。#}; d表示所述训练图像和未标注图像的特征维数;
[0013] 步骤1. 3、利用式(1)获得任意两个语义概念ga和ge之间的距离Da, e,从而利用 式(2)获得在所述语义概念集G中任意两个语义概念ga和ge之间距离D a,e所组成的语 义距离矩阵DelT'
[0014]

【权利要求】
1. 一种基于语义映射空间的图像检索方法,其特征是按如下步骤进行: 步骤1、学习语义映射空间F: 步骤1. 1、从网络图像数据集中获取训练图像数据集与未标注图像数据集,所述训练图 像数据集包括η幅训练图像;所述未标注图像数据集包括m幅未标注图像;获取与所述η幅 训练图像相对应的语义概念,并令相同的语义概念用一个索引号来索引,从而获得语义概 念集G = {gp g2,…,gY,…,g。},γ为索引号,γ e {1,2, ···(:},c表征所述语义概念的个 数,c彡η ; 步骤1.2、提取所述训练图像数据集和所述未标注图像数据集中每幅训练图像和 未标注图像的高维特征向量,从而获得高维特征向量集Χ= ; d表示所述训练图像和未标注图像的特征维数; 步骤1.3、利用式(1)获得任意两个语义概Sga和80之间的距离Da, e,从而利用式 (2)获得在所述语义概念集G中任意两个语义概念ga和ge之间距离Da, e所组成的语义 距离矩阵De!Txt':
(1)
(2) 式⑴中:a、β e {1,2,…c}分别表不语义概念ga和ge的索引号;f (ga)表不包含 语义概Sga的训练图像个数,f(ge)表示包含语义概念ge的训练图像个数;f(g a,ge)表 示既包含语义概念ga又包含语义概念80的训练图像个数;K表示所述网络图像数据集中 所有网络图像的个数; 步骤1.4、定义语义概念ga在所述语义映射空间F上的映射为语义概念原型 ρ" ;由每一个语义概念所对应的语义概念原型构成语义概念原型矩阵P,
1. 4.1、利用式(3)计算矩阵D;
(3) 式(3)中:1£置^为单位矩阵;ieirxl表示全为1的列向量; 1. 4. 2、按照δ = νΛντ的分解形式对矩阵?进行分解,获得矩阵V和Λ ; 1.4. 3、采用式(4)获得语义概念原型矩阵Ρ,从而获得每一个语义概念所对应的语义 概念原型Pi, ρ2,…,Ρ ",…,Pc :
(4) 步骤1. 5、利用式(5)学习图像映射矩阵W : (5) 式(5)中:x,. eMrf表示第i幅训练图像的高维特征向量;yi e {1,2, ···,c}表示第i幅 训练图像的语义概念的索引号;λ为正则化参数; 由所述语义概念原型矩阵Ρ和图像映射矩阵W获得所述语义映射空间F; 步骤2、利用式(6)获得所述未标注图像数据集中任一未标注图像所对应的语义概念 的索引号Θ,从而估计每个未标注图像的语义概念:
(6) 式(6)中:^表示所述未标注图像数据集中任一未标注图像的高维特征向量; t ^ (n+1,…,n+m); 步骤3、每个语义概念ge都对应一组图像,Θ e {1,2,…,c};将ge对应的图像的高 维特征向量组成向量集,所述向量集{xei,xe2,…,Χ01}按照|p 5-wx&|的大小进行图像 升序排列;j e {1,2,···,1}; 步骤4、输入待检索的文本查询词,找到所述文本查询词在语义映射空间F中所对应 的语义概念,并按照步骤3进行升序排列后,返回所述语义概念所对应的图像。
2.根据权利要求1所述的基于语义映射空间构建的图像检索方法,其特征是,当有新 的语义概念加入到语义映射空间F时,所述步骤1的语义映射空间F是按如下步骤进行更 新: 步骤1. 1、利用式(7)获得新的语义概念gc;+1所对应的语义概念原型Pc;+1 :
(7) 式⑵中:De+1,0为语义概念ge+1和语义概念ge之间的语义距离,Θ e {1,2,···,ο}; 并利用式(8)获得新的语义概念原型矩阵Ρ% P* = P U pc+1 (8) 式⑶中:更新后得到的语义概念原型矩阵P#= {Pl,P2,…PuP。.]; 步骤1. 2、利用式(9)获得新的图像映射矩阵矿:
(9) 式(9)中:yi为第i幅训练图像所对应的语义概念索引号;X' k为所述新的语义概念 gc;+1对应的第k幅图像的高维特征向量,ke {1,2, ···,(!};由所述新的语义概念原型矩阵1^ 和新的图像映射矩阵矿获得更新的所述语义映射空间F。
【文档编号】G06F17/30GK104156433SQ201410393094
【公开日】2014年11月19日 申请日期:2014年8月11日 优先权日:2014年8月11日
【发明者】汪萌, 杨勋, 洪日昌 申请人:合肥工业大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1