基于径向基函数神经网络的多样化图像标注和检索方法

文档序号:6618206阅读:750来源:国知局
专利名称:基于径向基函数神经网络的多样化图像标注和检索方法
技术领域
本发明涉及多样化图像标注和检索系统,特别涉及一种基于RBFNN(径向基函数神经网络)的多样化图像标注和检索方法。
背景技术
图像检索是随着计算机科学技术的迅速发展而产生和发展起来的一门科学技术,在国防、社会安全、遥感、医学、商业信息等领域都存在着非常重要的应用前景。近年来,随着诸如扫描仪、数码相机、数码摄像机等数字化设备的快速发展和普及使用,以及多媒体技术的提高和Internet的迅速普及,使得图像数据呈现几何级数的增长,于是出现了大容量的图像及海量的视频数据库,面对日益庞大的信息海洋,如何有效地组织、管理和检索大规模的图像数据成为迫切需要解决的问题,如果能够在检索的过程中自动筛选有用信息,尽量可能避免向用户提交雷同或者近似雷同的检索结果,无疑会提高信息检索和浏览的效率,节约大量的时间。图像数据的规模和应用范围都在不断扩张,从而对现有图像检索技术不断提出新的挑战和需求。多样化图像检索,就是指在图像检索中使新颖的、独特的、非重复冗余的图像在检索结果中排序靠前。多样化图像检索系统的应用领域主要包括图像电子设备应用、互联网图像搜索、医学图像检索、商业信息检索、遥感信息侦查等等。当前的图像检索技术都着重于提高检索结果的“概念”相关性,并不注重结果的“新颖性”,致使检索的结果产生大量的冗余信息,一个好的搜索引擎应该能自动去除这些冗余信息,理想情况下,用户所“关注”的检索结果中排名靠前的图像列表应该是对“概念”的全面覆盖,也就是说,能够尽可能覆盖检索“概念”的所有“子概念”,这样,当不同应用背景的用户输入相同的检索信息或者输入的检索信息比较模糊时,多样化的检索结果就更能满足他们的潜在需求。目前,多样化图像检索技术还不是特别成熟,检索准确率比较低,如何设计出一个高效准确的多样化检索系统,是亟需解决的问题。基于内容的多样化图像检索中,由于受人工标记等客观条件的约束,一般训练数据集所提供的图像都具有“概念”标签,但不具有“子概念”标签,因此,机器学习过程是半监督的,即图像相关性的学习是有监督的,而多样性的学习是无监督的,这是多样化图像检索中需要解决的主要问题。目前的图像多样化检索技术主要存在以下的缺点(I)目前图像检索系统中的数据普遍表现为非均衡分布的特征,正类(即与检索“概念”相关的)数据往往要远少于反类(即与检索“概念”不相关的)数据,而且“概念”相关数据中各“子概念”的分布往往也是很不均衡的。这种正反类别分布不均衡的现象将使正类的学习被弱化,从而导致与“概念”相关的样本的识别率降低,检索结果的相关性降低;使非占优“子概念”的学习被弱化,以致检索结果中相应“子概念”样本缺失,从而对检索多样性产生很大影响。(2)目前的多样化检索技术一般都是独立于相关性预检索的“后序”处理方法,即相关性预检索完成后,再利用某个无监督学习算法对预检索结果进行重新排序,以达到提高多样性的目的,额外“后序”学习耗费将增加用户在线等待的时间。本发明将针对上述问题提出解决方案,实现图像相关性和多样性标注和检索的并行性,同时也解决检索中非均衡数据分布问题,进而使得图像检索精度提高。

发明内容
本发明所要解决的技术问题在于针对现有多样化图像检索技术的不足,提出一种基于RBFNN的多样化图像标注和检索方法。该方法将RBFNN网络模型,应用到相关性与多样性并行图像标注和检索中,不同隐中心的感受域能区别覆盖和响应不同的局域“子概念”。该方法不仅解决了传统相关性和多样性不能并行学习的问题,而且解决了非均衡数据学习问题,使得图像多样化标注和检索的精度和效率得到提高。本发明是采用以下技术手段解决上述技术问题的一种基于径向基函数神经网络(RBFNN)的多样化图像标注和检索方法,包括以下步骤 (I)构建和学习RBFNN模型,构建出能够覆盖图像“子概念”的RBFNN模型;(2)根据步骤(I)构建的RBFNN模型,将检索资料库预处理后的数据输入到RBFNN模型中,对图像库中图片进行多样化标注,同时给图像库中图片标注“概念”和“子概念”标签;(3)根据检索关键词和步骤(2)的标注结果,对标注后的图像库进行多样化检索首先查找所有标注检索关键词的图片,并根据“概念”相似度进行排序;然后,将分属不同“子概念”的图片按照“概念”相似度由高到低的顺序置前;(4)输出检索结果。进一步的,所述步骤(I)具体包括首先输入训练图像样本,并对图像进行预处理,并提取特征,然后基于这些训练图像样本,采用如下步骤学习RBFNN模型I)基于检索相关性和多样性目标的RBF网络结构优化首先对训练图像样本聚类,得到N。个聚类中心作为RBFNN初始化的候选隐中心,结合粒子群优化PSO算法来对RBF网络结构中的随机选取的隐中心位置、数目以及宽度参数进行并行优化,采用离散和连续混合编码形式,其中离散部分是对隐中心位置和数目的二进制编码,长度为候选隐中心的个数,基因值为“ I”表示对应的候选隐中心被选中,否则表示未被选中;而连续部分是对宽度参数的编码。进一步的,所述基于检索相关性和多样性目标的RBF网络结构优化的具体步骤如下①适应度函数的设计使用代价学习误差CE作为适应度函数的自变量,使正类以及正类中“非占优”“子概念”内的样本误差代价增大,而其它样本误差代价减小,CE表示为Ecost = Σ β, Σ ( -y,j)"(I)
i=l J=I式中β i是各样本的误差代价,tuyij分别表示输入第i个样本时,网络第j个输出接点的期望输出值和实际输出值,N表示样本总数,此外,采用“M交叉认证” M-FOLD-CV对网络的泛化能力进行表达,并定义一种“M交叉认证”代价误差为
权利要求
1.一种基于径向基函数神经网络的多样化图像标注和检索方法,其特征在于包括以下步骤(1)构建和学习RBFNN模型,构建出能够覆盖图像“子概念”的RBFNN模型;(2)根据步骤(I)构建的RBFNN模型,将检索资料库预处理后的数据输入到RBFNN模型中,对图像库中图片进行多样化标注,同时给图像库中图片标注“概念”和“子概念”标签;(3)根据检索关键词和步骤(2)的标注结果,对标注后的图像库进行多样化检索首先查找所有标注检索关键词的图片,并根据“概念”相似度进行排序;然后,将分属不同“子概念”的图片按照“概念”相似度由高到低的顺序置前;(4)输出检索结果。
2.如权利要求1所述的基于径向基函数神经网络的多样化图像标注和检索方法,其特征在于所述步骤(I)具体包括首先输入训练图像样本,并对图像进行预处理,并提取特征,然后基于这些训练图像样本,采用如下步骤学习RBFNN模型I)基于检索相关性和多样性目标的RBF网络结构优化首先对训练图像样本聚类,得到N。个聚类中心作为RBFNN初始化的候选隐中心,结合粒子群优化PSO算法来对RBF网络结构中的随机选取的隐中心位置、数目以及宽度参数进行并行优化,采用离散和连续混合编码形式,其中离散部分是对隐中心位置和数目的二进制编码,长度为候选隐中心的个数,基因值为“I”表示对应的候选隐中心被选中,否则表示未被选中;而连续部分是对宽度参数的编码。
3.如权利要求2所述的基于径向基函数神经网络的多样化图像标注和检索方法,其特征在于所述基于检索相关性和多样性目标的RBF网络结构优化的具体步骤如下①适应度函数的设计使用代价学习误差CE作为适应度函数的自变量,使正类以及正类中“非占优” “子概念”内的样本误差代价增大,而其它样本误差代价减小,CE表示为
4.如权利要求3所述的基于径向基函数神经网络的多样化图像标注和检索方法,其特 征在于学习RBFNN模型的步骤还包括步骤1)之后的步骤2) RBFNN隐中心C和宽度参数 o的快速、均衡微调,具体包括设计一种基于代价误差的梯度下降法来计算C和o每次迭代的变化量,代价误差CE 能修正由于正反类或正类各子概念样本分布不均衡引起的梯度偏差,采用公式(2)中的 M-FOLD-CV-CE误差,表示为如下形式
5.如权利要求4所述的基于径向基函数神经网络的多样化图像标注和检索方法,其特征在于学习RBFNN模型的步骤还包括步骤2)之后的步骤3):误差代价β ,的计算与优化, 具体包括网络的学习误差E由Ep和En两部分组成,其中Ep,En分别表示正类样本和反类样本误差,代价误差的设计是基于使正类及正类中“非占优”“子概念”误差代价增大,反之误差代价减小的思想,代价误差函数定义为
6.如权利要求1至5任一项所述的基于径向基函数神经网络的多样化图像标注和检索方法,其特征在于所述步骤(2)中对图像库中图片进行多样化标注的具体过程如下
全文摘要
本发明公开了一种基于RBFNN的多样化图像标注和检索方法,包括(1)构建和学习RBFNN模型,构建出能覆盖图像“子概念”的RBFNN模型;(2)将检索资料库预处理后的数据输入步骤(1)构建的RBFNN模型中,对图像库中图片进行多样化标注,同时给图像库中图片标注“概念”和“子概念”标签;(3)根据检索关键词和步骤(2)的标注结果,对标注后的图像库进行多样化检索首先查找所有标注检索关键词的图片,并根据“概念”相似度进行排序;然后,将分属不同“子概念”的图片按照“概念”相似度由高到低的顺序置前;(4)输出检索结果。本发明的优点在于提高了图像检索精度,同时大大提高了图像检索结果多样性,节约了检索时间,具有较高的鲁棒性和实用性。
文档编号G06N3/08GK102999615SQ20121049909
公开日2013年3月27日 申请日期2012年11月29日 优先权日2012年11月29日
发明者赵仲秋, 季海峰, 谢宝剑, 黄德双, 吴信东 申请人:合肥工业大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1