基于显著性特征稀疏嵌入和极限学习机的哈希编码方法与流程

文档序号:12472081阅读:来源:国知局

技术特征:

1.一种基于显著性特征稀疏嵌入和极限学习机的哈希编码方法,其特征在于,该编码方法首先通过多类图像数据集构造训练集和测试集;再对图像进行基于扩散的显著性目标检测算法来突出图像中视觉显著性目标区域;然后通过稀疏空间嵌入和最小方差编码哈希函数用于哈希编码,保留图像在原空间的语义信息和图像间的相似性关系;最后通过极限学习机的方法拟合哈希编码过程。

2.如权利要求1所述的哈希编码方法,其特征在于,该编码方法具体为

(1)通过多类图像数据集随机选择样本用来构造训练集和测试集

(2)对多类图像数据集Ω中的每一幅图像I进行基于扩散的显著性目标检测,通过超像素分割算法把每一幅图像I划分成N个超像素,计算N个超像素之间的归一化拉普拉斯算子矩阵Lrw、Lrw的特征值λL和特征向量uL,进一步构造扩散矩阵A、基向量s用来为每个超像素分配权重,得到目标显著图S,从而找到图像中视觉显著性目标区域;将目标显著图S加载到原始图像的相应位置,得到的加权图像I'能够更好地突显出图像中的视觉显著性目标区域,从而有效地降低图像中背景区域的干扰;

(3)在加权图像I'上提取全局特征,通过n×n的网格把图像划分成大小相等的子区域,每个子区域用m个尺度n个方向的Gabor滤波器进行滤波处理,所有子区域的特征串接得到整幅图像目标描述子Fi

(4)由于直接对目标描述子Fi压缩编码,会丢失视觉显著性目标区域的很多重要信息,因此我们先对目标描述子进行稀疏嵌入,把它映射到一个线性子空间,得到一种更为简洁的表达方式,即目标描述子Fi的空间稀疏特征向量

(5)通过最小方差编码学习空间稀疏特征向量之间的相互关系,学习到的编码矩阵Λ和视觉词典Ψ用来构造哈希函数,进行哈希编码。

3.如权利要求1所述的哈希编码方法,其特征在于,所述的基于扩散的显著性目标检测算法来突出图像中视觉显著性目标区域,该算法为:学习以下扩散矩阵A、基向量s=(s1,K,sN):

A=U·Λ·DC·UT

s=Ax

其中,U=[u2,K,ur],DC=diag{dc(u2),K,dc(ur)},x=(x1,K,xN),通过显著值向量y=As=A2x得到图像的目标显著图,从而突出图像中视觉显著性目标区域。

4.如权利要求1所述的哈希编码方法,其特征在于,所述稀疏空间嵌入和最小方差编码的哈希函数,其中为保留图像在原空间的语义信息和图像间的相似性关系,需要满足下列约束条件:

<mrow> <msub> <mi>min</mi> <mrow> <mi>&Psi;</mi> <mo>,</mo> <mi>&Lambda;</mi> </mrow> </msub> <mo>|</mo> <mo>|</mo> <mi>P</mi> <mo>-</mo> <mi>&Psi;</mi> <mi>&Lambda;</mi> <mo>|</mo> <msubsup> <mo>|</mo> <mi>F</mi> <mn>2</mn> </msubsup> <mo>+</mo> <msubsup> <mi>&lambda;&Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mn>1</mn> </msub> </msubsup> <mo>|</mo> <mo>|</mo> <msub> <mi>&theta;</mi> <mi>i</mi> </msub> <mo>-</mo> <mi>&mu;</mi> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>,</mo> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>&psi;</mi> <mi>j</mi> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>=</mo> <mn>1</mn> </mrow>

其中,Ψ=[ψ1,K,ψj,K,ψc]∈Rk×c为视觉词典,为空间稀疏特征向量在视觉词典Ψ下的编码矩阵,θi的编码向量,λ是常数。

5.如权利要求1所述的哈希编码方法,其特征在于,所述通过极限学习机的方法拟合哈希编码过程,需要满足下列约束条件:

Hβ=T

<mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <mi>H</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>&lsqb;</mo> <mtable> <mtr> <mtd> <msub> <mi>h</mi> <mn>1</mn> </msub> </mtd> <mtd> <msub> <mi>h</mi> <mn>2</mn> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>h</mi> <mi>L</mi> </msub> </mtd> </mtr> </mtable> <mo>&rsqb;</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <msub> <mi>h</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <mrow> <msub> <mi>h</mi> <mi>L</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mi>M</mi> </mtd> <mtd> <mi>M</mi> </mtd> <mtd> <mi>M</mi> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>h</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <msub> <mi>N</mi> <mn>1</mn> </msub> </msub> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <mrow> <msub> <mi>h</mi> <mi>L</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>F</mi> <msub> <mi>N</mi> <mn>1</mn> </msub> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>=</mo> <msub> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <mi>G</mi> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>b</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>F</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mi>L</mi> </mrow> </mtd> <mtd> <mrow> <mi>G</mi> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mi>L</mi> </msub> <mo>,</mo> <msub> <mi>b</mi> <mi>L</mi> </msub> <mo>,</mo> <msub> <mi>F</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mi>M</mi> </mtd> <mtd> <mi>M</mi> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>G</mi> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>b</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>F</mi> <msub> <mi>N</mi> <mn>1</mn> </msub> </msub> <mo>)</mo> </mrow> <mi>L</mi> </mrow> </mtd> <mtd> <mrow> <mi>G</mi> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mi>L</mi> </msub> <mo>,</mo> <msub> <mi>b</mi> <mi>L</mi> </msub> <mo>,</mo> <msub> <mi>F</mi> <msub> <mi>N</mi> <mn>1</mn> </msub> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mrow> <msub> <mi>N</mi> <mn>1</mn> </msub> <mo>&times;</mo> <mi>L</mi> </mrow> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced>

<mrow> <mi>T</mi> <mo>=</mo> <msub> <mi>O</mi> <mrow> <mi>t</mi> <mi>r</mi> <mi>a</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> <mo>=</mo> <mo>&lsqb;</mo> <msub> <mi>o</mi> <mn>1</mn> </msub> <mo>,</mo> <mi>K</mi> <mo>,</mo> <msub> <mi>o</mi> <msub> <mi>N</mi> <mn>1</mn> </msub> </msub> <mo>&rsqb;</mo> </mrow>

其中,a=[a1,a2,L,aL]T是连接输入层和隐层的权重矩阵,L是隐层节点的个数;

b=[b1,b2,L,bL]T是连接输入层和隐层的偏置向量;G(x)是隐层的激励函数。

当前第2页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1