基于混合统计建模的纹理图像检索方法与流程

文档序号:14571935发布日期:2018-06-01 22:46阅读:546来源:国知局
基于混合统计建模的纹理图像检索方法与流程

本发明属于数字图像检索技术领域,涉及基于内容的图像检索方法,特别涉及一种基于混合统计建模的纹理图像检索方法。



背景技术:

当今社会是一个高速发展的社会,技术日渐发达,信息高速流通,同时,随着互联网技术的不断发展,大数据时代已经来临,巨量的信息时刻涌入,其中不乏大量的图像信息。人们可以随时随地捕捉影像形成图像信息,并即时传播到互联网上,数字图像正以惊人的速度增长。当今问题是如何在巨大的图像库中进行高效且精准地检索问题。

早期传统的基于文本的图像检索方法(TBIR)是一个基于词语匹配的检索过程,将图像进行种种注释(譬如名称、编号、内容简述等)进行搜索。随着图像信息量的逐渐扩大,TBIR技术遇到严峻的问题:文本的标注难以全方位精准地描述越来越丰富的图像内容,基于内容的图像检索技术(CBIR)应运而生。CBIR相比较TBIR,优势在于把图像的颜色信息、轮廓信息等视觉感官特征以最优的算法对其进行抽离和变换,通过计算来表征图像,进而对同类图像进行特征匹配和查找,其中特征提取和匹配环节可以用软件设备来取代人工注释,排除了人工注释会受到兴趣、知识储备、职业等各个方面的主观因素影响,真正意义上实现了人工智能技术在图像检索领域的应用。

纹理图像的特征提取是决定一个CBIR算法好坏的关键,CBIR技术的首要任务是找到提取特征的更好方法,提取出独特精准的特征,为搜索到准确图像奠定基础。现有提出的CBIR技术算法比较繁琐,实现难度较大,时间复杂度较高,因此,找到一种复杂度低、运行速度快、特征提取效果好的CBIR技术,是目前需要深入研究的课题。



技术实现要素:

本发明是为了解决现有技术所存在的上述技术问题,提供一种基于混合统计建模的纹理图像检索方法。

本发明的技术解决方案是:一种基于混合统计建模的纹理图像检索方法,其特征在于按如下步骤进行:

约定:L指通过双密度双树复小波变换(DD-DTCWT)得到的低频子带、H代表高频子带;表示复子带系数;a为的实部子带、b为虚部子带;i为虚数单位;和为Cauchy分布概率密度函数(PDF)的位置参数和尺度参数;和为Vonn分布概率密度函数(PDF)的位置参数和尺度参数;r表示幅值;P表示概率密度函数;f为最大似然法超越方程函数;为相对相位;W为幅值纹理库;V为相对相位纹理库;I指待检索图像;J指图像库中图像;为I和J之间的欧氏距离;为图像I的特征向量在第i个分量处的特征值;为待检索图像特征;为图像特征库中的特征;

a. 初始设置

获取检索图像库内的图像J,同时进行变量初始化;

b. 高频子带获取

对图像J进行二级DD-DTCWT变换,得到4个L和64个H,其中H由矩阵大小相同的32个a和32个b组成,用表示;

c. 系数幅值Cauchy建模

c.1 根据下式对每个H的a和b进行r计算,得到12个幅值子带系数;

c.2 对每幅图像H的32个幅值子带系数采用Cauchy分布的PDF进行统计建模,其PDF,即P可定义如下:

其中:;

c.3 根据下式计算Cauchy分布的和两参数,设给定Cauchy分布的随机样本,并假定样本是独立分布的,为Cauchy分布的中值,通过牛顿迭代法估计得出基于位置参数的最大似然函数:

c.4 将得到的Cauchy分布的位置参数和尺度参数作为每一幅图像J的特征向量,存入图像幅值纹理库W以待检索使用;

d. 系数相对相位Vonn建模

d.1 根据下式对每个H的a和b进行计算,得到32个相对相位子带系数:

d.2 对每幅图像H的32个相对相位子带系数采用Vonn分布PDF进行统计建模,其PDF,即P可定义如下:

d.3 应用最大似然法,根据下式估算Vonn分布的和:

d.4 将得到的Vonn分布的位置参数和尺度参数作为每一幅图像J的特征向量,存入图像相对相位纹理库V以待检索使用;

e. 待检索图像处理操作

e.1 输入待检索图像I,对I进行二级DD-DTCWT分解,得到4个L和64个H,其中H由矩阵大小相同的32个a和32个b组成;

e.2 重复步骤c,对待检索的图像I高频子带的32个幅值子带系数采用Cauchy分布进行建模,计算其和,得到图像I的特征向量;

e.3 重复步骤d,对待检索的图像I高频子带的32个相对相位子带系数采用Vonn分布进行建模,计算其和,得到图像I的特征向量;

f. 相似度计算

f.1 定义为待检索图像I与图像库图像J之间的欧式距离,表示I的特征向量在第i个分量处的特征值,表示J的特征向量在第i个分量处的特征值,则图像I与J的欧氏距离定义如下:

f.2 将采取倒数运算,以此作为I与J之间的相似度;

f.3 将得到的相似度按从小到大顺序排列,输出较优的检索结果;

g. 重复步骤e~f,直到图像I和J全部匹配结束。

本发明首先利用具有良好方向性特点的DD-DTCWT变换分解图像,对变换得到的高频子带进行幅值及相对相位计算;其次,应用Cauchy分布函数对幅值进行统计模型建模,得到位置参数和尺度参数;然后,应用Vonn分布函数对相对相位进行统计模型建模,得到位置参数和尺度参数;最后,利用、、和作为每幅图像的特征,应用于图像检索。实验结果表明,本发明的方法由于以参数、、 和作为每幅图像的特征,有效降低了特征的维度,缩减了相似度计算所分配的时间,提高了平均检索率。

与当前以出现技术对比,本发明具备以下优点:

第一,提出一种选择幅值和相对相位的PDF统计模型的纹理图像检索方法,通过把复方向子带幅值系数和Cauchy分布结合、复方向子带相对相位系数和Vonn分布结合进行统计建模,能够更好地描述图像的纹理程度和刻画图像边缘的方向特征,有效地改善检索性能;

第二,选择的DD-DTCWT变换,同时具有DT CWT和DD DWT的优点:近似的平移不变性、近似连续小波变换、良好的方向选择性、更能体现图像低频、边缘特征、能够实现完全重构,没有信息丢失、计算效率高。

第三,以、、和作为每幅图像的特征,能有效降低图像特征维度,减少相似度计算时间;

第四,利用混合建模规避了单一方法对纹理图像信息的遗漏,在降低时间复杂度的基础上,使检索效果达到最优化。

附图说明:

图1为本发明实施例幅值PDF拟合结果图。

图2为本发明实施例相对相位PDF拟合结果图。

图3为本发明实施例纹理图像库检索结果图。

图4为本发明实施例与对比文献检索方法的纹理图像库查准率比较分析图。

图5为本发明实施例的流程图。

具体实施方式

本发明的方法共包括五个阶段:图像DD-DTCWT变换高频子带获取、系数幅值Cauchy建模、系数相对相位Vonn建模、待检索图像处理操作和相似度计算。

约定:L指通过双密度双树复小波变换(DD-DTCWT)得到的低频子带、H代表高频子带;表示复子带系数;a为的实部子带、b为虚部子带;i为虚数单位;和为Cauchy分布概率密度函数(PDF)的位置参数和尺度参数;和为Vonn分布概率密度函数(PDF)的位置参数和尺度参数;r表示幅值;P表示概率密度函数;f为最大似然法超越方程函数;为相对相位;W为幅值纹理库;V为相对相位纹理库;I指待检索图像;J指图像库中图像;为I和J之间的欧氏距离;为图像I的特征向量在第i个分量处的特征值;为待检索图像特征;为图像特征库中的特征;

具体步骤如图5所示:

a. 初始设置

获取检索图像库内的图像J,同时进行变量初始化;

b. 高频子带获取

对图像J进行二级DD-DTCWT变换,得到4个L和64个H,其中H由矩阵大小相同的32个a和32个b组成,用表示;

c. 系数幅值Cauchy建模

c.1 根据下式对每个H的a和b进行r计算,得到12个幅值子带系数;

c.2 对每幅图像H的32个幅值子带系数采用Cauchy分布的PDF进行统计建模,其PDF,即P可定义如下:

其中:;

c.3 根据下式计算Cauchy分布的和两参数,设给定Cauchy分布的随机样本,并假定样本是独立分布的,为Cauchy分布的中值,通过牛顿迭代法估计得出基于位置参数的最大似然函数:

c.4 将得到的Cauchy分布的位置参数和尺度参数作为每一幅图像J的特征向量,存入图像幅值纹理库W以待检索使用;

d. 系数相对相位Vonn建模

d.1 根据下式对每个H的a和b进行计算,得到32个相对相位子带系数:

d.2 对每幅图像H的32个相对相位子带系数采用Vonn分布PDF进行统计建模,其PDF,即P可定义如下:

d.3 应用最大似然法,根据下式估算Vonn分布的和:

d.4 将得到的Vonn分布的位置参数和尺度参数作为每一幅图像J的特征向量,存入图像相对相位纹理库V以待检索使用;

e. 待检索图像处理操作

e.1 输入待检索图像I,对I进行二级DD-DTCWT分解,得到4个L和64个H,其中H由矩阵大小相同的32个a和32个b组成;

e.2 重复步骤c,对待检索的图像I高频子带的32个幅值子带系数采用Cauchy分布进行建模,计算其和,得到图像I的特征向量;

e.3 重复步骤d,对待检索的图像I高频子带的32个相对相位子带系数采用Vonn分布进行建模,计算其和,得到图像I的特征向量;

f. 相似度计算

f.1 定义为待检索图像I与图像库图像J之间的欧式距离,表示I的特征向量在第i个分量处的特征值,表示J的特征向量在第i个分量处的特征值,则图像I与J的欧氏距离定义如下:

f.2 将采取倒数运算,以此作为I与J之间的相似度;

f.3 将得到的相似度按从小到大顺序排列,输出较优的检索结果;

g. 重复步骤e~f,直到图像I和J全部匹配结束。

实验测试和参数设置:

本实验是在Matlab R2011a环境下执行的,实验所涉及到的图像分别来自ViSTeX、Brodatz、ALOT和STex纹理图像库,均以公开,可以在网上搜索下载。库内图像尺寸不同,本发明的设计可对多种不同尺寸图像进行处理,从而得到同样好的检索率。

图1为本发明实施例幅值PDF拟合结果图。

图2为本发明实施例相对相位PDF拟合结果图。

图3为本发明实施例纹理图像库检索结果图。

图4为本发明实施例与对比文献检索方法的纹理图像库查准率比较分析图。

对比文献:N. E. Lasmar, Y. Berthoumieu. Gaussian Copula Multivariate Modeling for Texture Image Retrieval Using Wavelet Transforms. IEEE Trans. on Image Processing, 2014, 23(5): 2246-2261.

实验结果表明,本发明的方法由于以参数、、 和作为每幅图像的特征,有效降低了特征的维度,缩减了相似度计算所分配的时间,提高了平均检索率。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1