一种基于双字典学习的非局部稀疏表示图像去噪方法

文档序号:9709059阅读:234来源:国知局
一种基于双字典学习的非局部稀疏表示图像去噪方法
【技术领域】
[0001]本发明属于遥感卫星图像处理技术领域,尤其是涉及一种非局部稀疏表示图像去噪方法。
【背景技术】
[0002]在图像获取与传输过程中,由于系统和环境等因素影响,所得图像带有大量噪声。实际应用中,图像去噪可得到高质量图像,以支撑后续处理等。理论层次上,图像去噪方法的研究还与图像建模理论研究有着密切的联系,可为相关图像处理方法一一如图像去模糊,图像超分辨率,图像分割以及图像特征提取等方法提供新思路。图像去噪是图像处理和计算机视觉中经久不衰的研究领域。
[0003]图像去噪常常被视为反问题,由于其自身的不适定性,为获得理想的去噪结果,图像先验知识建模(图像建模)研究成为了该领域的焦点。主流方法可分大致分为3类:(I)基于梯度的图像建模;(2)基于非局部相似性的图像建模;(3)基于变换的图像建模。目前研究表明基于变换的方法能取得相对较好的图像去噪结果。
[0004]作为基于变换的一类去噪方法,稀疏表示图像去噪引起了学者们的广泛关注。在稀疏表示理论中,字典的设计和字典自身性能是一个关键的问题。针对图像的局部几何结构,学者们提出了 Curvelet,Contourlet ,Wedgelet,Bandlet等多尺度几何分析变换方法,这些方法对某些特定类型的图像结构描述准确,但对复杂图像通常存在不足,此外这类方法需事先给定稀疏字典,即字典非自适应于图像内容。为此,设计自适应稀疏表述字典成为了热点。
[0005]Elad等人较早建立了基于超完备字典的稀疏表示模型。假设信号feRn,它可表示成字典中少量元素的线性组合,即f * Φα,其中,Φ eRnXL(L>n)是一个超完备字典,每一列表示一个信号原子,向量α为只有少部分元素不为零的稀疏编码,即该模型通过字典中少量元素的线性组合来描述信号。目前,基于稀疏表示研究主要在2个方向:I)基于原子间相关约束的稀疏表不;2)非局部稀疏表不。
[0006]传统的稀疏表示方法假定自适应字典各原子间相互独立,而最新研究表明原子间存在一定关联,反映了图像几何结构。Peleg等利用玻尔兹曼机(Bolzmann Machine,ΒΜ)模型,分析了图像片内对应原子间(非零稀疏系数对应的原子)的相关性,增强了图像的稀疏性表示。基于上述方法,Ren等研究了邻域图像块(相邻8个方向)原子间的相关性,构造了邻域相关结构信息的稀疏性先验模型,取得了较好得去噪结果。Ren方法可视为小窗口内的准非局部稀疏表示方法。
[0007]而非局部稀疏表示方法实质是利用图像非局部建模思想对图像稀疏性的一种约束。最近,Dong等利用了非局部思想,提出了稀疏编码噪声(误差)的概念,通过相似集中各图像片的稀疏系数,估计了当前图像片理想的稀疏表示,引入了稀疏编码误差约束项,提出了一种非局部集中稀疏表示模型。但是目前非局部稀疏表示模型往往聚类,偏重于对各相似集内稀疏性描述,聚类准确性不高。

【发明内容】

[0008]为解决上述问题,本发明改进了Dong非局部稀疏表示模型中所用到传统的Kmeans聚类方法,具体利用聚类中心字典学习方法分析与挖掘各相似类间的相关性,并将这一相关性引入传统的Kmeans聚类方法,以提高聚类的准确性,从而达到增强稀疏表示模型性能的目的。
[0009]为了实现上述目的,本发明首先提供一种聚类中心字典学习方法,流程图如图1所示,包括如下步骤:
[0010]步骤A,用传统方法稀疏表示聚类中心图像块;
[0011 ]步骤B,根据稀疏表示结果与字典,生成稀疏性模式(稀疏性模式标记了图像块对应的稀疏系数是否为O);
[0012]步骤C,根据各模块稀疏性模式与相似块快速查找表,构造相关性函数,继而构造相关性矩阵,其中相似性快速查找表记录了与当前图像块最相似的N个图像块;
[0013]步骤D,根据相关性矩阵构造基于相关分析的稀疏性先验模型;
[0014]步骤E,建立稀疏性模式先验分布模型;
[0015]步骤F,利用最大后验概率估计方法估计稀疏性模式,用以生成新的聚类中心图像片。
[0016]基于上述聚类中心字典学习方法,本发明提供了一种基于双字典学习的非局部系数表示图像去噪方法,包括如下步骤:
[0017]步骤A,对待去噪图像,利用kmeans聚类方法,产生各类;
[0018]步骤B,计算各类中心图片;
[0019]步骤C,利用上述的聚类中心字典学习方法,得到各聚类中心的稀疏表示,继而重建各聚类中心图像块;
[°02°] 步骤D,更新传统Kme an s结果中的聚类中心;
[0021 ]步骤E,循环,直至满足结束条件;
[0022]步骤F,构建各类对应的紧致PCA字典;
[0023]步骤G,构造类内图像片稀疏编码误差项;
[0024]步骤H,利用迭代收敛算法求解。
[0025]有益效果:
[0026]本发明利用聚类中心字典学习方法分析与挖掘各相似类间的相关性,并将这一相关性引入传统的Kmeans聚类方法,提高了聚类的准确性,从而提升了图像的去噪效果。
【附图说明】
[0027]图1为本发明流程图;
[0028]图2为聚类中心字典学习方法流程图。
【具体实施方式】
[0029]以下将结合具体实施例对本发明提供的技术方案进行详细说明,应理解下述【具体实施方式】仅用于说明本发明而不用于限制本发明的范围。
[0030]本发明通过下述步骤实现基于上述聚类中心字典学习方法的非局部系数表示图像去噪方法,流程图如图1所示,包括如下步骤:
[0031]步骤A,对待去噪图像,利用kmeans聚类,产生各类(相似集);
[0032]步骤B,计算各类中心图片;
[0033]步骤C,利用聚类中心字典学习,得到各聚类中心的稀疏表示,继而重建各聚类中心图像块,具体如图2所示,包括如下步骤:
[0034]用传统方法稀疏表示聚类中心图像块;
[0035]根据稀疏表示结果与字典,生成稀疏性模式(稀疏性模式标记了图像块对应的稀疏系数是否为O);
[0036]根据各模块稀疏性模式与相似块快速查找表,构造相关性函数,继而构造相关性矩阵,其中相似性快速查找表记录了与当前图像块最相似的N个图像块;
[0037]根据相关性矩阵构造基于相关分析的稀疏性先验模型;
[0038]建立稀疏性模式先验分布模型;
[0039]利用最大后验概率估计方法估计稀疏性模式,用以生成新的聚类中心图像片。[°04°] 步骤D,更新传统Kmeans结果中的聚类中心;
[0041 ]步骤E,循环,直至满足结束条件;
[0042]步骤F,构建各类对应的紧致PCA字典;
[0043]步骤G,利用Dong等提出的方法构造类内图像片稀疏编码误差项;
[0044]步骤H,利用迭代收敛算法求解。
[0045]采用上述方法处理后的图像去噪效果好,聚类准确性高。
[0046]本发明方案所公开的技术手段不仅限于上述实施方式所公开的技术手段,还包括由以上技术特征任意组合所组成的技术方案。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
【主权项】
1.一种基于双字典学习的非局部系数表示图像去噪方法,其特征在于,包括如下步骤: 步骤A,对待去噪图像,利用kmeans聚类方法,产生各类; 步骤B,计算各类中心图片; 步骤C,利用聚类中心字典学习方法,得到各聚类中心的稀疏表示,继而重建各聚类中心图像块,所述聚类中心字典学习方法包括以下步骤: 用传统方法稀疏表示聚类中心图像块; 根据稀疏表示结果与字典,生成稀疏性模式; 根据各模块稀疏性模式与相似块快速查找表,构造相关性函数,继而构造相关性矩阵,其中相似性快速查找表记录了与当前图像块最相似的N个图像块; 根据相关性矩阵构造基于相关分析的稀疏性先验模型; 建立稀疏性模式先验分布模型; 利用最大后验概率估计方法估计稀疏性模式,生成新的聚类中心图像片; 步骤D,更新传统Kmeans结果中的聚类中心; 步骤E,循环,直至满足结束条件; 步骤F,构建各类对应的紧致PCA字典; 步骤G,构造类内图像片稀疏编码误差项; 步骤H,利用迭代收敛算法求解。2.—种聚类中心字典学习方法,其特征在于,包括如下步骤: 步骤A,用传统方法稀疏表示聚类中心图像块; 步骤B,根据稀疏表示结果与字典,生成稀疏性模式; 步骤C,根据各模块稀疏性模式与相似块快速查找表,构造相关性函数,继而构造相关性矩阵,其中相似性快速查找表记录了与当前图像块最相似的N个图像块; 步骤D,根据相关性矩阵构造基于相关分析的稀疏性先验模型; 步骤E,建立稀疏性模式先验分布模型; 步骤F,利用最大后验概率估计方法估计稀疏性模式,生成新的聚类中心图像片。
【专利摘要】本发明一种基于双字典学习的非局部稀疏表示图像去噪方法改进了Dong非局部稀疏表示模型中所用到传统的Kmeans聚类方法,具体利用聚类中心字典学习方法分析与挖掘各相似类间的相关性,并将这一相关性引入传统的Kmeans聚类方法,以提高聚类的准确性,从而达到增强稀疏表示模型性能的目的。本发明包括:对待去噪图像,利用kmeans聚类方法,产生各类;计算各类中心图片;利用权利要求1所述的聚类中心字典学习方法,得到各聚类中心的稀疏表示,继而重建各聚类中心图像块;更新传统Kmeans结果中的聚类中心;循环,直至满足结束条件;构建各类对应的紧致PCA字典;构造类内图像片稀疏编码误差项;利用迭代收敛算法求解。
【IPC分类】G06T5/00
【公开号】CN105469371
【申请号】CN201511023720
【发明人】王顺凤, 张建伟, 郑钰辉, 朱节中, 陈允杰
【申请人】南京信息工程大学
【公开日】2016年4月6日
【申请日】2015年12月30日
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1