基于显著感知先验的模糊区域活动轮廓分割模型的制作方法

文档序号:16090799发布日期:2018-11-27 22:59阅读:343来源:国知局

本发明涉及的是一种图像处理技术领域图像分割的方法,具体是一种基于显著感知先验的模糊区域型活动轮廓(Fuzzy Region-based Active Contour with Saliency-aware Prior)分割模型。

技术背景

图像分割是图像处理和计算机视觉领域中最重要任务之一,其目的就是提取图像中的具有相同特性区域目标。基于主动轮廓(Active Contour)的图像分割模型,由于能将模型的初始估计状态和图像数据先验知识统一于特征提取过程中,并能利用分割过程中获得的先验知识来指导分割过程等优势,已成为近年来图像分割领域的研究热点。但是,经典的 Chan-Vese分割模型在曲线演化过程需要周期性地再初始化水平集函数,从而增加了计算量和数值计算误差。基于模糊能量的主动轮廓模型(Fuzzy Energy-based Active Contour),将模糊能量引入到主动轮廓中,并非采用传统的欧拉-拉格朗日方程,而是采用快速优化算法直接最小化模糊能量函数,能有限次迭代过程中达到收敛,并避免重新初始化过程。因此,基于模糊能量的活动轮廓模型成为近年来图像分割领域的研究热点之一。

经对现有技术文献的检索发现,基于局部二分拟合的区域水平集方法分割灰度不均匀图像(Li C.M.,Kao C.Y.,Gore J.C.,and Ding Z.“Minimization of region-scalable fitting energy for image segmentation”(最小化区域可变拟合能量的图像分割),IEEE Transition on Image Processing(2008)17:1940-1949)。显著性驱动的区域边缘自顶向下的水平集分割模型(Zhi X. H.,Shen H.B..“Saliency driven region-edge-based top down level set evolution reveals the asynchronous focus in image segmentation”(显着性驱动区域边缘的自顶向下水平集演化揭示了图像分割中的异步焦点,简称SDREL模型),Pattern Recognition(2018)80:241-255),通过融合显著特征图和颜色灰度建立能量泛函,然后构建规则项进行边缘提取,但分割复杂灰度不均匀图像仍存在噪声干扰问题。但是,这些图像分割模型非凸能量泛函的局部最优解,使得分割结果依赖于的初始化条件,更重要的是,无法准确地分割弱边缘图像。



技术实现要素:

本发明的目的是,通过提出一种基于显著感知先验的模糊区域型活动轮廓,主要解决现有分割模型难以准确分割灰度不均匀图像和弱边界图像问题。此外,本发明模型的凸优化能量泛函,使得分割结果与初始条件无关,并且只需有限次就能达到收敛。

本发明的技术方案:通过将图像局部区域信息和显著性先验信息融合于模糊主动轮廓模型,构建了区域型模糊项和显著感知先验模糊项的凸能量泛函,并非用欧拉-拉格朗日公式而是直接计算能量的变化值来更新水平集函数,不仅提高了分割灰度不均匀图像和弱边缘图像的分割效果,而且还使得分割结果与初始条件无关。具体步骤如下:

步骤1:水平集函数u定义:

其中I为图像域,x为像素点,C为图像域Ω内闭合曲线(伪零水平集函数)。

步骤2:能量泛函的构建。能量泛函由区域型模糊项和显著感知先验项构成,其中区域性模糊项Eimg定义如下:

Eimg(u)=λ∫Ω[u(x)]m(S(x)-c1)2dx+λ∫Ω[1-u(x)]m(S(x)-c2)2dx

其中,λ是大于0的权重系数,c1和c2是图像像素均值,u(x)是模糊成员函数,m是权重幂指数(可取值为1或2),S(x)为局部区域图。为简化计算,S(x)定义为尺度为r1方差σ1的图像高斯卷积特征图图像灰度值c1和c2定义如下:

显著感知先验项定义如下:

Esal(u)=α∫Ωg(h(x)-s1)2·[u(x)]mdx+α∫Ωg(h(x)-s2)2·[1-u(x)]mdx

其中,α是大于0的权重系数,s1和s2是显著特征图像素均值,h(x)为显著性检测函数,其定义为h(x)=||Gσ,r*I(x)-Iu||,Iu是图像的区域特征均值,是尺度为r2方差σ2的高斯核函数,g是边缘检测算子,其算子定义如下:

其中,g是奇数行为N的方阵,▽di为当前点到邻近点的距离,K是矩阵元素个数。显著特征图像素均值s1和s2定义为:

因此,分割模型的能量函数表达式如下:

E(u)=λ∫Ω[u(x)]m(S(x)-c1)2dx+λ∫Ω[1-u(x)]m(S(x)-c2)2dx

+α∫Ωg(h(x)-s1)2·[u(x)]mdx+α∫Ωg(h(x)-s2)2·[1-u(x)]mdx

步骤3:计算迭代过程中的模糊成员函数u(x)。为计算水平集函数u(x),固定参数c1、 c2、s1和s2,计算能量泛函的最小值,通过欧拉-拉格朗日公式得到:

λ∫Ω[u(x)]m(S(x)-c1)2dx+λ∫Ω[1-u(x)]m(S(x)-c2)2dx

+α∫Ωg(h(x)-s1)2·[u(x)]mdx+α∫Ωg(h(x)-s2)2·[1-u(x)]mdx=0

从上式可以得到变量u(x)如下:

步骤4:能量泛函求解过程。依据Krinidis和Chatzis在IEEE Transaction on Image Processing上提出的Fuzzy energy-based active contour以及Song和Chan在报告CAM-UCLA 上提出的A fast algorithm for level set based optimization中提出的计算方法,直接计算分割模型的能量泛函,并通过判断图像域中所有像素点的能量泛函是否变化来更新隶属度u(x)的值。为了计算能量泛函的差值ΔE,首先计算常量c1、c2、s1和s2的更新值。假设P是为图像中某一像素点,对应的灰度值为s0和隶属度为u0。相应地,对同一固定点P的新隶属度为un,图像灰度均值c1和c2变成两个新的值和计算过程如下:

其中t1=∑Ω[u(x)]m

因此,图像中像素点P的新灰度值为

同理,计算图像中像素点P的新像素值显著特征图中新像素值和分别如下:

其中t2=∑Ω[1-u(x)]m

为了计算能量泛函的变化,本发明分别计算区域型模糊项和显著感知先验项的变化值。首先,将区域型模糊项改写成:

上式中左边项可重写为:

等式和计算如下:

因此,可重写为

同理,计算得到:

因此,结合和计算区域型模糊项可得到:

其中t1=∑Ωu(y)m和t2=∑Ω[1-u(y)]m

将显著感知先验项改写成:

用上述计算的方法,可以得到和

因此,结合和计算显著感知先验项可得到:

因此,通过更新常量c1、c2、s1和s2计算能量的变化值,并更新隶属度函数u(x)。

与现有技术相比,本发明有如下的优点:第一,构建具有局部图像信息的凸性区域型模糊项,通过计算局部统计信息来分割灰度不均匀图像;第二,构建凸性显著感知先验模糊项,提高分割弱边界图像的分割效果;第三,通过直接计算分割模型的凸性能量泛函变化值,并依据其变化值来更新隶属度函数,不仅具有非常快的收敛速度,而且分割结果与初始化条件无关。

附图说明

图1表示本发明基于显著感知先验的模糊区域型活动轮廓分割模型总体流程图;

图2a为本发明实施例不同初始化轮廓位置;

图2b为本发明实施例轮廓最终停靠位置;

图3a比较了本发明实施例与其它方法的分割结果比较图之原始图像;

图3b比较了本发明实施例与其它方法的分割结果比较图之Chan-Vese模型分割结果;

图3c比较了本发明实施例与其它方法的分割结果比较图之SDREL模型分割结果;

图3d比较了本发明实施例与其它方法的分割结果比较图之本发明实施例分割结果;

图3e比较了本发明实施例与其它方法的分割结果比较图之ground truth。

具体实施方式

本发明基于显著感知先验的模糊区域型活动轮廓分割模型,具体实施步骤包括如下:

(1)输入分割图像,设置初始化参数:权重系数λ和α,最大迭代次数,边缘检测算子g;

(2)初始化水平集函数:目标区域u0(x)>0.5,背景区域u0(x)<0.5;

(3)根据公式h(x)=||Gσ,r*I(x)-Iu||计算区域显著性特征图,并计算图像的新灰度值和显著特征图的新像素值和

其中t1=∑Ω[u(x)]m和t2=∑Ω[1-u(y)]m

(4)计算隶属度函数un(x),并更新对应的新灰度值和显著特征图的新像素值和

(5)根据如下公式计算某一像素点P能量变化差值,

如果ΔE>0,用un值代替u0,否则保持u0原始值不变;

(6)用Jacobi迭代重复计算所有像素的能量变化值,一次迭代过程结束;

(7)重复步骤(4)-(6)直至循环结束。

图2本发明实施例在不同初始化位置下分割模型对应的自然图像分割结果如图1所示: (a)伪零水平集函数的四种不同初始化位置;(b)对应的四种伪零水平集最终停靠位置。

图3本发明实施例与其它方法的分割结果比较如图3所示。其中,图(a)为四张不同花的原始图像;图(b)-图(d)分别为Chan-Vese模型、SDREL模型和本发明实施例分割结果;图(e)为ground truth。

从实验结果可以看出,本发明实施例与初始轮廓曲线位置无关,并具有分割精度高、速度快和对图像噪声具有鲁棒性的特点。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1