一种彩色眼底图的视盘视杯自动分割方法与流程

文档序号:17470347发布日期:2019-04-20 05:46阅读:1099来源:国知局
一种彩色眼底图的视盘视杯自动分割方法与流程

本发明具体涉及一种彩色眼底图的视盘视杯自动分割方法。



背景技术:

随着经济技术的发展,人们对于身体健康的要求越来越突出。

青光眼是全球第二大致盲性眼科疾病。它会让患者产生从外往内的不可逆性失明,当病人察觉时已是晚期。目前青光眼还没有有效的治疗手段,只能通过早期发现和干预来延缓失明的进程。因此,青光眼对社会和人们的生活有着难以估量的危害。

临床实践中,医生判别病人是否患有青光眼的方法有眼内压检测、视野检测、眼底图像分析诊断等方法。在彩色眼底图像分析诊断中,临床实践证明,通过计算视盘视杯的相关参数所获得的结果是最准确的。但是,受医生主观因素如经验和视觉差异的影响,不同的医生有不同的诊断结果;另一方面,因为青光眼的特殊性,它需要广泛的筛查和长期的跟踪,这使医生的工作量远超负荷。

因此为了统一诊断模型,减轻医生负担,实现大规模筛查,基于计算机辅助的视盘视杯分割应运而生。视盘是彩色眼底图中的橘色明亮类椭圆区域,血管从中向外辐射;视杯是视盘中的一部分呈现黄色明亮类椭圆区域。有学者基于此,通过颜色特征、纹理特征、空间变换的方法进行视盘视杯的自动分割。

但是这些算法大都只是关注局部特征进行的分析,对样本数据要求很高,准确性很差。其次这些算法集中在单一数据集上,对环境的要求很高,鲁棒性很差。



技术实现要素:

本发明的目的在于提供一种分割准确性高、可靠性好且相对简单可行的一种彩色眼底图的视盘视杯自动分割方法。

本发明提供的这种彩色眼底图的视盘视杯自动分割方法,包括如下步骤:

s1.获取已知的彩色眼底图像和对应的眼底图数据集,并将彩色眼底图像中青光眼的眼底图像所对应的眼底图数据集分为测试数据集和训练数据集;

s2.构造视盘初步分割深度学习网络,利用步骤s1得到的训练数据集对视盘初步分割深度学习网络进行训练,并利用步骤s1得到的测试数据集对训练后的视盘初步分割深度学习网络进行测试和修正,从而得到视盘分割模型;

s3.利用步骤s2得到的视盘分割模型对步骤s1获取的测试数据集和训练数据集进行分割,并将分割得到的图谱进行截取,从而得到以视盘的质心为中心,边长为视盘直径n倍的截图;n为正数;

s4.构建视盘视杯初步分割网络,利用步骤s3得到的截图对视盘视杯初步分割网络进行训练和修正,从而得到欧几里得坐标下的视盘视杯分割模型;

s5.对步骤s3得到的截图进行极坐标变换,得到极坐标截图;

s6.构建极坐标视盘视杯初步分割网络,利用步骤s5得到的极坐标截图对极坐标视盘视杯初步分割网络进行训练和修正,从而得到极坐标下的视盘视杯分割模型;

s7.对于待分析的彩色眼底图像截图和对应的眼底图数据,利用步骤s4得到的欧几里得坐标下的视盘视杯分割模型进行分割,得到欧几里得坐标视盘视杯分割结果;

s8.对于待分析的彩色眼底图像截图和对应的眼底图数据进行极坐标变换,并利用步骤s6得到的极坐标下的视盘视杯分割模型进行分割,得到极坐标下的视盘视杯分割结果;

s9.对步骤s8得到的极坐标下的视盘视杯分割结果进行极坐标反变换,从而得到极坐标视盘视杯分割结果;

s10.将步骤s7得到的欧几里得坐标视盘视杯分割结果和步骤s9得到的极坐标视盘视杯分割结果进行融合,从而得到最终的眼底图的视盘视杯分割结果。

所述的彩色眼底图的视盘视杯自动分割方法,还包括如下步骤:

采用双立方插值算法对原始图像进行处理,从而使得原始图像的分辨率统一。

所述的采用双立方插值算法对原始图像进行处理,具体为采用如下算式进行处理:

式中为处理后的像素点的坐标,f(i,j)为原始的像素点的坐标,m和n为平移量,r(x)为插值表达式。

步骤s2所述的视盘初步分割深度学习网络分为编码器和解码器,且视盘初步分割深度学习网络的输入为彩色眼底图像和对应的眼底图数据,视盘初步分割深度学习网络的输出为二值分割图谱。

步骤s3所述的质心,具体为采用如下算式计算质心的坐标(xc,yc):

式中f(x,y)为分割得到的0-1二值图谱。

步骤s3所述的视盘直径,具体为采用如下算式计算视盘直径r:

式中f(x,y)为分割得到的0-1二值图谱。

步骤s5所述的极坐标变换,具体为采用如下算式进行极坐标变换:

g(r,θ)=f(r·cosθ+x0,r·sinθ+y0)

式中g(r,θ)为变换后的极坐标,f(i,j)为原始图像坐标,(x0,y0)为图像中心的坐标。

步骤s9所述的极坐标反变换,具体为采用如下算式进行极坐标反变换:

式中f(x,y)为极坐标反变换后的坐标,g(r,θ)为极坐标,(x0,y0)为图像中心的坐标。

步骤s10所述的融合,具体为采用加权求和算法进行融合。

本发明提供的这种彩色眼底图的视盘视杯自动分割方法,将彩色眼底图进行关注区域的提取,通过深度学习分割网络对待分析的彩色眼底图像和对应的眼底图数据进行欧几里得坐标视盘视杯分割和极坐标下的视盘视杯分割,并将两类分割结果进行融合从而得到最终的彩色眼底图的视盘视杯分割结果,因此本发明方法能够更加准确地进行彩色眼底图的视盘视杯自动分割,而且方法简单可靠,适用性好。

附图说明

图1为本发明方法的方法流程图。

图2为本发明方法的深度学习模型结构示意图。

图3为原始彩色眼底示意图。

图4为初步分割结果示意图。

图5为截图示意图。

图6为欧几里得坐标视盘视杯分割结果示意图。

图7为极坐标转换和处理流程示意图。

图8为最终的彩色眼底图的视盘视杯分割结果示意图。

具体实施方式

如图1所示为本发明方法的方法流程图:本发明提供的这种彩色眼底图的视盘视杯自动分割方法,包括如下步骤:

s1.获取已知的彩色眼底图像和对应的眼底图数据集,并将彩色眼底图像中青光眼的眼底图像所对应的眼底图数据集分为测试数据集和训练数据集;

为了使得原始图像的分辨率统一,采用双立方插值算法对原始图像进行处理,具体为采用如下算式进行处理:

式中为处理后的像素点的坐标,f(i,j)为原始的像素点的坐标,m和n为平移量,r(x)为插值表达式;

s2.构造视盘初步分割深度学习网络,利用步骤s1得到的训练数据集对视盘初步分割深度学习网络进行训练,并利用步骤s1得到的测试数据集对训练后的视盘初步分割深度学习网络进行测试和修正,从而得到视盘分割模型;

视盘初步分割深度学习网络分为编码器和解码器,且视盘初步分割深度学习网络的输入为彩色眼底图像和对应的眼底图数据,视盘初步分割深度学习网络的输出为二值分割图谱;

s3.利用步骤s3得到的视盘分割模型对步骤s1获取的测试数据集和训练数据集进行分割,并将分割得到的图谱进行截取,从而得到以视盘的质心为中心,边长为视盘直径n倍的截图;n为正数;

采用如下算式计算质心的坐标(xc,yc):

式中f(x,y)为分割得到的0-1二值图谱;

采用如下算式计算视盘直径r:

式中f(x,y)为分割得到的0-1二值图谱;

s4.构建视盘视杯初步分割网络,利用步骤s3得到的截图对视盘视杯初步分割网络进行训练和修正,从而得到欧几里得坐标下的视盘视杯分割模型;

s5.对步骤s3得到的截图进行极坐标变换,得到极坐标截图;

采用如下算式进行极坐标变换:

g(r,θ)=f(r·cosθ+x0,r·sinθ+y0)

式中g(r,θ)为变换后的极坐标,f(i,j)为原始图像坐标,(x0,y0)为图像中心的坐标;

s6.构建极坐标视盘视杯初步分割网络,利用步骤s5得到的极坐标截图对极坐标视盘视杯初步分割网络进行训练和修正,从而得到极坐标下的视盘视杯分割模型;

s7.对于待分析的彩色眼底图像截图和对应的眼底图数据,利用步骤s4得到的欧几里得坐标下的视盘视杯分割模型进行分割,得到欧几里得坐标视盘视杯分割结果;

s8.对于待分析的彩色眼底图像截图和对应的眼底图数据进行极坐标变换,并利用步骤s6得到的极坐标下的视盘视杯分割模型进行分割,得到极坐标下的视盘视杯分割结果;

s9.对步骤s8得到的极坐标下的视盘视杯分割结果进行极坐标反变换,从而得到极坐标视盘视杯分割结果;

采用如下算式进行极坐标反变换:

式中f(x,y)为极坐标反变换后的坐标,g(r,θ)为极坐标,(x0,y0)为图像中心的坐标;

s10.将步骤s7得到的欧几里得坐标视盘视杯分割结果和步骤s9得到的极坐标视盘视杯分割结果进行融合,从而得到最终的眼底图的视盘视杯分割结果;

在具体实施时,融合可以采用加权求和算法进行融合,比如如下式所示:

result(x,y)=ω0f0(x,y)+ω1f1(x,y)

式中result(x,y)为融合后的坐标,f0(x,y)为欧几里得坐标视盘视杯分割结果的坐标,f1(x,y)为极坐标视盘视杯分割结果的坐标,ω0和ω1为加权权重且ω0+ω1=1。

以下结合实施例对本发明方法进行进一步说明:

实验设置了800个样本,每个样本都是1634×1634分辨率的rgb彩色眼底图像,每个样本都有同样分辨率的视盘和视杯的二值分割标签(如图3所示)。

构建网络结构,如图2所示,网络分为解码器和编码器部分;对网络输入1634×1634分辨率的rgb图像,输出一张1634×1634分辨率的黑白图像;利用训练样本进行训练,对网络参数权重进行调整,得到训练网络后的欧几里得坐标系下视杯视盘的分割网络模型。使用模型对样本进行处理。

图2中的空洞卷积网络是三层空洞卷积网络,包括对空洞卷积网络输出结果的多种卷积操作,分别是1×1卷积,rate为6、12,、18的3×3卷积和最大池化操作。作为一种优选方案,网络将使用imagenet预训练的参数。

模型对图3的测试结果如图4所示。

对初步分割的图像进行求质心和求连通域直径的操作,并以质心为中心,以连通域直径的两倍对眼底图和标签进行截图,同时将尺寸归一化到224×224的分辨率。

同时,在分辨率的统一化时,使用的是双立方插值算法,而且插值表达式的一种优选算式为:

对图3进行实验的结果如图5所示。

构建网络与初始参数与网络架构相同。输入调整为对224×224分辨率的rgb图像,输出两个224×224分辨率的黑白图像,分别代表视盘和视杯的分割结果。利用训练样本进行训练,对网络参数权重进行调整,得到训练网络后的初步分割网络模型。使用模型对样本进行处理。

对图3的测试结果如图6所示。

对得到的样本和标签进行极坐标转换,并进行相同的尺寸归一化操作。可以使得视盘和视杯在图像中的比例变得更大,同时椭圆边缘会形变成类似直线的边缘,使得分割精度更准确。

构建网络与初始参数与网络架构与之前的网络参数、架构相同。利用训练样本进行训练,对网络参数权重进行调整,得到训练网络后的极坐标系下视杯视盘的分割网络模型。使用模型对样本进行处理。

对图3的测试结果如图7所示。

为了将两种模型有效的结合起来,对两次处理得到的结果进行加权求和的处理,再使用二值化操作得到最终的视杯视盘的分割结果,如图8所示。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1