一种基于改进U-Net的图像异常特征分割方法

文档序号:37264566发布日期:2024-03-12 20:47阅读:18来源:国知局
一种基于改进U-Net的图像异常特征分割方法

本发明涉及深度学习领域,具体涉及一种基于改进u-net的图像异常特征分割方法,尤其涉及医学图像病灶分割方法。


背景技术:

1、医学图像是一种诊断、治疗、评价和预防各种严重疾病的有效医疗方式。目前经验丰富的医生可以通过医学图像与其他辅助信息来判断影像中病变区域,但目前高水平的医生非常稀缺,同时人工阅片需要耗费医生大量时间和精力,大量的重复性阅片也造成医疗资源的浪费,而且医学图像本身比较模糊,人工阅片也会带有医生主观意识,造成误识别等一系列问题。

2、随着计算机技术的发展,一些研究者尝试使用一些图像处理技术和机器学习等方法来解决这些问题。然而,基于传统的图像处理如阈值分割的方法难以处理复杂情况下的图像并且分割精度较低,尽管机器学习方法在图像分割任务中取得了显著的进展,但仍然存在如占用资源大、泛化能力弱、分割结果缺乏一致性和连续性等缺点。

3、深度学习在医学图像病灶分割中具有准确性高、自动化程度高、学习能力强、上下文理解能力强、多模态处理能力强以及可迁移性好等优点。这些优点使深度学习成为医学图像分割领域的重要技术,并在医学诊断和治疗中发挥着重要作用。医学图像分割能够将图像病灶区域自动划分出来,辅助医生诊断与制定治疗计划。一种基于用轻量级卷积神经网络的核医学骨转移分割方法,使用改进的特征提取卷积模块与resnet、inception等结构进行对比,证明算法的有效性。一种基于mask r-cnn的spect骨显像的关节炎病灶自动分割方法,使用聚类技术的传统分割模型,验证了其分割模型在关节炎病灶分割准确率、召回率和平均交并比的有效性。基于深度学习的胸部spect图像转移热点自动分割方法,通过微调u-net和mask r-cnn的结构来构建分割模型,取得了有益效果。


技术实现思路

1、1.发明目的:

2、本发明的目的在于,提出一种基于改进u-net的图像异常特征分割方法,能够将医学图像的病变区域自动分割出来,辅助医生对病人进行更精确的病情诊断,同时大大提升医生的诊断效率。

3、2.技术方案:

4、一种基于改进u-net的图像异常特征分割方法,其特征在于包括以下步骤:

5、步骤1:获取图像进行预处理,并划分训练集和测试集;

6、步骤2:构建改进的u-net模型,模型由多尺度特征融合的编码器和解码器构成:

7、步骤2.1:构建编码器部分,所述编码器包括以下结构构成:

8、首先构建多尺度特征加强模块,然后构建主编码器特征提取模块,最后构建主编码器特征增强模块;

9、其中,多尺度特征加强模块由两个分支构成,2个分支分别使用3×3、5×5大小的卷积核进行特征提取,将2个分支卷积后的结果进行相加融合;

10、其中,主编码器特征提取模块由ud1、ud2组成,在前两个ud1模块之后再使用两个ud2模块,udx由残差卷积模块ux、改进的空间注意力模块、下采样模块三部分串联组成(x=1,2);

11、其中残差卷积模块u1计算流程如下:

12、

13、

14、x11=concat(x1,x2)

15、

16、x22=concat(x3,xin)

17、

18、xout=x4+xin

19、残差卷积模块u2计算流程如下:

20、

21、

22、

23、x11=concat(x2,x3)

24、

25、x22=concat(x1,x4)

26、

27、x33=concat(x5,xin)

28、

29、xout=x6+xin

30、式中:conv1×1(xin)、conv3×3(xin)、conv5×5(xin)、conv7×7(xin)别代表1×1卷积、3×3、5×5和7×7卷积运算,xin为输入特征提取模块图像,x1、x2、x3、x4、x5、x6为经过卷积计算后的结果,x11、x22、x33为特征通道拼接后的结果,xout为残差卷积模块的输出特征图;concat表示特征拼接,relu表示激活函数,bn表示批量归一化;

31、其中改进的空间注意力模块计算流程如下:

32、

33、x2=x1-avg3x3(x1)

34、x3=x1-avg5x5(x1)

35、x4=concat(x1,x2,x3)

36、

37、x6=avg2x2(x5)

38、x7=maxpool2x2(x5)

39、x8=concat(x6,x7)

40、

41、xout=xin*x9

42、式中:conv1×1(xi)代表1×1卷积运算,conv3×3(xin)代表3×3卷积运算,xin为输入特征提取模块图像,x2、x3分别为局部平均值归一化的结果,x4为局部平均值归一化拼接后的结果,x5为通道压缩后的结果,x6为平均池化后的结果,x7为最大池化后的结果,x8为平均池化和最大池化拼接后的结果,x9为计算得到的注意力系数,xout为计算得到的注意力权重;concat表示特征拼接,maxpool2x2表示2×2最大池化avg3x3、avg5x5表示3×3、5×5平均池化,relu表示激活函数,sigmoid表示激活函数;

43、其中特征增强模块计算流程如下:

44、x1=xi+1*sigmoid(xi+1)

45、x2=xi+2*sigmoid(xi+2)

46、x3=xi+3*sigmoid(xi+3)

47、x4=x1+x2+x3

48、xout=xi+(1-sigmoid(xi))*x4

49、式中:xi为当前层级输入特征图像,xi+1、xi+2、xi+3为其他层级输入特征,x1、x2、x3为其他层级特征加强后的结果,x4表示其他层级的特征加权的结果;xout表示不同层级特征融合的结果;sigmoid表示激活函数;

50、步骤2.2:构建解码器部分,所述解码器由以下结构构成:

51、首先构建上采样模块,然后构建特征恢复模块,解码过程与编码过程对称,由编码器底层特征依次向上采样进行特征融合恢复,上采样使用双线性插值方法,融合采用concat拼接,恢复采用残差卷积模块ux模块,其中前两层x=2,后两层取x=1,最后使用1×1卷积得到输出;

52、步骤2.3:构建一种混合损失函数来计算训练损失,使用adam优化器优化网络训练过程,设置模型量化评估方式;

53、混合损失函数采用了交叉熵损失与focal loss损失结合的方式,其表达式如下:

54、lh=0.8lce+0.2lfl

55、式中:lh代表总损失,lce代表交叉熵损失;lfl代表focal loss损失;

56、交叉熵损失公式为:

57、lce=-(ylog(p)+(1-y)log(1-p)),

58、式中:lce为交叉熵损失函数的值,p为模型预测为正类的概率;y为人工标注的真实标签,图像背景时取0,图像前景时取1;

59、lfl焦点损失公式为:

60、fl(pk)=-α(1-pk)γlg(pk),

61、式中,α为一常数,当γ增加的时候,α需要减小一点,(1-pk)γ为调制系数,pk表示预测样本属于第k类别的概率;

62、使用平均交并比作为模型量化评估方式,平均交并比计算公式为:

63、

64、式中:tp为真阳性,表示预测为正样本的正样本;fp为假阳性,表示预测为负样本的正样本;fn为真阴性,表示预测为负样本的正样本;tn为假阴性,表示预测为负样本的负样本,tp、fp、fn、tn均为正整数;

65、步骤3:将步骤1预处理后的测试集数据,送入步骤2搭建的网络模型中进行训练,并通过平均交并比对模型的分割效果进行评估,保存最佳网络模型,记为best model;

66、步骤4:将测试集中的图像输入best model,得到分割图像。

67、创新点:

68、与原始的u-net模型相比较,本发明将原来的基本卷积模块替换为高效的残差模块,提升了多尺度图像异常特征的捕捉能力以及训练效率。设计了改进的空间注意力机制,先对原始特征图进行局部平均值归一化,从而减去背景信息并突出目标或感兴趣区域,更好地捕捉图像再空间位置上的特征。设计了多级特征加强模块,将低层特征和高层特征进行有效的融合,实现不同层级的信息互补。

69、有益效果:

70、与目前主流的图像分割方法相比,本发明加强了对不同器官或者病灶区域的提取能力,同时有效的融合了低层特征的空间细节特征和高层特征丰富的语义信息,本发明方法的分割效果优于目前主流的分割算法,具有一定实际应用价值;

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1