基于神经网络的磁共振脑组织分割方法、装置、计算设备及存储介质与流程

文档序号:23307283发布日期:2020-12-15 11:37阅读:191来源:国知局
基于神经网络的磁共振脑组织分割方法、装置、计算设备及存储介质与流程

本申请涉及磁共振脑影像处理技术领域,特别涉及一种神经网络、基于神经网络的磁共振脑组织分割方法、装置、计算设备及存储介质。



背景技术:

现代先进的多模态神经成像技术为理解人脑的典型/非典型发育提供了全新的思路。随着毫米级婴儿脑影像数据的可用性与样本数快速增长,研究人员可以从多个角度(脑区,脑连接和脑网络拓扑属性)绘制早期人脑发育的各种规律,为诸如自闭症等早期脑疾病寻找潜在神经影像生物标记物提供了巨大可能性。在这些研究中,对婴儿脑mri数据进行精确的脑组织分割,是必不可少的关键步骤,直接决定了后续分析的特异性与敏感性。在本申请中,脑组织分割定义为对脑mri影像中的每个体素精确的分类为脑脊液(csf)、灰质(gm)和白质(wm)。婴儿脑mri的精确分割能够实现对复杂脑结构的定量描述,也有利于提升不同个体脑影像的配准精度,是当代人脑发育研究中的关键技术。

婴儿期(尤其是6个月大的时候)的脑mri影像,由于其脑灰质与白质组织的图像对比度低、图像表征异质性较高和部分体积效应严重,使对其进行脑组织分割成为了领域内的公认难题。最近深度神经网络技术的迅速发展,为解决该问题提供了全新方向。研究人员通过设计及训练各类深度神经网络来构建分割6个月大婴幼儿脑mri的分割模型,已取得了一定成果,尤其是一系列基于cnn(convolutionalneuralnetwork,卷积神经网络)框架构建的婴儿脑组织分割网络模型,表现出了较好性能。

然而,目前领域内基于神经网络的婴儿脑分割模型,已接近瓶颈期,在著名的iseg婴儿脑组织分割比赛中,各种复杂的神经网络连接布局与功能模块设计并没有展示出较大差异。同时,专注于网络连接模式的设计方法可能会带来额外的参数和计算量,与不匹配的性能提升。



技术实现要素:

有鉴于此,本申请的主要目的在于提供一种神经网络、基于神经网络的磁共振脑组织分割方法、装置、计算设备及存储介质,以能提高脑mri的脑组织分割性能。

本申请提供的一种神经网络,为卷积神经网络,包括至少一三维(3d)非对称卷积模块,所述3d非对称卷积模块包括:一3d标准卷积层、对应该3d标准卷积层的三个3d非对称卷积层,构成的四个卷积层用于对输入该3d非对称卷积模块的数据分别进行卷积运算,并将卷积运算结果进行和运算后输出。

基于该3d非对称卷积模块的这四个卷积层,使得该卷积层可以捕获更加复杂的特征模式同时丰富模型的特征空间;可以在不带入额外推理参数和计算的情况下提高对影像的分类准确率,即分割性能,尤其本发明可以提高脑mri的分割性能,尤其提高了在6个月大婴幼儿的脑mri的分割性能。

本申请提供的一种神经网络,至少包括依次耦合的编码器、瓶颈层和解码器,其中,至少一3d非对称卷积模块位于所述编码器、瓶颈层和解码器的至少之一中;所述3d非对称卷积模块包括:一3d标准卷积层、对应该3d标准卷积层的三个3d非对称卷积层,构成的四个卷积层用于对输入该3d非对称卷积模块的数据分别进行卷积运算,并将卷积运算结果进行和运算后输出。

基于该3d非对称卷积模块的这四个卷积层,使得该卷积层可以捕获更加复杂的特征模式同时丰富模型的特征空间;可以在不带入额外参数和计算的情况下提高对影像的分类,即分割性能,尤其本发明可以提高脑mri的分割性能,尤其提高了在6个月大婴幼儿的脑mri的分割性能。

可选的,所述编码器包括依次耦合的:特征编码模块,至少一密集连接模块;

所述瓶颈层包括:一密集连接模块;

所述解码器包括依次耦合的:至少一密集连接模块,分类输出模块;

所述编码器和瓶颈层所包含的相邻的所述密集连接模块之间具有向下采样模块;

所述瓶颈层和解码器所包含的相邻的所述密集连接模块之间具有向上采样模块;

至少一3d非对称卷积模块位于所述特征编码模块、密集连接模块、向下采样模块、向上采样模块的至少之一中。

可选的,所述特征编码模块包括依次耦合的所述3d非对称卷积模块、bn层、relu层;

所述分类输出模块包括依次耦合的1×1×1卷积层、softmax层;

所述密集连接模块包括依次耦合的至少一密集连接层;所述密集连接层包括依次耦合的1×1×1卷积层、bn层、relu层、所述3d非对称卷积模块、bn层、relu层、dropout层;

所述向下采样模块包括依次耦合的所述3d非对称卷积模块、bn层、relu层、所述3d非对称卷积模块、bn层、relu层;

所述向上采样包括依次耦合的所述3d转置卷积层、bn层、relu层。

较佳的,编码器和解码器的对应的阶段,采用跳跃连接方式耦合。

由上,可以使得最后恢复出来的特征图融合了更多的低层(low-level)的特征(feature),也使得不同阶段的特征得到了的融合,从而可以进行多尺度预测和深度监督学习(deepsupervisionlearning)。

本申请还提供了一种基于上述任一所述神经网络的磁共振脑组织分割方法,包括:

接收预处理后的mri数据;

将所预处理后的mri数据,输入经过训练的所述神经网络,由该神经网络生成识别了脑脊液(csf)、灰质(gm)和白质(wm)区域的mri数据。

较佳的,使用依次耦合的所述神经网络的3d非对称卷积模块和bn层进行运算处理时,采用下述融合算法进行:

其中,*表示3d卷积操作,c表示特征图的输入通道数,i:,:,:,k表示输入特征图i的第k个通道,表示融合卷积层的第j个4d滤波器对应的卷积核的第k个通道,表示为融合卷积层的偏置项。

由上,将所述3d非对称卷积模块中四个卷积层的参数进行等价融合以减少模型的参数数量,但同时使此时的分割模型具有和训练阶段的分割模型相同的输出。通过本申请提供的技术方案,可以在不带入额外推理参数和计算的情况下提高对mri影像的分割性能,尤其可以提高脑mri的分割性能,尤其提高了在6个月大婴幼儿的脑mri的分割性能。

本申请还提供了一种磁共振脑组织分割装置,包括:

mri数据接收模块,用于接收预处理后的mri数据;

调用模块,用于将所预处理后的mri数据,输入经过训练的所述神经网络,由该神经网络生成识别了脑脊液、灰质和白质区域的mri数据。

本申请还提供了一种计算设备,包括:

总线;

通信接口,其与所述总线连接;

至少一个处理器,其与所述总线连接;以及

至少一个存储器,其与所述总线连接并存储有程序指令,所述程序指令当被所述至少一个处理器执行时使得所述至少一个处理器执行权利要求6至7任一所述的方法。

本申请还提供了一种计算机可读存储介质,其上存储有程序指令,所述程序指令当被计算机执行时使得所述计算机执行权利要求6至7任一所述的方法。

综上,本申请提出了一种针对脑mri影像的脑组织分割神经网络算法,可用于6个月婴儿mri影像的脑组织分割,该算法在dense-u-net架构中嵌入了新颖的三维非对称卷积模块(3d-acb),在不引入额外的参数和计算量的条件下,显著提高了6个月婴儿mri影像的脑组织分割精度。

附图说明

图1是包含本发明3d非对称卷积模块的分割模型的工作流程图;

图2是本发明3d非对称卷积模块的示意图;

图3是本发明3d非对称卷积模块参数融合流程图;

图4a是本发明所采用的denseu-net的神经网络结构示意图;

图4b是图4a中包含的densenet结构示意图;

图4c是图4b中包含的denseblock结构示意图;

图4d是图4c的另一种表达方式的示意图;

图5是采用不同方式的mri影像的分割结果图;

图6是实现本发明所述分割方法的计算设备的结构示意图。

具体实施方式

在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。

在以下的描述中,所涉及的术语“第一\第二\第三等”或模块a、模块b、模块c等,仅用于区别类似的对象,不代表针对对象的特定排序,可以理解地,在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。

在以下的描述中,所涉及的表示步骤的标号,如s100、s200……等,并不表示一定会按此步骤执行,在允许的情况下可以互换前后步骤的顺序,或同时执行。

除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。

对本申请具体实施方式进行进一步详细说明之前,对本申请实施例中涉及的名词和术语,以及其在本申请中相应的用途\作用\功能等进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。

1、u-net,u形网络,包括向下采样部分和向上采样部分,由于向下采样与向上采样网络结构整体类似u形状,故称为u形网络。

2、densenet(denseconvolutionalnetwork),密集卷积网络,网络构架可参见附图4b所示,densenet是用于针对图像生成特征图(featuremap)的一种神经网络,其由多个denseblock构成,denseblock之间具有transition层。

denseblock,密集连接模块,或称为密集结构模块,可参见附图4c或图4d所示,是包含很多密集连接层的模块,每个层的特征图大小相同,层与层之间采用密集连接方式。

transition模块用于连接两个相邻的denseblock。其中,transitiondown模块用于在向下采样阶段减少特征图大小,transitionup模块用于在向上采样阶段增加特征图大小。

3、denseu-net,由denseblock作为基本模块构建成的u-net,网络构架可参见附图4a所示,该图中在向下采样部分采用了transitiondown模块,在向上采样部分采用了transitionup模块。

4、卷积,用于对输入数据进行特征提取,其内部包含多个卷积核,组成卷积核的每个元素都对应一个权重系数和一个偏差量。

5、3d-acb(3dasymmetricconvolutionblock),三维(3d)非对称卷积模块,本申请所使用的图2所示出的3d非对称卷积模块,包括一3d标准卷积层和三个3d非对称卷积层,3d非对称卷积层是相对于3d标准卷积层而言。3d标准卷积层形式为d×d×d,对应其的三个3d非对称卷积层的形式为1×d×d,d×1×d和d×d×1,d表示3d卷积核的大小。

本发明3d非对称卷积模块包括一3d标准卷积层、对应该3d标准卷积层的三个3d非对称卷积层,由该四个卷积层用于对输入分别进行并行卷积操作,且其输出进行和运算实现融合。

6、relu函数,是深度学习中的一种非线性激活函数,输入值小于0时返回0,大于0时返回输入值。该激活函数可有效解决传统激活函数有效区过窄,反向传播中梯度消失和梯度爆炸等问题。

7、cnn,卷积神经网络,是一类包含卷积计算且具有深度结构的前馈神经网络。

8、bn(batchnormalization),批量归一化,或称为批量标准化,是一种为神经网络中的任何层提供零均值/单位方差输入的算法,通过bn,对于每个隐层神经元,把逐渐向非线性函数映射后向取值区间极限饱和区靠拢的输入分布强制拉回到均值为0方差为1的比较标准的正态分布,使得非线性变换函数的输入值落入对输入比较敏感的区域,以此避免梯度消失问题,从而改善人工神经网络的性能和稳定性。

9、dropout,用于在神经网络前向传播的过程中,以一定概率使某些神经元的激活值为0,防止模型过拟合。

10、featuremap,特征图,是深度学习神经网络中经特定模块(例如卷积层)处理后的中间结果。

11、分割模型,本申请中是用于mri影像分割的神经网络模型,是采用机器学习技术对标注样本进行训练后获得的数学模型,或称神经网络模型,训练过程中根据数据样本更新模型中的参数,在执行分割任务的时候加载该模型的参数并计算生成输入数据的分割结果。

12、模型的训练阶段、模型的推理阶段,分别指通过已有样本数据训练神经网络模型(或算法)的阶段,及执行训练好的神经网络模型(或算法)以处理数据的阶段。

训练阶段可以采用有监督学习、无监督学习、基于以损失函数最优化为目标例如采用梯度下降法等优化器的方法、引入一判别器采用对抗训练的方法等进行训练。

13、核磁共振成像(magneticresonanceimaging,mri),是利用核磁共振(nuclearmagneticresonance)原理,依据所释放的能量在物质内部不同结构环境中不同的衰减,通过外加梯度磁场检测所发射出的电磁波,即可得知构成这一物体原子核的位置和种类,据此绘制成物体内部的结构图像。

14、深度学习,是一种利用深层神经网络模型,进行机器学习的技术。

首先,本发明提供了一种卷积神经网络,包括至少一3d非对称卷积模块。本发明还提供了u-net型神经网络示例,包括依次耦合的编码器、瓶颈层和解码器,至少一3d非对称卷积模块位于所述编码器、瓶颈层和解码器的至少之一中。如图2所示,该3d非对称卷积模块包括:一3d标准卷积层、对应该3d标准卷积层的三个3d非对称卷积层,构成的四个卷积层用于对输入该3d非对称卷积模块的数据分别进行卷积运算,并将卷积运算结果进行和运算后输出。

如图1所示,为本申请实施例的mri影像分割模型的工作原理图,所使用的神经网络可以采用上述卷积神经网络或u-net型神经网络。如图1示出了训练阶段和推理阶段。在训练阶段,分割模型中所包括的卷积层为3d非对称卷积模块,如图2所示,该3d非对称卷积模块具有一3d标准卷积层、对应该3d标准卷积层的三个3d非对称卷积层,构成的四个卷积层用于对输入该3d非对称卷积模块的数据分别进行卷积运算,并将卷积运算结果进行和运算后输出。基于该3d非对称卷积模块的这四个卷积层,使得该层网络可以捕获更加复杂的特征模式同时丰富模型的特征空间;在模型推理阶段,如图3所示,将所述3d非对称卷积模块中四个卷积层的参数进行等价融合以减少模型的参数数量,但同时使此时的分割模型具有和训练阶段的分割模型相同的输出。通过本申请提供的技术方案,可以在不带入额外参数和计算的情况下提高对mri影像的分割性能,尤其相对于背景技术中的基于卷积神经网络的分割模型,本发明可以提高脑mri的分割性能,尤其提高了在6个月大婴幼儿的脑mri的分割性能。下面对本申请进行详细描述:

【3d非对称卷积模块中四个卷积层的参数等价融合】

在介绍本申请的mri影像分割模型之前,首先对模型推理阶段的3d非对称卷积模块中四个卷积层的参数等价融合进行介绍,具体如下:

为了方便描述参数融合过程,首先写出3d非对称卷积模块的数学形式。对于一个具有k个滤波器(每个滤波器卷积核的大小为h×w×d)并将具有c个通道的特征图作为输入的卷积层,用f(t)表示该卷积层中第j个滤波器的4d卷积核,表示为具有c个通道的且空间分辨率大小为u×v×w的输入特征图,同时表示为具有k个通道的且空间分辨率为r×t×q的输出特征图。在该卷积层中,第j个滤波器的输出为:

其中*表示3d卷积操作,i:,:,:,k是输入特征图i的第k个通道,是该卷积层中第j个滤波器的4d卷积核的第k个通道。在现代cnn架构中通常会在每个卷积层后面加上批归一化(batchnormalization

,bn)层以防止模型过拟合以及加速模型的训练过程。bn层对前一层的每一批特征图进行归一化以增强模型的表征能力。基于方程(1),进一步把3d非对称卷积模块的数学形式写为:

其中μj和σj分别是的均值和标准差,γj和βj是两个可学习参数,初始化数值分别为1和0。

参数融合的第一步为bn的参数融合。由方程(2),bn的参数可以融合到卷积层的卷积核项与偏置项中:

其中,分别为经过bn参数融合后的卷积层的卷积核项与偏置项。

参数融合的第二步为分支融合,即将3d非对称卷积模块中的四个并行的卷积层参数融合到一个卷积层中。由于卷积核的可加性,将四个卷积层的参数融合到一个卷积层之后,新得到的融合卷积层的输出等于四个卷积层输出的加和。保持参数融合前后输出不变的关键是使得这四个卷积层的卷积核拥有相同的滑动窗,如图2所示。加粗边框表示四个卷积层有相同的滑动窗,三个非对称卷积层的卷积核参数将被添加到第一个标准卷积层的十字交叉位置,这样生成的新的卷积层(图2的最后一行)将产生与原四个卷积层输出之和相同的输出。形式化地,将表示第j个融合卷积层,表示为融合偏置项;则分别表示为1×d×d,d×1×d和d×d×1的第j个卷积层,于是,能够得到:

其中表示在对应位置上的逐元素加法。形式化的,方程(5)的计算步骤如下:

赋值给

赋值给

赋值给

赋值给其中,表示向下取整操作。

由此,四个并行的卷积层的输出之和可以写作单个融合卷积层的输出:

其中o:,:,:,j,分别表示d×d×d,1×d×d,d×1×d和d×d×1卷积层融合bn后的第j个4d滤波器输出,c是特征图的通道数,i:,:,:,k表示输入特征图i的第k个通道,表示融合卷积层的第j个4d滤波器对应的卷积核的第k个通道,表示为融合偏置项。

下面对本发明具体实施例涉及的神经网络进行介绍。

【本申请中所使用的denseu-net】

下面参见图4a示出的denseu-net结构示意图、图4b示出的densenet结构示意图、图4c和图4d示出的denseblock结构示意图,对本申请中所使用的denseu-net进行具体介绍。

【denseu-net的原理说明】

如图4a所示,本申请denseu-net采用具有densenet的网络结构进行向下采样(即进行编码)和向上采样(即进行解码)。向下采样部分构成编码器,向上采样部分构成解码器,连接向下采样与向上采样的denseblock可称为瓶颈层,本申请中,将瓶颈层也归入编码器的densenet中(即作为编码器的densenet包含的最后一denseblock为瓶颈层)。

其中,通过densenet网络进行mri图像的向下采样以实现轮廓特征提取,通过类似的densenet网络结构进行向上采样,以实现将轮廓还原至原影像尺度水平。密集连接的densenet网络结构能够将之前所有层的输出特征图作为下一层的输入从而以较少的模型参数对模型的特征进行了有效的复用。同时,密集连接的设计导致了对于网络的深度监督,有助于深度卷积网络的训练收敛。并且,在向下采样和向上采样的对应的阶段(stage),采用了跳跃连接(skipconnection),使得最后恢复出来的特征图融合了更多的低层(low-level)的特征(feature),也使得不同阶段的特征得到了的融合,从而可以进行多尺度预测和深度监督学习(deepsupervisionlearning)。

【densenet的原理说明】

如图4b示出的densenet网络结构,本具体实施方式中,依次为特征编码模块以及各denseblock模块,各denseblock之间具有转换模块(transition)。通过densenet将输入的mri图像进行特征提取,生成轮廓特征图(featuremap)输出。

如图4c和4d采用两种表达方式示出了densenet的denseblock结构示意图。denseblock是包含很多密集连接层的模块,每个层的特征图大小相同,层与层之间采用密集连接方式,互相连接所有的层,具体来说就是每个层都会接受其前面所有层输出的特征图(featuremap)作为其额外的输入,通过该设计,将特征在多个不同的层加以复用,提高特征信息丰富度,同时提供给后续层提供了多个级别的分割语义信息——如粗糙的位置特征信息和精细的分割轮廓特征信息,以公式来描述为如下:

xl=hl([x0,x1,...xl-1]),其中xl表示l层的输出;hl表示以非线性变换函数(non-lineartransformation),它是一个组合操作,图4c和4d的示例中其包括1×1×1的卷积(conv)、bn、relu、所述3d非对称卷积模块、bn、relu和dropout操作;[x0,x1,...xl-1]表示将0到l-1层的输出featuremap做通道的合并(concatenation)。其中,图4c和图4d中的denseblock深度l为5生长系数为4,其中深度l与生长系数可以调整。

基于densenet这种密集连接的设计,需要各连接层之间的特征尺度(即特征图大小)必须保持一致,为避免导致整个densenet网络较大,如图4b所示,densenet网络中使用transition模块连接两个相邻的denseblock,由transition层使特征图大小降低,例如可以采用池化(pooling)等方式实现,由于transition层相当于特征图的压缩,因此也可称为压缩层。其中,如图4a所示的例子中,transition对应向下采样模块。

【用于脑mri分割模型的denseu-net的搭建的具体实施例】

网络搭建即确定网络的特征编码模块、密集连接模块、向下采样模块(位于编码器路径)、向上采样(位于解码器路径)模块和分类输出模块各所使用的网络结构和各参数。参见图4a和图4c所示,本申请的具体实施例的具体搭建如下:

本发明denseu-net的编码器采用了densenet的设计架构模式,即包括依次耦合的特征编码模块、四个密集连接模块(瓶颈层的denseblock归入编码器),其中相邻的密集连接模块之间具有向下采样模块。denseu-net的解码器采用了类似的densenet的设计架构模式,包括与编码器输出(即瓶颈层的输出)依次耦合的三个密集连接模块、分类输出模块,其中相邻的两个密集连接模块之间具有向上采样模块。编码器和解码器的对应的阶段,采用跳跃连接方式耦合。其中具体如下:

所述特征编码模块包括依次耦合的所述3d非对称卷积模块、bn层、relu层,以完成相应的3个操作。特征编码模块用于将输入网络的图片预先处理成特征图以方便之后的神经网络层处理。特征编码模块的第一个卷积层保持输入特征图的空间分辨率不变同时输出32个特征图。

所述密集连接模块包括依次耦合的三个密集连接层;所述每个密集连接层会接受来自前面网络层的所有特征图并进行组合操作。每个密集连接层包括依次耦合的1×1×1卷积层、bn层、relu层、所述3d非对称卷积模块、bn层、relu层、dropout层,以完成相应的这7个组合操作。其中,1×1×1卷积层将会输出64个特征图,所述3d非对称卷积模块则输出16个特征图,dropout层的dropout比率设为0.1。

所述向下采样模块包括依次耦合的所述3d非对称卷积模块、bn层、relu层、所述3d非对称卷积模块、bn层、relu层,以完成相应的6个操作。向下采样模块用于从之前的密集连接模块接收到的特征图进行向下采样以降低分辨率。向下采样模块中的第一个3d非对称卷积模块保持输入特征图的分辨率不变,同时第二个3d非对称卷积模块开始将输入特征图的分辨率减半。此外,为避免在密集连接模块中特征爆炸,在每个下采样层后,特征图数量减半。

所述向上采样包括依次耦合的所述3d转置卷积层、bn层、relu层,以完成相应的3个操作。向上采样模块位于密集连接模块之前,向上采样模块用于从之前的密集连接模块接收到的特征图进行向上采样以恢复特征图的分辨率。向上采样模块中的转置卷积层将输入特征图的分辨率加倍。此外,同样的,为避免在密集连接模块中特征爆炸,在每个上采样层后,特征图数量减半。

编码器和解码器的对应的阶段的跳跃连接方式如下:为了融合多尺度特征,编码器中的3个密集连接模块的输出特征图将会分别与解码器中的3个向上采样模块的输出特征图连接起来并输入到紧接在后面的密集连接模块。

所述分类输出模块包括依次耦合的1×1×1卷积层、softmax层,以完成相应的两个操作。由于denseu-net主要完成的功能是识别脑mri影像中的脑脊液(csf)、灰质(gm)和白质(wm)区域,在设计上将它的输出定义为对每个像素完成四分类的语义分割任务,即区分上述三类区域和背景区域,因此,定义softmax层输出为4个概率值,分别对应所述四个分类。

【denseu-net的训练】网络训练模式采用有监督训练模式,目标输出为真实标注的骨折区域轮廓信息,监督方式为交叉熵损失函数,然后将这种监督方式得到的损失通过网络反向传播的方式传递至整个网络进行参数更新,不断训练优化,直到网络收敛。

本申请的分割网络模型denseu-net在训练过程结束之后,将按照图3所示的参数融合方法将分割模型中的本发明的每个3d非对称卷积模块的参数融合为单个卷积层的参数。

具体训练策略如下所示:从训练图像中随机抽取32×32×32大小的三维立方体,并使用交叉熵函数作为损失函数。权重权值衰减率为0.0005。为了避免较差的局部极小值并达到较好的局部极小值,本实施例选择初始学习率为0.0003,最小学习率为0.000001的余弦退火策略来衰减学习率。使用adam优化器执行梯度下降算法。模型训练了10个周期,每个周期包含50轮。在每一轮中,随机抽取500个三维立方体,并且每一次将20个立方体送入神经网络模型中进行训练。训练结束之后,在推理阶段本实施例从图像中提取重叠的32×32×32大小的三维立方体。三维图像立方体输入到模型之后得到三维立方体的预测分割概率图。为了得到完整的分割概率图,所得到的多个三维立方体将会依次拼接在一起,将重叠的部分的预测概率加和平均得到分割概率图。分割概率图表示了影像中每个体素可能为脑脊液、灰质、白质和背景类别的概率大小,取概率最大的类别作为当前体素的类别,由此得到最终的分割图。

【磁共振脑组织分割方法和装置的实施例】

本发明还提供了基于上述神经网络的磁共振脑组织分割方法,包括:接收预处理后的mri数据;将所预处理后的mri数据,输入经过训练的所述神经网络,由该神经网络生成识别了脑脊液(csf)、灰质(gm)和白质(wm)区域的mri数据。

本发明还提供了一种磁共振脑组织分割装置,包括:mri数据接收模块,用于接收预处理后的mri数据;调用模块,用于将所预处理后的mri数据,输入经过训练的所述神经网络,由该神经网络生成识别了脑脊液(csf)、灰质(gm)和白质(wm)区域的mri数据。

【denseu-net的效果比较】

图5展示了不同分割网络模型在某个脑影像上的分割结果,从图5的a至e五张图依次为磁共振的t1像、磁共振的t2像、手工分割图、基于3x3x3卷积的denseu-net的分割图以及本发明基于3d非对称卷积模块的denseu-net的分割图。可以看到,采用了本发明所述的基于3d非对称卷积模块的网络极为有效的改善了一些局部分割结果。

图6是本申请实施例提供的一种计算设备5000的结构性示意性图。该计算设备5000包括:处理器5010、存储器5020、通信接口5030、总线5040。

应理解,该图所示的计算设备5000中的通信接口5030可以用于与其他设备之间进行通信。

其中,该处理器5010可以与存储器5020连接。该存储器5020可以用于存储该程序代码和数据。因此,该存储器5020可以是处理器5010内部的存储单元,也可以是与处理器5010独立的外部存储单元,还可以是包括处理器5010内部的存储单元和与处理器5010独立的外部存储单元的部件。

可选的,计算设备5000还可以包括总线5040。其中,存储器5020、通信接口5030可以通过总线5040与处理器5010连接。总线5040可以是外设部件互连标准(peripheralcomponentinterconnect,pci)总线或扩展工业标准结构(extendedindustrystandardarchitecture,eisa)总线等。所述总线5040可以分为地址总线、数据总线、控制总线等。为便于表示,该图中仅用一条线表示,但并不表示仅有一根总线或一种类型的总线。

应理解,在本申请实施例中,该处理器5010可以采用中央处理单元(centralprocessingunit,cpu)。该处理器还可以是其它通用处理器、数字信号处理器(digitalsignalprocessor,dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现成可编程门阵列(fieldprogrammablegatearray,fpga)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。或者该处理器5010采用一个或多个集成电路,用于执行相关程序,以实现本申请实施例所提供的技术方案。

该存储器5020可以包括只读存储器和随机存取存储器,并向处理器5010提供指令和数据。处理器5010的一部分还可以包括非易失性随机存取存储器。例如,处理器5010还可以存储设备类型的信息。

在计算设备5000运行时,所述处理器5010执行所述存储器5020中的计算机执行指令执行上述方法的操作步骤。

应理解,根据本申请实施例的计算设备5000可以对应于执行根据本申请各实施例的方法中的相应主体,并且计算设备5000中的各个模块的上述和其它操作和/或功能分别为了实现本实施例各方法的相应流程,为了简洁,在此不再赘述。

本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。

所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(read-onlymemory,rom)、随机存取存储器(randomaccessmemory,ram)、磁碟或者光盘等各种可以存储程序代码的介质。

本申请实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时用于执行一种多样化问题生成方法,该方法包括上述各个实施例所描述的方案中的至少之一。

本申请实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是,但不限于,电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。

计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。

计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括、但不限于无线、电线、光缆、rf等等,或者上述的任意合适的组合。

可以以一种或多种程序设计语言或其组合来编写用于执行本申请操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c++,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络,包括局域网(lan)或广域网(wan),连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。

注意,上述仅为本申请的较佳实施例及所运用技术原理。本领域技术人员会理解,本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,均属于本申请保护范畴。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1