一种基于深度先验学习的头颈联合成像方法和装置与流程

文档序号:17470596发布日期:2019-04-20 05:47阅读:305来源:国知局
一种基于深度先验学习的头颈联合成像方法和装置与流程

本申请属于图像处理技术领域,尤其涉及一种基于深度先验学习的头颈联合成像方法和装置。



背景技术:

快速成像一直是磁共振成像中的研究热点,而头颈部位的磁共振扫描是磁共振成像领域中非常重要的一方面。头颈联合的磁共振血管壁成像的难点主要是颅内部分,一般颅内成像基本都是二维成像技术,二维成像技术只能观察某一段的断面图像,层厚一般过大,且不是各项同性,无法满足实际的应用需求。然而,颅内三维血管壁成像可以同时获取血流和出血信号,有利于斑块出血的定量检测,但存在空间分辨率较低、成像时间长及对血管壁与脑脊液对比度不足等问题。

目前的头颈联合成像技术一般是采用t1加权三维快速自旋回波技术,该技术采用头颈一体化成像,最大视野为250mm,使用flip-down准备脉冲均匀抑制脑脊液信号,同时采用dante模块有效抑制血流信号,具有较好的对比度,全脑0.5mm各向同性分辨率,然而,由于扫描视野增大,导致在成像时间上更长,如果再加上颈动脉检查,时间会更长,更无法满足实际的应用需求。

针对现有的头颈联合成像所存在无法同时满足成像精度和成像时间需求的问题,目前尚未提出有效的解决方案。



技术实现要素:

本申请目的在于提供一种基于深度先验学习的头颈联合成像方法和装置,以提高头颈联合成像的成像精度和缩短成像时间。

本申请提供一种基于深度先验学习的头颈联合成像方法和装置是这样实现的:

一种基于深度先验学习的头颈联合成像方法,所述方法包括:

获取待重建的头颈联合的磁共振图像;

将所述待重建的头颈联合的磁共振图像输入预先建立的复数卷积神经网络模型,其中,所述复数卷积神经网络模型中设置有复数残差块;

通过所述复数卷积神经网络模型,对所述待重建的头颈联合的磁共振图像进行重建,得到无伪影的高分辨率头颈联合图像。

在一个实施方式中,所述复数卷积神经网络模型依次包括:第一复数卷积层、多个复数残差块、第二复数卷积层,其中,每个复数残差块中包括有两个复数卷积层。

在一个实施方式中,复数卷积层中的复数卷积操作表示为:

w*c=(creal+icimgi)*(wreal+iwimgi)=(wreal*creal-wimgi*cimgi)+i(wreal*creal+wimgi*cimgi)

其中,w表示输入的复数图像,c表示复数卷积核,creal表示输入的复数图像的实部,cimgi表示输入的复数图像的虚部,wreal表示复数卷积核的实部,wimgi表示复数卷积核的虚部。

在一个实施方式中,所述复数卷积神经网络模型是按照以下方式建立的:

获取全采样样本图像,其中,所述全采样样本图像为从磁共振仪获取的头颈联合的磁共振图像;

对所述全采样样本图像进行欠采样处理,得到欠采样样本图像;

将所述欠采样样本图像作为训练样本,将所述全采样样本图像作为标签,对预先建立的复数卷积神经网络进行训练,得到所述复数卷积神经网络模型。

在一个实施方式中,将所述欠采样样本图像作为训练样本,将所述全采样样本图像作为标签,对预先建立的复数卷积神经网络进行训练,包括:

以如下函数作为目标函数,对所述预先建立的复数卷积神经网络进行训练:

其中,xm表示多通道复数输入图像,ym为全采样原始图像,c(xm;θ)表示网络的预测输出,θ={(ω1,b1),...,(ωl,bl),...,(ωl,bl)}为训练需要更新的参数,其中,ω表示权重,b表示偏置,表示网络输出与标签之间误差最小时的权重和偏置取值,表示取网络输出与标签之间的最小误差对应的θ作为m表示训练样本的总数量,m表示当前训练样本的序号。

在一个实施方式中,所述待重建的头颈联合的磁共振图像为欠采样的含伪影的图像。

一种基于深度先验学习的头颈联合成像装置,包括:

获取模块,用于获取待重建的头颈联合的磁共振图像;

输入模块,用于将所述待重建的头颈联合的磁共振图像输入预先建立的复数卷积神经网络模型,其中,所述复数卷积神经网络模型中设置有复数残差块;

重建模块,用于通过所述复数卷积神经网络模型,对所述待重建的头颈联合的磁共振图像进行重建,得到无伪影的高分辨率头颈联合图像。

在一个实施方式中,所述复数卷积神经网络模型依次包括:第一复数卷积层、多个复数残差块、第二复数卷积层,其中,每个复数残差块中包括有两个复数卷积层。

在一个实施方式中,复数卷积层中的复数卷积操作表示为:

w*c=(creal+icimgi)*(wreal+iwimgi)=(wreal*creal-wimgi*cimgi)+i(wreal*creal+wimgi*cimgi)

其中,w表示输入的复数图像,c表示复数卷积核,creal表示输入的复数图像的实部,cimgi表示输入的复数图像的虚部,wreal表示复数卷积核的实部,wimgi表示复数卷积核的虚部。

在一个实施方式中,所述复数卷积神经网络模型是按照以下方式建立的:

获取全采样样本图像,其中,所述全采样样本图像为从磁共振仪获取的头颈联合的磁共振图像;

对所述全采样样本图像进行欠采样处理,得到欠采样样本图像;

将所述欠采样样本图像作为训练样本,将所述全采样样本图像作为标签,对预先建立的复数卷积神经网络进行训练,得到所述复数卷积神经网络模型。

在一个实施方式中,将所述欠采样样本图像作为训练样本,将所述全采样样本图像作为标签,对预先建立的复数卷积神经网络进行训练,包括:

以如下函数作为目标函数,对所述预先建立的复数卷积神经网络进行训练:

其中,xm表示多通道复数输入图像,ym为全采样原始图像,c(xm;θ)表示网络的预测输出,θ={(ω1,b1),...,(ωl,bl),...,(ωl,bl)}为训练需要更新的参数,其中,ω表示权重,b表示偏置,表示网络输出与标签之间误差最小时的权重和偏置取值,表示取网络输出与标签之间的最小误差对应的θ作为m表示训练样本的总数量,m表示当前训练样本的序号。

在一个实施方式中,所述待重建的头颈联合的磁共振图像为欠采样的含伪影的图像。

一种终端设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现如下方法的步骤:

获取待重建的头颈联合的磁共振图像;

将所述待重建的头颈联合的磁共振图像输入预先建立的复数卷积神经网络模型,其中,所述复数卷积神经网络模型中设置有复数残差块;

通过所述复数卷积神经网络模型,对所述待重建的头颈联合的磁共振图像进行重建,得到无伪影的高分辨率头颈联合图像。

一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现如下方法的步骤:

获取待重建的头颈联合的磁共振图像;

将所述待重建的头颈联合的磁共振图像输入预先建立的复数卷积神经网络模型,其中,所述复数卷积神经网络模型中设置有复数残差块;

通过所述复数卷积神经网络模型,对所述待重建的头颈联合的磁共振图像进行重建,得到无伪影的高分辨率头颈联合图像。

本申请提供的基于深度先验学习的头颈联合成像方法和装置,通过预先建立的复数卷积神经网络模型,对待重建的头颈联合的磁共振图像进行重建,从而得到无伪影的高分辨率头颈联合图像。因此,待重建的头颈联合的磁共振图像为欠采样的图像,复数卷积神经网络具有更好的图像重建效果,从而可以得到高精度的无伪影的高分辨率头颈联合图像,通过上述方案解决了现有的头颈联合成像中所存在的无法同时保证成像精度和成像时间需求的问题,达到了在保证成像精度的情况下,可以有效缩短成像时间的技术效果。

附图说明

为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1是本申请提供的基于深度先验学习的头颈联合成像方法一种实施例的方法流程图;

图2是本申请提供的复数卷积网络的模型示意图;

图3是本申请提供的复数残差块的模型示意图;

图4是本申请提供的基于复数卷积网络进行图像重建的数据走向图;

图5是本申请提供的基于复数卷积网络进行图像重建的模块示意图;

图6是本申请提供的终端设备的架构图;

图7是本申请提供的基于深度先验学习的头颈联合成像模块一种实施例的模块结构示意图。

具体实施方式

为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。

针对现有的头颈联合磁共振扫描技术中所存在速度慢、精度不高的问题,基于此,在本例中考虑到可以复数卷积神经网络模型,生成可以由带伪影的欠采样转换为不带伪影的图像的网络模型,这样,只需要提供带伪影的头颈联合磁共振图像,就可以得到分辨率较高的不带伪影的头颈联合磁共振图像,从而可以在减少扫描时间的情况下,使得头颈联合图像可以满足精度的需求。

图1是本申请所述一种基于深度先验学习的头颈联合成像方法一个实施例的方法流程图。虽然本申请提供了如下述实施例或附图所示的方法操作步骤或装置结构,但基于常规或者无需创造性的劳动在所述方法或装置中可以包括更多或者更少的操作步骤或模块单元。在逻辑性上不存在必要因果关系的步骤或结构中,这些步骤的执行顺序或装置的模块结构不限于本申请实施例描述及附图所示的执行顺序或模块结构。所述的方法或模块结构的在实际中的装置或终端产品应用时,可以按照实施例或者附图所示的方法或模块结构连接进行顺序执行或者并行执行(例如并行处理器或者多线程处理的环境,甚至分布式处理环境)。

如图1所示,该基于深度先验学习的头颈联合成像方法,可以包括如下步骤:

步骤101:获取待重建的头颈联合的磁共振图像;

其中,该待重建的磁共振扫描图像,可以是磁共振扫描仪对目标物的头颈部位进行欠采样的联合成像得到的图像,例如,可以通过磁共振扫描仪对目标对象的头颈进行欠采样扫描得到的图像,该图像是含有伪影的图像。

所谓伪影指的是原本被扫描物体并不存在而在图像上却出现的各种形态的影像。伪影大致分为与患者有关和与机器有关的两类。磁共振图像的伪影指的是图像上与实际解剖结构不相符的密度异常变化,它涉及ct机部件故障、校准不够及算法误差甚至错误等项目。

步骤102:将所述待重建的头颈联合的磁共振图像输入预先建立的复数卷积神经网络模型,其中,所述复数卷积神经网络模型中设置有复数残差块;

其中,上述的复数卷积神经网络模型可以是按照以下方式建立的:

s1:获取全采样样本图像,其中,所述全采样样本图像为从磁共振仪获取的头颈联合的磁共振图像;

其中,该全采样样本图像,为全采样原始图像数据,是无伪影的图像数据。

s2:对所述全采样样本图像进行欠采样处理,得到欠采样样本图像;

s3:将所述欠采样样本图像作为训练样本,将所述全采样样本图像作为标签,对预先建立的复数卷积神经网络进行训练,得到所述复数卷积神经网络模型。

其中,上述训练样本所基于的全采样图像,可以是通过低倍欠采因子从磁共振扫描仪采集图像;然后,对采集的图像进行预处理,其中,所述预处理可以包括但不限于以下至少之一:选图处理、归一化处理;将预处理后的图像作为所述全采样图像。其中,上述选图处理是去除一些质量不高或者未包含较多可用信息的图像,归一化处理是为了使得数据可以适应网络的统一输入,并消除奇异样本数据导致的不良影响,从而使得得到的图像数据可以适合进行复数卷积神经网络模型的训练。

对于上述的欠采样样本图像,是对上述的全采样样本图像按照预设的欠采比进行欠采样处理后得到的图像,欠采样图像中是含有伪影的图像。

在上例中,提供的基于深度先验学习的头颈联合成像方法,通过预先建立的复数卷积神经网络模型,对待重建的头颈联合的磁共振图像进行重建,从而得到无伪影的高分辨率头颈联合图像。因此,待重建的头颈联合的磁共振图像为欠采样的图像,复数卷积神经网络具有更好的图像重建效果,从而可以得到高精度的无伪影的高分辨率头颈联合图像,通过上述方案解决了现有的头颈联合成像中所存在的无法同时保证成像精度和成像时间需求的问题,达到了在保证成像精度的情况下,可以有效缩短成像时间的技术效果。

步骤103:通过所述复数卷积神经网络模型,对所述待重建的头颈联合的磁共振图像进行重建,得到无伪影的高分辨率头颈联合图像。

其中,该高分辨率图像就是接近全采样图像的图像,这些高分辨率图像就可以满足实际的应用需求。

在实际实现的时候,上述复数卷积神经网络模型可以如图2所示,依次包括:第一复数卷积层、多个复数残差块、第二复数卷积层,其中,每个复数残差块中包括有两个复数卷积层。

其中,复数卷积层中的复数卷积操作可以表示为:

w*c=(creal+icimgi)*(wreal+iwimgi)=(wreal*creal-wimgi*cimgi)+i(wreal*creal+wimgi*cimgi)

其中,w表示输入的复数图像,c表示复数卷积核,creal表示输入的复数图像的实部,cimgi表示输入的复数图像的虚部,wreal表示复数卷积核的实部,wimgi表示复数卷积核的虚部。

在将所述欠采样样本图像作为训练样本,将所述全采样样本图像作为标签,对预先建立的复数卷积神经网络进行训练的过程中,可以以如下函数作为目标函数,对预先建立的复数卷积神经网络进行训练:

其中,xm表示多通道复数输入图像,ym为全采样原始图像,c(xm;θ)表示网络的预测输出,θ={(ω1,b1),...,(ωl,bl),...,(ωl,bl)}为训练需要更新的参数,其中,ω表示权重,b表示偏置,表示网络输出与标签之间误差最小时的权重和偏置取值,表示取网络输出与标签之间的最小误差对应的θ作为m表示训练样本的总数量,m表示当前训练样本的序号。

为了更好地理解本申请,下面对残差、残差网络和残差块说明如下:

残差:在数理统计中是指实际观察值与估计值(拟合值)之间的差。假设我们需要找一个x,使得f(x)=b,给定一个x的估计值x0,那么残差就是b-f(x0),同时,误差就是x-x0。这样即使x的取值不知道,仍然可以计算残差。

残差网络:在神经网络的层数达到一定数量的情况下,随着神经网络层数的增多,训练集上的效果会变差,因为随着神经网络的深度越来越深,训练变得原来越难,网络的优化变得越来越难,过深的神经网络会产生退化问题,效果反而不如相对较浅的网络。残差网络就是为了解决这个问题,残差网络越深,训练集上的效果会越好。残差网络是在几个卷积层上构建出一个恒等映射的层,即,输出等于输入的层,从而构建得到更深的网络。具体的,是通过加入shortcutconnections(快捷连接),使得神经网络变得更加容易被优化。

残差块:如图3所示,对于包含有一个快捷连接的几层网络,被称为一个残差块(residualblock)。

下面结合一个具体实施例对上述方法进行说明,然而,值得注意的是,该具体实施例仅是为了更好地说明本申请,并不构成对本申请的不当限定。

现有联合成像的过程中,一般在吸取先验知识的同时仅考虑了少量低维样本信息或单纯的采用高维迭代重建的方式。针对这些问题,在本例中,从已有的大样本、高维信号、并行头颈联合磁共振图像中获取充分的先验知识,实现头颈联合快速高精度成像,即,提出了基于深度先验学习的头颈联合快速成像方法,以提高头颈联合成像的精度及缩短成像时间。

具体的,在本例中基于深度先验学习的快速成像理论与方法,以便在较短的扫描时间内,获取具有高分辨率的头颈联合磁共振血管壁图像,该方法主要包括如下几个方面:多通道头颈联合磁共振大样本数据库的构建、多通道高维大数据的深度先验学习模型研究、集成深度先验的在线高维重建模型研究。

其中,多通道图像是指多个摄像机拍摄的同一个场景的图像或者一个摄像机在不同时刻拍摄的同一场景的图像。在表示图像时,使用多个通道对图像进行编码。多通道图像常用于人工智能领域。图像是由一个个像素点构成的,所有不同颜色的像素点构成了一副完整的图像,计算机存储图片是以二进制来进行的。一般将计算机存储单个像素点所用到的bit位称为图像的深度,图像的通道与其编码方式相关,如果将图像分解为rgb三个分量来表示,则是三通道,如果图像是灰度图像,则是一个通道,多通道图像是通道数≥3的图像。

考虑到一般在进行图像重建的时候,都是用的图像的实部,图像的虚部一般是不使用的。然而,图像的虚部往往包含着图像的相位信息,如果可以对虚部也进行有效利用,那么可以提高多通道图像的精度。

在本例中,根据血管壁磁共振图像的复数特性,设计了相应的复数卷积神经网络,并结合残差块对多通道头颈一体化磁共振图像进行学习,提取关键特征信息,从而达到对血管壁磁共振图像进行在线重建的目的。具体的,如图4所示,网络的输入为对全采样头颈一体化磁共振图像进行欠采样处理之后的含伪影图像,输出标签为全采样原始图像数据。中间网络由两个复数卷积层及三个复数残差块组成,复数卷积层对输入的复数图像直接进行卷积操作,即采用的卷积核为复数卷积核,用数学公式表示输入的复数图像为:

c=creal+icimgi

复数卷积核为:

w=wreal+iwimgi;

复数卷积操作公式如下:

w*c=(wreal*creal-wimgi*cimgi)+i(wreal*creal+wimgi*cimgi)

在卷积之后,为relu激活操作。

该复数卷积网络中采用的目标函数可以表示为:

其中,xm表示多通道复数输入图像,ym为全采样原始图像,c(xm;θ)表示网络的预测输出,θ={(ω1,b1),...,(ωl,bl),...,(ωl,bl)}为训练需要更新的参数,其中,ω表示权重,b表示偏置,表示网络输出与标签之间误差最小时的权重和偏置取值,表示取网络输出与标签之间的最小误差对应的θ作为m表示训练样本的总数量,m表示当前训练样本的序号。

上述的深度神经网络在经过训练之后可以用于对头颈部位进行在线重建,最终能够在短时间内得到高质量的头颈部位的血管壁磁共振图像。具体的,如图5所示,可以包括:数据处理模块、模型获取模块、模型测试模块及模型应用模块,其中:

1)数据处理模块,用于对采集的图像数据进行归一化等预处理操作,并制作好网络训练的输入输出样本;

2)模型获取模块,用于对设计好的复数卷积网络进行训练和优化;

3)模型测试模块,用于对未参与训练的头颈一体化欠采样图像进行在线重建测试,验证训练好的网络模型能重建出高质量的图像;

4)模型应用模块,用于在验证模型有足够好的泛化能力之后,最终将该深度卷积重建算法用于实际应用场景。

在上例中,基于医学磁共振影像数据,利用深度学习技术,通过所设计的复数卷积神经网络来提高血管壁磁共振成像的精度并缩短成像时间,从而实现快速高精度的头颈联合图像的重建。即,利用深度学习方法对头颈部位进行一体化快速高精度成像,具体的提出了用于头颈一体化磁共振图像数据的复数卷积操作,使用了复数卷积网络,在传统的卷积网络基础上增加了复数残差块,从而可以提高头颈一体化磁共振血管壁成像的精度并缩短成像时间。

本申请上述实施例所提供的方法实施例可以在终端设备、计算机终端或者类似的运算装置中执行。以运行在终端设备上为例,图6是本发明实施例的一种基于深度先验学习的头颈联合成像方法的终端设备的硬件结构框图。如图6所示,终端设备10可以包括一个或多个(图中仅示出一个)处理器102(处理器102可以包括但不限于微处理器mcu或可编程逻辑器件fpga等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输模块106。本领域普通技术人员可以理解,图6所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,终端设备10还可包括比图6中所示更多或者更少的组件,或者具有与图6所示不同的配置。

存储器104可用于存储应用软件的软件程序以及模块,如本发明实施例中的基于深度先验学习的头颈联合成像方法对应的程序指令/模块,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的应用程序的基于深度先验学习的头颈联合成像方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。

传输模块106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的无线网络。在一个实例中,传输模块106包括一个网络适配器(networkinterfacecontroller,nic),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输模块106可以为射频(radiofrequency,rf)模块,其用于通过无线方式与互联网进行通讯。

在软件层面,上述基于深度先验学习的头颈联合成像装置可以如图7所示,包括:

获取模块701,用于获取待重建的头颈联合的磁共振图像;

输入模块702,用于将所述待重建的头颈联合的磁共振图像输入预先建立的复数卷积神经网络模型,其中,所述复数卷积神经网络模型中设置有复数残差块;

重建模块703,用于通过所述复数卷积神经网络模型,对所述待重建的头颈联合的磁共振图像进行重建,得到无伪影的高分辨率头颈联合图像。

在一个实施方式中,所述复数卷积神经网络模型依次可以包括:第一复数卷积层、多个复数残差块、第二复数卷积层,其中,每个复数残差块中包括有两个复数卷积层。

在一个实施方式中,复数卷积层中的复数卷积操作可以表示为:

w*c=(creal+icimgi)*(wreal+iwimgi)=(wreal*creal-wimgi*cimgi)+i(wreal*creal+wimgi*cimgi)

其中,w表示输入的复数图像,c表示复数卷积核,creal表示输入的复数图像的实部,cimgi表示输入的复数图像的虚部,wreal表示复数卷积核的实部,wimgi表示复数卷积核的虚部。

在一个实施方式中,所述复数卷积神经网络模型可以是按照以下方式建立的:

s1:获取全采样样本图像,其中,所述全采样样本图像为从磁共振仪获取的头颈联合的磁共振图像;

s2:对所述全采样样本图像进行欠采样处理,得到欠采样样本图像;

s3:将所述欠采样样本图像作为训练样本,将所述全采样样本图像作为标签,对预先建立的复数卷积神经网络进行训练,得到所述复数卷积神经网络模型。

在一个实施方式中,在实际实现的时候,可以以如下函数作为目标函数,对所述预先建立的复数卷积神经网络进行训练:

其中,xm表示多通道复数输入图像,ym为全采样原始图像,c(xm;θ)表示网络的预测输出,θ={(ω1,b1),...,(ωl,bl),...,(ωl,bl)}为训练需要更新的参数,其中,ω表示权重,b表示偏置,表示网络输出与标签之间误差最小时的权重和偏置取值,表示取网络输出与标签之间的最小误差对应的θ作为m表示训练样本的总数量,m表示当前训练样本的序号。

在一个实施方式中,所述待重建的头颈联合的磁共振图像可以是欠采样的含伪影的图像。

本申请的实施例还提供能够实现上述实施例中的基于深度先验学习的头颈联合成像方法中全部步骤的一种电子设备的具体实施方式,所述电子设备具体包括如下内容:

处理器(processor)、存储器(memory)、通信接口(communicationsinterface)603和总线604;

其中,所述处理器601、存储器602、通信接口603通过所述总线604完成相互间的通信;所述处理器601用于调用所述存储器602中的计算机程序,所述处理器执行所述计算机程序时实现上述实施例中的基于深度先验学习的头颈联合成像方法中的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:

步骤1:获取待重建的头颈联合的磁共振图像;

步骤2:将所述待重建的头颈联合的磁共振图像输入预先建立的复数卷积神经网络模型,其中,所述复数卷积神经网络模型中设置有复数残差块;

步骤3:通过所述复数卷积神经网络模型,对所述待重建的头颈联合的磁共振图像进行重建,得到无伪影的高分辨率头颈联合图像。

从上述描述可知,基于深度先验学习的头颈联合成像方法和装置,通过预先建立的复数卷积神经网络模型,对待重建的头颈联合的磁共振图像进行重建,从而得到无伪影的高分辨率头颈联合图像。因此,待重建的头颈联合的磁共振图像为欠采样的图像,复数卷积神经网络具有更好的图像重建效果,从而可以得到高精度的无伪影的高分辨率头颈联合图像,通过上述方案解决了现有的头颈联合成像中所存在的无法同时保证成像精度和成像时间需求的问题,达到了在保证成像精度的情况下,可以有效缩短成像时间的技术效果。

本申请的实施例还提供能够实现上述实施例中的基于深度先验学习的头颈联合成像方法中全部步骤的一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中的基于深度先验学习的头颈联合成像方法的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:

步骤1:获取待重建的头颈联合的磁共振图像;

步骤2:将所述待重建的头颈联合的磁共振图像输入预先建立的复数卷积神经网络模型,其中,所述复数卷积神经网络模型中设置有复数残差块;

步骤3:通过所述复数卷积神经网络模型,对所述待重建的头颈联合的磁共振图像进行重建,得到无伪影的高分辨率头颈联合图像。

从上述描述可知,基于深度先验学习的头颈联合成像方法和装置,通过预先建立的复数卷积神经网络模型,对待重建的头颈联合的磁共振图像进行重建,从而得到无伪影的高分辨率头颈联合图像。因此,待重建的头颈联合的磁共振图像为欠采样的图像,复数卷积神经网络具有更好的图像重建效果,从而可以得到高精度的无伪影的高分辨率头颈联合图像,通过上述方案解决了现有的头颈联合成像中所存在的无法同时保证成像精度和成像时间需求的问题,达到了在保证成像精度的情况下,可以有效缩短成像时间的技术效果。

本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于硬件+程序类实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。

上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。

虽然本申请提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或客户端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。

上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、车载人机交互设备、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。

虽然本说明书实施例提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的手段可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或终端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境,甚至为分布式数据处理环境)。术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、产品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、产品或者设备所固有的要素。在没有更多限制的情况下,并不排除在包括所述要素的过程、方法、产品或者设备中还存在另外的相同或等同要素。

为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书实施例时可以把各模块的功能在同一个或多个软件和/或硬件中实现,也可以将实现同一功能的模块由多个子模块或子单元的组合实现等。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。

本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

在一个典型的配置中,计算设备包括一个或多个处理器(cpu)、输入/输出接口、网络接口和内存。

内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flashram)。内存是计算机可读介质的示例。

计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitorymedia),如调制的数据信号和载波。

本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。

本说明书实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。

本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本说明书实施例的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。

以上所述仅为本说明书实施例的实施例而已,并不用于限制本说明书实施例。对于本领域技术人员来说,本说明书实施例可以有各种更改和变化。凡在本说明书实施例的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书实施例的权利要求范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1