磁共振图像重建方法、装置和计算机可读存储介质与流程

文档序号:16846657发布日期:2019-02-12 22:22阅读:230来源:国知局
磁共振图像重建方法、装置和计算机可读存储介质与流程

本发明主要涉及医学图像领域,特别涉及一种磁共振图像重建方法、装置和计算机可读存储介质。



背景技术:

医学图像特别是计算机断层扫描(ct,computedtomography)、正电子发射断层扫描(pet,positronemissiontomography)以及磁共振图像(mr,magneticresonance)均是非常重要的医学图像,可以无创地提供患者的解剖结构图像,从而为相关疾病诊断提供有效的技术支撑。

举例来说mr成像设备所采集到的信息,通过图像重建算法、图像预处理等步骤后,被转换为医生可辨识的灰度图像。磁共振成像能提供出色的软组织图像,但由于磁共振需要进行一系列空间编码,成像速度相对较慢。

一种加速方法在相位编码方向,数据的采样频率低于奈奎斯特采样定理(nyquistsamplingtheorem),称之为k空间欠采样(k-spaceundersampling)。然而欠采样会导致图像发生混叠伪影。

多通道表面线圈(surfacecoil)的引入,使得解除混叠伪影成为可能,典型的代表是grappa,sense,spirit等技术,称之为并行成像。传统的并行成像,在相位编码方向规则的欠采样,可以实现2~3倍的加速或者对应扫描时间的减少。

相对于传统并行成像,基于压缩感知(compressedsensing)的加速技术,倾向于在相位编码方向随机欠采样。利用图像在变换域的稀疏性,转化成先验知识约束项,通过迭代优化的过程,解除混叠伪影,实现图像重建。典型的优化过程如下:

其中,y是采集的数据,在相位编码方向是欠采样的。θ=uf,其中u表示k-空间采样模式,取值0(没采集数据)或者1(采集数据),f表示傅里叶变换,将图像变换到k空间域。s表示需要求解的图像。φ表示某种稀疏变换,比如小波变换(wavelettransform)等。‖φs‖1表示图像稀疏性的约束项。压缩感知的加速能力,取决于图像在变换域的稀疏程度。但一般而言,这种稀疏性是相对的,或者说只有少数信号是重要分量(significantcomponents),其余的信号并非是零,而是相对较小。这种假设导致压缩感知加速倍数过高时,丢失细微的图像信息。

典型的最小优化方法是基于凸集理论的最小优化方法,包括各类梯度下降(gradientdescent)方法,或者其演化。基于凸集理论的最小优化方法优点是易于添加约束项,缺点是计算量大,速度慢。基于凸集投影(projectionsontoconvexsets,pocs)和阈值(threshold)的最小优化方法,优点是迭代计算量普遍小于梯度下降方法,缺点是不方便添加约束项。

近几年神经网络技术逐渐成熟,在图像映射方面也有较多应用。在欠采样模板相对固定时,从欠采样图像到全采样图像的映射具有一定的规律性,神经网络可以在大量数据的训练下学习到这种规律。在神经网络的作用下,输出的图片会无限接近全采样图像,但由于欠采样图像的本身缺失的细节信息以及神经网络的随机性,仍可能会在一些细节的地方,缺失或者增添一些内容。



技术实现要素:

本发明提供一种磁共振图像重建方法、装置,以在提高图像扫描的速度的同时避免图像细节信息丢失,提高图像重建的质量和准确性。

为了解决上述技术问题,本发明提供一种磁共振图像重建方法,包括以下步骤:获取欠采样k空间数据;基于经训练的神经网络模型和所述欠采样k空间数据获得预测图像;以及基于压缩感知算法、所述欠采样k空间数据和所述预测图像生成重建图像,其中所述压缩感知算法包括若干约束项,所述约束项中的至少一项包括所述预测图像。

在本发明的一实施例中,所述压缩感知算法包括搜寻一个或一组变量的解,使成本函数得到最大或最小值,所述成本函数包括所述约束项;其中,所述约束项包括稀疏变换函数,所述稀疏变换函数的输入值为所述重建图像和所述预测图像。

在本发明的一实施例中,所述成本函数的表达式为:

其中,s表示需要求解的图像,y表示采集的数据,θ=uf,u表示k-空间采样模式,取值为0或者1,f表示傅里叶变换,t表示稀疏变换函数,s_pred表示预测图像,λ_1和λ_2表示标量因子,ψ表示稀疏变换。

在本发明的一实施例中,所述稀疏变换函数为差值操作函数,所述差值操作函数包括权重算子。

在本发明的一实施例中,所述权重算子包括图像域的权重因子,与所述重建图像和所述预测图像差值进行点乘操作。

在本发明的一实施例中,所述权重算子包括傅里叶变换域的权重因子和傅里叶变换域的k空间数据,所述傅里叶变换域的权重因子与所述傅里叶变换域的k空间数据进行点乘操作。

在本发明的一实施例中,所述稀疏变换函数为全变量函数,所述全变量函数包括各向同性或者各向异性全变量算子,且图像域的权重因子和所述重建图像进行点乘操作。

在本发明的一实施例中,所述神经网络模型包括卷积神经网络、全卷积网络或对抗生成网络,所述对抗生成网络包括生成网络和对抗网络,所述生成网络输入所述欠采样图像和所述参考图像,且输出解混叠图像,所述对抗网络输入所述解混叠图像和所述目标图像。

本发明还提供一种磁共振图像重建装置,包括:存储器,用于存储可由处理器执行的指令;处理器,用于执行所述指令以实现如上所述的方法。

本发明还提供一种计算机可读存储介质,其上存储有计算机指令,其中当计算机指令被处理器执行时,执行如上所述的方法。

本发明提供了一种磁共振图像重建方法、装置,使用参考图像、欠采样图像和全采样图像训练神经网络模型,通过神经网络模型可以获取预测图像,为压缩感知算法提供预测图像信息;进行图像重建时,图像重建数据是欠采样的,因此可以缩短采样时间,提高图像扫描的速度;压缩感知算法具有较强的加速能力,其采用了神经网络模型提供的完整准确的预测图像信息,可以避免图像细节信息丢失,提高图像重建的质量和准确性。

附图说明

为让本发明的上述目的、特征和优点能更明显易懂,以下结合附图对本发明的具体实施方式作详细说明,其中:

图1是本发明一些实施例的计算机设备的结构示意图。

图2是根据本发明一些实施例描述的示例性的处理引擎的方框图。

图3是根据本发明一些实施例描述的示例性的神经网络确定模块的方框图。

图4是本发明一实施例的磁共振图像重建方法的流程图。

图5是本发明一实施例的采用t1flair序列进行磁共振图像重建的结果示意图。

图6是本发明一实施例的采用t2flair序列进行磁共振图像重建的结果示意图。

图7是根据本发明一些实施例描述的示例性的神经网络模型的示意图。

具体实施方式

为了更清楚地说明本发明的实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本发明的一些示例或实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图将本发明应用于其他类似情景。除非从语言环境中显而易见或另做说明,图中相同标号代表相同结构或操作。

如本发明和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其他的步骤或元素。

虽然本发明对根据本发明的实施例的系统中的某些模块做出了各种引用,然而,任何数量的不同模块可以被使用并运行在计算设备和/或处理器上。所述模块仅是说明性的,并且所述系统和方法的不同方面可以使用不同模块。

应当理解的是,当单元或模块被描述为“连接”、“耦接”其它单元、模块或块时,其可以指直接连接或耦接,或者与其它单元、模块或块通信,或者可以存在中间的单元、模块或块,除非上下文明确指明其它方式。本文所使用的术语“和/或”可包括一个或多个相关列出项目的任意与所有组合。

本发明中使用了流程图用来说明根据本发明的实施例的系统所执行的操作。应当理解的是,前面或下面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各种步骤。同时,或将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。

本发明描述磁共振图像处理方法,在此,磁共振图像可以包括由磁共振成像系统获得的扫描图像数据。磁共振成像系统可为单模成像系统,例如磁共振成像(mri)系统等。磁共振成像系统也可为多模成像系统,例如计算机断层摄影-磁共振成像(ct-mri)系统、正电子发射断层摄影-磁共振成像(pet-mri)系统等。医学图像可以包括将扫描数据重建或将数据傅里叶变换后得到的重建图像。

图1是本发明一些实施例的计算机设备的结构示意图。计算机100可以被用于实现实施本发明一些实施例中披露的特定方法和装置。本实施例中的特定装置利用功能框图展示了一个包含显示模块的硬件平台。在一些实施例中,计算机100可以通过其硬件设备、软件程序、固件以及它们的组合来实现本发明一些实施例的具体实施。在一些实施例中,计算机100可以是一个通用目的的计算机,或一个有特定目的的计算机。

如图1所示,计算机100可以包括内部通信总线101、处理器(processor)102、只读存储器(rom)103、随机存取存储器(ram)104、通信端口105、输入/输出组件106、硬盘107以及用户界面108。内部通信总线101可以实现计算机100组件间的数据通信。处理器102可以进行判断和发出提示。在一些实施例中,处理器102可以由一个或多个处理器组成。通信端口105可以实现计算机100与其他部件(图中未示出)例如:外接设备、图像采集设备、数据库、外部存储以及图像处理工作站等之间进行数据通信。在一些实施例中,计算机100可以通过通信端口105从网络发送和接受信息及数据。输入/输出组件106支持计算机100与其他部件之间的输入/输出数据流。用户界面108可以实现计算机100和用户之间的交互和信息交换。计算机100还可以包括不同形式的程序储存单元以及数据储存单元,例如硬盘107,只读存储器(rom)103和随机存取存储器(ram)104,能够存储计算机处理和/或通信使用的各种数据文件,以及处理器102所执行的可能的程序指令。

作为举例,输入/输出组件106可以包括以下的组件的一种或多种:鼠标、轨迹球、键盘、触控组件、声音接收器等。

本发明中的处理器102可设置为处理引擎。图2是根据本发明一些实施例的处理引擎的方框图。处理引擎200可包括获取模块210、控制模块220、神经网络确定模块230、图像数据处理模块240和存储模块250。处理引擎200可被实施于各种部件上(例如图1所示的计算机100的处理器102)。

获取模块210可接收图像数据。获取模块210可从成像系统或者存储装置(例如硬盘107、rom103或者ram104)获取图像数据。图像数据可包括扫描数据、重建图像等。扫描数据可以是k空间数据。在一些实施例中,获取模块210可将获取的图像数据发送到处理引擎200的其它模块或单元以用于进一步处理。例如,获取的图像数据可发送到存储模块250存储。作为另一个示例,获取模块210可发送图像数据(例如扫描数据)到图像数据处理模块240以重建图像。

控制模块220可通过例如产生一个或多个控制参数,来控制获取模块210、神经网络确定模块230、图像处理模块240和/或存储模块250的操作。例如,控制模块220可控制获取模块210获取图像数据。作为另一个示例,控制模块220可控制图像数据处理模块240处理由获取模块210获取的图像数据。作为又一个示例,控制模块220可控制神经网络确定模块230来训练神经网络模型。在一些实施例中,控制模块220可接收实时命令或取回由例如用户(例如医生)或计算机100提供的预定命令,以控制获取模块210、神经网络确定模块230和/或图像数据处理模块240的一个或多个操作。例如,控制模块220能根据实时指令和/或预定指令调节图像数据处理模块240以生成对象图像。在一些实施例中,控制模块220可与处理引擎200的一个或多个其它模块通信以交换信息和/或数据。

神经网络确定模块230可确定一个或多个神经网络模型。例如,神经网络确定模块230可确定神经网络模型,神经网络模型被配置为根据欠采样图像生成预测图像。在一些实施例中,神经网络确定模块230可将确定的神经网络模型发送到一个或多个其他模块用于进一步的处理或应用。例如,神经网络确定模块230可向存储模块250发送神经网络模型用于存储。作为另一个示例,神经网络确定模块230可将神经网络模型发送到图像数据处理模块240用于图像处理。

图像数据处理模块240可处理由处理引擎200的各个模块提供的信息。图像数据处理模块240可处理由获取模块210获取的图像数据,从存储模块250取回的图像数据等。在一些实施例中,图像数据处理模块240可根据重建技术基于图像数据来重建图像,生成包括一个或多个图像和/或其他相关信息的报告,和/或执行根据本公开的各种实施例的任何其它用于图像重建的功能。

存储模块250可存储图像数据、模型、控制参数、经处理的图像数据或其组合。在一些实施例中,存储模块250可存储可由处理引擎200的处理器执行的一个或多个程序和/或指令,以执行在本发明中描述的示例性方法。例如,存储模块250可存储由处理引擎200的处理器执行的程序和/或指令以获取图像数据、基于图像数据重建图像、训练神经网络模型和/或显示任何中间结果或结果图像。

在一些实施例中,神经网络确定模块230可独立于处理引擎200设置。由另一设备确定的一个或多个神经网络模型可存储在计算机100中(例如,硬盘107、rom103或者ram104等)或者在外部设备上,该外部设备可通过处理引擎200经由例如网络存取。在一些实施例中,这种设备可包括与神经网络确定模块230相同或相似的部分。在一些实施例中,神经网络确定模块230可存储一个或多个神经网络模型,该神经网络模型由另外的设备确定,并且可被计算机100的一个或多个部件(例如处理器102等)访问。在一些实施例中,本发明中可应用的神经网络模型可由计算机100(或包括例如处理引擎200的一部分)或可由计算机100访问的外部设备(或包括例如处理引擎200的一部分)确定。

图3是根据本公开的一些实施例描述的示例性的神经网络确定模块230的框图。如图所示,神经网络确定模块230可包括图像重建单元320,神经网络训练单元340和存储单元360。神经网络确定模块230可在各种组件(例如,如图1所示的计算机的处理器102)上实施。

图像重建单元320可基于一个或多个重建技术来重建一个或多个图像。在一些实施例中,图像重建单元320可将重建的图像发送到神经网络确定模块230的其他单元或块,用于进一步处理。例如,图像重建单元320可以将重建的图像发送到神经网络训练单元340,以训练神经网络模型。作为另一示例,图像重建单元320可以将重建的图像发送到存储单元360以进行存储。

神经网络训练单元340可训练神经网络模型。在一些实施例中,神经网络训练单元340可训练神经网络模型,神经网络模型被配置为根据欠采样图像生成预测图像。可以使用一些图像和针对这些图像的感兴趣区域选框来获得这样的神经网络模型。

在一些实施例中,神经网络训练单元340还可包括初始化块342、提取块344、计算块346和判断块348。初始化块342可初始化神经网络模型。例如,初始化块342可构建初始神经网络模型。作为另一示例,初始化块342可初始化初始神经网络模型的一个或多个参数值。提取块344可以从一个或多个训练图像(例如,欠采图像、参考图像和目标图像)中提取信息。例如,提取块344可以从这些训练图像中提取关于一个或多个区域的特征。计算块346可以在例如训练神经网络模型的过程中执行计算功能。例如,计算块346可以计算在迭代训练过程中更新的神经网络模型的一个或多个参数值。判断块348可以在例如训练神经网络模型的过程中执行判断功能。例如,判断框348可以确定在神经网络模型的训练过程中条件是否满足。

存储单元360可以存储关于例如训练神经网络模型的信息。在一些实施例中,与训练神经网络模型有关的信息可以包括用于训练神经网络模型的图像,用于训练神经网络模型的算法,神经网络模型的参数等。例如,存储单元360可以根据一定的标准来存储训练图像。可以基于训练图像的维度将训练图像存储或上传到存储单元360中。为了说明的目的,二维(2d)图像或三维(3d)图像可以被存储为包括多个元素(例如,像素或体素)的2d或3d矩阵。2d矩阵的元素以每行元素被顺序地存储在存储单元360中的方式被布置在存储单元360中,每行元素与2d图像的长度相对应,因此相同行中的元素在存储单元360中彼此相邻。3d矩阵的元素以构成3d矩阵的多个2d矩阵顺序地存储在存储单元360中的方式布置在存储单元360中,然后每个2d矩阵的行和/或列顺序地存储在存储单元360中。存储单元360可以是存储要由诸如cpu、gpu等处理设备处理的数据的存储器。在一些实施例中,存储单元360可以是由一个或多个gpu访问的存储器,或者是只由特定gpu访问的存储器。

应当注意的是,对神经网络确定模块230的以上描述仅仅是为了说明的目的而提供的,而并非旨在限定本公开的范围。对于本领域普通技术人员而言,可在本公开的教导下做出多种变形或修改。这些变形和修改并不背离本公开的范围。

图4是本发明一实施例的磁共振图像重建方法的流程图。本实施例医学图像数据处理方法的一个或多个处理操作可在图1所示的计算机100上实施。例如,这一流程可以以指令的形式存储在硬盘107中,并由处理器102(例如,如图2所示的处理引擎200)调用和/或执行。

在步骤401中,获取欠采样k空间数据。

步骤401可由获取模块210和图像数据处理模块240执行。在一些实施例中,训练图像可以从硬盘130、终端140、存储模块450和/或任何其它外部存储设备获取。k空间数据是进行磁共振参数成像所需的样本数据,包括欠采样k空间数据。在本实施例中,用磁共振扫描仪扫描不同序列参数的样本图像,每次扫描可以采用相同的欠采样模板,欠采样模板可以使用随机欠采样方式生成。得到欠采样k空间数据。具体的,以磁共振成像中的t2参数(横向弛豫时间)为例进一步说明:采集l个不同回波时间对应的自旋回波样本图像,对不同回波时间下采集到的样本图像采用不同的欠采样模板进行欠采样,得到欠采样的k空间数据。k空间欠采样可以是在2dk空间、3dk空间或k空间时间域混合进行的。欠采样模板可为规则欠采,随机欠采等任意欠采样模板。规则欠采可以是k空间中心的采样密度略高于k空间边缘的采样密度。作为规则欠采的一个示例,可以在k空间中心区域的数据进行全采,其余部分的数据进行欠采样,并以0来填充该欠采样的数据。

在步骤402中,基于经训练的神经网络模型和欠采样k空间数据获得预测图像。

步骤402可由获取模块210和图像数据处理模块240执行。可以通过训练图像和目标图像训练神经网络模型。训练图像可以包括参考图像和欠采样图像。可以在整套扫描序列中选择扫描时间较短的低倍加速或者全采样序列图像作为参考图像。这样,参考图像的采样率高于欠采样图像的采样率,从而具有更完整的k空间数据。全采样图像作为神经网络模型的目标图像。参考图像作为欠采图像的信息补充,与欠采图像同时输入神经网络,进一步保障预测图像的准确性。同时在成套序列的扫描过程中,只需要一次参考图像的采集,其余的序列都可以直接高倍欠采样,大大减少扫描时间。

在本发明的实施例中,神经网络模型可以是卷积神经网络(convolutionalneuralnetwork,cnn)、全卷积网络(fullyconvolutionalnetworks,fcn)或对抗生成网络(generativeadversarialnets,gan)。神经网络模型是由若干不同的节点组成,不同的神经网络其结构不一样。以对抗生成网络为例,对抗生成网络由生成网络和对抗网络两部分组成。生成网络将输入的欠采样混叠图像和参考图像变换成为解混叠图像。对抗网络识别图像真实采集的图像和生成网络生成的解混叠图像。生成网络输出的图像尽可能逼近目标图像使得对抗网络无法分辨真实图像和生成图像。

为了保证能给压缩感知算法提供完整、准确的预测图像信息,神经网络模型需要预测整个采集过程中完整的k空间信息,而不仅仅是对图像的幅值进行预测。预测过程可以在图像域或k空间域进行。

在步骤403中,基于压缩感知算法、欠采样k空间数据和预测图像生成重建图像。

在步骤401中,获取了欠采样k空间数据,通过k空间欠采样可以缩短扫描时间。在步骤402中,利用经训练的神经网络模型可以获得预测图像。在此步骤403中,基于压缩感知算法、欠采样k空间数据和预测图像生成重建图像。其中,压缩感知算法包括若干约束项,若干约束项中的至少一项包括该预测图像。

在本发明的实施例中,压缩感知算法包括搜寻一个或一组变量的解,使成本函数(costfunction)得到最大或最小值。成本函数包括约束项,约束项包括稀疏变换函数,稀疏变换函数的输入值为要求解的重建图像和步骤402获取的预测图像。

成本函数的若干约束项可以包括一致项(consistencyterm)和稀疏项(sparsifyingterm)。一致项对应于一致性。一致性可以用来约束重建的图像,使其与采集的k空间数据信息一致。在本发明的一实施例中,一致项可以用一个k空间差值的l2范数(norm)表示。

稀疏项对应于稀疏性。稀疏性是指在变换域或者图像域中,只有少数信号或系数是重要分量,其余的信号是零或者值相对较小,例如最大信号强度的1%或更小。在本发明的一实施例中,稀疏项可以用一个稀疏变换系数的l1范数表示。在本发明的其它实施例中,一致项和稀疏项也可以用其他范数或公式表示。

作为成本函数的一个示例,成本函数的表示可以为:

其中,s表示需要求解的图像,y表示采集的数据,θ=uf,u表示k-空间采样模式,取值为0(没采集数据)或者1(采集数据),f表示傅里叶变换,将图像变换到k-space域,t表示稀疏变换函数,其输入值为重建的图像s,以及预测图像经过稀疏变换,得到一个稀疏的图像,spred表示神经网络模型获得的预测图像,λ1和λ2表示标量因子,ψ表示稀疏变换。在理想情况下,预测图像应等同于真实的待重建图像。

在本发明的一实施例中,稀疏变换函数t可以是差值操作函数,其表达式可以例如为:

t(spred,s)=|w(spred-s)|

其中,w表示一种权重函数或算子。

权重函数或算子w可以是图像域的权重因子。权重函数或算子w与重建图像和预测图像差值进行点乘操作。在本发明的实施例中,权重因子可以通过评估预测图像的可信度进行施加。对可信度高的区域施加较大的权重因子,对可信度低的区域施加较小的权重因子。可信度分布可以通过历史数据分析、建模、或者结合本次检查的其他数据获得。

权重函数或算子w可以是k空间的操作,其表达式可以例如为:

w=mf

其中,f表示经过傅里叶变换得到的k空间,m代表的权重因子。经过傅里叶变换得到的k空间与权重因子m进行点乘操作。权重因子m可以根据预测图像在k空间域的可信度分布得到。在可信度高的地方权重因子较大,可信度低的地方权重因子较小。可信度分布可以通过历史数据分析、建模、或者结合本次检查的其他数据获得。

在本发明的一实施例中,稀疏变换函数t可以是全变量(totalvariation,tv)操作函数,其表达式可以例如为:

t(spred,s)=tv(hs)

其中,tv表示各向同性(isotropic)或者各向异性(anisotropic)算子,h表示图像域的权重因子。权重因子h与待重建图像s进行点乘操作。h的计算方法可以例如为:

其中,flp表示对预测图像进行图像域低通滤波,例如均值滤波,中值滤波,或者k空间低通滤波等等。r表示图像像素位置,spred(r)表示图像像素位置索引的预测图像。ε表示噪声水平值。

在本发明的另一实施例中,成本函数还可以添加更多约束项,例如压缩感知中常用的稀疏变换、并行成像、或者半傅里叶成像的相位约束项,或者上述的组合。成本函数的表达式可以例如为:

其中,s表示需要求解的图像,y表示采集的数据,θ=uf,u表示k-空间采样模式,取值为0(没采集数据)或者(采集数据),f表示傅里叶变换,将图像变换到k-space域,t表示稀疏变换函数,其输入值为重建的图像s,以及预测图像经过稀疏变换,得到一个稀疏的图像,spred表示神经网络模型获得的预测图像,λ1、λ2、λ3和λ4表示标量因子,ψ表示稀疏变换,例如小波变换等,tv表示全变量,g表示一系列的k空间合成的卷积操作,i表示单位阵。fs表示需要求解图像的傅里叶变换。

本发明提供了一种磁共振图像重建方法、装置,使用参考图像、欠采样图像和全采样图像训练神经网络模型,通过神经网络模型可以获取预测图像,为压缩感知算法提供完整准确的预测图像信息;进行图像重建时,图像重建数据是欠采样的,因此可以缩短采样时间,提高图像扫描的速度;压缩感知算法具有较强的加速能力,其采用了神经网络模型提供的完整准确的预测图像信息,可以避免图像细节信息丢失,提高图像重建的质量和准确性。

下面介绍使用本发明的实施例的磁共振图像重建方法进行图像重建的具体示例。

该示例中,使用磁共振图像重建方法对头部进行重建。使用常用的t1flair,t2flair以及t2序列组合对头部进行扫描。t2序列扫描时间较短,因此将t2序列设为参考序列,使用t2序列扫描获取的图像为参考图像。t1flair,t2flair序列为高倍欠采样序列,获取的图像为高倍欠采样图像。

收集大量的序列组合全采样及欠采样图像,其中欠采样图像作为训练图像,全采样图像作为目标图像,对神经网络模型进行训练。根据图像数据的特性调整神经网络模型,最终得到稳定的神经网络模型。稳定的神经网络模型为压缩感知算法提供完整准确的预测图像信息。

进行图像重建时,图像重建数据是欠采样的,因此可以缩短采样时间,提高图像扫描的速度。根据稳定的神经网络模型得到的预测图像的特性选择压缩感知算法中的稀疏变换函数,调整成本函数,最终确定压缩感知算法模型。

将临床扫描得到的t1flair,t2flair高倍欠采图像输入确定的压缩感知算法模型和经训练的神经网络模型,可得到重建图像。

图5是本发明一实施例的采用t1flair序列进行磁共振图像重建的结果示意图。图6是本发明一实施例的采用t2flair序列进行磁共振图像重建的结果示意图。其中,预测图像是神经网络模型输出的预测图像,重建图像是预测图像经过压缩感知算法后获得的重建图像。通过比较全采样图像、预测图像和重建图像,可以获得预测误差和重建误差。从图5-6可以看出,重建误差远远低于预测误差,可见通过压缩感知算法结合神经网络模型,可以避免图像细节信息丢失,提高图像重建的质量和准确性。

图7是根据本发明一些实施例描述的示例性的神经网络模型的示意图。

cnn模型可以包括输入层720、多个隐藏层740和输出层760。多个隐藏层740可以包括一个或多个卷积层、一个或多个修正线性单元层(relu层)、一个或多个池化层、一个或多个完全连接层、或类似物,或其组合。

为了说明的目的,示出了cnn模型的多个示例性隐藏层740,其包括卷积层740-1、池化层740-2和完全连接层740-n。如结合图4的步骤所述,神经网络训练单元340可以获取图像信息作为cnn模型的输入。图像信息可以表示为包括多个元素(例如像素或体素)的二维(2d)或三维(3d)矩阵。矩阵中的多个元素中的每一个可以具有表示元素的特征的值。

卷积层740-1可以包括多个内核(例如a,b,c和d)。可以使用该多个内核来提取图像信息的特征。在一些实施例中,多个内核中的每一个可以对图像信息的一部分(例如区域)进行滤波,以产生对应于图像信息的该部分的特定特征。该特征可以包括基于内核计算的低级别特征(例如边缘特征、纹理特征),高级别特征或复杂特征。

池化层740-2可以将卷积层740-1的输出作为输入。池化层740-2可以包括多个池化节点(例如e,f,g和h)。可以使用该多个池化节点对卷积层740-1的输出进行采样,并且因此可以减少计算机100的数据处理的计算负担并且增加数据处理速度。在一些实施例中,神经网络训练单元340可以减小对应于池化层740-2中的图像信息的矩阵的规模。

完全连接层740-n可以包括多个神经元(例如o,p,m和n)。该多个神经元可以连接到来自诸如池化层的先前层的多个节点。在完全连接的层740-n中,神经网络训练单元340可以基于图像信息的特征来确定与多个神经元相对应的多个向量,并且用多个加权系数进一步加权该多个向量。

在输出层760中,神经网络训练单元340可以基于完全连接层740获得的多个向量和权重系数确定输出,例如第二图像信息。

在一些实施例中,神经网络训练单元340可以访问计算机100中的多个处理单元,例如gpu。多个处理单元可以执行cnn模型的某些层中的并行处理。可以以这样的方式执行并行处理,即可以将cnn模型的层中的不同节点的计算分配给两个或更多个处理单元。例如,一个gpu可以运行与内核a和b相对应的计算,另一个(或多个)gpu可以运行卷积层740-1中与内核c和d相对应的计算。类似地,对应于cnn模型中其他类型层中的不同节点的计算可以由多个gpu并行执行。

上文已对基本概念做了描述,显然,对于本领域技术人员来说,上述发明披露仅仅作为示例,而并不构成对本发明的限定。虽然此处并没有明确说明,本领域技术人员可能会对本发明进行各种修改、改进和修正。该类修改、改进和修正在本发明中被建议,所以该类修改、改进、修正仍属于本发明示范实施例的精神和范围。

同时,本发明使用了特定词语来描述本发明的实施例。如“一个实施例”、“一实施例”、和/或“一些实施例”意指与本发明至少一个实施例相关的某一特征、结构或特点。因此,应强调并注意的是,本说明书中在不同位置两次或多次提及的“一实施例”或“一个实施例”或“一替代性实施例”并不一定是指同一实施例。此外,本发明的一个或多个实施例中的某些特征、结构或特点可以进行适当的组合。

此外,本领域技术人员可以理解,本发明的各方面可以通过若干具有可专利性的种类或情况进行说明和描述,包括任何新的和有用的工序、机器、产品或物质的组合,或对他们的任何新的和有用的改进。相应地,本发明的各个方面可以完全由硬件执行、可以完全由软件(包括固件、常驻软件、微码等)执行、也可以由硬件和软件组合执行。以上硬件或软件均可被称为“数据块”、“模块”、“引擎”、“单元”、“组件”或“系统”。此外,本发明的各方面可能表现为位于一个或多个计算机可读介质中的计算机产品,该产品包括计算机可读程序编码。

计算机可读信号介质可能包含一个内含有计算机程序编码的传播数据信号,例如在基带上或作为载波的一部分。该传播信号可能有多种表现形式,包括电磁形式、光形式等等、或合适的组合形式。计算机可读信号介质可以是除计算机可读存储介质之外的任何计算机可读介质,该介质可以通过连接至一个指令执行系统、装置或设备以实现通讯、传播或传输供使用的程序。位于计算机可读信号介质上的程序编码可以通过任何合适的介质进行传播,包括无线电、电缆、光纤电缆、射频信号、或类似介质、或任何上述介质的组合。

本发明各部分操作所需的计算机程序编码可以用任意一种或多种程序语言编写,包括面向对象编程语言如java、scala、smalltalk、eiffel、jade、emerald、c++、c#、vb.net、python等,常规程序化编程语言如c语言、visualbasic、fortran2003、perl、cobol2002、php、abap,动态编程语言如python、ruby和groovy,或其他编程语言等。该程序编码可以完全在用户计算机上运行、或作为独立的软件包在用户计算机上运行、或部分在用户计算机上运行部分在远程计算机运行、或完全在远程计算机或服务器上运行。在后种情况下,远程计算机可以通过任何网络形式与用户计算机连接,比如局域网(lan)或广域网(wan),或连接至外部计算机(例如通过因特网),或在云计算环境中,或作为服务使用如软件即服务(saas)。

此外,除非权利要求中明确说明,本发明所述处理元素和序列的顺序、数字字母的使用、或其他名称的使用,并非用于限定本发明流程和方法的顺序。尽管上述披露中通过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,该类细节仅起到说明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本发明实施例实质和范围的修正和等价组合。例如,虽然以上所描述的系统组件可以通过硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的服务器或移动设备上安装所描述的系统。

同理,应当注意的是,为了简化本发明披露的表述,从而帮助对一个或多个发明实施例的理解,前文对本发明实施例的描述中,有时会将多种特征归并至一个实施例、附图或对其的描述中。但是,这种披露方法并不意味着本发明对象所需要的特征比权利要求中提及的特征多。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。

一些实施例中使用了描述成分、属性数量的数字,应当理解的是,此类用于实施例描述的数字,在一些示例中使用了修饰词“大约”、“近似”或“大体上”来修饰。除非另外说明,“大约”、“近似”或“大体上”表明所述数字允许有±20%的变化。相应地,在一些实施例中,说明书和权利要求中使用的数值参数均为近似值,该近似值根据个别实施例所需特点可以发生改变。在一些实施例中,数值参数应考虑规定的有效数位并采用一般位数保留的方法。尽管本发明一些实施例中用于确认其范围广度的数值域和参数为近似值,在具体实施例中,此类数值的设定在可行范围内尽可能精确。

虽然本发明已参照当前的具体实施例来描述,但是本技术领域中的普通技术人员应当认识到,以上的实施例仅是用来说明本发明,在没有脱离本发明精神的情况下还可作出各种等效的变化或替换,因此,只要在本发明的实质精神范围内对上述实施例的变化、变型都将落在本发明的权利要求书的范围内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1