物质分解方法、装置和系统与流程

文档序号:16682432发布日期:2019-01-19 00:38阅读:325来源:国知局
物质分解方法、装置和系统与流程

本发明涉及断层影像重建领域,尤其涉及物质分解方法、装置和系统。



背景技术:

随着x光探测器和成像系统的发展,使用双能或多能的能谱ct能谱ct(computedtomography,电子计算机断层成像技术)得到广泛的应用。相比于传统的单能ct,使用2个或2个以上能窗或能量通道的x光穿过待测物体形成的信号进行成像的能谱ct可以克服谱硬化和对比度不足等缺点,从成像的底层物理基础出发打破了传统ct成像在很多应用领域的发展瓶颈,提高了x光ct图像区分物质能力和提高物质成分定量分析能力。

光子计数探测器具有良好的能量分辨特性和能谱分辨能力,它可以对不同能量的入射光子分别进行计数,识别光子的能量信息,同时得到不同光子能量下的投影数据,从而进行不同光子能量下的ct重建。通过引入能谱信息,能谱ct可通过物质分解方法进行物质鉴别、识别物质组成,从而进行精确图像重建。例如,能谱ct通过多个能窗的数据可提供被检测物质的电子密度、等效原子序数信息。

但是,由于光子计数探测器的非理想物理效应,比如电荷共享、脉冲堆积和k-逃逸等,会造成能谱变形,给分解模型带来误差,影响物质分解的准确性。



技术实现要素:

本发明实施例提供物质分解方法、装置和系统,通过人工神经网络进行物质分解,提高了物质分解的准确性。

根据本发明实施例的一方面,提供一种物质分解方法,包括:采集标定模体在两个或两个以上能窗的投影数据,根据投影数据和指定域的物质分解实现方式,确定与指定域的物质分解实现方式对应的该标定模体的多能数据;设置理想单能,通过预设的方法得到标定模体在该理想单能下的理想单能数据;根据多能数据训练对应的神经网络,训练后的神经网络反映多能数据和理想单能数据之间的映射关系;基于待分解物质在指定能窗的投影数据和所述训练后的神经网络,分解所述待分解物质。

根据本发明实施例的另一方面,提供一种物质分解装置,包括:多能数据获取模块,用于采集标定模体在两个或两个以上能窗的投影数据,根据投影数据和指定域的物质分解实现方式,确定与指定域的物质分解实现方式对应的该标定模体的多能数据;理想单能数据获取模块,用于设置理想单能,通过预设的方法得到标定模体在该理想单能下的理想单能数据;神经网络训练模块,用于根据多能数据训练对应的神经网络,训练后的神经网络反映多能数据和理想单能数据之间的映射关系;物质分解模块,用于基于待分解物质在指定能窗的投影数据和训练后的神经网络,分解待分解物质。

根据本发明实施例的再一方面,提供一种物质分解系统,包括:存储器和处理器;该存储器用于存储程序代码;该处理器通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序,以用于执行上述的物质分解方法。

根据本发明实施例中的物质分解方法、装置和系统,采集标定物体的多能数据作为神经网络的输入数据,并将标定物体的理想单能数据作为神经网络的目标值,训练人工神经网络,并使用训练得到的神经网络对物质进行分解,从而对识别物质以进行精确地图像重建。

附图说明

为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是示出根据本发明一实施例的物质分解方法的流程图;

图2是图1中得到理想单能数据的第一示例流程图;

图3是图1中根据多能数据训练神经网络的第一示例流程图;

图4是图1中得到理想单能数据的第二示例流程图;

图5是图1中根据多能数据训练神经网络的第二示例流程图;

图6是示出根据本发明一实施例提供的物质分解装置的结构示意图;

图7是图6中理想单能数据获取模块的具体结构示意图;

图8是图6中神经网络训练模块的具体结构示意图;

图9是示出了根据本发明实施例的计算设备的示例性硬件架构的结构图。

具体实施方式

下面将详细描述本发明的各个方面的特征和示例性实施例,为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细描述。应理解,此处所描述的具体实施例仅被配置为解释本发明,并不被配置为限定本发明。对于本领域技术人员来说,本发明可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本发明的示例来提供对本发明更好的理解。

需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

为了更好的理解本发明,下面将结合附图,详细描述根据本发明实施例的物质分解方法、装置和系统,应注意,这些实施例并不是用来限制本发明公开的范围。

图1是示出根据本发明实施例的物质分解方法的流程图。如图1所示,本实施例中的物质分解方法100包括以下步骤:

步骤s110,采集标定模体在两个或两个以上能窗的投影数据,根据投影数据和指定域的物质分解实现方式,确定与指定域的物质分解实现方式对应的该标定模体的多能数据。

步骤s120,设置理想单能,通过预设的方法得到标定模体在该理想单能下的理想单能数据。

步骤s130,根据多能数据训练对应的神经网络,训练后的神经网络反映多能数据和理想单能数据之间的映射关系。

步骤s140,基于待分解物质在指定能窗的投影数据和训练后的神经网络,分解待分解物质。

根据本发明实施例的物质分解方法,训练神经网络对物质进行分解,从而对物质进行识别,以进行精确的图像重建。

在本发明实施例中,人工神经网络是一种大规模、多参数优化的工具,依靠大量的训练数据,神经网络能够学习出数据中难以总结的隐藏特征,从而完成物质分解的任务,人工神经网络也可以直接简称为神经网络或类神经网络。

在步骤s110中,指定域的物质分解实现方式包括投影域物质分解和图像域物质分解。

在多能分解中,常用的分解方式为双效应分解和基材料分解。能谱ct图像重建是基于上述两种分解方式,结合常规ct的空间结构信息重建获得分解系数的空间分布,进一步获取虚拟单能ct图像以及电子密度和等效原子序数分布图像。能谱ct图像重建具有非线性、多解性与高维数等特点,难以直接求解,现有的求解方法包括:投影域分解法和图像域分解法。

投影域分解法是一种前处理方法,在投影域完成分解,具体地,利用投影数据求得分解系数后使用传统ct重建方法可得分解系数图像;图像域分解法是一种后处理方法,在图像域中进行分解,具体地,首先可以用传统ct重建方法重建不同能谱下的线性衰减系数图像,然后通过直接求解线性方程组求解分解系数。

在本发明实施例中,可以不限制采集投影数据的能窗数量,也不限制标定模体的物质组成及浓度大小。具体地,标定模体至少包括两个基材料。

下面通过具体的实施例分别详细描述根据本发明实施例的在投影域进行物质分解和在图像域进行物质分解的过程。

在一些实施例中,步骤s110中指定域的物质分解实现方式为投影域物质分解,当对标定模体在投影域进行物质分解时,标定模体的多能数据为该标定模体在指定能窗的投影数据,该标定模体的理想单能数据为理想单能投影数据。

在该实施例中,使用投影数据训练得到的神经网络可以称为投影域神经网络。

在一些实施例中,步骤s120中设置理想单能时,理想单能的数量并不受采集投影数据时能窗的数量限定,设置的理想单能的数量可以与采集投影数据时能窗的数量不相等,并且理想单能的取值可以在采集投影数据时能窗的能量范围内,也可以不在该能窗的能量范围内。

作为一个示例,可以获取指定能窗的中间能量作为理想单能。

图2示出了图1中得到理想单能数据的第一示例流程图。如图2所示,在一些实施例中,步骤s120可以进一步包括:

步骤s201,使用投影数据,通过单能断层影像ct重建方法得到标定模体在指定能窗的重建图像。

在该步骤中,单能谱ct重建方法即传统ct重建方法。在一些实施例中,传统ct重建方法涉及x光投影成像方法与雷当radon变换方法的结合。

作为一个示例,设采集数据的能窗为ek,该能窗采集到的投影数据为pk,选取指定能量作为理想单能,可以得到理想单能投影数据为qk(k=1,2,...,k),k为能窗数量,并且k为大于等于2的整数。若用r表示x光成像的radon变换,那么标定模体在指定能窗的重建图像可以表示为pk=r-1(pk),理想单能重建图像为qk=r-1(qk)。

在该示例中,为获得好的能量分辨率可以选择能量较小的能窗。

步骤s202,获取设置的理想单能,通过图像配准得到该理想单能下的理想单能重建图像。

在本发明实施例中,通过图像配准可以使不同探测器单元和不同投影角度等不同条件下获得的重建图像进行匹配或叠加。

在一些实施例中,图像配准的过程可以包括:将采集的标定模体在两个或两个以上能窗的投影数据作为原始投影数据;根据该两个或两个以上能窗中每个能窗的投影数据,使用单能谱ct重建方法得到每个能窗的重建图像;将每个能窗的重建图像根据实际投影的采集条件进行再投影,得到每个能窗的重建图像的再投影数据;将原始投影和对应的再投影数据进行分析,计算出实际投影的轴向位移,并根据实际投影的轴向位移校正每个能窗的原始投影数据;使用校正后的每个能窗的原始投影数据和单能谱ct重建方法,得到每个能窗的重建图像。

步骤s203,对理想单能重建图像进行投影,得到理想单能投影数据,将理想单能投影数据作为理想单能数据。

作为一个示例,使用标定模体采集能窗ek的投影数据pk,通过传统ct重建方法得到多能重建图像pk。取能窗ek的中间能量作为理想单能,通过图像配准,可得到理想单能重建图像qk,对得到的理想单能重建图像qk进行投影,可以得到理想单能投影数据qk。

在该实施例中,利用投影数据pk和理想单能投影数据qk,训练的对应的神经网络可以称为投影域神经网络。

图3是图1中根据多能数据训练对应的神经网络的第一示例流程图。如图3所示,在一些实施例中,步骤s130中根据多能数据训练对应的神经网络的步骤可以进一步包括:

步骤s301,获取标定模体在指定能窗的投影数据中投影点的h×g邻域,将h×g邻域中投影点的投影值作为投影域神经网络的输入数据。

在该步骤中,h为指定的投影点相邻的探测器单元的数量,g为指定的投影点相邻的投影角度的数量。

步骤s302,将理想单能投影数据中与该h×g邻域中中心投影点对应的理想投影值作为投影域神经网络的目标值。

步骤s303,设置投影域神经网络的隐含层层数、隐含层激活函数、输出层激活函数和目标函数,通过预设的神经网络算法和学习速率训练投影域神经网络。

在该步骤中,训练的投影域神经网络可以包括一个输入层、一个输出层和隐含层,其中,隐含层的层数可以大于等于1。

在一些实施例中,可以根据经验设置投影域神经网络的隐含层层数,并根据不同的需求选择隐含层激活函数、输出层激活函数和目标函数。投影域神经网络的隐含层层数与标定模体的种类和数量有关,隐含层的激活函数和输出层的激活函数与输入数据有关。

在一些实施例中,投影域神经网络的输入层、输出层和隐含层之间可以采用全连接的连接方式。

在采用全连接的连接方式时,可以获取标定模体在指定能窗的投影数据中投影点的h×g邻域,将h×g邻域中投影点的投影值作为投影域神经网络的输入数据;并可以将该h×g邻域中投影点个数与能窗的个数的乘积作为输入层的节点数,将设置的理想单能的数量作为输出层的节点数。

在另一些实施例中,投影域神经网络输入层、输出层和隐含层之间可以采用卷积神经网络(convolutionalneuralnetwork,cnn)与全连接相结合的连接方式。

在本发明实施例中,卷积神经网络是一种带有卷积结构的深度神经网络。卷积神经网络的隐含层可以包括卷积层(alternatingconvolutionallayer)和池化层(poolinglayer)。其中,卷积层可以通过卷积运算输入图像信号特征增强,并且降低图像噪声,池化层可以用于对卷积层的卷积结果进行降低维度,防止过度拟合。

在采用卷积神经网络与全连接相结合的连接方式进行该投影域神经网络的训练时,可以获取标定模体在指定能窗的投影图像作为投影域神经网络的输入数据,并确定投影域神经网络中卷积层的卷积核大小和卷积核个数等参数。

作为一个示例,对于标定模体在指定能窗的投影图像上的投影点b(m,n),其中,m可以表示第m个探测器单元,n可以表示第n个投影角度,投影点b(m,n)的投影值pk(m,n)的理想值即为理想单能投影图像上对应点的投影值qk(m,n)。

考虑到投影点b(m,n)的投影值会受到周围投影点的投影值的影响,为提高投影域神经网络的鲁棒性,在一些实施例中,取投影点b(m,n)和b(m,n)相邻的h个探测器单元和相邻的g个投影角度的投影值,即以点b(m,n)为中心的h×g邻域的投影值作为投影域神经网络的输入数据,对应的,理想单能投影数据点b(m,n)的理想投影值作为投影域神经网络的目标值,训练投影域神经网络。

在一些实施例中,作为一个示例,可以将获取的标定模体在k个能窗的h×g邻域中共k×h×g个投影点的投影值作为投影域神经网络的输入数据,同时进行投影域神经网络的训练,其中,k为大于等于2的整数。

在一些实施例中,还可以对训练的投影域神经网络进行测试和/或验证。具体地,可以从投影域神经网络的输入数据中选取一定比例的输入数据作为投影域神经网络的训练数据。

在一些实施例中,可以将投影域神经网络的输入数据的其中一部分输入数据作为投影域神经网络的训练数据,其中另一部分输入数据作为投影域神经网络的测试和/或验证数据。

通过上述实施例可以得到训练后的投影域神经网络。在实际使用时,可以在同一个能谱ct系统中采集待分解物质在指定能窗的投影数据,并根据该投影数据生成投影域神经网络的输入数据,该输入数据与训练该投影域神经网络时的输入数据具有相同的数据格式,使用训练好的投影域神经网络处理该输入数据,输出理想单能投影数据。

具体地,步骤s140中基于待分解物质在指定能窗的投影数据和训练后的神经网络,分解待分解物质的步骤,可以进一步包括:

步骤s1401,获取待分解物质在指定能窗的投影数据中投影点的h×g邻域,将待分解物质在该h×g邻域中的投影点的投影值作为投影域神经网络的输入数据,使用训练后的投影域神经网络,得到待分解物质的理想单能投影值。

在该步骤中,h为指定的投影点相邻的探测器单元的数量,g为指定的投影点相邻的投影角度的数量。

步骤s1402,对待分解物质的理想单能投影值进行单能ct重建,得到待分解物质的理想单能重建图像。

在该实施例中,使用投影域神经网络输出的理想单能投影数据,经过传统的单能ct重建,即可得到理想单能重建图像。

下面通过具体的实施例详细介绍在图像域训练图像域神经网络,进行物质分解的过程。

在一些实施例中,步骤s110中指定域的物质分解实现方式为图像域物质分解,当对标定模体在图像域进行物质分解时,标定模体的多能数据为标定模体在指定能窗的重建图像,该重建图像是利用标定模体在选定的能窗的投影数据通过单能ct重建方法得到的,标定模体的理想单能数据为理想单能重建图像。

在该实施例中,使用重建图像训练得到的神经网络可以称为图像域神经网络。

图4示出了图1中得到理想单能数据的步骤的第二示例流程图。如图4所示,在一些实施例中,步骤s120可以进一步包括:

步骤s401,获取设置的理想单能。

作为一个示例,可以获取指定能窗的中间能量作为理想单能。

步骤s402,根据理想单能的能量值,通过查表的方法得到该理想单能下的理想单能重建图像,将该理想单能重建图像作为理想单能数据。

作为一个示例,使用标定模体在能窗ek的投影数据pk,通过传统ct重建方法得到多能重建图像pk,取能窗ek的中间能量作为理想单能的能量值,通过查表法进行美国国家标准与技术研究所nist提供的相关衰减系数的查询,可得标定模体在能窗ek对应的理想单能重建图像qk。

在该实施例中,利用重建图像pk和理想单能重建图像qk,训练的神经网络可以称为图像域神经网络。

图5是图1中根据多能数据训练神经网络的第二示例流程图。如图5所示,在一些实施例中,步骤s130中根据多能数据训练神经网络的步骤可以进一步包括:

步骤s501,获取标定模体在指定能窗的重建图像中像素点的n×n邻域,将n×n邻域中像素点的重建值作为图像域神经网络的输入数据。

在该步骤中,n为指定的像素点的邻域尺寸。

步骤s502,将理想单能重建图像中与n×n邻域中中心像素点对应的理想重建值作为图像域神经网络的目标值;

步骤s503,设置图像域神经网络的隐含层层数、隐含层激活函数、输出层激活函数和目标函数,通过预设的神经网络算法和学习速率训练图像域神经网络。

在该步骤中,训练的图像域神经网络包括一个输入层、一个输出层和隐含层,其中,隐含层的层数可以大于等于1。

在一些实施例中,可以根据经验设置图像域神经网络的隐含层层数,并根据不同的需求选择隐含层激活函数、输出层激活函数和目标函数。图像域神经网络的隐含层层数和标定模体的种类和数量有关,隐含层的激活函数和输出层的激活函数与输入数据有关。

在一些实施例中,图像域神经网络输入层、输出层和隐含层之间可以采用全连接的连接方式。

在采用全连接的连接方式时,可以获取标定模体在指定能窗的重建图像中像素点的n×n邻域,将该n×n邻域中像素点的重建值作为图像域神经网络的输入数据,并可以将n×n邻域中像素点个数与能窗的个数的乘积作为输入层的节点数,将设置的理想单能的数量作为输出层的节点数。

在另一些实施例中,图像域神经网络输入层、输出层和隐含层之间可以采用卷积神经网络与全连接相结合的连接方式。

采用卷积神经网络与全连接相结合的连接方式进行该图像域神经网络的训练时,可以获取标定模体在指定能窗的重建图像作为投影域神经网络的输入数据,并确定图像域神经网络中卷积层的卷积核大小和卷积核个数等参数。

作为一个示例,对于标定模体在指定能窗的多能重建图像上的像素点a(i,j),其中i和j可以用于表示该像素点的位置。像素点a(i,j)的重建值即衰减系数pk(i,j)的理想值为理想单能的重建图像上对应点的重建值qk(i,j)。

考虑到像素点a(i,j)的重建值会受到周围像素的影响,为提高图像域神经网络的鲁棒性,在一些实施例中,以像素点a(i,j)为中心取邻域尺寸大小为n×n的图像区域作为图像域神经网络的输入数据。对应的,将理想单能重建图像中像素点a(i,j)的理想重建值即真实衰减系数作为图像域神经网络的目标值,训练图像域神经网络。

在一些实施例中,作为一个示例,可以将获取的标定模体在k个能窗下的n×n邻域中共k×n×n个像素点的重建值作为图像域神经网络的输入数据,k个能窗同时进行图像域神经网络的训练。

在另一些实施例中,可以对训练的图像域神经网络进行测试和/或验证。具体地,可以从图像域神经网络的输入数据中选取一定比例的输入数据作为图像域神经网络的训练数据。

在一些实施例中,可以将图像域神经网络的输入数据的其中一部分输入数据作为图像域神经网络的训练数据,其中另一部分输入数据作为图像域神经网络的测试和/或验证数据。

通过上述实施例可以得到训练后的图像域神经网络。在实际使用时,可以在同一个能谱ct系统中采集待分解物质在指定能窗的投影数据,并根据该投影数据生成图像域神经网络的输入数据,该输入数据与训练图像域神经网络时的输入数据具有相同的数据格式,使用训练好的图像域神经网络处理该输入数据,输出理想单能重建图像。

在一些实施例中,步骤s140中基于待分解物质在指定能窗的投影数据和训练后的神经网络,分解待分解物质的步骤可以进一步包括:

步骤s1411,根据待分解物质在指定能窗的投影数据,通过单能ct重建方法得到待分解物质在指定能窗的重建图像。

步骤s1412,获取待分解物质在指定能窗的重建图像中像素点的n×n邻域,将待分解物质在该n×n邻域的像素点的重建值作为图像域神经网络的输入数据,使用训练后的图像域神经网络,得到待分解物质的理想单能重建值。

在该步骤中,n为指定的像素点的邻域尺寸。

步骤s1413,根据待分解物质的理想单能重建值,得到待分解物质的理想单能重建图像。

在该实施例中,使用图像域神经网络输出理想单能重建值即理想单能衰减系数,按像素点的位置对应回重建图像,即可得到理想单能重建图像。

在上述实施例中,进行投影域神经网络训练或进行图像域神经网络训练时,预设的神经网络算法例如可以是梯度下降法或列文伯格-马夸尔特levenberg-marquardt算法;隐含层激活函数可以是s型曲线sigmoid函数或relu(rectifiedlinearunit,线性整流函数),输出层激活函数例如可以是线性函数,目标函数例如可以是最小化均方误差。

在一些实施例中,预设的神经网络算法也可以是梯度下降法的改进算法,目标函数即代价函数可以根据不同的训练要求设定。

并且,在一些实施例中,适当的学习速率的设定,可以避免神经网络在训练过程中陷入局部极小。

在另一些实施例中,神经网络算法也可以是反向传播(backpropagation,bp)算法,在bp算法中,可以将附加动量与自适应学习速率相结合,减轻网络训练过程中的振荡,加速训练的神经网络的收敛。

在一些实施例中,可以根据情况选择不同的激活函数。本发明实施例中的s型曲线sigmoid函数也可以称为s形生长曲线,对于人工神经网络而言激活函数起到非线性变换的作用,从而增加人工神经网络系统的非线性表达能力;线性整流函数relu也可以称为修正线性单元,使用relu作为激活函数进行运算时可以更加有效率的梯度下降,并且可以简化计算过程,从而降低神经网络的整体计算成本。

在一些实施例中,隐含层还可以包括规范层(batchnormalization,bn),在一些实施例中,该规范层也可以称为bn层。bn层可以通过bn算法对神经元进行归一化处理,对训练人工神经网络进行优化。

在一些实施例中,bn算法可以使神经网络训练更加稳定,加快了收敛的速度,控制训练的神经网络过拟合,同时可以起到正则化的作用。

在一些实施例中,隐含层还可以包括dropout层,通过dropout层的网络优化可以减少神经网络过拟合,增加神经网络训练成功率和准确性。

在进行投影域神经网络训练或进行图像域神经网络训练时,可以根据需求选择空气值是否同时进行神经网络训练。

具体地,投影数据还包括采集的空气在两个或两个以上能窗的投影数据;多能数据还包括空气的多能数据,空气的多能数据是根据空气在指定能窗的投影数据和指定域的物质分解实现方式确定的。

在本发明实施例中,获取空气值的输入数据的方法可以与获取标定模体的输入数据的方法相同。并且,在一些实施例中,空气值的目标值设置为0。加入空气值的训练,可以提高神经网络训练的精度,避免训练过程中产生不必要的误差和噪声。

在另一些实施例中,可以使用多个标定模体的图像数据进行训练,在网络训练时增加相应的输入数据和目标数据即可。

根据本发明实施例中的物质分解方法,训练神经网络不受能窗数目和标定模体的限制,训练样本数目足够多时,使用训练后的神经网络可以进行精确物质分解和物质识别,从而进行精确图像重建。

下面结合附图,详细介绍根据本发明实施例的物质分解装置。

图6示出了根据本发明一实施例提供的物质分解装置的结构示意图。如图6所示,物质分解装置600包括:

多能数据获取模块610,用于采集标定模体在两个或两个以上能窗的投影数据,根据投影数据和指定域的物质分解实现方式,确定与指定域的物质分解实现方式对应的该标定模体的多能数据。

理想单能数据获取模块620,用于设置理想单能,通过预设的方法得到标定模体在该理想单能下的理想单能数据。

神经网络训练模块630,用于根据多能数据训练对应的神经网络,训练后的神经网络反映多能数据和理想单能数据之间的映射关系。

物质分解模块640,用于基于待分解物质在指定能窗的投影数据和训练后的神经网络,分解待分解物质。

根据本发明实施例的物质分解装置,训练神经网络对物质进行分解,从而对物质进行识别,可以提高图像重建的精确度。

在一些实施例中,指定域的物质分解实现方式为投影域物质分解;多能数据获取模块610具体用于将标定模体在指定能窗的投影数据作为多能数据。

在另一些实施例中,指定域的物质分解实现方式为图像域物质分解;多能数据获取模块610具体用于使用投影数据,通过单能ct重建方法得到标定模体在指定能窗的重建图像,将得到的标定模体的重建图像作为多能数据。

图7是图6中理想单能数据获取模块的具体结构示意图。如图7所示,在一些实施例中,理想单能数据获取模块620包括:

重建图像获取单元621,用于使用投影数据,通过单能断层影像ct重建方法得到标定模体在指定能窗的重建图像。

图像配准单元622,用于获取设置的理想单能,通过图像配准得到该理想单能下的理想单能重建图像。

理想单能投影数据获取单元623,用于对理想单能重建图像进行投影,得到理想单能投影数据,将理想单能投影数据作为理想单能数据。

在另一些实施例中,理想单能数据获取模块620还可以包括:

理想单能重建图像获取单元624,用于获取设置的理想单能,根据理想单能的能量值,通过查表的方法得到该理想单能下的理想单能重建图像,将该理想单能重建图像作为理想单能数据。

在本发明实施例中,通过理想单能数据获取模块620获取训练投影域神经网络的理想单能投影数据,并将该理想单能投影数据作为训练投影与神经网络的目标值;以及通过理想单能数据获取模块620获取训练图像域神经网络的理想单能重建图像,将该理想单能重建图像作为训练图像域神经网络的目标值。

图8示出了图6中神经网络训练模块630的具体结构示意图。如图8所示,在一些实施例中,神经网络训练模块630可以包括:

投影域神经网络输入数据获取单元631,用于获取标定模体在指定能窗的投影数据中投影点的h×g邻域,将该h×g邻域中投影点的投影值作为投影域神经网络的输入数据,其中,h为指定的投影点相邻的探测器单元的数量,g为指定的投影点相邻的投影角度的数量。

投影域神经网络目标值获取单元632,用于将理想单能投影数据中与h×g邻域中中心投影点对应的理想投影值作为投影域神经网络的目标值。

投影域神经网络构建单元633,用于将h×g邻域中投影点个数与能窗的个数的乘积作为输入层的节点数,将设置的理想单能的数量作为输出层的节点数,并设置投影域神经网络的隐含层层数、隐含层节点数、隐含层激活函数、输出层激活函数和目标函数,通过预设的神经网络算法和学习速率训练投影域神经网络。

继续参考图8,在另一些实施例中,神经网络训练模块630也可以包括:

图像域神经网络输入数据获取单元634,用于获取标定模体在指定能窗的重建图像中像素点的n×n邻域,将n×n邻域中像素点的重建值作为图像域神经网络的输入数据,其中,n为指定的像素点的邻域尺寸。

图像域神经网络目标值获取单元635,用于将理想单能重建图像中与n×n邻域中中心像素点对应的理想重建值作为图像域神经网络的目标值。

图像域神经网络构建单元636,用于将n×n邻域中像素点个数n×n与能窗的个数的乘积作为输入层的节点数,将设置的理想单能的数量作为输出层的节点数;并设置图像域神经网络的隐含层层数、隐含层节点数、隐含层激活函数、输出层激活函数和目标函数,通过预设的神经网络算法和学习速率训练图像域神经网络。

并且,在一些实施例中,适当的学习速率的设定,可以避免神经网络在训练过程中陷入局部极小。

在另一些实施例中,神经网络算法也可以是反向传播bp算法,在bp算法中,可以将附加动量与自适应学习速率相结合,减轻网络训练过程中的振荡,加速训练的神经网络的收敛。

在上述实施例中,可以通过神经网络训练模块630构建投影域神经网络,利用标定模体的投影数据和理想单能投影数据,训练得到投影域神经网络;也可以通过神经网络训练模块630构建图像域神经网络,利用标定模体的重建图像和理想单能重建图像,训练得到图像域神经网络。

在一些实施例中,物质分解模块640具体可以用于:获取待分解物质在指定能窗的投影数据中投影点的h×g邻域,将待分解物质在该h×g邻域中的投影点的投影值作为输入数据,使用训练后的投影域神经网络,得到待分解物质的理想单能投影值;对待分解物质的理想单能投影值进行单能ct重建,得到待分解物质的理想单能重建图像。

在物质分解模块640中,利用训练后的投影域神经网络或训练后的图像域神经网络对待分解物质进行分解,从而进行精确的图像重建。

在本发明实施例中,预设的神经网络算法可以是梯度下降法或列文伯格-马夸尔特levenberg-marquardt算法;隐含层激活函数可以是s型曲线sigmoid函数或线性整流函数relu,输出层激活函数可以是线性函数,目标函数可以是最小化均方误差。

在一些实施例中,还可以根据实际情况采用上述实施例中的bn和dropout等算法对训练神经网络进行优化。

在一些实施例中,为提高神经网络训练的精度,可以对空气值同时进行神经网络训练。

具体地,投影数据还可以包括采集的空气在两个或两个以上能窗的投影数据;多能数据还包括空气的多能数据,空气的多能数据是根据空气在指定能窗的投影数据和指定域的物质分解实现方式确定的。

获取空气值的输入数据的方法可以与获取标定模体的输入数据的方法相同。加入空气值的训练,可以避免训练过程中产生不必要的误差和噪声。

根据本发明实施例的物质分解装置,使用足够多的训练样本训练神经网络,使用训练后的神经网络可以进行精确物质分解和物质识别,从而进行精确图像重建。

根据本发明实施例的物质分解装置的其他细节与以上结合图1至图5描述的根据本发明实施例的物质分解方法类似,在此不再赘述。

为了便于理解,下面以在图像域进行物质分解为例,介绍根据本发明实施例的物质分解方法。

首先,选择浓度分别为5%的氯化钠、葡萄糖和酒精溶液,10%的氯化钠、葡萄糖和酒精溶液,15%的氯化钠、葡萄糖和酒精溶液以及20%的氯化钠、葡萄糖和酒精溶液作为标定模体。

在实验中,可以通过单能ct重建方法得到每个能窗的重建图像。具体地,可以采集能窗为[29,43]kev和[43,57]kev的双能投影数据,设置每个能窗的中间能量作为待重建的理想单能能量,即能窗为[29,43]kev的理想单能能量为36kev,能窗[43,57]kev的理想单能能量为50kev。

其次,对于标定模体的双能重建图像上的每一个点a(i,j),设置邻域尺寸n=5,即取a(i,j)周围5×5大小的图像块,将该图像块中每个像素点的重建值作为神经网络训练的输入数据;通过理想单能能量查找nist表得到理想单能的理想重建值,即理想单能衰减系数作为训练神经网络的目标值。

接着,采用一个5层的神经网络,即该神经网络包括一个输入层,4个隐含层和一个输出层,其中输入层共有5×5×2个节点,输出层有2个节点;根据经验值分别设置隐含层各层的节点数即隐含层各层的神经元个数;神经网络各层之间采用全连接的连接方式;各隐含层的激活函数均可以设置为sigmoid函数,输出层的激活函数设置为线性函数。

然后,在训练神经网络时,在训练网络时,可以使用输入数据的一部分例如90%的输入数据用于神经网络训练。可以采用共轭梯度下降法进行训练,目标函数可以为最小化均方误差,学习速率可以设为0.01。

最后,在测试网络时,使用输入数据的另一部分例如10%对训练的神经网络进行测试及验证以评估神经网络的强度和效用,得到训练后的图像域的神经网络。

本发明实施例用采集的多能数据,通过使用训练后的神经网络得到理想单能数据。使用神经网络进行物质分解和物质识别,从而进行精确图像重建。

在本发明实施例中,结合图1至图8描述的根据本发明实施例的物质分解方法和装置的至少一部分可以由计算设备900来实现。图9是示出根据发明实施例的计算设备的硬件结构示意图。

如图9所示,该计算设备900可以包括:处理器901、存储器902、通信接口903和总线910,其中,处理器901、存储器902、通信接口903通过总线910连接并完成相互间的通信。

具体地,上述处理器901可以包括中央处理器(cpu),或者特定集成电路(asic),或者可以被配置成实施本发明实施例的一个或多个集成电路。

存储器902可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器902可包括hdd、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(usb)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器902可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器902可在计算设备900的内部或外部。在特定实施例中,存储器902是非易失性固态存储器。在特定实施例中,存储器902包括只读存储器(rom)。在合适的情况下,该rom可以是掩模编程的rom、可编程rom(prom)、可擦除prom(eprom)、电可擦除prom(eeprom)、电可改写rom(earom)或闪存或者两个或更多个以上这些的组合。

通信接口903,主要用于实现本发明实施例中各模块、装置、单元和/或设备之间的通信。

总线910包括硬件、软件或两者,将计算设备900的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(ahp)或其他图形总线、增强工业标准架构(eisa)总线、前端总线(fsb)、超传输(ht)互连、工业标准架构(isa)总线、无限带宽互连、低引脚数(lpc)总线、存储器总线、微信道架构(mca)总线、外围组件互连(pci)总线、pci-express(pci-x)总线、串行高级技术附件(sata)总线、视频电子标准协会局部(vlb)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线910可包括一个或多个总线。尽管本发明实施例描述和示出了特定的总线,但本发明考虑任何合适的总线或互连。

在一些实施例中,图9所示的计算设备900可以被实现为物质分解系统,该物质分解系统包括处理器901和存储器902。该存储器902用于存储程序代码;该处理器901通过读取存储器902中存储的可执行程序代码来运行与可执行程序代码对应的程序,以用于执行上述的物质分解方法。

因此,根据本发明实施例提供物质分解系统,可以通过采集标定模体在两个或两个以上能窗的投影数据,根据该投影数据和指定域的物质分解实现方式,确定与指定域的物质分解实现方式对应的该标定模体的多能数据;设置理想单能,通过预设的方法得到标定模体在该理想单能下的理想单能数据;根据多能数据训练对应的神经网络,训练后的神经网络反映多能数据和理想单能数据之间的映射关系;基于待分解物质在指定能窗的投影数据和训练后的神经网络,分解待分解物质。

本发明实施例中的计算设备900可以执行本发明上述实施例中的物质分解方法的步骤s110-s140、步骤s201-s203、步骤s301-s304、步骤s1401-s1402、步骤s401-s402、步骤s501-s504和步骤s1411-s1413,从而实现结合图1至图8描述的物质分解方法和装置。

通过本发明实施例的物质分解系统,通过训练后的神经网络进行物质分解,可以有效降低分解误差。

在实际应用中,根据本发明实施例的物质分解方法、装置和系统,可以精确地分解包括含有k边缘的材料,对由于多色谱造成的射束硬化伪影,以及由于光子计数探测器各单元之间的不一致性产生的环状伪影具有很好的抑制效果。

需要明确的是,本发明并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本发明的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本发明的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。

以上所述的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(asic)、适当的固件、插件、功能卡等等。当以软件方式实现时,本发明的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、rom、闪存、可擦除rom(erom)、软盘、cd-rom、光盘、硬盘、光纤介质、射频(rf)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。

还需要说明的是,本发明中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或系统。但是,本发明不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。

以上所述,仅为本发明的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1