一种CT系统中自动生成扫描区域的方法与流程

文档序号:20206957发布日期:2020-03-31 10:19阅读:680来源:国知局
一种CT系统中自动生成扫描区域的方法与流程

本发明涉及医学成像技术领域,具体涉及一种ct系统中自动生成扫描区域的方法。



背景技术:

通常ct(computedtomography,电子计算机断层扫描)在扫描病人之前需要事先扫描定位相,然后医生在定位相视图界面中选择需要扫描的位置和协议,扫描软件根据医生选择的扫描部位和协议弹出默认扫描区域矩形框。最后需要医生手动拖动扫描区域的矩形框并根据每个病人具体情况调整矩形框的大小。由于不同病人在身高、体型方面有很大差异,因此医生需要耗费较多的时间用于调整扫描区域框,这种重复调整过程增加了医生相当大的工作量。

基于上述分析,现有技术存在以下缺点:

1、扫描技师需要手动选择扫描区域,增加扫描技师的工作量。

2、扫描区域位置会受到人为影响,可能造成选择的扫描区域不准确的问题。

3、在扫描定位相到扫描技师选择扫描区域这需要较长的时间,在此过程中病人若发生移动则会导致选择的扫描区域不准确的问题。



技术实现要素:

发明目的:为了克服现有技术的缺陷,避免人为主观因素造成选择的扫描区域不准确,以及为了快速确定扫描区域,避免病人因等待时间过长难以保持姿势,本发明提出一种ct系统中自动生成扫描区域的方法。

技术方案:为实现上述目的,本发明提出的技术方案如下:

一种ct系统中自动生成扫描区域的方法,所述方法通过加载在ct系统计算机系统中的控制程序实现,所述方法包括依次执行的步骤(1)至(5):

(1)扫描定位相,得到定位相图像;

(2)构建样本:收集病人躺在ct病床上的图像至所需数量,将收集到的图像分别与定位相图像进行配准,将配准后的图像裁剪为统一大小,并在图像上框选出不同人体部位作为扫描区域,以及为每个扫描区域添加类别标记,得到样本图像;

(3)搭建基于卷积神经网络的目标检测模型或者图像分割模型;用构建好的样本图像训练搭建好的模型,训练好的模型能够对输入的图像进行扫描区域自动分割,输出所有待选的扫描区域及扫描区域的类别;

(4)在进行ct扫描前,实时采集病人躺在ct病床上的图像,将采集的图像与定位相图像进行配准并裁减至指定大小,然后输入训练好的基于卷积神经网络的目标检测模型或者图像分割模型,得到所有待选的扫描区域;

(5)扫描人员选取所需扫描区域,所述计算机系统根据所选扫描区域控制ct系统对指定区域进行扫描。

进一步的,所述基于卷积神经网络的目标检测模型为rcnn结构,包括候选区域提取网络、cnn特征提取器、分类器和回归器;所述候选区域提取网络根据输入的图像生成候选框并调整候选框的尺寸至指定大小,cnn特征提取器提取每个候选框的特征向量,提取出的特征向量送入分类器分类,最后通过回归器对每一类检测目标进行回归,修正候选框的位置;

所述分类器的损失函数为:

losscls=ytlog(yp)+(1-yt)log(1-yp)

所述回归器的损失函数为:

其中,yt为真实标记数据,yp为预测数据。

所述基于卷积神经网络的图像分割模型为unet网络,包括:输入模块、特征提取模块、上采样模块和输出模块,其中,输入模块输入图像数据,特征提取模块提取输入图像的特征,上采样模块将提取出的特征重建到输出尺寸,最后通过输出模块输出所有待选的扫描区域及扫描区域的类别,实现图像分割;

所述unet网络的损失函数为:

loss=∑(yp-yt)2

其中,yt为真实标记数据,yp为预测数据。

进一步的,所述图像配准的方法包括:基于灰度和模板的图像配准方法、基于特征的图像配准方法、基于域变换的图像配准方法。

有益效果:与现有技术相比,本发明具有以下优势:

本发明不需要操作人员花大量时间手动调整扫描框位置,而是通过对病人图像的实时采集,并通过预先训练好的扫描区域分割模型对采集到的图像进行扫描区域快速提取和分类,操作人员只需要选择所需扫描区域控制ct系统对所选区域进行扫描即可。本发充分减少了操作人员的工作量,能够避免因为人为主观因素导致扫描区域选取不准确,以及提高缩短扫描前的准备时间,避免病人因等待时间过长难以保持扫描指定姿势。

附图说明

图1为现有技术的流程图;

图2为本发明的流程图;

图3为实施例中基于卷积神经网络的目标检测模型的结构图;

图4为实施例中基于卷积神经网络的图像分割模型的结构图。

具体实施方式

下面结合附图和具体实施例对本发明作更进一步的说明。

现有的ct扫描前生成扫描区域的流程如图1所示,包括步骤:

step1:扫描定位相;

step2:选择扫描区域和协议(扫描软件会根据选择的扫描区域和协议显示默认的扫描区域矩形框);

step3:医生根据病人定位相图像拖动默认扫描矩形框并对其调整大小,最后对选择的扫描区域进行扫描。

由于不同病人在身高、体型方面有很大差异,因此医生需要耗费较多的时间用于调整扫描区域框,这种重复调整过程增加了医生相当大的工作量。且病人由于等待时间较长,很难保持固定姿势不变,而病人一旦变动姿势,医生就要重新调整扫描区域框,非常不便。

基于上述现有技术的缺陷,本发明旨在提出一种能够避免人为主观因素造成选择的扫描区域不准确的技术方案,该方案能够快速确定扫描区域,避免病人因等待时间过长难以保持姿势。

基于上述目的,本发明提出一种ct系统中自动生成扫描区域的方法,所述方法通过加载在ct系统的计算机系统中的控制程序实现,所述方法的流程如图2所示,包括依次执行的步骤(1)至(5):

(1)扫描定位相,得到定位相图像;

(2)构建样本:收集病人躺在ct病床上的图像至所需数量,将收集到的图像分别与定位相图像进行配准,将配准后的图像裁剪为统一大小,并在图像上框选出不同人体部位(例如头部、肺部、腹部、腿部)作为扫描区域,以及为每个扫描区域添加类别标记,得到样本图像;

(3)搭建基于卷积神经网络的目标检测模型或者图像分割模型;用构建好的样本图像训练搭建好的模型,训练好的模型能够对输入的图像进行扫描区域自动分割,输出所有待选的扫描区域及扫描区域的类别;

(4)在进行ct扫描前,实时采集病人躺在ct病床上的图像,将采集的图像与定位相图像进行配准并裁减至指定大小,然后输入训练好的基于卷积神经网络的目标检测模型或者图像分割模型,得到所有待选的扫描区域;

(5)扫描人员选取所需扫描区域,所述计算机系统根据所选扫描区域控制ct系统对指定区域进行扫描。

下面提供两个实施例,以对本发明的具体内容进行说明。

实施例1:本实施例采用安装在ct病床正上方的摄像头对病床上病人的图像进行采集,采集图像时摄像头垂直向下拍摄,采集后的图像送入ct系统的计算机系统进行图像分析与处理。

本实施例中采用基于卷积神经网络的目标检测模型对输入图像进行处理,基于卷积神经网络的目标检测模型为rcnn结构,如图3所示,包括候选区域提取网络、cnn特征提取器、分类器和回归器;所述候选区域提取网络根据输入的图像生成候选框并调整候选框的尺寸至指定大小,cnn特征提取器提取每个候选框的特征向量,提取出的特征向量送入分类器分类,最后通过回归器对每一类检测目标进行回归,修正候选框的位置。

该模型的训练过程如下:

样本准备阶段:

s1、选取临床相机图片和定位相数据各10000余张;

s2、将相机图片和定位相图片进行配准,并将图像剪裁为512*512大小;

s3、分别在配准的图像中标记多个人体相关部位的掩膜(即扫描区域,例如:头部,胸部,腹部,腿部),并将标记数据保存为(class,cx,cy,w,h)的格式,其中class为矩形框对应的类别(人体部位名称),cx为矩形框中心点横坐标,cy为矩形框中心点纵坐标,w为矩形框的宽度,h为矩形框的高度。

训练阶段:

将配准的后的图片直接输入基于卷积神经网络的目标检测模型,输出识别区域以及其对应的类别。训练过程中采用的分类器损失函数为:

losscls=ytlog(yp)+(1-yt)log(1-yp)

所述回归器的损失函数为:

其中,yt为真实标记数据,yp为预测数据。

实施例2:本实施例采用安装在ct病床正上方的摄像头对病床上病人的图像进行采集,采集图像时摄像头垂直向下拍摄,采集后的图像送入ct系统的计算机系统进行图像分析与处理。

本实施例中采用基于卷积神经网络的图像分割模型对输入图像进行处理,基于卷积神经网络的图像分割模型为unet结构,如图4所示,包括:输入模块、特征提取模块、上采样模块和输出模块,其中,输入模块输入多模态图像数据(ct定位相数据和相机拍摄的图片配准并剪裁至同一大小的图像数据),特征提取模块由级联的卷积和池化操作组成,用于提取输入的特征;上采样模块由上采样和卷积操作组成,用于将提取出的特征重建到输出尺寸(512*512);输出模块输出人体相关部位的掩膜,实现图像分割。

样本准备阶段:

s1、选取临床相机图片和定位相数据各10000余张;

s2、将相机图片和定位相图片进行配准,并将图像剪裁为512*512大小;

s3、分别在配准的图像中标记多个人体相关部位的掩膜得到样本图像;掩膜数据格式为(class,512,512),其中class为人体部位的类别,例如:头部,胸部,腹部,腿部。

训练阶段:

将样本图像按照8∶2的比例分为训练集和验证集,用训练集在tensorflow平台上采用梯度下降法训练网络进行训练,其中网络的损失函数为:

loss=∑(yp-yt)2

其中,yp为网络预测值,yt为真实标记的掩膜。

以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1