一种整形前CT数据测量方法与流程

文档序号:16525769发布日期:2019-01-05 10:19阅读:423来源:国知局
一种整形前CT数据测量方法与流程

本发明涉及整形技术领域,具体为一种整形前ct数据测量方法。



背景技术:

整形又称整复外科或成形外科,治疗范围主要是皮肤、肌肉及骨骼等创伤、疾病,先天性或后天性组织或器官的缺陷与畸形。治疗包括修复与再造两个内容,顾客在手术前的需要对脸部ct测量数据和手术后即刻的脸部ct测量数据以及顾客的个人特征为输入,进而预测顾客手术后6个月的脸部ct测量数据,并且输出顾客的各个个人特征对于手术情况的影响权重。

现有技术中,没有一种ct数据测量方法,使预测顾客手术后6个月的脸部ct测量数据更加准确,因此设计一种新的整形前ct数据测量方法是现有技术需要解决的技术问题。



技术实现要素:

本发明的目的在于提供一种整形前ct数据测量方法,以解决上述背景技术中提出的问题。

为了解决上述技术问题,本发明提供如下技术方案:一种整形前ct数据测量方法,包括如下步骤:

1)数据采集:在手术前期采用gelightspeedplus4层螺旋ct机对整容患者脸部进行冠状扫描,通过x线束对整容患者脸部进行扫描,探测器接收x线束信号,经光点转换器、模拟数字转换器、计算机处理,形成由黑到白不同灰度按矩阵排列的小方块组成的图像,再由计算机运用相应的软件将不同层面的图像叠加而形成三维图像,在手术完成后即可再次使用gelightspeedplus4层螺旋ct机对患者面部进行探测扫描;

2)数据预处理:首先将整容患者的个人特征数据(21维的向量)按照不同的特征进行拆分,可拆分成10个特征(每个个人特征对应特征数据中的1个或几个测量数据),并对每个个人特征的维度进行扩充,最后可扩充成10行21列的矩阵,以此为神经网络的第一个输入,再将术前与术后即刻的ct测量数据(皆为28维的向量)按照不同的ct指标拆分,可拆分成9个对应的ct指标(每个ct指标依次对应测量数据中的1个或几个测量数据),并对每个ct指标的维度进行扩充,最后可把28维的向量扩充成9行28列的矩阵,再将术前与术后即刻的两个矩阵进行拼接,形成一个9行56列的矩阵,以此为神经网络的第二个输入,将6个月之后的ct测量数据(28维的向量)不做更改,作为神经网络的输出;

3)数据长短期记忆网络处理:将预处理后的数据加入长短期记忆网络(lstm)中进行处理;

bilstm层:考虑到不同ct特征以及不同个人特征之间存在的相关性,我们使用两个lstm层分别接收预处理之后的ct数据与个人特征数据,并分别输出hct=(h1ct,h2ct,…,h9ct),其中hict为lstm在时间步i上的隐层状态,包含了前i个ct特征的综合信息;以及个人特征数据hfeatures=(h1features,h2features,…,h10features),其中hifeatures也为同样的隐层状态,包含了前i个个人特征的综合信息,bilstm的每个输出hij,为对应的lstm的前向传播与反向传播的输出的结合,即:

其中||表示连接,l表示lstm的输出维度,模型便充分考虑了ct特征和个人特征各自之间的相互关系;averagepooling层:我们使用了平均池化层作用于ct数据对应的lstm网络的输出hct=(h1ct,h2ct,…,h9ct),对于9个ct指标进行平均池化,得到一个综合指标:

个人特征ct指标数据:将平均池化层输出的综合指标与个人特征数据hifeatures进行连接,得到每个个人特征对于ct指标的作用指标:

(其中||表示连接);

4)数据attention机制处理:将数据加入至attention机制中:

ei=tanh(whhi+bh),ei∈[-1,1]

其中,t=10,为个人特征的数目,wh和bh为attention层的权重,随着训练过程不断优化,将更大的权重赋予更重要的个人特征;

输出层:将attention层的输出传递给回归层,最后通过回归得到6个月后ct指标的预测数据(28维的向量);

5)数据整合:在本模型中,在输入中加入了高斯噪声,高斯噪声是一种随机数据增强技术,并使用了dropout机制来在神经网络中随机选取一部分神经元使其休眠,还加入了l2正则惩罚项在损失函数中,用来避免权重过大的情况出现,通过最小化最终输出的mse的目标来训练整个神经网络,并且使用随机梯度下降算法的反向传播来达到这个目的,目前得到的样本,随机选取了10%的样本作为验证集,使用样本先训练简单神经网络,再将训练完成的简单神经网络中的部分层的权重值作为我们构建好的神经网络的对应层的权重初始值,由此来加快训练速度与确保模型收敛。

根据上述技术方案,所述的步骤4)中使用了attention机制,目的是加强对于手术失败率影响大的个人特征在预测6个月后ct指标中的作用。

根据上述技术方案,所述步骤5)中高斯噪声可以让模型有更稳健的性质来避免过拟合。

根据上述技术方案,所述步骤1)中手术前的脸部ct测量数据和手术后即刻的脸部ct测量数据需经历三次以上的测试。

根据上述技术方案,所述步骤5)中加入的高斯噪声为σ=0.2,个人特征输入层中加入了dropout机制比率为0.3的。

与现有技术相比,本发明所达到的有益效果是:在手术前期采用gelightspeedplus4层螺旋ct机对整容患者脸部进行冠状扫描,通过x线束对整容患者脸部进行扫描,探测器接收x线束信号,经光点转换器、模拟数字转换器、计算机处理,形成由黑到白不同灰度按矩阵排列的小方块组成的图像,再由计算机运用相应的软件将不同层面的图像叠加而形成三维图像,在手术完成后即可再次使用gelightspeedplus4层螺旋ct机对患者面部进行探测扫描,首先将整容患者的个人特征数据(21维的向量)按照不同的特征进行拆分,可拆分成10个特征(每个个人特征对应特征数据中的1个或几个测量数据),并对每个个人特征的维度进行扩充,最后可扩充成10行21列的矩阵,以此为神经网络的第一个输入,再将术前与术后即刻的ct测量数据(皆为28维的向量)按照不同的ct指标拆分,可拆分成9个对应的ct指标(每个ct指标依次对应测量数据中的1个或几个测量数据),并对每个ct指标的维度进行扩充,最后可把28维的向量扩充成9行28列的矩阵,再将术前与术后即刻的两个矩阵进行拼接,形成一个9行56列的矩阵,以此为神经网络的第二个输入,将6个月之后的ct测量数据(28维的向量)不做更改,作为神经网络的输出,将预处理后的数据加入长短期记忆网络(lstm)中进行处理;

bilstm层:考虑到不同ct特征以及不同个人特征之间存在的相关性,我们使用两个lstm层分别接收预处理之后的ct数据与个人特征数据,并分别输出hct=(h1ct,h2ct,…,h9ct),其中hict为lstm在时间步i上的隐层状态,包含了前i个ct特征的综合信息;以及个人特征数据hfeatures=(h1features,h2features,…,h10features),其中hifeatures也为同样的隐层状态,包含了前i个个人特征的综合信息,bilstm的每个输出hij,为对应的lstm的前向传播与反向传播的输出的结合,即:

其中||表示连接,l表示lstm的输出维度,模型便充分考虑了ct特征和个人特征各自之间的相互关系;averagepooling层:我们使用了平均池化层作用于ct数据对应的lstm网络的输出hct=(h1ct,h2ct,…,h9ct),对于9个ct指标进行平均池化,得到一个综合指标:

个人特征ct指标数据:将平均池化层输出的综合指标与个人特征数据hifeatures进行连接,得到每个个人特征对于ct指标的作用指标:

(其中||表示连接),将数据加入至attention机制中:

ei=tanh(whhi+bh),ei∈[-1,1]

其中,t=10,为个人特征的数目,wh和bh为attention层的权重,随着训练过程不断优化,将更大的权重赋予更重要的个人特征;

输出层:将attention层的输出传递给回归层,最后通过回归得到6个月后ct指标的预测数据(28维的向量)

在本模型中,在输入中加入了高斯噪声,高斯噪声是一种随机数据增强技术,并使用了dropout机制来在神经网络中随机选取一部分神经元使其休眠,还加入了l2正则惩罚项在损失函数中,用来避免权重过大的情况出现,通过最小化最终输出的mse的目标来训练整个神经网络,并且使用随机梯度下降算法的反向传播来达到这个目的,目前得到的样本,随机选取了10%的样本作为验证集,使用样本先训练简单神经网络,再将训练完成的简单神经网络中的部分层的权重值作为我们构建好的神经网络的对应层的权重初始值,由此来加快训练速度与确保模型收敛,对整形的客户的复发情况进行了预测,主要使用了长短期记忆网络(lstm)与attention机制对客户进行整形手术6个月后的脸部ct数据进行预测,并且得出客户的各个个人特征在attention机制作用下所得权重。

附图说明

附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:

图1是本发明的方法流程图;

图2是本发明的系统模块图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

请参阅图1-2,本发明提供一种技术方案:一种整形前ct数据测量方法,包括如下步骤:

1)数据采集:在手术前期采用gelightspeedplus4层螺旋ct机对整容患者脸部进行冠状扫描,通过x线束对整容患者脸部进行扫描,探测器接收x线束信号,经光点转换器、模拟数字转换器、计算机处理,形成由黑到白不同灰度按矩阵排列的小方块组成的图像,再由计算机运用相应的软件将不同层面的图像叠加而形成三维图像,在手术完成后即可再次使用gelightspeedplus4层螺旋ct机对患者面部进行探测扫描;

2)数据预处理:首先将整容患者的个人特征数据(21维的向量)按照不同的特征进行拆分,可拆分成10个特征(每个个人特征对应特征数据中的1个或几个测量数据),并对每个个人特征的维度进行扩充,最后可扩充成10行21列的矩阵,以此为神经网络的第一个输入,再将术前与术后即刻的ct测量数据(皆为28维的向量)按照不同的ct指标拆分,可拆分成9个对应的ct指标(每个ct指标依次对应测量数据中的1个或几个测量数据),并对每个ct指标的维度进行扩充,最后可把28维的向量扩充成9行28列的矩阵,再将术前与术后即刻的两个矩阵进行拼接,形成一个9行56列的矩阵,以此为神经网络的第二个输入,将6个月之后的ct测量数据(28维的向量)不做更改,作为神经网络的输出;

3)数据长短期记忆网络处理:将预处理后的数据加入长短期记忆网络(lstm)中进行处理;

bilstm层:考虑到不同ct特征以及不同个人特征之间存在的相关性,我们使用两个lstm层分别接收预处理之后的ct数据与个人特征数据,并分别输出hct=(h1ct,h2ct,…,h9ct),其中hict为lstm在时间步i上的隐层状态,包含了前i个ct特征的综合信息;以及个人特征数据hfeatures=(h1features,h2features,…,h10features),其中hifeatures也为同样的隐层状态,包含了前i个个人特征的综合信息,bilstm的每个输出hij,为对应的lstm的前向传播与反向传播的输出的结合,即:

其中||表示连接,l表示lstm的输出维度,模型便充分考虑了ct特征和个人特征各自之间的相互关系;averagepooling层:我们使用了平均池化层作用于ct数据对应的lstm网络的输出hct=(h1ct,h2ct,…,h9ct),对于9个ct指标进行平均池化,得到一个综合指标:

个人特征ct指标数据:将平均池化层输出的综合指标与个人特征数据hifeatures进行连接,得到每个个人特征对于ct指标的作用指标:

(其中||表示连接);

4)数据attention机制处理:将数据加入至attention机制中:

ei=tanh(whhi+bh),ei∈[-1,1]

其中,t=10,为个人特征的数目,wh和bh为attention层的权重,随着训练过程不断优化,将更大的权重赋予更重要的个人特征;

输出层:将attention层的输出传递给回归层,最后通过回归得到6个月后ct指标的预测数据(28维的向量);

5)数据整合:在本模型中,在输入中加入了高斯噪声,高斯噪声是一种随机数据增强技术,并使用了dropout机制来在神经网络中随机选取一部分神经元使其休眠,还加入了l2正则惩罚项在损失函数中,用来避免权重过大的情况出现,通过最小化最终输出的mse的目标来训练整个神经网络,并且使用随机梯度下降算法的反向传播来达到这个目的,目前得到的样本,随机选取了10%的样本作为验证集,使用样本先训练简单神经网络,再将训练完成的简单神经网络中的部分层的权重值作为我们构建好的神经网络的对应层的权重初始值,由此来加快训练速度与确保模型收敛。

根据上述技术方案,所述的步骤4)中使用了attention机制,目的是加强对于手术失败率影响大的个人特征在预测6个月后ct指标中的作用。

根据上述技术方案,所述步骤5)中高斯噪声可以让模型有更稳健的性质来避免过拟合。

根据上述技术方案,所述步骤1)中手术前的脸部ct测量数据和手术后即刻的脸部ct测量数据需经历三次以上的测试。

根据上述技术方案,所述步骤5)中加入的高斯噪声为σ=0.2,个人特征输入层中加入了dropout机制比率为0.3的。

基于上述,本发明的优点在于,该整形前ct数据测量方法,在手术前期采用gelightspeedplus4层螺旋ct机对整容患者脸部进行冠状扫描,通过x线束对整容患者脸部进行扫描,探测器接收x线束信号,经光点转换器、模拟数字转换器、计算机处理,形成由黑到白不同灰度按矩阵排列的小方块组成的图像,再由计算机运用相应的软件将不同层面的图像叠加而形成三维图像,在手术完成后即可再次使用gelightspeedplus4层螺旋ct机对患者面部进行探测扫描,首先将整容患者的个人特征数据(21维的向量)按照不同的特征进行拆分,可拆分成10个特征(每个个人特征对应特征数据中的1个或几个测量数据),并对每个个人特征的维度进行扩充,最后可扩充成10行21列的矩阵,以此为神经网络的第一个输入,再将术前与术后即刻的ct测量数据(皆为28维的向量)按照不同的ct指标拆分,可拆分成9个对应的ct指标(每个ct指标依次对应测量数据中的1个或几个测量数据),并对每个ct指标的维度进行扩充,最后可把28维的向量扩充成9行28列的矩阵,再将术前与术后即刻的两个矩阵进行拼接,形成一个9行56列的矩阵,以此为神经网络的第二个输入,将6个月之后的ct测量数据(28维的向量)不做更改,作为神经网络的输出,将预处理后的数据加入长短期记忆网络(lstm)中进行处理;

bilstm层:考虑到不同ct特征以及不同个人特征之间存在的相关性,我们使用两个lstm层分别接收预处理之后的ct数据与个人特征数据,并分别输出hct=(h1ct,h2ct,…,h9ct),其中hict为lstm在时间步i上的隐层状态,包含了前i个ct特征的综合信息;以及个人特征数据hfeatures=(h1features,h2features,…,h10features),其中hifeatures也为同样的隐层状态,包含了前i个个人特征的综合信息,bilstm的每个输出hij,为对应的lstm的前向传播与反向传播的输出的结合,即:

其中||表示连接,l表示lstm的输出维度,模型便充分考虑了ct特征和个人特征各自之间的相互关系;averagepooling层:我们使用了平均池化层作用于ct数据对应的lstm网络的输出hct=(h1ct,h2ct,…,h9ct),对于9个ct指标进行平均池化,得到一个综合指标:

个人特征ct指标数据:将平均池化层输出的综合指标与个人特征数据hifeatures进行连接,得到每个个人特征对于ct指标的作用指标:

(其中||表示连接),将数据加入至attention机制中:

ei=tanh(whhi+bh),ei∈[-1,1]

其中,t=10,为个人特征的数目,wh和bh为attention层的权重,随着训练过程不断优化,将更大的权重赋予更重要的个人特征;

输出层:将attention层的输出传递给回归层,最后通过回归得到6个月后ct指标的预测数据(28维的向量)

在本模型中,在输入中加入了高斯噪声,高斯噪声是一种随机数据增强技术,并使用了dropout机制来在神经网络中随机选取一部分神经元使其休眠,还加入了l2正则惩罚项在损失函数中,用来避免权重过大的情况出现,通过最小化最终输出的mse的目标来训练整个神经网络,并且使用随机梯度下降算法的反向传播来达到这个目的,目前得到的样本,随机选取了10%的样本作为验证集,使用样本先训练简单神经网络,再将训练完成的简单神经网络中的部分层的权重值作为我们构建好的神经网络的对应层的权重初始值,由此来加快训练速度与确保模型收敛,对整形的客户的复发情况进行了预测,主要使用了长短期记忆网络(lstm)与attention机制对客户进行整形手术6个月后的脸部ct数据进行预测,并且得出客户的各个个人特征在attention机制作用下所得权重。

最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1