基于逐像素点深度卷积网络上皮和基质组织自动分割方法与流程

文档序号:12471803阅读:来源:国知局

技术特征:

1.一种基于逐像素点深度卷积网络上皮和基质组织自动分割的方法,其特征在于,包括以下步骤:

步骤1、对所有病理图像进行预处理操作,去除掉病理图像与病理图像之间的颜色亮度差异;

步骤2、随机选取预处理后的部分病理图像作为训练样本,其余作为测试样本;

步骤3、根据人工标注的组织区域图,从训练样本中的上皮和基质组织内部选取块;

步骤4、根据人工标注的组织区域图,从训练样本中的上皮和基质组织边缘选取块;

步骤5、将步骤3与步骤4得到的块进行整合并随机分为训练集与测试集;

步骤6、构建一个深度卷积神经网络模型DCNN,该模型包含了卷积层、池化层、线性纠正函数激活函数、局部响应归一化层以及分类器;采用步骤5中的训练集和测试集训练该深度卷积神经网络模型;

步骤7、取出步骤2的测试样本中的一张病理图像,以病理图像中每个点为中心,构造一个Q×Q的块;其中,Q为深度卷积神经网络输入尺寸的大小;

步骤8、将步骤7中构造的块输入到步骤6训练好的深度卷积神经网络模型中,得到分类结果。

2.根据权利要求1所述的一种基于逐像素点深度卷积网络上皮和基质组织自动分割的方法,其特征在于,根据步骤8得到的分类结果进行伪彩色。

3.根据权利要求1所述的一种基于逐像素点深度卷积网络上皮和基质组织自动分割的方法,其特征在于,Q为32。

4.根据权利要求3所述的一种基于逐像素点深度卷积网络上皮和基质组织自动分割的方法,其特征在于,所述步骤4具体如下:根据人工标注的组织区域图,找到训练样本中的上皮和基质组织的边界线,对边界线进行膨胀操作得到边界线附近的点的坐标,以这些点为中心构建32×32的块,若中心点落在上皮组织中,则将该块认为是上皮组织小块,反之则是基质组织小块。

5.根据权利要求4所述的一种基于逐像素点深度卷积网络上皮和基质组织自动分割的方法,其特征在于,所述步骤6中构建一个深度卷积神经网络模型DCNN,具体如下:

采用Alex成功区分CIFAR-10数据时所使用的模型中的权重矩阵来初始化深度卷积神经网络;

深度卷积神经网络的具体结构:

1)卷积层

假设滤波器组为每个输入大小为wl-1×wl-1的块通过ml×ml的滤波器滑过整张图像的局部感受域,并与每个局部感受域进行卷积操作,并输出结果;个滤波器一共生成个特征映射图,且每个映射图的大小为(wl-1-ml+1)×(wl-1-ml+1),这个线性滤波表示为其中,是一个l层的一个ml×ml的滤波器,ml代表网络结构第l层中滤波器的大小,是第l层滤波器组W1中的滤波器的个数;

2)线性纠正函数激活函数的表达式如下:

<mrow> <msup> <mi>x</mi> <mi>l</mi> </msup> <mo>=</mo> <mi>f</mi> <mrow> <mo>(</mo> <msubsup> <mi>g</mi> <mi>k</mi> <mi>l</mi> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>,</mo> <msubsup> <mi>g</mi> <mi>k</mi> <mi>l</mi> </msubsup> <mo>)</mo> </mrow> <mo>;</mo> </mrow>

3)池化层

池化层的操作是在上一层卷积特征映射后进行一个下采样的金字塔操作,在局部的感受域范围内,提取其最大值或平均值作为下一层的特征值,非线性操作后,图像的特征map尺寸大小变为:

<mrow> <mfrac> <mrow> <mo>(</mo> <msup> <mi>w</mi> <mrow> <mi>l</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>-</mo> <msup> <mi>m</mi> <mi>l</mi> </msup> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mi>s</mi> </mfrac> <mo>&times;</mo> <mfrac> <mrow> <mo>(</mo> <msup> <mi>w</mi> <mrow> <mi>l</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>-</mo> <msup> <mi>m</mi> <mi>l</mi> </msup> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mi>s</mi> </mfrac> </mrow>

其中,s是池化层操作的尺寸;

4)局部响应归一化层

用于局部做减和做除并归一化;

5)输出层

整个网络的最后一层就是输出层,输出层就是一个分类器,分类器的输入是神经网络的最后一层,分类器的输出是类别数,在深度卷积神经网络中,二分类的Softmax分类器的逻辑回归模型为:

<mrow> <msub> <mi>h</mi> <mi>&theta;</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msup> <mi>&theta;</mi> <mi>T</mi> </msup> <mi>x</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>;</mo> </mrow>

其中,x是样本的特征向量,T为转置符号,θ是参数;

Softmax分类器的输入是DCNN网络的最后一层的输出,通过最小化如下的损失函数J(θ)得到Softmax分类器的参数θ;

<mrow> <mi>J</mi> <mrow> <mo>(</mo> <mi>&theta;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <mfrac> <mn>1</mn> <mi>m</mi> </mfrac> <mo>&lsqb;</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mi>l</mi> <mi>o</mi> <mi>g</mi> <mi> </mi> <msub> <mi>h</mi> <mi>&theta;</mi> </msub> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> <mo>+</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> <mi>l</mi> <mi>o</mi> <mi>g</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msub> <mi>h</mi> <mi>&theta;</mi> </msub> <mo>(</mo> <msup> <mi>x</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>)</mo> <mo>)</mo> </mrow> <mo>&rsqb;</mo> </mrow>

其中,m为样本数量,y(i)为第i个样本标记,x(i)为第i个样本的特征向量,k为类别数;

θ代表所有的模型参数,如下所示:

<mrow> <mi>&theta;</mi> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msubsup> <mi>&theta;</mi> <mn>1</mn> <mi>T</mi> </msubsup> </mtd> </mtr> <mtr> <mtd> <msubsup> <mi>&theta;</mi> <mn>2</mn> <mi>T</mi> </msubsup> </mtd> </mtr> <mtr> <mtd> <mo>...</mo> </mtd> </mtr> <mtr> <mtd> <msubsup> <mi>&theta;</mi> <mi>k</mi> <mi>T</mi> </msubsup> </mtd> </mtr> </mtable> </mfenced> </mrow>

其中,是分类为第j类时所采用的参数,同时也是θ这个所有模型参数中的第j行,0<j<k+1且j为整数;

根据得到的Softmax的参数θ,每一个通过滑动窗得到的图像块都会首先进行DCNN的前向传播得到特征向量x(i),再被送到逻辑回归模型中得到一个0~1之间的概率值,最终图像块的类别为:

<mrow> <mover> <mi>i</mi> <mo>^</mo> </mover> <mo>=</mo> <mi>arg</mi> <mi>max</mi> <mi> </mi> <mi>p</mi> <mrow> <mo>(</mo> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mi>j</mi> <mo>|</mo> <msup> <mi>x</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>;</mo> <mi>&theta;</mi> <mo>)</mo> </mrow> <mo>;</mo> </mrow>

<mrow> <mi>p</mi> <mrow> <mo>(</mo> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mi>j</mi> <mo>|</mo> <msup> <mi>x</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>;</mo> <mi>&theta;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <msup> <mi>e</mi> <mrow> <msubsup> <mi>&theta;</mi> <mi>j</mi> <mi>T</mi> </msubsup> <msup> <mi>x</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> </mrow> </msup> <mrow> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>l</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>k</mi> </msubsup> <msup> <mi>e</mi> <mrow> <msubsup> <mi>&theta;</mi> <mi>l</mi> <mi>T</mi> </msubsup> <msup> <mi>x</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> </mrow> </msup> </mrow> </mfrac> </mrow>

其中,e为自然底数,k=2,是分类为第l类时所采用的参数,同时也是θ这个所有模型参数中的第l行。

当前第2页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1