一种基于卷积神经网络的宫颈细胞图像识别方法与流程

文档序号:12471739阅读:来源:国知局

技术特征:

1.一种基于卷积神经网络的宫颈细胞图像识别方法,其特征是,包括如下步骤:

1)准备训练样本:

(1-1)读入现有图库中的宫颈细胞图像作为训练样本并分类:将读入的所有的宫颈细胞图像分为正常宫颈细胞训练样本和病变宫颈细胞训练样本;

(1-2)灰度化:将宫颈细胞图像预处理为灰度图像块,并将宫颈细胞图像中的彩色图片转化为灰度图像,然后把得到的灰度图像尺寸归一化为32*32的灰度图像块;

2)构建卷积神经网络层:构建一个具有自适应识别分类功能的包括加入BN算法的改进卷积神经网络,改进卷积神经网络为一个多层的神经网络,通过可训练的卷积核作为滤波器,对图像进行逐层滤波,并将每一层滤波结果进行自动组合,最终自动提取出对分类最有利的特征,提取完特征之后,从所有特征参数中根据分类类别不同,进行参数分类,之后对不同类别之间的特征参数进行组和合训练和识别,并根据识别结果的不同,调整训练特征向量,当根据本次特征参数组合获得的识别结果小于之前的识别结果时,则根据现有的特征向量,添加或删除相应的特征参数,以期再次识别时获得更高的识别率;

(3)构建二分类器:将步骤1)得到的正常宫颈细胞训练样本和病变宫颈细胞训练样本输入改进卷积神经网络,改进卷积神经网络被训练为能够识别正常宫颈细胞和病变宫颈细胞的二分类器;

(4)得到识别结果:将待测试的宫颈细胞图片输入改进卷积神经网络,改进卷积神经网络自动进行识别、归类。

2.根据权利要求1所述的基于卷积神经网络的宫颈细胞图像识别方法,其特征是,所述加入BN算法的改进卷积神经网络为在经典的卷积神经网络结构中加入了批归一化算法,即在每一个卷积层与下采样层之后都连接一个BN层,在下采样S2之后连接3个全连接层,全连接层后同样各自接入相应BN层,最后一层全连接层使用sigmoid激活函数,直接输出图像。

3.根据权利要求2所述的基于卷积神经网络的宫颈细胞图像识别方法,其特征是,所述批归一化算法,即BN算法为:

BN层和卷积层,下采样层和全连接层一样,也是网络中的一层结构,是一个归一化的过程,进行标准化维度:

<mrow> <msup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mfrac> <mrow> <msup> <mi>x</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>-</mo> <mi>E</mi> <mo>&lsqb;</mo> <msup> <mi>x</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>&rsqb;</mo> </mrow> <msqrt> <mrow> <mi>V</mi> <mi>a</mi> <mi>r</mi> <mo>&lsqb;</mo> <msup> <mi>x</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>&rsqb;</mo> </mrow> </msqrt> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>

式(1)把上一层的输出转变为标准正态分布,训练过程中采用mini-batch随机梯度下降,E[x(k)]指每一批训练数据神经元x(k)的期望值,为x(k)激活值的标准差,同时为防止影响每一层学习到的特征,引入变换重构,加入可学习参数γ和β:

<mrow> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <msup> <mi>&gamma;</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <msup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>+</mo> <msup> <mi>&beta;</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>

式(2)把转变为正态分布的特征在一定程度上还原回去,让它保持它的初始分布趋势,还原程度则是由卷积神经网络自己学习得来,设置可以恢复原始激活值,即恢复出原始某层学到的特征,γ和β的引入可以让卷积神经网络学习恢复出原始网络要学习的特征分布,Batch Normalization前向传导公式为:

<mrow> <msub> <mi>&mu;</mi> <mi>B</mi> </msub> <mo>&RightArrow;</mo> <mfrac> <mn>1</mn> <mi>m</mi> </mfrac> <msubsup> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </msubsup> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msubsup> <mi>&sigma;</mi> <mi>B</mi> <mn>2</mn> </msubsup> <mo>&LeftArrow;</mo> <mfrac> <mn>1</mn> <mi>m</mi> </mfrac> <msubsup> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </msubsup> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>&mu;</mi> <mi>B</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <mover> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>^</mo> </mover> <mo>&LeftArrow;</mo> <mfrac> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>&mu;</mi> <mi>B</mi> </msub> </mrow> <msqrt> <mrow> <msubsup> <mi>&sigma;</mi> <mi>B</mi> <mn>2</mn> </msubsup> <mo>+</mo> <mi>&epsiv;</mi> </mrow> </msqrt> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>&LeftArrow;</mo> <mi>&gamma;</mi> <mover> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>^</mo> </mover> <mo>+</mo> <mi>&beta;</mi> <mo>&equiv;</mo> <msub> <mi>BN</mi> <mrow> <mi>&gamma;</mi> <mo>,</mo> <mi>&beta;</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>

式(3)是一批mini-batch中所有样本里的每个样本在同一神经元上的输入均值,式(4)为一批mini-batch中所有样本里的每个样本在同一神经元上的输入方差,式(5)是把这批mini-batch中所有样本里的每个样本在同一神经元上的输入进行标准化后得到的结果,式(6)为同构变换。

当前第2页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1