一种计算光刻的深度学习方法与流程

文档序号:18564261发布日期:2019-08-30 23:48阅读:592来源:国知局
一种计算光刻的深度学习方法与流程

本发明涉及计算成像、计算光刻和深度学习技术领域,具体涉及一种基于模型驱动卷积神经网络(model-drivenconvolutionneuralnetwork,简称mcnn)的计算光刻方法。



背景技术:

光刻技术是用于制造超大规模集成电路的核心技术之一。现代集成电路制造业基本按照摩尔定律在不断发展,芯片的特征尺寸(criticaldimension,简称cd)不断缩小,光刻技术也经历了从g线光刻、i线光刻、深紫外(deepultraviolet,简称duv)光刻到极紫外(extremeultraviolet,简称euv)光刻的发展历程。在不同的光刻技术节点中,可能需要采用不同的光刻系统进行集成电路制造。

投影式光刻技术由于其分辨率高,不玷污掩模版,重复性好的特点,被广泛地应用于目前的超大规模集成电路量产过程中。在采用193nm光源波长的duv光刻技术和采用13.5nm的euv光刻技术中,光刻系统利用光源照射透射式或反射式掩模,随后光线通过透射式或反射式的投影物镜将掩模上的集成电路版图复刻在表层涂有光刻胶的硅片上。为了提高光刻系统的成像性能,近年来已经开发出来多种新的光刻分辨率增强技术(resolutionenhancementtechnique,简称ret),如相移掩膜(phaseshiftingmask)技术、离轴照明(off-axisillumination)技术、光学邻近效应校正(opticalproximitycorrection,简称opc)技术、驻波效应校正(standwavecorrection)技术等,其中opc是一种重要的计算光刻技术。它通过优化掩模图形调制掩模的衍射近场和远场,从而补偿由衍射和干涉效应引起的成像畸变。科研人员为了提高opc掩模的优化自由度将掩模图形像素化,视其为一幅像素图,通过优化所有掩模像素的透过率(对于duv光刻系统而言)或反射率(对于euv光刻系统而言),以此来补偿成像误差。虽然像素化opc技术具有很高的优化自由度,但其在优化过程中需要对大量的优化变量进行迭代更新,极大地增大了计算复杂度,同时像素化opc优化后的掩模图形较为复杂,掩模加工难度较大。

现有的基于梯度的opc优化算法通过梯度迭代算法,优化掩模各个像素点的透过率(对于duv光刻系统而言)或反射率(对于euv光刻系统而言),需要进行大量的循环迭代才能获得较为理想的优化结果。同时还需要对每次迭代后的掩模图形进行光刻成像,并计算代价函数对掩模变量的梯度,从而导致该算法的计算复杂度很高、计算量大。此外,由于光刻系统成像模型的非线性特性,现有的梯度算法很容易陷入opc优化问题的局部最优解,并不能准确得到全局最优解,导致收敛误差较大,影响光刻系统的成像质量。为了进一步提高opc算法的计算效率,研究人员针对相干成像光刻系统提出了基于卷积神经网络的计算光刻方法。但是大多数实际的光刻系统均采用部分相干照明,因此限制了上述技术的应用范畴。

综上,需要针对部分相干成像光刻系统模型,提出一种快速的opc方法,以进一步提高现有opc方法的计算速度和收敛性能。



技术实现要素:

有鉴于此,本发明提供了一种计算光刻的深度学习方法,能够提高opc方法的计算速度和收敛性能。本发明针对于部分相干光刻成像系统,既适用于深紫外duv光刻,又适用于极紫外euv光刻。为达到上述目的,本发明提供的一种计算光刻的深度学习方法,其技术方案包括:

为了解决上述技术问题,本发明是这样实现的:

一种计算光刻的深度学习方法,包括:

基于光刻系统的成像模型,构建梯度迭代算法中的掩模图形更新公式;展开梯度迭代算法的迭代过程,截取前k步迭代,将每一步迭代过程作为一层,创建k层的前向卷积神经网络,称为基于模型的卷积神经网络mcnn,将mcnn作为编码器;mcnn的输入为理想电路版图,输出为对应的opc掩模图形;mcnn中上一层的输出作为下一层的输入;

基于光刻胶模型,构建与mcnn相对应的解码器;将mcnn的输出与解码器的输入相连;解码器的输入为opc掩模图形,输出为opc掩模图形在晶片处所成的像;

对mcnn进行如下训练:收集电路版图结构,作为训练样本集,输入mcnn,采用反向传播算法优化mcnn中的各项参数,使得mcnn的输入与解码器的输出之间的误差最小化;

训练结束后,将解码器与mcnn分离,将任意其他的理想电路版图输入训练后的mcnn,输出即为该电路版图所应对的掩模图形。

优选地,所述mcnn的构建方式为:

mcnn中的第k层,1≤k≤k,输入为掩模图形输出为掩模图形是利用掩模图形更新公式对进行一次迭代更新的结果;掩模更新公式中的参数即为需要训练优化的参数;

mcnn第k+1层的输入与第k层输出之间的关系为:

其中,am为sigmoid函数的陡度因子,对于二元掩模的情况,tm=0.5;

mcnn最终输出二值掩模图形与第k层输出之间的关系为:

其中,γ{·}为硬阈值函数,当·>0时γ{·}=1,当·≤0时γ{·}=0。

有益效果:

1、本发明实施例提供的计算光刻的深度学习方法适用于部分相干光成像,既可以应用于duv光刻,又可应用于euv光刻。

2、本发明实施例提供的计算光刻的深度学习方法能够显著降低计算复杂度,提高opc优化的效率。

3、本发明实施例提供的mcnn方法采用的是深度学习中的非监督训练方法,无需对训练样本进行预先标记,既可以极大地简化mcnn的训练过程,减少训练时间,又可以避免标记错误所引起的训练误差或训练失败。

附图说明

图1为本发明实施例计算光刻的深度学习方法的流程图;

图2为基于梯度的opc算法的迭代过程示意图;

图3为本发明涉及的前向mcnn(编码器)结构示意图和解码器示意图;

图4为用于训练mcnn网络的9个训练掩模图形;

图5为mcnn的3个测试掩模图形,及其对应的光刻系统成像示意图;

图6为采用mcnn获得的3个测试掩模的opc掩模图形,及其对应的光刻系统成像示意图。

具体实施方式

下面结合附图并举实施例,对本发明进行详细描述。

请参考图1,图1示出了本发明实施例提供的一种计算光刻的深度学习方法,其基本方案为:

s1、基于光刻成像模型,构建梯度迭代算法中的掩模图形更新公式;展开梯度迭代算法的迭代过程,截取前k步迭代,将每一步迭代过程作为mcnn中的一层,创建一个k层的前向的卷积神经网络。本发明将这种基于模型构建的卷积神经网络称为基于模型驱动的卷积神经网络mcnn。可将前向mcnn视为编码器。

编码器的输入为给定的理想电路版图,其输出为对应的opc掩模图形。这里,理想电路版图”是指通过光刻系统制作的理想电路图案,是未优化的电路图。

s2、基于光刻胶模型,构建与编码器相对应的解码器。

解码器的输入为opc掩模图形,其输出为opc掩模图形在晶片处所成的像。

s3、将mcnn的输出与解码器的输入相连,对mcnn进行如下训练:收集若干典型的电路版图结构作为训练样本集,输入mcnn,采用反向传播算法优化mcnn中的各项参数,使得mcnn的输入与解码器的输出之间的误差最小化。

s4、训练结束后,将解码器与前向mcnn网络分离,将任意其他的理想电路版图输入训练后的前向mcnn,输出即为该电路版图所应对的opc掩模图形。

可见,本发明根据光刻系统的成像模型,展开梯度迭代算法的迭代过程,并截取前若干步,创建一个k层的mcnn网络结构,每一层均相同,用于快速计算opc的优化结果。与基于梯度的opc方法相比,本发明涉及的mcnn方法针对部分相干光成像,既可用于duv光刻,又可用于euv光刻,能够极大地降低opc优化过程的迭代次数,并明显提高优化效率,同时还能够进一步提高光刻系统的成像性能。

另一方面,本发明将mcnn作为对掩模图形的编码器,为了使解码器能够更为精确地描述opc掩模到晶片的成像过程,解码器可以采用比较精确的成像模型,此处以傅里叶级数展开成像模型为例,构建与编码器相对应的解码器。基于mcnn的解码器,发明一种非监督式的mcnn训练方法,无需对大量的训练数据进行预先标记,即可完成对mcnn网络中各项参数的训练。上述非监督训练方法避免了耗时的样本标记过程,极大地简化mcnn的训练过程,减少训练时间,又可以避免标记错误所引起的训练误差或训练失败。

下面对上述各个步骤的具体实现过程进行详细描述。

(1)mcnn网络的构建

①将理想的电路版图作为初始掩模图形m,同时将其设定为目标图形将初始掩模图形m和目标图形栅格化为n×n的图形,其中n为整数。

②该方案使用部分相干光刻成像模型构建前向mcnn网络,此处以平均相干近似成像模型为例,则成像模型的空间像为:

其中hc、hi分别为所述光刻系统的相干分量和非相干分量的等效振幅脉冲响应,为卷积运算。

③所述前向mcnn中光刻系统的光刻胶成像为:

其中γ{·}为硬阈值函数,当·>0时γ{·}=1,当·≤0时γ{·}=0,tr为光刻胶阈值;

由于硬阈值函数不存在导数,优化过程中将所述硬阈值函数替换为sigmoid函数,即:

其中ar为sigmoid函数的陡度因子。

④根据预先设定的目标图形令opc优化问题的代价函数为:

其中为二范数的平方,求出代价函数f的极小值,也就得到了最优的掩模图形即:

⑤计算出代价函数f对掩模图形的梯度,采用梯度迭代算法逐步更新掩模图形,梯度迭代算法公式为:

其中mn+1和mn分别为第n+1次迭代和第n次迭代后的掩模图形,step为迭代步长,为代价函数f对掩模图形的梯度:

其中⊙表示矩阵对应元素相乘,分别表示将矩阵hi、hc沿水平方向和竖直方向均旋转180°;

掩模的更新公式为:

其中s=δ(x,y)表示冲击函数,d、t、w和p均为指代符号,d=hc,该公式的结构参见图2,图中的m和分别是mn和mn+1。如果采用其他的成像模型,则掩模的更新公式不同,但整体构建过程和思路是相同的。

⑥根据上述掩模的更新公式,展开所述梯度迭代算法的迭代过程,截取前k步迭代,并将每一步迭代过程作为mcnn中的一层,创建一个k层的前向mcnn,mcnn中上一层的输出作为下一层的输入;

mcnn的具体结构为:将n×n的二值初始掩模图形作为mcnn的初始输入,即为目标图形mcnn的最终输出为n×n的二值矩阵即为opc掩模图形。

⑦考虑mcnn中的第k层,1≤k≤k,输入为n×n的矩阵输出为n×n的矩阵具体的输出过程为:

其中sk、wk、dk和pk均为n×n的卷积核,即mcnn中需要训练优化的参数;tk为n×n的矩阵,定义为

⑧令mcnn中第k层(1≤k≤k-1)的输出为n×n的矩阵第k+1层的输入为n×n的矩阵两者之间的关系为:

其中am为sigmoid函数的陡度因子,对于二元掩模的情况,tm=0.5。

⑨mcnn最终输出二值掩模图形其与第k层输出之间的关系为:

(2)解码器的构建

①为了使所述解码器能够更为精确地描述opc掩模到晶片的成像过程,所述解码器可以采用比较精确的成像模型。此处以傅里叶级数展开成像模型为例,将所述mcnn的最终输出作为所述解码器的输入则其所成的空间像为:

这里

hm(r)=h(r)exp(jw0m·r),

其中m=(mx,my),mx和my为整数,γm为有效部分相干照明的傅立叶级数系数,j为虚数单位,w0=π/d,·为内积运算,h(r)为所述光刻系统的点扩散函数。

②所述解码器的作用为计算opc掩模图形的光刻成像,所述解码器中光刻系统的光刻胶成像即为解码器的输出:

mcnn和解码器相连后的结构参见图3。

(3)mcnn训练

①非监督训练通过将训练集的理想电路版图依次或批量输入mcnn,优化mcnn中各层的参数sk、dk、wk和pk(k=1,2,...,k),使得理想电路版图与解码器输出z′之间的误差最小化,因此mcnn的训练问题为:

②为了使mcnn的输出尽量接近于二值矩阵(即元素为0或1的矩阵),本发明在训练过程的代价函数中加入二次罚函数项,即:

其中1n×1为n×1的全1向量。则mcnn的训练问题转化为:

其中γq为所述二次罚函数项的加权系数。③本发明采用反向传播算法求解(3)mcnn训练②中的训练问题。首先,选定p个具有代表性的理想电路版图作为训练集样本,将训练集的第p个样本用n×n的二值矩阵表示。

对于每一个训练样本,采用反向传播算法,对mcnn中的各层参数进行maxloopp次迭代更新。具体更新方法如下。具体更新方法为:令矩阵ak代表mcnn中第k层中的卷积核sk、dk、wk和pk,则ak的第n+1次迭代更新过程为:

其中为代价函数对的梯度。

在每一次迭代之后将归一化,即:

其中||·||2为二范数。

(4)mcnn的使用

训练结束后,将训练好的mcnn与解码器分离,将mcnn网络的第k层输出转换为最终输出

当需要计算某个掩模图形的opc优化结果时,将目标图形输入到训练好的mcnn中,获得mcnn的最终输出为opc掩模图形。

下面参考图4~图6针对本发明实施例提供的一种计算光刻的深度学习方法进行说明:

图4(a)-(i)为用于训练mcnn网络的9个训练集掩模图形。

图5(a)-(c)所示为mcnn的3个测试掩模图形,图5(d)、(e)和(f)分别为5(a)、(b)和(c)中三个测试掩模对应的光刻系统成像示意图,其成像误差分别为1848,1746和1536。

图6(a)为mcnn获得的关于图5(a)中测试掩模图形的opc掩模图形;图6(b)为mcnn获得的关于图5(b)中测试掩模图形的opc掩模图形;图6(c)为mcnn获得的关于图5(c)中测试掩模图形的opc掩模图形。图6(d)、(e)和(f)分别为6(a)、(b)和(c)中三个掩模对应的光刻系统成像示意图,其成像误差分别为1038,1201和874。mcnn计算三个掩模的opc优化结果的平均耗时为0.18秒。

对比图5和图6可知,采用本发明中的前向mcnn方法能够快速计算出理想电路版图的opc掩模图形,并有效提高光刻系统的成像质量。

综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1