一种基于保留因子剪枝的生成对抗网络模型的压缩方法与流程

文档序号:32426974发布日期:2022-12-03 00:08阅读:来源:国知局

技术特征:
1.一种基于保留因子剪枝的生成对抗网络模型的压缩方法,其特征在于,包括:s101:给定预训练教师生成对抗网络模型和待压缩学生对抗网络模型,所述预训练教师生成对抗网络模型包括教师生成器和教师判别器,所述待压缩学生对抗网络模型包括学生生成器和学生判别器;s102:为所述学生生成器的每个卷积核设置一个可学习的保留因子,根据边界参数,将所述保留因子转换成对应的所述卷积核的参与前向运算比例;s103:通过对所述保留因子添加约束条件和收缩所述边界参数,确定所述参与前向运算比例为零的卷积核;s104:移除所述参与前向运算比例为零的卷积核,获得轻量的所述学生生成器;s105:根据所述教师生成器和所述教师判别器中的知识,对所述学生生成器进行微调训练;s106:移除所述学生判别器,保留所述学生生成器,部署学生对抗网络模型。2.根据权利要求1所述的压缩方法,其特征在于,所述s102具体包括:s1021:通过公式1将所述保留因子转换成对应的所述卷积核的参与前向运算比例:其中,p
ij
表示保留因子,b表示边界,ij表示第i层卷积层的第j个卷积核,m
ij
表示参与前向运算比例。3.根据权利要求2所述的压缩方法,其特征在于,s103具体包括:s1031:将所述卷积核的输出由o
ij
转变为o

ij
:o

ij
=m
ij
*o
ij
公式2其中,o
ij
表示卷积核原始输出,o

ij
表示卷积核真实输出。4.根据权利要求1所述的压缩方法,其特征在于,所述s103具体包括:s1032:通过公式3对所述保留因子添加约束条件,使得所述参与前向运算比例不断趋近于零,所述保留因子向所述边界靠齐:s1033:通过公式4对所述边界参数进行收缩,将所述边界参数不断变小直至为零:其中,e表示当前迭代次数,e表示全部迭代次数。5.根据权利要求1所述的压缩方法,其特征在于,所述s105具体包括:s1051:对于第i层特征图o
i
,逐通道相加得到第i层特征图o
i
的注意力图:s1052:提取所述教师生成器g
t
和所述教师判别器中的所述注意力图并进行融合得到:
其中,g
t
表示教师生成器,d
t
表示教师判别器,表示融合注意力图;s1053:所述学生生成器模仿提取的所述融合注意力图得到对应的优化目标为:s1054:将所述学生生成器生成的图像作为输入,在所述教师判别器的最后一层卷积中进行输出,以逼近所述所述教师生成器生成的图片,对应的优化目标为:其中,表示返回教师判别器的最后一层卷积输出;s1055:确定所述学生生成器的优化目标为:其中,是生成对抗网络基本的损失函数,α、β和γ是超参数,用于平衡不同损失项。6.一种基于保留因子剪枝的生成对抗网络模型的压缩装置,其特征在于,包括:给定模块,用于给定预训练教师生成对抗网络模型和待压缩学生对抗网络模型,所述预训练教师生成对抗网络模型包括教师生成器和教师判别器,所述待压缩学生对抗网络模型包括学生生成器和学生判别器;设置模块,用于为所述学生生成器的每个卷积核设置一个可学习的保留因子,根据边界参数,将所述保留因子转换成对应的所述卷积核的参与前向运算比例;确定模块,用于通过对所述保留因子添加约束条件和收缩所述边界参数,确定所述参与前向运算比例为零的卷积核;移除模块,用于移除所述参与前向运算比例为零的卷积核,获得轻量的所述学生生成器;训练模块,用于根据所述教师生成器和所述教师判别器中的知识,对所述学生生成器进行微调训练;部署模块,用于移除所述学生判别器,保留所述学生生成器,部署学生对抗网络模型。7.根据权利要求6所述的压缩装置,其特征在于,所述设置模块具体包括:转换子模块,用于通过公式1将所述保留因子转换成对应的所述卷积核的参与前向运算比例:其中,p
ij
表示保留因子,b表示边界,ij表示第i层卷积层的第j个卷积核,m
ij
表示参与前向运算比例。8.根据权利要求7所述的压缩装置,其特征在于,所述确定模块具体包括:
转变子模块,用于将所述卷积核的输出由o
ij
转变为o

ij
:o

ij
=m
ij
*o
ij
公式2其中,o
ij
表示卷积核原始输出,o

ij
表示卷积核真实输出。9.根据权利要求6所述的压缩装置,其特征在于,所述确定模块具体包括:约束子模块,用于通过公式3对所述保留因子添加约束条件,使得所述参与前向运算比例不断趋近于零,所述保留因子向所述边界靠齐:收缩子模块,用于通过公式4对所述边界参数进行收缩,将所述边界参数不断变小直至为零:其中,e表示当前迭代次数,e表示全部迭代次数。10.根据权利要求6所述的压缩装置,其特征在于,所述训练模块具体包括:相加子模块,用于对于第i层特征图o
i
,逐通道相加得到第i层特征图o
i
的注意力图:提取子模块,用于提取所述教师生成器g
t
和所述教师判别器中的所述注意力图并进行融合得到:其中,g
t
表示教师生成器,d
t
表示教师判别器,表示融合注意力图;模仿子模块,用于所述学生生成器模仿提取的所述融合注意力图得到对应的优化目标为:输出子模块,用于将所述学生生成器生成的图像作为输入,在所述教师判别器的最后一层卷积中进行输出,以逼近所述所述教师生成器生成的图片,对应的优化目标为:其中,表示返回教师判别器的最后一层卷积输出;确定子模块,用于确定所述学生生成器的优化目标为:其中,是生成对抗网络基本的损失函数,α、β和γ是超参数,用于平衡不同损失项。

技术总结
一种基于保留因子剪枝的生成对抗网络模型的压缩方法。本发明公开了一种生成对抗网络模型的压缩方法,属于人工智能技术领域,方法包括:给定预训练教师生成对抗网络模型和待压缩学生对抗网络模型,预训练教师生成对抗网络模型包括教师生成器和教师判别器,待压缩学生对抗网络模型包括学生生成器和学生判别器;为学生生成器的每个卷积核设置一个可学习的保留因子,根据边界参数,将保留因子转换成对应的卷积核的参与前向运算比例;通过对保留因子添加约束条件和收缩边界参数,确定参与前向运算比例为零的卷积核;移除参与前向运算比例为零的卷积核,获得轻量的学生生成器;根据教师生成器和教师判别器中的知识,对学生生成器进行微调训练;移除学生判别器,保留学生生成器,部署学生对抗网络模型。部署学生对抗网络模型。部署学生对抗网络模型。


技术研发人员:谷雨 钟冲 谢启明 黄剑男 郭伟 余光泽
受保护的技术使用者:厦门路桥信息股份有限公司
技术研发日:2022.08.09
技术公布日:2022/12/2
当前第2页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1