技术编号:18756417
提示:您尚未登录,请点 登 陆 后下载,如果您还没有账户请点 注 册 ,登陆完成后,请刷新本页查看技术详细信息。本发明提供一种基于权重归一化的深度神经网络压缩方法,涉及压缩(量化)神经网络的参数,可以将模型的权重量化至极低的比特数目(2比特、3比特)适用于压缩各种主流的神经网络的参数,如ResNet,MobileNet等,从而使得模型可以部署到移动端设备。背景技术随着深度学习的发展,深度神经网络逐渐成为机器学习的主流模型。但是,深度学习模型有大量的参数同时需要极大的计算开销,不利于模型向移动设备和嵌入式设备部署。根据已有研究,深度神经网络中存在大量冗余,因此可以对模型的参数进行极大的压缩,同时保证模型的性...
注意:该技术已申请专利,请尊重研发人员的辛勤研发付出,在未取得专利权人授权前,仅供技术研究参考不得用于商业用途。
该专利适合技术人员进行技术研发参考以及查看自身技术是否侵权,增加技术思路,做技术知识储备,不适合论文引用。
请注意,此类技术没有源代码,用于学习研究技术思路。