一种基于权重归一化的深度神经网络压缩方法与流程技术资料下载

技术编号:18756417

提示:您尚未登录,请点 登 陆 后下载,如果您还没有账户请点 注 册 ,登陆完成后,请刷新本页查看技术详细信息。

本发明提供一种基于权重归一化的深度神经网络压缩方法,涉及压缩(量化)神经网络的参数,可以将模型的权重量化至极低的比特数目(2比特、3比特)适用于压缩各种主流的神经网络的参数,如ResNet,MobileNet等,从而使得模型可以部署到移动端设备。背景技术随着深度学习的发展,深度神经网络逐渐成为机器学习的主流模型。但是,深度学习模型有大量的参数同时需要极大的计算开销,不利于模型向移动设备和嵌入式设备部署。根据已有研究,深度神经网络中存在大量冗余,因此可以对模型的参数进行极大的压缩,同时保证模型的性...
注意:该技术已申请专利,请尊重研发人员的辛勤研发付出,在未取得专利权人授权前,仅供技术研究参考不得用于商业用途。
该专利适合技术人员进行技术研发参考以及查看自身技术是否侵权,增加技术思路,做技术知识储备,不适合论文引用。
请注意,此类技术没有源代码,用于学习研究技术思路。

详细技术文档下载地址↓↓

提示:您尚未登录,请点 登 陆 后下载,如果您还没有账户请点 注 册 ,登陆完成后,请刷新本页查看技术详细信息。
该分类下的技术专家--如需求助专家,请联系客服
  • 李老师:1.计算力学 2.无损检测
  • 毕老师:机构动力学与控制
  • 袁老师:1.计算机视觉 2.无线网络及物联网
  • 王老师:1.计算机网络安全 2.计算机仿真技术
  • 王老师:1.网络安全;物联网安全 、大数据安全 2.安全态势感知、舆情分析和控制 3.区块链及应用
  • 孙老师:1.机机器人技术 2.机器视觉 3.网络控制系统
  • 葛老师:1.机器人技术 2.计算机辅助技术
  • 张老师:1.内燃机燃烧及能效管理技术 2.计算机数据采集与智能算法 3.助航设备开发