面向大规模GPU集群的分布式局部随机梯度下降方法技术资料下载

技术编号:31708752

提示:您尚未登录,请点 登 陆 后下载,如果您还没有账户请点 注 册 ,登陆完成后,请刷新本页查看技术详细信息。

面向大规模gpu集群的分布式局部随机梯度下降方法技术领域.本发明涉及分布式计算与存储领域,尤其涉及一种面向大规模gpu集群的分布式局部随机梯度下降方法。背景技术.随着深层神经网络模型变得更加复杂,其计算工作量也随之增加,这就排除了利用单个节点在合理时间内训练成熟模型的可能性。在这种情况下,分布式训练成为深度学习模型训练的必要条件。目前,对深度学习模型的分布式训练主要分为数据并行和模型并行两种方式。庞大的数据集和模型被分发给多个计算节点以完成相应的培训任务。因此,这些计算节点必须定期通信,以保...
注意:该技术已申请专利,请尊重研发人员的辛勤研发付出,在未取得专利权人授权前,仅供技术研究参考不得用于商业用途。
该专利适合技术人员进行技术研发参考以及查看自身技术是否侵权,增加技术思路,做技术知识储备,不适合论文引用。
请注意,此类技术没有源代码,用于学习研究技术思路。

详细技术文档下载地址↓↓

提示:您尚未登录,请点 登 陆 后下载,如果您还没有账户请点 注 册 ,登陆完成后,请刷新本页查看技术详细信息。
该分类下的技术专家--如需求助专家,请联系客服
  • 李老师:1.计算力学 2.无损检测
  • 毕老师:机构动力学与控制
  • 袁老师:1.计算机视觉 2.无线网络及物联网
  • 王老师:1.计算机网络安全 2.计算机仿真技术
  • 王老师:1.网络安全;物联网安全 、大数据安全 2.安全态势感知、舆情分析和控制 3.区块链及应用
  • 孙老师:1.机机器人技术 2.机器视觉 3.网络控制系统
  • 葛老师:1.机器人技术 2.计算机辅助技术
  • 张老师:1.内燃机燃烧及能效管理技术 2.计算机数据采集与智能算法 3.助航设备开发