用于文本分析的模型训练方法、文本分类方法和装置与流程技术资料下载

技术编号:18257926

提示:您尚未登录,请点 登 陆 后下载,如果您还没有账户请点 注 册 ,登陆完成后,请刷新本页查看技术详细信息。

本说明书一个或多个实施例涉及计算机领域,尤其涉及用于文本分析的模型训练方法、文本分类方法和装置。背景技术转换器(Transformer)模型是Google的Ashish Vaswani等人在2017年提出的一种神经网络模型,可用于序列数据的深度建模,可替代长短记忆网络(long short term memory,LSTM)模型,具有运行速度快的特点。Transformer模型只从单向处理序列,在处理序列中每个位置时都只考虑前面所有位置的信息,没有考虑后面位置的信息,这极大地限制了模型的鲁棒性。...
注意:该技术已申请专利,请尊重研发人员的辛勤研发付出,在未取得专利权人授权前,仅供技术研究参考不得用于商业用途。
该专利适合技术人员进行技术研发参考以及查看自身技术是否侵权,增加技术思路,做技术知识储备,不适合论文引用。
请注意,此类技术没有源代码,用于学习研究技术思路。

详细技术文档下载地址↓↓

提示:您尚未登录,请点 登 陆 后下载,如果您还没有账户请点 注 册 ,登陆完成后,请刷新本页查看技术详细信息。
该分类下的技术专家--如需求助专家,请联系客服
  • 李老师:1.计算力学 2.无损检测
  • 毕老师:机构动力学与控制
  • 袁老师:1.计算机视觉 2.无线网络及物联网
  • 王老师:1.计算机网络安全 2.计算机仿真技术
  • 王老师:1.网络安全;物联网安全 、大数据安全 2.安全态势感知、舆情分析和控制 3.区块链及应用
  • 孙老师:1.机机器人技术 2.机器视觉 3.网络控制系统
  • 葛老师:1.机器人技术 2.计算机辅助技术
  • 张老师:1.内燃机燃烧及能效管理技术 2.计算机数据采集与智能算法 3.助航设备开发