技术编号:18257926
提示:您尚未登录,请点 登 陆 后下载,如果您还没有账户请点 注 册 ,登陆完成后,请刷新本页查看技术详细信息。本说明书一个或多个实施例涉及计算机领域,尤其涉及用于文本分析的模型训练方法、文本分类方法和装置。背景技术转换器(Transformer)模型是Google的Ashish Vaswani等人在2017年提出的一种神经网络模型,可用于序列数据的深度建模,可替代长短记忆网络(long short term memory,LSTM)模型,具有运行速度快的特点。Transformer模型只从单向处理序列,在处理序列中每个位置时都只考虑前面所有位置的信息,没有考虑后面位置的信息,这极大地限制了模型的鲁棒性。...
注意:该技术已申请专利,请尊重研发人员的辛勤研发付出,在未取得专利权人授权前,仅供技术研究参考不得用于商业用途。
该专利适合技术人员进行技术研发参考以及查看自身技术是否侵权,增加技术思路,做技术知识储备,不适合论文引用。
请注意,此类技术没有源代码,用于学习研究技术思路。