三嵌入卷积神经网络模型及其文本多分类方法与流程

文档序号:18257934发布日期:2019-07-24 10:26阅读:590来源:国知局
本发明属于文本分类
技术领域
:,涉及一种词、词性和词长三嵌入卷积神经网络模型及其文本多分类方法。
背景技术
::文本分类是自然语言处理中的一项重要任务,能更好地帮助人们组织和管理海量的文本信息,快速准确地获取所需信息,实现个性化的信息推荐。文本分类在网络搜索、信息过滤处理、情感分析、文本索引、自动文摘、信息检索推送、数字图书馆以及问答系统等众多领域中均有应用。文本分类处理流程包括特征提取、训练模型最后进行文本分类,其中特征提取是分类中最为核心的任务,传统的文本特征提取方法大体采用基于规则的方法和基于统计学的方法。前者是通过对专家规则的拓展利用知识工程建立专家系统,这些方法都是依靠对数据集和场景制定规则来进行分类任务处理,但是在其他数据集应用中,这种规则化的分类方法不适合推广。后者是从机器学习的角度通过统计学规律和浅层分类模型来进行文本特征提取,并且取得了不错的效果,现有的方法主要有TF-IDF、信息增益方法(InformationGain)、互信息(MutualInformation)、期望交叉熵(ExpectedCrossEntropy)、LDA模型、N-Gram算法等方法。尽管如此,这些传统的文本特征提取方法往往会忽视文本的上下文的信息或是文字的顺序,并且会使得最终产生的特征维度过大、过于稀疏,造成维度灾难等问题。近年来随着深度学习在图形图像处理方面取得的成功,越来越多的研究人员把深度学习相关的技术应用到自然语言处理中来。词嵌入和深度学习方法为解决上述这种特征稀疏性问题提供了新的思路。词嵌入(WordEmbedding)是词的分布式表示,BengioY在2003年提出的神经网络语言模型(NNLM,neuralprobabilisticlanguagemodel)(参见文献:BengioY,DucharmeR,VincentP,etal.Aneuralprobabilisticlanguagemodel[J].Journalofmachinelearningresearch,2003,3(Feb):1137-1155.)提出了文本的分布式处理思想。TomasMikolov等人在2013年的文章中提出CBOW和Skip-Gram两个词嵌入的模型的结构(参见文献:MikolovT,SutskeverI,ChenK,etal.Distributedrepresentationsofwordsandphrasesandtheircompositionality[C]//Advancesinneuralinformationprocessingsystems.2013:3111-3119.),基本类似于NNLM,不同的是模型去掉了非线性隐层,预测目标不同,CBOW是上下文词预测当前词,Skip-Gram则相反。文本分类模型则是利用RNN/CNN等深度学习网络及其变体解决自动特征提取(即特征表达)的问题。深度学习中常用的递归神经网络(RNN,RecurrentNeuralNetwork),能够更好地表达上下文信息,它可以在保持词序信息的基础上隐式地抽取句子来表示,并且可以在没有句子边界的情况下分析整个文档的语义。WeningerF等人利用LSTM+RNN模型(参见文献:WeningerF,BergmannJ,SchullerB.Introducingcurrennt:Themunichopen-sourcecudarecurrentneuralnetworktoolkit[J].TheJournalofMachineLearningResearch,2015,16(1):547-551.),可以避免RNN在文本分类中存在的梯度消失和梯度弥散问题,但是这个模型在处理文本时会认为后面的单词比之前的单词更占优势。因此,当它用于捕获整个文档的语义时,可能会降低其有效性,因为关键组件可能出现在文档中的任何地方而不是结尾。Kim在2014年提出的textCNN文本分类模型(参见文献:KimY.ConvolutionalNeuralNetworksforSentenceClassification[C]//ProcofEmpiricalMethodsinNaturalLanguageProcessing.2014:1746-1751.),利用CNN模型与单词嵌入结合可以捕捉文本局部相关性,从而解决了词语之间关系缺失的问题。尽管TextCNN能够在很多任务里面能有不错的表现,但CNN有个最大问题是固定filter_size的视野,一方面无法建模更长的序列信息,另一方面filter_size的超参调节也很繁琐。技术实现要素:针对现有技术的不足,本发明提供一种词、词性和词长三嵌入卷积神经网络模型,输入层接收经过预处理后的文本,为方便查找加入查找表,为提高分类的准确度在池化层进行降维处理,经过卷积和池化操作后提取文本的局部特征,将融合后的融合特征矩阵采用dropout机制,随机删除部分特征,得到分类器输入矩阵加到分类器中。本发明还提供一种基于词、词性和词长三嵌入卷积神经网络模型的文本多分类方法。采用新词识别方法,识别中文新词,扩充文本分词语料库后进行分词,得到词、词性和词长库,提高分词的精确度。本发明词、词性和词长三嵌入的文本多分类卷积神经网络模型采用如下技术方案实现:一种词、词性和词长三嵌入卷积神经网络模型,包括依次相连的输入层、查找表、卷积层、特征池化层、特征连接层、特征选择层和分类输出层,其中:输入层:用于接收预处理后的文本,进行词向量编码,得到词特征向量映射矩阵、词性特征向量映射矩阵和词长特征向量映射矩阵;查找表:用于存储词特征向量映射矩阵、词性特征向量映射矩阵和词长特征向量映射矩阵,包括词查找表、词性查找表和词长查找表;卷积层:用于通过查找表获得需要处理的词矩阵、词性矩阵和词长矩阵,对获得的词矩阵、词性矩阵和词长矩阵进行卷积运算,得到词、词性和词长局部特征;特征池化层:用于对词、词性和词长局部特征进行降维处理;特征连接层:用于对降维处理后的词、词性和词长局部特征进行合并处理,得到融合特征矩阵;在进行合并处理时对词、词性和词长局部特征赋予不同的权值进行融合;特征选择层:用于对融合特征矩阵采用dropout机制,随机删除部分特征,得到分类器输入矩阵;分类输出层:用于将分类器输入矩阵作为输入,对特征进行分析,完成文本多分类;其中,确定所述预设权值的步骤包括:取多组不同的预设权值;利用由不同的预设权值形成的连接操作层构成的所述词、词性和词长三嵌入卷积神经网络模型进行文本分类的测试;根据测试计算得到由不同的预设权值形成的连接操作层构成的所述词、词性和词长三嵌入卷积神经网络模型对应的分类准确度;取分类准确度最高的所述词、词性和词长三嵌入卷积神经网络模型对应的预设权值作为连接操作层的所述预设权值。优选地,在用词、词性和词长三嵌入卷积神经网络模型模型进行训练时,其参数设置如下:卷积核窗口大小h,分别为3、4、5,最大词向量d为300;每种卷积核的数量为100;dropout概率为0.5;chunk-maxpooling采样中chunk为5。优选地,特征池化层采用分块内最大特征池化降维策略;分类输出层使用softmax作为分类器。本发明文本多分类方法采用如下技术方案实现:一种基于词、词性和词长三嵌入卷积神经网络模型的文本多分类方法,包括:数据预处理,得到词、词性和词长三嵌入卷积神经网络模型的输入数据集;词、词性和词长三嵌入卷积神经网络模型接收预处理后的输入数据集,进行词向量编码,得到词特征向量映射矩阵、词性特征向量映射矩阵和词长特征向量映射矩阵;构建词查找表、词性查找表和词长查找表;通过查找词查找表、词性查找表和词长查找表获得需要处理的词矩阵、词性矩阵和词长矩阵,对获得的词矩阵、词性矩阵和词长矩阵进行卷积运算,得到词、词性和词长局部特征;对词、词性和词长局部特征进行降维处理;用于对降维处理后的词、词性和词长局部特征进行合并处理,得到融合特征矩阵;在进行合并处理时对词、词性和词长局部特征赋予不同的权值进行融合;对融合特征矩阵采用dropout机制,随机删除部分特征,得到分类器输入矩阵;将II输入分类输出层,对特征进行分析,完成文本多分类。进一步地,数据预处理包括:采用新词识别方法,识别中文新词,扩充文本分词语料库后进行分词,得到词、词性和词长库。进一步地,新词识别方法以前后邻接词的凝固度、信息熵以及点互信息作为参考信息。设Lav(ξ)表示词串ξ直接相邻的左边不同字的个数,Rav(ξ)表示词串ξ直接相邻的右边不同字的个数,用Lav(ξ)和Rav(ξ)表示词串ξ在不同的语义环境下成词的可能性,前后邻接词的凝固度计算公式如下:Gav(ξ)=logAv(ξ)其中,Av(ξ)=min{Lav(ξ),Rav(ξ)}。信息熵的计算公式如下:其中,I(xi)表示xi的自信息,P(xi)表示为xi的概率分布。点互信息的计算公式如下:其中,x、y为语料库中的词或字,如果x、y是独立的,则P(x,y)=P(x)P(y);如果x、y二者越相关,则PMI的值越大。进一步地,得到词局部特征包括:①输入拼接词向量xi:j:式中,xi(xi∈Rd)为长度为n的句子的第i个词语的词向量,维度为d;为拼接操作,xi:j为在长度为n的句子中第[i,j]个词语的词向量的拼接;②设卷积核大小为h×d,则卷积运算后词语窗口的特征映射为:Si=f(w×xi:i+h-1+b)其中,xi:i+h-1表示词汇窗口;w是卷积核的权重矩阵;h为卷积核中输入的词语大小,b为偏置项,f为激活函数;③对长度为n的句子中的拼接词向量x1:h、x2:h+1、…、xn+h-1:n进行卷积运算,得到词局部特征映射矩阵S:S=[s1,s2,s3,...,sn-h+1]进一步地,还包括步骤:采用梯度下降法Adam对词、词性和词长三嵌入卷积神经网络模型进行训练。优选地,还包括步骤:文本多分类效果评价;设给定样本容量大小为N的样本集T,样本yi的标签和分类结果表示为ni和mi,文本多分类效果评价公式如下:其中,|ni=mi|为真时取1,为假时取0。本发明与现有技术相比,具有以下有益效果:(1)通过对样本集分析,采用新词识别方法识别中文新词,扩充文本分词语料库,能提高分词的精确度。(2)提供一种词、词性和词长三嵌入卷积神经网络模型,该模型通过词、词性和词长三输入的方式在不改变卷积核数量的情况下能得到最优结果,提高文本语义的识别能力。而且通过同时考虑了词、词性和词长三种因素,能够使得卷积神经网络模型预测得到的分类结果更为准确。(3)增加分块内最大特征池化(chunkmaxpooling)降采样,使得特征提取更加准确,保留更多的特征信息。(4)采用dropout机制,随机删除部分特征,提高模型的泛化能力附图说明图1为本发明一个实施例中词、词性和词长三嵌入卷积神经网络模型结构图;图2为本发明一个实施例中文本多分类方法流程图。具体实施方式下面通过具体实施方式对本发明作进一步详细的描述,但本发明的实施方式并不限于此。卷积神经网络(CNN)是多层神经元组成的前馈神经网络模型,卷积神经网络特征抽取器由卷积层和子采样层构成,可以把子采样看作一种特殊的卷积过程。卷积层中包含多个特征平面,每个特征平面由输入矩阵的神经元组成,同一特征平面的神经元共享权值,通过共享权值可以减少网络各层之间的连接,降低了过拟合的风险。卷积层通过卷积运算抽取局部特征,降采样层则通过计算来保留最优特征,对特征结构降维处理。一种词、词性和词长三嵌入卷积神经网络模型,如图1所示,包括依次相连的输入层、查找表(Look-uptables)、卷积操作层、分块内最大特征池化操作层、连接操作层、特征选择操作层和分类输出层,其中:输入层:用于接收预处理后的文本,进行词向量编码,得到词特征向量映射矩阵、词性特征向量映射矩阵和词长特征向量映射矩阵。查找表:用于存储词特征向量映射矩阵、词性特征向量映射矩阵和词长特征向量映射矩阵,包括词查找表、词性查找表和词长查找表。卷积层:用于通过查找表获得需要处理的词矩阵、词性矩阵和词长矩阵,对词矩阵、词性矩阵和词长矩阵进行卷积运算,获得词、词性和词长局部特征。分块内最大特征池化操作层:用于对词、词性和词长局部特征进行降维处理。连接操作层:用于对降维处理后的词、词性和词长局部特征进行合并处理,得到融合特征矩阵。在进行合并处理时对词、词性和词长局部特征赋予不同的权值进行融合,例如在融合时词、词性和词长局部特征的权值分别为K1、K2、K3,这样就可以使得不同的局部特征根据其重要程度发挥其不同比例的作用,使得融合后的特征更能反映出文本的整体特性。其中K1、K2、K3均为0至1之间的数,K1+K2+K3=1。在这里如何确定K1、K2、K3的大小非常重要,其具体步骤为:为K1、K2、K3取多组不同的值,并且使之满足K1、K2、K3均为0至1之间的数,K1+K2+K3=1,例如第一组值为K11、K21、K31,第二组值为K12、K22、K32,第三组值为K13、K23、K33,然后利用由不同取值形成的连接操作层进行文本分类的测试,并计算得到不同取值对应的分类准确度,取分类准确度最高的一组取值作为连接操作层的取值。特征选择操作层:用于对融合特征矩阵采用dropout机制,随机删除部分特征,得到分类器输入矩阵。分类输出层:用于将分类器输入矩阵作为输入,对特征进行分析,完成文本多分类。进一步地,对分类输出层权值给予一个L2正则化的惩罚项,对参数进行约束。使用softmax作为分类器,softmaxloss作为分类器的损失函数。基于词、词性和词长三嵌入卷积神经网络模型的文本多分类方法,输入层接收经过预处理后的文本,并且为提高分类的准确度在分块内最大特征池化操作层使用chunk-maxpooling,经过卷积和池化操作后自动提取文本的局部特征,将串接融合后融合特征矩阵采用dropout机制,随机删除部分特征,得到分类器输入矩阵加到softmax分类器中,对分类输出层权值给予一个L2正则化的惩罚项,梯度更新法选用Adam。本实例中,基于词、词性和词长三嵌入卷积神经网络模型的文本多分类方法的原理为:在输入时,创建词、词性和词长的三输入,经过输入层处理后,得到词特征向量映射矩阵(WordFeature,WF)、词性特征向量映射矩阵(VocabularyFeature,VF)和词长特征向量映射矩阵(LengthFeature,LF)。其中,词的特征向量映射矩阵:是通过jieba分词工具切分之后经过word2vec计算后得到的词特征向量映射矩阵;词性特征向量映射矩阵(VocabularyFeature,VF):是由jieba分词后经过提取计算得到的词性向量映射矩阵;词长特征向量映射矩阵(LengthFeature,LF):是由jieba分词后经过提取计算得到的词长向量映射矩阵。把WF、VF和LF作为词、词性和词长三嵌入卷积神经网络模型中卷积层的三层输入,经过卷积层和池化层的计算后再把WF、VF和LF进行最后的特征融合得到词向量空间集合记为VT:VT=WF×index(VF)×index(LF)其中,index()为索引函数。一种基于词、词性和词长三嵌入卷积神经网络模型的文本多分类方法,如图2所示,包括:S1、数据预处理,得到词、词性和词长三嵌入卷积神经网络模型的输入数据集。本实施例中,数据预处理流程如图2所示,通过样本集分析,采用新词识别方法,识别中文新词,扩充文本分词语料库后进行分词,得到词、词性和词长库,作为词、词性和词长三嵌入卷积神经网络模型的输入数据集。中文分词目前存在中文词库的更新速度慢,新词产生速度快的问题,在做文本分词时不能准确的区分。本实施例中,新词识别方法把识别的中文新词和现有的词库相结合,得到扩充后的文本分词语料库。新词识别所用的数据结构是字典树,树的根节点不包含字符,除了根节点外每一个结点包含一个字符,从根节点到某一个结点路径上连接起来组成的字符串为所构成的新词。使用字典树数据结构是因为字典树可以对字符的频率进行快速的计算统计,可以快速的选择出成词可能性最大的词语作为输出结果。新词识别方法以前后邻接词的凝固度、信息熵以及点互信息作为参考信息。设Lav(ξ)表示词串ξ直接相邻的左边不同字的个数,Rav(ξ)表示词串ξ直接相邻的右边不同字的个数,那么可以用Lav(ξ)和Rav(ξ)来表示词串ξ在不同的语义环境下成词的可能性,前后邻接词的凝固度计算公式如下:Gav(ξ)=logAv(ξ)其中,Av(ξ)=min{Lav(ξ),Rav(ξ)}。信息熵是用来衡量两个碎片词成词的稳定性,通常信息熵值越大表示字、词碎片左右相邻字符相互关系的不稳定性越高,那么就越有可能作为独立的个体成词;信息熵值越小,说明词、字碎片与左右邻接词之间的关系越紧密,那么它们成词的可能性就越大。碎片字、词的信息熵值的计算公式如下:其中,I(xi)表示xi的自信息,P(xi)表示为xi的概率分布。设碎片字、词的左邻接词信息熵为HL,其计算公式如下所示:右邻接词的信息熵的公式如下所示:在数据分析中点互信息(PMI)用来度量两个事物之间的相关性,在新词识别中利用PMI来衡量N元词语共现的耦合性,其计算公式如下:其中,x、y为语料库中的词或字,如果x、y是独立的,则P(x,y)=P(x)P(y);如果x、y二者越相关,则PMI的值越大。在新词发现的过程中,两个独立的词之间点互信息值越大,那么这两个词组合成一个词的可能性就会越大。与英文文本处理不同的是,英文中可以通过空格来区分单词,中文文本是连续的,需要通过文本分词技术来提取词语。本实施例中,采用Python中文分词组件"Jieba",考虑到本实施例中文本的含义是企业基本属性简介,例如:“交通银行是中国最主要的金融服务供应商之一,业务范围涵盖了商业银行、证劵、信托、金融租赁、基金管理、保险、离岸金融等综合性金融服务。作为首家获批开展深化改革的国有大型商业银行,交通银行正向着‘走国际化、综合化道路,建设以财富管理为特色的一流公众持股银行集团’的战略目标阔步迈进。”这段话中可以看出根据文本信息通过“银行”,“证券”,“金融”等关键字可以判断出该企业的类别,但是在有些行业专有名词的上,Jieba分词还不能很好地区分出来,开发者可以指定自定义的词典,以便包含jieba词库中没有的词。虽然jieba有新词识别能力,但是自行添加新词可以保证更高的正确率。本实施例中,文本数据集包含金融、互联网、重工业、能原材料、生物医疗、影音娱乐和房地产业等10个行业的8000个企业的简介。在文本分词之前对这些企业一些专业名词进行汇总以自定义词典的方式进行知识库扩充,使得分词结果更加准确。对扩充后文本分词语料库进行分词,去掉分词停用词后的文本数据格式如下:交通银行/nt/4中国/n/2主要/b/2金融/n/2服务/vt/2供应商/n/3…。S2、词、词性和词长三嵌入卷积神经网络模型接收预处理后的输入数据集,进行词向量编码,得到词特征向量映射矩阵、词性特征向量映射矩阵和词长特征向量映射矩阵。为了将自然语言中的字词转为计算机可以理解的稠密词向量,基于Word2vec模型训练得到词和词向量编码。由于Word2vec在进行词向量训练时使用唯一词向量计算,对中文的多义词无法进行很好的表示和处理,因此在训练时分为词和词向量训练(词、词性和词长三层管道嵌入),例如:交通银行/nt/4中国/n/2主要/b/2金融/n/2服务/vt/2供应商/n/3。需要说明的是,在其他文本语料中可以把词性、词长管道嵌入改为词性、词长、词的拼音管道嵌入提高文本语义的识别能力。S3、构建词查找表、词性查找表和词长查找表。词查找表用于存储词特征向量映射矩阵,词性查找表用于存储词性特征向量映射矩阵,词长查找表用于存储词性特征向量映射矩阵。S4、通过查找词查找表、词性查找表和词长查找表获得需要处理的词矩阵、词性矩阵和词长矩阵,对获得的词矩阵、词性矩阵和词长矩阵进行卷积运算,得到词、词性和词长局部特征。本实施例中,利用大小为h×d的卷积核对词矩阵、词性矩阵和词长矩阵进行卷积运算。下面以得到词局部特征为例进行说明:设词向量的维度为d,句子的长度为h,那么句子矩阵可以表示为:X∈Rd,句子矩阵维度为h×d。首先输入拼接词向量xi:j:式中,xi(xi∈Rd)为长度为n的句子的第i个词语的词向量,维度为d。为拼接操作,xi:j为在长度为n的句子中第[i,j]个词语的词向量的拼接。设卷积核大小为h×d,则每个词语窗口的特征映射为:Si=f(w×xi:i+h-1+b)其中,xi:i+h-1表示词汇窗口;w是卷积核的权重矩阵;h为卷积核中输入的词语大小即卷积核窗口大小,b为偏置项,f为激活函数。在神经网络模型中,常用的激活函数有多种,例如sigmod函数、tanh函数等。本实施例中,选择收敛速度最快的线性激活函数Relu作为激活函数。对长度为n的句子中的拼接词向量x1:h、x2:h+1、…、xn+h-1:n进行卷积运算,得到词局部特征映射矩阵S,其中:S=[s1,s2,s3,...,sn-h+1]S5、对词、词性和词长局部特征进行降维处理。对词、词性和词长局部特征进行降维处理,避免过拟合现象的发生,在分块内最大特征池化操作层中采用分块内最大特征池化(chunk-MaxPooling)降采样策略。chunk-MaxPooling的思想是:把某个特征抽取器(Filter)对应的卷积(Convolution)层的所有特征向量进行分段,切割成若干段后,在每个分段里面各自取得前Topn个特征值。通过chunk-MaxPooling降采样策略可以捕获多个相关的局部特征,去除冗余的特征。本实施例中,设卷积层词、词性和词长向量分成m段,每段取前n个最大特征值记为Si(1≤i≤m),每段通过卷积运算后得到特征矩阵对特征矩阵进行降采样后得到每段分类特征矩阵计算公式下:其中,fflatten()是降维操作,把多维特征矩阵压缩成一维,fsort()为排序函数。S6、用于对降维处理后的词、词性和词长局部特征进行合并处理,得到融合特征矩阵。在进行合并处理时对词、词性和词长局部特征赋予不同的权值进行融合,例如在融合时词、词性和词长局部特征的权值分别为K1、K2、K3,这样就可以使得不同的局部特征根据其重要程度发挥其不同比例的作用,使得融合后的特征更能反映出文本的整体特性。其中K1、K2、K3均为0至1之间的数,K1+K2+K3=1。在这里如何确定K1、K2、K3的大小非常重要,其具体步骤为:为K1、K2、K3取多组不同的值,并且使之满足K1、K2、K3均为0至1之间的数,K1+K2+K3=1,例如第一组值为K11、K21、K31,第二组值为K12、K22、K32,第三组值为K13、K23、K33,然后利用由不同取值形成的连接操作层进行文本分类的测试,并计算得到不同取值对应的分类准确度,取分类准确度最高的一组取值作为连接操作层的取值。把m段分类特征矩阵进行融合,得到融合特征矩阵Vt,计算过程如下:S7、对融合特征矩阵采用dropout机制,随机删除部分特征,得到分类器输入矩阵。为了提高模型的泛化能力,对融合特征矩阵采用dropout机制,随机删除部分特征,得到分类器输入矩阵。在实施例中,设置dropout值为0.5,即随机放弃一半参数。S8、将II输入分类输出层,对特征进行分析,完成文本多分类。本实施例中,对分类输出层权值给予一个L2正则化的惩罚项,对参数进行约束。使用softmax作为分类器,softmaxloss作为分类器的损失函数。S9、对词、词性和词长三嵌入卷积神经网络模型进行训练。本实施例中,词、词性和词长三嵌入卷积神经网络模型采用梯度下降法Adam对参数进行训练,Adam算法根据损失函数对每个参数的梯度的一阶矩估计和二阶矩估计动态调整针对于每个参数的学习速率。Adam也是基于梯度下降的方法,但是每次迭代参数的学习步长都有一个确定的范围,不会因为很大的梯度导致很大的学习步长,参数的值比较稳定。为了评估所得到的卷积神经网络模型的可靠性,在模型训练的阶段,将原始文本语料采用k-foldcrossvalidation,交叉验证。S10、文本多分类效果评价。本实施例中,文本多分类效果评价主要从分类的准确度进行度量,设给定样本容量大小为N的样本集T,样本yi的标签和分类结果表示为ni和mi,文本多分类效果评价公式如下:其中,|ni=mi|为真时取1,为假时取0。具体参数设置:词、词性和词长向量参数设置:本实施例构建了基于拉勾网招聘网站中企业简介文本信息的数据集,数据集包含8000条企业基本信息,分为10个类别,分别是金融、互联网、重工业、能源材料、生物医疗、影音娱乐、房地产业、农产品、物流和家政服务10个行业。训练词向量中使用Word2vec工具中的Skip-gram模型作为训练模型,对8000条企业简介的文本信息进行词向量预训练。词向量的维度设置为256,并过滤掉频次低于3的词,最终训练出词向量的词表size为8616。而对于词性向量使用随机的方式初始化,维度为64,词性表的size为96。词向量训练参数设置:选用Skip-gram模型,上下文滑动窗口为5,iter迭代次数为40次。词、词性和词长三嵌入卷积神经网络模型训练参数设置:在用词、词性和词长三嵌入卷积神经网络模型模型进行训练时,其参数设置如下:卷积核窗口大小h,分别为3、4、5,最大词向量d为300;每种卷积核的数量为100;dropout概率为0.5;chunk-maxpooling采样中chunk为5。上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。当前第1页1 2 3 当前第1页1 2 3 
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1