一种文本的情感信息识别方法及相关装置与流程

文档序号:18642705发布日期:2019-09-11 23:43阅读:196来源:国知局
一种文本的情感信息识别方法及相关装置与流程

本申请涉及自然语言分析技术领域,特别涉及一种文本的情感信息识别方法、情感信息识别设备、自然语言分析装置以及计算机可读存储介质。



背景技术:

情感分析是自然语言处理领域的另一分析角度,又称倾向性分析、意见抽取、意见挖掘、情感挖掘、主观分析等,主要是对带有情感色彩的主观性文本进行分析、处理、归纳和推理的过程,如从电影评论中分析用户对电影的评价,从商品评论文本中分析用户对商品的“价格、大小、重量、易用性”等属性的情感倾向。

而对于商品评论的情感分析的主要任务就是对带有感情色彩的文本进行分析,处理,归纳和判断。传统机器学习算法需要使用大量人工选择的数据特征,耗费大量人力且迁移性不强,而且不论是有监督还是无监督的学习方法,都属于浅层学习,无法学习到文本的更深层信息,在有限的文本数据和计算单元的情况下,机器学习对于复杂问题的处理以及复杂功能的实现上会受到一定程度的限制。

因此,现有技术为了克服传统机器学习算法的缺陷,利用深度学习算法来处理自然语言处理任务,其中,cnn(convolutionalneuralnetwork卷积神经网络)和rnn(recurrentneuralnetworks递归神经网络)是文本情感分析任务中使用最广泛的网络模型。但是由于文本中每个词或者句子对整个文本的情感极性有着不同的决定作用,而以上两种神经网络中,前者会忽略词的上下文语义并且在最大池化操作时大量特征信息会丢失,而后者存在梯度消失以及梯度弥散问题。具体来说,cnn并不完全适用于学习时间序列,因此会需要各种辅助性处理,且效果也不一定好。而rnn只考虑了单向的时序问题,没有充分结合上下文语境,而且也会出现梯度消失以及梯度爆炸问题。以上两种情况都会造成对文本的情感分析的准确度下降,降低情感分析的精度。

因此,如何提高文本中的情感分析的准确性和精度是本领域技术人员关注的重点问题。



技术实现要素:

本申请的目的是提供一种文本的情感信息识别方法、情感信息识别设备、自然语言分析装置以及计算机可读存储介质,通过已训练的word2vec模型、bilstm模型以及cnn模型提取出待预测文本的上下文的时序特征,充分地获取到文本的局部特征和序列信息,提高情感分析的精度和准确率。

为解决上述技术问题,本申请提供一种文本的情感信息识别方法,包括:

采用已训练的word2vec模型对待预测文本进行预处理,得到所述待预测文本的输入向量;

采用已训练的bilstm模型对所述输入向量进行特征识别,得到上下文时序文本信息特征;

通过已训练的cnn模型对所述上下文时序文本信息特征进行特征提取,得到目标特征;

采用已训练的神经网络对所述目标特征进行识别,得到情感识别结果。

可选的,采用已训练的word2vec模型对待预测文本进行预处理,得到所述待预测文本的输入向量,包括:

对所述待预测文本进行停用词处理,得到识别语料;

采用所述已训练的word2vec模型对所述识别语料进行处理,得到所述输入向量。

可选的,通过已训练的cnn模型对所述上下文时序文本信息特征进行特征提取,得到目标特征,包括:

通过所述已训练的cnn模型对每个所述上下文时序文本信息特征分别进行特征提取,得到多个子目标特征;

将所有所述子目标特征连接,得到所述目标特征。

可选的,采用已训练的神经网络对所述目标特征进行识别,得到情感识别结果,包括:

将所述目标特征输入到所述已训练的神经网络,得到处理结果;

将所述处理结果输入到sigmoid函数分类层进行分类,得到所述情感识别结果。

本申请还提供一种文本的情感信息识别设备,包括:

向量矩阵获取模块,用于采用已训练的word2vec模型对待预测文本进行预处理,得到所述待预测文本的输入向量;

序列关系获取模块,用于采用已训练的bilstm模型对所述输入向量进行特征识别,得到上下文时序文本信息特征;

特征提取模块,用于通过已训练的cnn模型对所述上下文时序文本信息特征进行特征提取,得到目标特征;

情感识别模块,用于采用已训练的神经网络对所述目标特征进行识别,得到情感识别结果。

可选的,所述向量矩阵获取模块,包括:

停用词处理单元,用于对所述待预测文本进行停用词处理,得到识别语料;

语料识别单元,用于采用所述已训练的word2vec模型对所述识别语料进行处理,得到所述输入向量。

可选的,所述特征提取模块,包括:

子目标特征获取单元,用于通过所述已训练的cnn模型对每个所述上下文时序文本信息特征分别进行特征提取,得到多个子目标特征;

目标特征获取单元,用于将所有所述子目标特征连接,得到所述目标特征。

可选的,所述情感识别模块,包括:

目标特征识别单元,用于将所述目标特征输入到所述已训练的神经网络,得到处理结果;

情感分类单元,用于将所述处理结果输入到sigmoid函数分类层进行分类,得到所述情感识别结果。

本申请还提供一种自然语言分析装置,包括:

存储器,用于存储计算机程序;

处理器,用于执行所述计算机程序时实现如上所述的情感信息识别方法的步骤。

本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的情感信息识别方法的步骤。

本申请所提供的一种文本的情感信息识别方法,包括:采用已训练的word2vec模型对待预测文本进行预处理,得到所述待预测文本的输入向量;采用已训练的bilstm模型对所述输入向量进行特征识别,得到上下文时序文本信息特征;通过已训练的cnn模型对所述上下文时序文本信息特征进行特征提取,得到目标特征;采用已训练的神经网络对所述目标特征进行识别,得到情感识别结果。

通过已训练的word2vec模型、bilstm模型以及cnn模型对待预测文本进行处理,由于每个模型的特性,将该三部分模型连起来使用后,相当于是对待预测文本进行特征提取,进一步的提取的过程分别采用三个模型的特性,提取出关系到文本中上下文之间的关系,及上下文时序文本信息特征,进而再采用cnn模型对上下文时序文本信息特征做进一步的提取操作,提取得到目标特征,该特征中表现了上下文的时序特征,能够充分地提取文本的局部特征与序列信息,进而可以识别出文本的重要信息特征,在进行情感分析的过程中可以提高情感分析的精度和准确率。

本申请还提供一种文本的情感信息识别设备、自然语言分析装置以及计算机可读存储介质,具有以上有益效果,在此不作赘述。

附图说明

为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。

图1为本申请实施例所提供的一种文本的情感信息识别方法的流程图;

图2为本申请实施例所提供的一种文本的情感信息识别设备的结构示意图。

具体实施方式

本申请的核心是提供一种文本的情感信息识别方法、情感信息识别设备、自然语言分析装置以及计算机可读存储介质,通过已训练的word2vec模型、bilstm模型以及cnn模型提取出待预测文本的上下文的时序特征,充分地获取到文本的局部特征和序列信息,提高情感分析的精度和准确率。

为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。

现有技术为了克服传统机器学习算法的缺陷,利用深度学习算法来处理自然语言处理任务,其中,cnn(convolutionalneuralnetwork卷积神经网络)和rnn(recurrentneuralnetworks递归神经网络)是文本情感分析任务中使用最广泛的网络模型。

但是由于文本中每个词或者句子对整个文本的情感极性有着不同的决定作用,而以上两种神经网络中,前者会忽略词的上下文语义并且在最大池化操作时大量特征信息会丢失,而后者存在梯度消失以及梯度弥散问题。具体来说,cnn并不完全适用于学习时间序列,因此会需要各种辅助性处理,且效果也不一定好。而rnn只考虑了单向的时序问题,没有充分结合上下文语境,而且也会出现梯度消失以及梯度爆炸问题。以上两种情况都会造成对文本的情感分析的准确度下降,降低情感分析的精度。

因此,本申请提供一种文本的情感信息识别方法,通过已训练的word2vec模型、bilstm模型以及cnn模型对待预测文本进行处理,由于每个模型的特性,将该三部分模型连起来使用后,相当于是对待预测文本进行特征提取,进一步的提取的过程分别采用三个模型的特性,提取出关系到文本中上下文之间的关系,及上下文时序文本信息特征,进而再采用cnn模型对上下文时序文本信息特征做进一步的提取操作,提取得到目标特征,该特征中表现了上下文的时序特征,能够充分地提取文本的局部特征与序列信息,进而可以识别出文本的重要信息特征,在进行情感分析的过程中可以提高情感分析的精度和准确率。

请参考图1,图1为本申请实施例所提供的一种文本的情感信息识别方法的流程图。

本实施例中,该方法可以包括:

s101,采用已训练的word2vec模型对待预测文本进行预处理,得到待预测文本的输入向量;

本步骤旨在采用已训练的word2vec模型先对待预测文本进行预处理,得到待预测文本的输入向量。其中,word2vec模型是一系列用于产生词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。在word2vec中词的顺序是不重要的。训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示词对词之间的关系。

在自然语言处理的过程中,当识别某一个单词的大致意思的时候,对于单词词语来说它的上下文信息是至关重要的是的。因此,采用word2vec模型,其能够查看某一个单词词语在一个句子里附近的上下文信息进行构建单词词语向量,对于具体的细节不进行处理,将具有程度相似的语句中的上下文的单词词语映射到相邻的向量空间中。word2vec模型进行处理所得到的嵌入矩阵会涵盖训练语料库里的每一个不同类别的单词词语的词向量,而且嵌入矩阵所能包括的字向量可以多于300万。word2vec模型可以获取训练语料库里的每一个句子,然后通过一个大小固定为n的窗口进行滑动,并预测那些给出的单词窗口的中心词来进行模型的训练。整个过程利用损失函数以及优化过程来达到为语料库的所有唯一的单词词语生成单词词向量。

本步骤中可以采用现有技术提供的任意一种语料库的获取方法,在此不做具体限定。通过语料库的获取方法得到语料库,语料库的词表中的每一个唯一的单词都有唯一的索引对应其词向量,最后得到词向量矩阵。对于非词典词我们必须使用一个特殊数字来代替如0。一句话经过分词处理后得到了一串词,如“mydogisverycuteandsmart”经过分词处理之后变为“my”,“dog”,“is”,“very”,“cute”,“and”,“smart”,每一个词都会有唯一的index对应,然后得到向量[201961221604222021641]。然后转化为统一长度的形式,如长度为10,这句话包含了7个单词,在剩下的3空位补0,变成[201961221604222021641000],然后再通过词向量矩阵得到最终的词向量[batch_size=1,max_len=10,word2vec_dimension=50],即单词的输入向量。

可选的,本步骤可以包括:

对待预测文本进行停用词处理,得到识别语料;

采用已训练的word2vec模型对识别语料进行处理,得到输入向量。

可见,本步骤中首先是对待预测文本进行停用词处理,得到识别语料,然后再采用word2vec模型对识别语料进行处理,得到输入向量。其中,停用词处理是指去除待预测文本中的停用词,避免文本中没有意义的停用词对文本的预测过程进行干扰,提高预测的准确率和精度。

s102,采用已训练的bilstm模型对输入向量进行特征识别,得到上下文时序文本信息特征;

s103,通过已训练的cnn模型对上下文时序文本信息特征进行特征提取,得到目标特征;

在s101的基础上,步骤s102和s103旨在对获取到的输入向量进行进一步的特征提取,也就是采用bilstm-cnn模型对输入向量进行处理。具体的,本步骤中的bilstm-cnn模型将接收word2vec模型处理后的多个词向量作为输入。然后将其输出汇集到一个较小的尺寸,然后输入到cnn层。bi-lstm层将能够使用特征的排序来了解输入的文本排序。通过双向长短期记忆网络得到每一个单词的输出,得到输出向量,卷积神经网络就是对每一个单词进行特征提取最后输出提取特征,得到该目标特征,连接起来输入到神经网络里最后通过sigmoid函数进行输出。

可选的,步骤s103可以包括:

通过已训练的cnn模型对每个上下文时序文本信息特征分别进行特征提取,得到多个子目标特征;将所有子目标特征连接,得到目标特征。

本可选方案中cnn模型处理后主要是得到每次词对应的子目标特征,而神经网络则是对一段连续的句子进行处理。因此,本步骤中将所有的子目标特征连接得到目标特征。

s104,采用已训练的神经网络对目标特征进行识别,得到情感识别结果。

在s103的基础上,本步骤旨在采用已训练的神经网络对目标特征进行识别,得到情感识别结果。

具体的,本步骤可以包括:

将目标特征输入到已训练的神经网络,得到处理结果;

将处理结果输入到sigmoid函数分类层进行分类,得到情感识别结果。

以对情感只进行消极和积极的分类,通过sigmoid函数分类层进行分类,得到的结果只有两种结果,1或0。其中,1表示积极,0标识消极。

综上,本实施例通过已训练的word2vec模型、bilstm模型以及cnn模型对待预测文本进行处理,由于每个模型的特性,将该三部分模型连起来使用后,相当于是对待预测文本进行特征提取,进一步的提取的过程分别采用三个模型的特性,提取出关系到文本中上下文之间的关系,及上下文时序文本信息特征,进而再采用cnn模型对上下文时序文本信息特征做进一步的提取操作,提取得到目标特征,该特征中表现了上下文的时序特征,能够充分地提取文本的局部特征与序列信息,进而可以识别出文本的重要信息特征,在进行情感分析的过程中可以提高情感分析的精度和准确率。

下面对本申请实施例提供的一种文本的情感信息识别设备进行介绍,下文描述的一种文本的情感信息识别设备与上文描述的一种文本的情感信息识别方法可相互对应参照。

请参考图2,图2为本申请实施例所提供的一种文本的情感信息识别设备的结构示意图。

本实施例中,该设备可以包括:

向量矩阵获取模块100,用于采用已训练的word2vec模型对待预测文本进行预处理,得到待预测文本的输入向量;

序列关系获取模块200,用于采用已训练的bilstm模型对输入向量进行特征识别,得到上下文时序文本信息特征;

特征提取模块300,用于通过已训练的cnn模型对上下文时序文本信息特征进行特征提取,得到目标特征;

情感识别模块400,用于采用已训练的神经网络对目标特征进行识别,得到情感识别结果。

可选的,该向量矩阵获取模块100可以包括:

停用词处理单元,用于对待预测文本进行停用词处理,得到识别语料;

语料识别单元,用于采用已训练的word2vec模型对识别语料进行处理,得到输入向量。

可选的,该特征提取模块300可以包括:

子目标特征获取单元,用于通过已训练的cnn模型对每个上下文时序文本信息特征分别进行特征提取,得到多个子目标特征;

目标特征获取单元,用于将所有子目标特征连接,得到目标特征。

可选的,该情感识别模块400可以包括:

目标特征识别单元,用于将目标特征输入到已训练的神经网络,得到处理结果;

情感分类单元,用于将处理结果输入到sigmoid函数分类层进行分类,得到情感识别结果。

本申请实施例还提供一种自然语言分析装置,包括:

存储器,用于存储计算机程序;

处理器,用于执行计算机程序时实现如上的情感信息识别方法的步骤。

本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现如上的情感信息识别方法的步骤。

该计算机可读存储介质可以包括:u盘、移动硬盘、只读存储器(read-onlymemory,rom)、随机存取存储器(randomaccessmemory,ram)、磁碟或者光盘等各种可以存储程序代码的介质。

说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。

专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。

结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(ram)、内存、只读存储器(rom)、电可编程rom、电可擦除可编程rom、寄存器、硬盘、可移动磁盘、cd-rom、或技术领域内所公知的任意其它形式的存储介质中。

以上对本申请所提供的一种文本的情感信息识别方法、情感信息识别设备、自然语言分析装置以及计算机可读存储介质进行了详细介绍。本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1