基于长短期记忆网络的信息分类方法、装置、计算机设备与流程

文档序号:19155695发布日期:2019-11-16 00:44阅读:169来源:国知局
基于长短期记忆网络的信息分类方法、装置、计算机设备与流程
本发明涉及计算机
技术领域
,尤其涉及一种基于长短期记忆网络的信息分类方法、装置、计算机设备。
背景技术
:互联网上存在海量信息,在获取海量信息后可根据使用的需要对信息进行分类,例如,消费者在互联网上购买企业的产品后,会在该企业的产品信息中添加相应的评价信息,然而文字相关的信息比较主观,通过对信息进行分类可对客户所添加的评价信息进行客观分析,对信息进行分类后即可根据对应类别获取正面评价、负面评价。然而由于互联网中各式各样的信息所包含字符的数量不相同,导致采用传统的自然语言处理方法对字符数量不统一的信息进行处理时存在困难,最终导致信息分类的效率及准确率无法满足实际需求。因而现有技术方法中存在对信息进行分类的效率及准确率不高的问题。技术实现要素:本发明实施例提供了一种基于长短期记忆网络的信息分类方法、装置、计算机设备及存储介质,旨在解决现有技术方法中所存在的对信息进行分类的效率及准确率不高的问题。第一方面,本发明实施例提供了一种基于长短期记忆网络的信息分类方法,其包括:根据第一用户所输入的模型配置信息对预测模板中的参数值进行配置以生成信息分类模型,其中,所述信息分类模型包括长短期记忆网络、权重层和神经网络;根据预设的模型训练规则及预设的信息数据库对所述信息分类模型进行训练以得到训练后的信息分类模型;若接收到第二用户所输入的待分类信息,根据预设的词汇处理规则获取所述待分类信息对应的特征向量;根据训练后的所述信息分类模型对所述特征向量进行分类以获取所述待分类信息的分类结果。第二方面,本发明实施例提供了一种基于长短期记忆网络的信息分类装置,其包括:信息分类模型生成单元,用于根据第一用户所输入的模型配置信息对预测模板中的参数值进行配置以生成信息分类模型,其中,所述信息分类模型包括长短期记忆网络、权重层和神经网络;信息分类模型训练单元,用于根据预设的模型训练规则及预设的信息数据库对所述信息分类模型进行训练以得到训练后的信息分类模型;特征向量获取单元,若接收到第二用户所输入的待分类信息,根据预设的词汇处理规则获取所述待分类信息对应的特征向量;特征向量分类单元,用于根据训练后的所述信息分类模型对所述特征向量进行分类以获取所述待分类信息的分类结果。第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的基于长短期记忆网络的信息分类方法。第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的基于长短期记忆网络的信息分类方法。本发明实施例提供了一种基于长短期记忆网络的信息分类方法、装置、计算机设备及存储介质。根据模型配置信息对预测模板进行配置生成信息分类模型,根据模型训练规则及信息数据库对信息分类模型进行训练后,根据词汇处理规则获取与第二用户所输入待分类信息对应的特征向量,将特征向量输入训练后的信息分类模型即可得到对应的分类结果。能够快捷方便地对包含不同数量字符的待分类信息进行准确分类,从而大幅提高了对信息进行分类的效率及准确率,在实际应用过程中取得了良好的技术效果。附图说明为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1为本发明实施例提供的基于长短期记忆网络的信息分类方法的流程示意图;图2为本发明实施例提供的基于长短期记忆网络的信息分类方法的应用场景示意图;图3为本发明实施例提供的基于长短期记忆网络的信息分类方法的子流程示意图;图4为本发明实施例提供的基于长短期记忆网络的信息分类方法的另一子流程示意图;图5为本发明实施例提供的基于长短期记忆网络的信息分类方法的另一子流程示意图;图6为本发明实施例提供的基于长短期记忆网络的信息分类方法的另一子流程示意图;图7为本发明实施例提供的基于长短期记忆网络的信息分类装置的示意性框图;图8为本发明实施例提供的基于长短期记忆网络的信息分类装置的子单元示意性框图;图9为本发明实施例提供的基于长短期记忆网络的信息分类装置的另一子单元示意性框图;图10为本发明实施例提供的基于长短期记忆网络的信息分类装置的另一子单元示意性框图;图11为本发明实施例提供的基于长短期记忆网络的信息分类装置的另一子单元示意性框图;图12为本发明实施例提供的计算机设备的示意性框图。具体实施方式下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。请参阅图1,图1是本发明实施例提供的基于长短期记忆网络的信息分类方法的流程示意图,图2为本发明实施例提供的基于长短期记忆网络的信息分类方法的应用场景示意图。该基于长短期记忆网络的信息分类方法应用于管理服务器10中,该方法通过安装于管理服务器10中的应用软件进行执行,用户终端20通过与管理服务器10建立网络连接以实现数据信息的传输。管理服务器10即是用于执行所述基于长短期记忆网络的信息分类方法以实现对信息进行分类的企业终端,用户终端20即是预先与管理服务器10建立网络连接以向管理服务器10发送待分类信息的终端设备,例如台式电脑、笔记本电脑、平板电脑或手机等。需要说明的是,图2中仅仅示意出一台用户终端20与管理服务器10建立网络连接,在实际操作过程中,管理服务器10可以同时与多台用户终端20建立网络连接以接收多台用户终端20所发送的待分类信息。如图1所示,该方法包括步骤s110~s140。s110、根据第一用户所输入的模型配置信息对预测模板中的参数值进行配置以生成信息分类模型,其中,所述信息分类模型包括长短期记忆网络、权重层和神经网络。根据第一用户所输入的模型配置信息对预测模板中的参数值进行配置以生成信息分类模型,其中,第一用户即是管理服务器的管理员。预测模板中包括一个长短期记忆网络(longshort-termmemory,lstm)、一个权重层和一个神经网络,则对应生成的信息分类模型中也包含一个长短期记忆网络、一个权重层和一个神经网络。模型配置信息中包括字符数量信息、输出节点信息,字符数量信息即是用于对权重层中所包含权重值的数量进行配置的信息,字符数量信息为正整数,字符数量信息可对神经网络中输入节点的数量进行配置,输出节点信息可对神经网络中输出节点的数量及每一输出节点对应类别进行配置。完成对预测模板中参数值进行配置后,即生成对应的信息分类模型。s120、根据预设的模型训练规则及预设的信息数据库对所述信息分类模型进行训练以得到训练后的信息分类模型。根据预设的模型训练规则及预设的信息数据库对所述信息分类模型进行训练以得到训练后的信息分类模型。生成对应的信息分类模型后,即可对信息分类模型进行训练,以通过训练后的信息分类模型将待分类信息分类至相应的类别。模型训练规则中包括拆分比例信息、参数调整规则及合格率阈值,信息数据库中包含多条特征信息,每一条特征信息均由一个n×m的特征向量组成,特征向量中的n与字符数量信息相同,特征向量中的m即是所有字符对应特征向量的维度信息,每一个词(字符)均需转换成一个1×m维的向量后,才能输入长短期记忆网络中进行运算,每一个字符对应特征向量的维度信息均相同,其中,m为正整数,每一条特征信息还包括与该条特征信息对应的类别信息。拆分比例信息即是用于将信息数据库中所包含的训练信息拆分为训练数据集及测试数据集的拆分规则。具体的,通过预设的词汇向量表与对应的文字信息进行匹配即可获取每一文字信息对应的特征向量,例如,若m为10,词汇向量表中所包含的部分信息如表1所示。字符1×m维的向量质{0.3,0.1,0.5,0.6,0.2,0.3,0.6,0.7,0.5,0.1}量{0.4,0.6,0.1,0.2,0.5,0.7,0.3,0.1,0,0.4}好{0.3,0.2,0.8,0.1,0,0.5,0.1,0.4,0.3,0.5}□(空字符){0,0,0,0,0,0,0,0,0,0}表1某一文字信息为“质量好”,即可对应得到一个与该文字信息对应的3×10维的特征向量:在一实施例中,如图3所示,步骤s120包括子步骤s121、s122、s123和s124。s121、根据所述模型训练规则中的拆分比例信息将所述信息数据库拆分为对应数量的训练数据集及测试数据集。根据所述模型训练规则中的拆分比例信息将所述信息数据库拆分为对应数量的训练数据集及测试数据集。具体的,拆分比例信息即是用于对信息数据库进行拆分的比例信息,可根据拆分比例将信息数据库中所包含的所有特征信息随机拆分为与拆分比例信息对应的训练数据集及测试数据集。拆分得到的训练数据集大于一个,拆分得到的测试数据集为一个或多个,训练数据集的数量大于测试数据集的数量,训练数据集中包含多条训练特征信息,测试数据集中包含多条测试特征信息。例如,预设的信息数据库中包含2000条特征信息,拆分比例信息为8:2,则根据拆分比例信息将信息数据库中所有的特征信息随机拆分为10份,并将其中8份特征信息作为8个对应的训练数据集,剩余2份特征信息作为2个训练数据集。s122、根据所述模型训练规则中的参数调整规则及多个所述训练数据集对所述信息分类模型进行迭代训练以得到待测试信息分类模型。根据所述模型训练规则中的参数调整规则及多个所述训练数据集对所述信息分类模型进行迭代训练以得到待测试信息分类模型。一个训练数据集中所包含的特征信息作为一批数据输入信息分类模型中的长短期记忆网络,计算得到该训练数据集中每一特征信息的记忆网络输出信息,长短期记忆网络中包含多个细胞,细胞的数量与特征向量中的n相同,特征信息中的特征向量分为n个1×m维的向量,n个1×m维的向量分别对应输入长短期记忆网络的n个细胞中。在一实施例中,如图4所示,步骤s122包括子步骤s1221、s1222、s1223、s1224、s1225、s1226和s1227。s1221、获取第一个训练数据集。从所得到的多个训练数据集中获取第一个训练数据集。s1222、根据信息分类模型中的长短期记忆网络计算所述训练数据集中每一条特征信息对应的记忆网络输出信息。根据信息分类模型中的长短期记忆网络计算所述训练数据集中每一条特征信息对应的记忆网络输出信息。具体的,计算某一条特征信息的记忆网络输出信息的步骤分为五步,①计算遗忘门输出信息:f(t)=σ(wf×h(t_1)+uf×x(t)+bf),其中f(t)为遗忘门参数值,0≤f(t)≤1;σ为激活函数计算符号,σ可具体表示为则将wf×h(t_1)+uf×x(t)+bf的计算结果作为x输入激活函数σ即可计算得到f(t);wf、uf及bf均为本细胞中公式的参数值;h(t_1)为上一细胞的输出门信息;x(t)为该特征信息中输入当前细胞的1×m维的向量,若当前细胞为长短期记忆网络中的第一个细胞,则h(t_1)为“0”。②计算输入门信息:i(t)=σ(wi×h(t_1)+ui×x(t)+bi);a(t)=tanh(wa×h(t-1)+ua×x(t)+ba),其中i(t)为输入门参数值,0≤i(t)≤1;wi、ui、bi、wa、ua及ba均为本细胞中公式的参数值,a(t)为所计算得到的输入门向量值,a(t)为一个1×m维的向量。③更新细胞记忆信息:c(t)=c(t_1)⊙f(t)+i(t)⊙a(t),c为每一次计算过程所累计的细胞记忆信息,c(t)为当前细胞所输出的细胞记忆信息,c(t_1)为上一细胞所输出的细胞记忆信息,⊙为向量运算符,c(t_1)⊙f(t)的计算过程为将向量c(t_1)中每一维度值分别与f(t)相乘,所计算的得到的向量维度与向量c(t_1)中的维度相同。④计算输出门信息:o(t)=σ(wo×h(t_1)+uo×x(t)+bo);h(t)=o(t)⊙tanh(c(t)),o(t)为输出门参数值,0≤o(t)≤1;wo、uo及bo均为本细胞中公式的参数值,h(t)为本细胞的细胞的输出门信息,h(t)为一个1×m维的向量。⑤计算当前细胞的输出信息:y(t)=σ(v×h(t)+c),v及c均为本细胞中公式的参数值。每一个细胞均计算得到一个输出信息,综合n个细胞的输出信息即可得到一条特征信息的记忆网络输出信息,一条特征信息的记忆网络输出信息为一个1×n维的向量。s1223、根据信息分类模型中的权重层及神经网络计算得到所述训练数据集的准确率。根据信息分类模型中的权重层及神经网络计算得到所述训练数据集的准确率。权重层中所包含权重值的数量与字符数量信息,也即是权重值的数量为n,将一个训练数据集计算得到的所有记忆网络输出信息均与权重层进行相乘,即可得到附加权重值的记忆网络输出信息。将一条特征信息输入神经网络,其中,神经网络中包含n个输入节点,每一输入节点均与该特征信息的记忆网络输出信息中的一个向量维度值对应,神经网络中的输出节点值,输入节点与输出节点之间包含全连接层,输入节点与全连接层之间设置有第一公式组,输出节点与全连接层之间设置有第二公式组。其中,第一公式组包含所有输入节点至所有特征单元的公式,第一公式组中的公式均以输入节点值作为输入值、特征单元值作为输出值,第二公式组包含所有输出节点至所有特征单元的公式,第二公式组中的公式均以以特征单元值作为输入值、输出节点值作为输出值,神经网络中所包含的每一公式中均拥有对应的参数值。每一输出节点均对应一个类别,输出节点值也即是该特征信息所属类别的概率值,获取该特征信息概率值最高的类别作为神经网络所输出的类别。依次将所有附加权重值的记忆网络输出信息输入神经网络即可计算得到每一记忆网络输出信息对应的类别,将一个训练数据集每一条特征信息对应的类别信息与神经网络所输出的类别是否相同进行对比,即可获取一个训练数据集整体的准确率。例如,若一个训练集中包含200条特征信息,其中160条特征信息对应的类别信息与神经网络所输出的类别相同,另外40条特征信息对应的类别信息与神经网络所输出的类别不相同,则该训练数据集整体的准确率为160/200=80%。s1224、根据参数调整规则及所述训练数据集的准确率对所述信息分类模型中的参数值进行调整。根据参数调整规则及所述训练数据集的准确率对所述信息分类模型中的参数值进行调整。信息分类模型中需进行调整的参数值包括长短期记忆网络中公式的参数值、权重层中所包含的权重值、神经网络中公式的参数值。具体的,参数调整规则中包括准确率阈值、参数调整方向及参数调整幅度,参数调整方向包括正向调整及负向调整,参数调整幅度即是进行调整的具体幅度值。对信息分类模型中参数值进行一次调整的具体步骤为,对当前训练数据集的准确率是否小于准确率阈值进行判断,若判断结果为不小于,则根据参数调整方向中的正向调整及参数调整幅度中的幅度值对信息分类模型中的参数值进行调整;若判断结果为小于,则根据参数调整方向中的反向调整及参数调整幅度中的幅度值对信息分类模型中的参数值进行调整。例如,参数调整幅度中的幅度值为0.5,判断结果为前训练数据集的准确率不小于准确率阈值,则本次调整需进行正向调整,本次调整在信息分类模型中参数值原数值基础上加0.5得到新的参数值。一个训练数据集即可对信息分类模型中的参数值进行一次调整,也即是完成对信息分类模型进行一次训练。s1225、判断是否存在下一训练数据集。s1226、若存在下一训练集,获取下一训练数据集并返回执行所述根据信息分类模型中的长短期记忆网络计算所述训练数据集中每一条特征信息对应的记忆网络输出信息的步骤。若存在下一训练集,获取下一训练数据集并返回执行所述根据信息分类模型中的长短期记忆网络计算所述训练数据集中每一条特征信息对应的记忆网络输出信息的步骤,也即是返回执行步骤s1222以对步骤s1224中训练后的信息分类模型再次进行训练。通过多个训练数据集依次对信息分类模型中的参数值进行调整,即可实现对信息分类模型进行迭代训练,得到需进行测试的待测试信息分类模型。s1227、若不存在下一训练集,将当前信息分类模型作为待测试信息分类模型。s123、将每一所述测试数据集输入所述待测试信息分类模型以计算得到所述待测试信息分类模型的合格率。将每一所述测试数据集输入所述待测试信息分类模型以计算得到所述待测试信息分类模型的合格率。一个测试数据集中所包含的特征信息作为一批数据输入信息分类模型中的长短期记忆网络,计算得到该测试数据集中每一特征信息的记忆网络输出信息,长短期记忆网络中包含多个细胞,细胞的数量与特征向量中的n相同,特征信息中的特征向量分为n个1×m维的向量,n个1×m维的向量分别对应输入长短期记忆网络的n个细胞中,具体的对测试数据集中特征信息进行计算的过程与上述步骤相同,在此不做赘述。将一个测试数据集每一条特征信息对应的类别信息与待测试信息分类模型所输出的类别是否相同进行对比,获取类别信息与待测试信息分类模型所输出类别相同的特征信息在该测试数据集所有特征信息中的占比,即可获取一个测试数据集的准确率。若测试数据集仅为一个,则将获取得到的测试数据集的准确率作为待测试信息分类模型的合格率;若测试数据集为多个,则获取多个测试数据集的准确率后,计算多个测试数据集准确率的平均值作为待测试信息分类模型的合格率。s124、若所述待测试信息分类模型的合格率不小于所述模型训练规则中的合格率阈值,将所述待测试信息分类模型作为训练后的信息分类模型。若所述待测试信息分类模型的合格率不小于所述模型训练规则中的合格率阈值,则将所述待测试信息分类模型作为训练后的信息分类模型。若待测试信息分类模型的合格率不小于合格率阈值,则待测试信息分类模型为训练合格的信息分类模型,可将训练合格的信息分类模型作为训练后的信息分类模型进行使用。具体的,所述步骤s124之后还包括:若所述待测试信息分类模型的合格率小于所述模型训练规则中的合格率阈值,根据所述模型训练规则及所述信息数据库对所述信息分类模型再次进行训练。待测试信息分类模型的合格率小于合格率阈值,则表明待测试信息分类模型不合格,可根据模型训练规则及信息数据库对待测试信息分类模型再次进行训练,以使所得到的待测试信息分类模型为训练合格的信息分类模型。s130、若接收到第二用户所输入的待分类信息,根据预设的词汇处理规则获取所述待分类信息对应的特征向量。若接收到第二用户所输入的待分类信息,根据预设的词汇处理规则获取所述待分类信息对应的特征向量,其中,第二用户即是用户终端的使用者。具体的,待分类信息即是用户所输入的需进行分类的信息,例如用户购买某产品后的评价信息;词汇处理规则即是用于对待分类信息进行处理的规则信息,其中,词汇处理规则中包括词汇筛选规则及词汇向量表。根据词汇处理规则对待分类信息进行处理后即可得到该待分类信息对应的一个n×m的特征向量,m即是词汇向量表中每一个字符对应特征向量的维度信息,n与信息分类模型中细胞的数量相同。在一实施例中,如图5所示,步骤s130包括子步骤s131、s132和s133。s131、根据所述词汇处理规则中的词汇筛选规则对所述待分类信息进行筛选以得到评价词汇信息。根据所述词汇处理规则中的词汇筛选规则对所述待分类信息进行筛选以得到评价词汇信息。词汇筛选规则即是用于对待分类信息进行筛选的规则信息,具体的,词汇筛选规则可将待分类信息中意义不大的词汇筛除,得到的评价词汇信息中包含的词汇均为具有实际意义的词汇。例如,词汇筛选规则中可设置需筛除的词汇为“的”、“地”、“我”等。s132、根据所述信息分类模型中长短期记忆网络的细胞的数量对所述评价词汇信息进行标准化处理以得到标准词汇信息。根据所述信息分类模型中长短期记忆网络的细胞的数量对所述评价词汇信息进行标准化处理以得到标准词汇信息。评价词汇信息中所包含的词汇数量可能超过信息分类模型中细胞的数量或少于信息分类模型中细胞的数量,则需根据信息分类模型中细胞的数量对评价词汇信息进行标准化处理,以得到包含与信息分类模型中细胞数量相同的词汇作为标准词汇信息,信息分类模型中细胞的数量为n,则对应得到的标准词汇信息中包含n个词汇。具体的,若评价词汇信息中所包含的词汇数量超过细胞的数量,则根据细胞的数量截取评价词汇信息中排位在前的与细胞数量相同的词汇作为标准词汇信息;若评价词汇信息中所包含的词汇数据少于信息分类模型中细胞的数量,则根据细胞的数量使用空字符(使用□进行表示)将评价词汇信息中缺失的词汇进行补齐以得到标准词汇信息;若评价词汇信息中所包含的词汇数量与细胞的数量相同,则直接将评价词汇信息作为所得到的标准词汇信息。s133、根据所述词汇处理规则中的词汇向量表获取与所述标准词汇信息相匹配的特征向量。根据所述词汇处理规则中的词汇向量表获取与所述标准词汇信息相匹配的特征向量。词汇向量表中包含每一词汇对应的一个1×m维的向量,该1×m维的向量可用于对词汇的特征进行量化。根据标准词汇信息中所包含的词汇即可从词汇向量表中获取每一词汇对应的一个1×m维的向量,将n个词汇所对应的1×m维的向量进行组合,即可得到一个n×m的向量,也即是所得到的特征向量。其中,词汇向量表的具体形式如表1中所示。s140、根据训练后的所述信息分类模型对所述特征向量进行分类以获取所述待分类信息的分类结果。根据训练后的所述信息分类模型对所述特征向量进行分类以获取所述待分类信息的分类结果。将待分类信息对应的特征向量输入输入信息分类模型即可获取该待分类信息的分类结果。在一实施例中,如图6所示,步骤s140包括子步骤s141、s142和s143。s141、根据所述信息分类模型中的长短期记忆网络计算得到所述特征向量的评价输出信息。根据所述信息分类模型中的长短期记忆网络计算得到所述特征向量的评价输出信息。具体的,根据长短期记忆网络对特征向量进行计算以得到对应的评价输出信息共分为五步,具体计算过程如上述步骤所示,在此不做赘述。长短期记忆网络中的每一个细胞均计算得到一个输出信息,综合n个细胞的输出信息即可得到特征向量的评价输出信息,所得到的评价输出信息为一个1×n维的向量。s142、根据所述信息分类模型中的权重层及神经网络对所述评价输出信息进行计算以得到所述评价输出信息与所述信息分类模型中每一类别对应的概率值。根据所述信息分类模型中的权重层及神经网络对所述评价输出信息进行计算以得到所述评价输出信息与所述信息分类模型中每一类别对应的概率值。权重层中所包含权重值的数量与评价输出信息中维度的数量相同,也即是权重值的数量为n,将计算得到的评价输出信息与权重层进行相乘,即可得到附加权重值的评价输出信息。神经网络中包含n个输入节点,每一输出节点均对应一个类别,输出节点值也即是该特征信息属于该输出节点对应类别的概率值。s143、将所述信息分类模型中概率值最高的类别作为所述待分类信息的分类结果。将所述信息分类模型中概率值最高的类别作为所述待分类信息的分类结果。获取该特征信息概率值最高的类别作为神经网络所输出的类别,也即是最终所得到的待分类信息的分类结果。此外,获取到神经网络中每一输出节点所属类别的概率值后,还可根据归一化函数对概率值进行归一化计算以得到概率百分比,所有类别的概率百分比相加等于1,将概率值进行归一化计算后能够使用户更加方便地察看待分类信息与每一类别对应的百分比数值。具体的,归一化函数可表示为,其中,k=1,……,t,t即是神经网络中输出节点的总数,z即是输出节点k对应类别的概率值。在本发明实施例所提供的基于长短期记忆网络的信息分类方法中,根据模型配置信息对预测模板进行配置生成信息分类模型,根据模型训练规则及信息数据库对信息分类模型进行训练后,根据词汇处理规则获取与第二用户所输入待分类信息对应的特征向量,将特征向量输入训练后的信息分类模型即可得到对应的分类结果。能够快捷方便地对包含不同数量字符的待分类信息进行准确分类,从而大幅提高了对信息进行分类的效率及准确率,在实际应用过程中取得了良好的技术效果。本发明实施例还提供一种基于长短期记忆网络的信息分类装置,该基于长短期记忆网络的信息分类装置用于执行前述基于长短期记忆网络的信息分类方法的任一实施例。具体地,请参阅图7,图7是本发明实施例提供的基于长短期记忆网络的信息分类装置的示意性框图。该基于长短期记忆网络的信息分类装置可以配置于管理服务器10中。如图7所示,基于长短期记忆网络的信息分类装置100包括信息分类模型生成单元110、信息分类模型训练单元120、特征向量获取单元130和特征向量分类单元140。信息分类模型生成单元110,用于根据第一用户所输入的模型配置信息对预测模板中的参数值进行配置以生成信息分类模型,其中,所述信息分类模型包括长短期记忆网络、权重层和神经网络。根据第一用户所输入的模型配置信息对预测模板中的参数值进行配置以生成信息分类模型,其中,第一用户即是管理服务器的管理员。预测模板中包括一个长短期记忆网络(longshort-termmemory,lstm)、一个权重层和一个神经网络,则对应生成的信息分类模型中也包含一个长短期记忆网络、一个权重层和一个神经网络。模型配置信息中包括字符数量信息、输出节点信息,字符数量信息即是用于对权重层中所包含权重值的数量进行配置的信息,字符数量信息为正整数,字符数量信息可对神经网络中输入节点的数量进行配置,输出节点信息可对神经网络中输出节点的数量及每一输出节点对应类别进行配置。完成对预测模板中参数值进行配置后,即生成对应的信息分类模型。信息分类模型训练单元120,用于根据预设的模型训练规则及预设的信息数据库对所述信息分类模型进行训练以得到训练后的信息分类模型。根据预设的模型训练规则及预设的信息数据库对所述信息分类模型进行训练以得到训练后的信息分类模型。生成对应的信息分类模型后,即可对信息分类模型进行训练,以通过训练后的信息分类模型将待分类信息分类至相应的类别。模型训练规则中包括拆分比例信息、参数调整规则及合格率阈值,信息数据库中包含多条特征信息,每一条特征信息均由一个n×m的特征向量组成,特征向量中的n与字符数量信息相同,特征向量中的m即是所有字符对应特征向量的维度信息,每一个词(字符)均需转换成一个1×m维的向量后,才能输入长短期记忆网络中进行运算,每一个字符对应特征向量的维度信息均相同,其中,m为正整数,每一条特征信息还包括与该条特征信息对应的类别信息。拆分比例信息即是用于将信息数据库中所包含的训练信息拆分为训练数据集及测试数据集的拆分规则。其他发明实施例中,如图8所示,所述信息分类模型训练单元120包括子单元:信息数据库拆分单元121、模型训练单元122、合格率计算单元123和合格率判断单元124。信息数据库拆分单元121,用于根据所述模型训练规则中的拆分比例信息将所述信息数据库拆分为对应数量的训练数据集及测试数据集。根据所述模型训练规则中的拆分比例信息将所述信息数据库拆分为对应数量的训练数据集及测试数据集。具体的,拆分比例信息即是用于对信息数据库进行拆分的比例信息,可根据拆分比例将信息数据库中所包含的所有特征信息随机拆分为与拆分比例信息对应的训练数据集及测试数据集。拆分得到的训练数据集大于一个,拆分得到的测试数据集为一个或多个,训练数据集的数量大于测试数据集的数量,训练数据集中包含多条训练特征信息,测试数据集中包含多条测试特征信息。模型训练单元122,用于根据所述模型训练规则中的参数调整规则及多个所述训练数据集对所述信息分类模型进行迭代训练以得到待测试信息分类模型。根据所述模型训练规则中的参数调整规则及多个所述训练数据集对所述信息分类模型进行迭代训练以得到待测试信息分类模型。一个训练数据集中所包含的特征信息作为一批数据输入信息分类模型中的长短期记忆网络,计算得到该训练数据集中每一特征信息的记忆网络输出信息,长短期记忆网络中包含多个细胞,细胞的数量与特征向量中的n相同,特征信息中的特征向量分为n个1×m维的向量,n个1×m维的向量分别对应输入长短期记忆网络的n个细胞中。其他发明实施例中,如图9所示,所述模型训练单元122包括子单元:训练数据集获取单元1221、输出信息计算单元1222、准确率计算单元1223、参数值调整单元1224、训练数据集判断单元1225、返回训练单元1226和待测试信息分类模型获取单元12227。训练数据集获取单元1221,用于获取第一个训练数据集。从所得到的多个训练数据集中获取第一个训练数据集。输出信息计算单元1222,用于根据信息分类模型中的长短期记忆网络计算所述训练数据集中每一条特征信息对应的记忆网络输出信息。根据信息分类模型中的长短期记忆网络计算所述训练数据集中每一条特征信息对应的记忆网络输出信息。具体的,计算某一条特征信息的记忆网络输出信息的步骤分为五步,①计算遗忘门输出信息:f(t)=σ(wf×h(t_1)+uf×x(t)+bf),其中f(t)为遗忘门参数值,0≤f(t)≤1;σ为激活函数计算符号,σ可具体表示为则将wf×h(t_1)+uf×x(t)+bf的计算结果作为x输入激活函数σ即可计算得到f(t);wf、uf及bf均为本细胞中公式的参数值;h(t_1)为上一细胞的输出门信息;x(t)为该特征信息中输入当前细胞的1×m维的向量,若当前细胞为长短期记忆网络中的第一个细胞,则h(t_1)为零。②计算输入门信息:i(t)=σ(wi×h(t_1)+ui×x(t)+bi);a(t)=tanh(wa×h(t-1)+ua×x(t)+ba),其中i(t)为输入门参数值,0≤i(t)≤1;wi、ui、bi、wa、ua及ba均为本细胞中公式的参数值,a(t)为所计算得到的输入门向量值,a(t)为一个1×m维的向量。③更新细胞记忆信息:c(t)=c(t_1)⊙f(t)+i(t)⊙a(t),c为每一次计算过程所累计的细胞记忆信息,c(t)为当前细胞所输出的细胞记忆信息,c(t_1)为上一细胞所输出的细胞记忆信息,⊙为向量运算符,c(t_1)⊙f(t)的计算过程为将向量c(t_1)中每一维度值分别与f(t)相乘,所计算的得到的向量维度与向量c(t_1)中的维度相同。④计算输出门信息:o(t)=σ(wo×h(t_1)+uo×x(t)+bo);h(t)=o(t)⊙tanh(c(t)),o(t)为输出门参数值,0≤o(t)≤1;wo、uo及bo均为本细胞中公式的参数值,h(t)为本细胞的细胞的输出门信息,h(t)为一个1×m维的向量。⑤计算当前细胞的输出信息:y(t)=σ(v×h(t)+c),v及c均为本细胞中公式的参数值。每一个细胞均计算得到一个输出信息,综合n个细胞的输出信息即可得到一条特征信息的记忆网络输出信息,一条特征信息的记忆网络输出信息为一个1×n维的向量。准确率计算单元1223,用于根据信息分类模型中的权重层及神经网络计算得到所述训练数据集的准确率。根据信息分类模型中的权重层及神经网络计算得到所述训练数据集的准确率。权重层中所包含权重值的数量与字符数量信息,也即是权重值的数量为n,将一个训练数据集计算得到的所有记忆网络输出信息均与权重层进行相乘,即可得到附加权重值的记忆网络输出信息。将一条特征信息输入神经网络,其中,神经网络中包含n个输入节点,每一输入节点均与该特征信息的记忆网络输出信息中的一个向量维度值对应,神经网络中的输出节点值,输入节点与输出节点之间包含全连接层,输入节点与全连接层之间设置有第一公式组,输出节点与全连接层之间设置有第二公式组。其中,第一公式组包含所有输入节点至所有特征单元的公式,第一公式组中的公式均以输入节点值作为输入值、特征单元值作为输出值,第二公式组包含所有输出节点至所有特征单元的公式,第二公式组中的公式均以以特征单元值作为输入值、输出节点值作为输出值,神经网络中所包含的每一公式中均拥有对应的参数值。每一输出节点均对应一个类别,输出节点值也即是该特征信息所属类别的概率值,获取该特征信息概率值最高的类别作为神经网络所输出的类别。依次将所有附加权重值的记忆网络输出信息输入神经网络即可计算得到每一记忆网络输出信息对应的类别,将一个训练数据集每一条特征信息对应的类别信息与神经网络所输出的类别是否相同进行对比,即可获取一个训练数据集整体的准确率。参数值调整单元1224,用于根据参数调整规则及所述训练数据集的准确率对所述信息分类模型中的参数值进行调整。根据参数调整规则及所述训练数据集的准确率对所述信息分类模型中的参数值进行调整。信息分类模型中需进行调整的参数值包括长短期记忆网络中公式的参数值、权重层中所包含的权重值、神经网络中公式的参数值。具体的,参数调整规则中包括准确率阈值、参数调整方向及参数调整幅度,参数调整方向包括正向调整及负向调整,参数调整幅度即是进行调整的具体幅度值。对信息分类模型中参数值进行一次调整的具体步骤为,对当前训练数据集的准确率是否小于准确率阈值进行判断,若判断结果为不小于,则根据参数调整方向中的正向调整及参数调整幅度中的幅度值对信息分类模型中的参数值进行调整;若判断结果为小于,则根据参数调整方向中的反向调整及参数调整幅度中的幅度值对信息分类模型中的参数值进行调整。训练数据集判断单元1225,用于判断是否存在下一训练数据集。返回训练单元1226,用于若存在下一训练集,获取下一训练数据集并返回执行所述根据信息分类模型中的长短期记忆网络计算所述训练数据集中每一条特征信息对应的记忆网络输出信息的步骤。若存在下一训练集,获取下一训练数据集并返回执行所述根据信息分类模型中的长短期记忆网络计算所述训练数据集中每一条特征信息对应的记忆网络输出信息的步骤,也即是返回至输出信息计算单元1222执行对应步骤以对参数值调整单元1224中训练后的信息分类模型再次进行训练。通过多个训练数据集依次对信息分类模型中的参数值进行调整,即可实现对信息分类模型进行迭代训练,得到需进行测试的待测试信息分类模型。待测试信息分类模型获取单元1227,用于若不存在下一训练集,将当前信息分类模型作为待测试信息分类模型。合格率计算单元123,用于将每一所述测试数据集输入所述待测试信息分类模型以计算得到所述待测试信息分类模型的合格率。将每一所述测试数据集输入所述待测试信息分类模型以计算得到所述待测试信息分类模型的合格率。一个测试数据集中所包含的特征信息作为一批数据输入信息分类模型中的长短期记忆网络,计算得到该测试数据集中每一特征信息的记忆网络输出信息,长短期记忆网络中包含多个细胞,细胞的数量与特征向量中的n相同,特征信息中的特征向量分为n个1×m维的向量,n个1×m维的向量分别对应输入长短期记忆网络的n个细胞中,具体的对测试数据集中特征信息进行计算的过程与上述步骤相同,在此不做赘述。将一个测试数据集每一条特征信息对应的类别信息与待测试信息分类模型所输出的类别是否相同进行对比,获取类别信息与待测试信息分类模型所输出类别相同的特征信息在该测试数据集所有特征信息中的占比,即可获取一个测试数据集的准确率。若测试数据集仅为一个,则将获取得到的测试数据集的准确率作为待测试信息分类模型的合格率;若测试数据集为多个,则获取多个测试数据集的准确率后,计算多个测试数据集准确率的平均值作为待测试信息分类模型的合格率。合格率判断单元124,用于若所述待测试信息分类模型的合格率不小于所述模型训练规则中的合格率阈值,将所述待测试信息分类模型作为训练后的信息分类模型。若所述待测试信息分类模型的合格率不小于所述模型训练规则中的合格率阈值,则将所述待测试信息分类模型作为训练后的信息分类模型。若待测试信息分类模型的合格率不小于合格率阈值,则待测试信息分类模型为训练合格的信息分类模型,可将训练合格的信息分类模型作为训练后的信息分类模型进行使用。具体的,所述信息分类模型训练单元120中还包括:再次训练单元,用于若所述待测试信息分类模型的合格率小于所述模型训练规则中的合格率阈值,根据所述模型训练规则及所述信息数据库对所述信息分类模型再次进行训练。待测试信息分类模型的合格率小于合格率阈值,则表明待测试信息分类模型不合格,可根据模型训练规则及信息数据库对待测试信息分类模型再次进行训练,以使所得到的待测试信息分类模型为训练合格的信息分类模型。特征向量获取单元130,若接收到第二用户所输入的待分类信息,根据预设的词汇处理规则获取所述待分类信息对应的特征向量。若接收到第二用户所输入的待分类信息,根据预设的词汇处理规则获取所述待分类信息对应的特征向量。具体的,待分类信息即是用户所输入的需进行分类的信息,例如用户购买某产品后的评价信息;词汇处理规则即是用于对待分类信息进行处理的规则信息,其中,词汇处理规则中包括词汇筛选规则及词汇向量表。根据词汇处理规则对待分类信息进行处理后即可得到该待分类信息对应的一个n×m的特征向量,m即是词汇向量表中每一个字符对应特征向量的维度信息,n与信息分类模型中细胞的数量相同。其他发明实施例中,如图9所示,所述特征向量获取单元130包括子单元:词汇信息筛选单元131、标准词汇信息获取单元132和向量匹配单元133。词汇信息筛选单元131,用于根据所述词汇处理规则中的词汇筛选规则对所述待分类信息进行筛选以得到评价词汇信息。根据所述词汇处理规则中的词汇筛选规则对所述待分类信息进行筛选以得到评价词汇信息。词汇筛选规则即是用于对待分类信息进行筛选的规则信息,具体的,词汇筛选规则可将待分类信息中意义不大的词汇筛除,得到的评价词汇信息中包含的词汇均为具有实际意义的词汇。标准词汇信息获取单元132,用于根据所述信息分类模型中长短期记忆网络的细胞的数量对所述评价词汇信息进行标准化处理以得到标准词汇信息。根据所述信息分类模型中长短期记忆网络的细胞的数量对所述评价词汇信息进行标准化处理以得到标准词汇信息。评价词汇信息中所包含的词汇数量可能超过信息分类模型中细胞的数量或少于信息分类模型中细胞的数量,则需根据信息分类模型中细胞的数量对评价词汇信息进行标准化处理,以得到包含与信息分类模型中细胞数量相同的词汇作为标准词汇信息,信息分类模型中细胞的数量为n,则对应得到的标准词汇信息中包含n个词汇。具体的,若评价词汇信息中所包含的词汇数量超过细胞的数量,则根据细胞的数量截取评价词汇信息前端与细胞数理相同的词汇作为标准词汇信息;若评价词汇信息中所包含的词汇数据少于信息分类模型中细胞的数量,则根据细胞的数量使用空字符(使用□进行表示)将评价词汇信息中缺失的词汇进行补齐以得到标准词汇信息;若评价词汇信息中所包含的词汇数量与细胞的数量相同,则直接将评价词汇信息作为所得到的标准词汇信息。向量匹配单元133,用于根据所述词汇处理规则中的词汇向量表获取与所述标准词汇信息相匹配的特征向量。根据所述词汇处理规则中的词汇向量表获取与所述标准词汇信息相匹配的特征向量。词汇向量表中包含每一词汇对应的一个1×m维的向量,该1×m维的向量可用于对词汇的特征进行量化。根据标准词汇信息中所包含的词汇即可从词汇向量表中获取每一词汇对应的一个1×m维的向量,将n个词汇所对应的1×m维的向量进行组合,即可得到一个n×m的向量,也即是所得到的特征向量。特征向量分类单元140,用于根据训练后的所述信息分类模型对所述特征向量进行分类以获取所述待分类信息的分类结果。根据训练后的所述信息分类模型对所述特征向量进行分类以获取所述待分类信息的分类结果。将待分类信息对应的特征向量输入输入信息分类模型即可获取该待分类信息的分类结果。其他发明实施例中,如图11所示,所述特征向量分类单元140包括子单元:评价输出信息获取单元141、概率值获取单元142和分类结果获取单元143。评价输出信息获取单元141,用于根据所述信息分类模型中的长短期记忆网络计算得到所述特征向量的评价输出信息。根据所述信息分类模型中的长短期记忆网络计算得到所述特征向量的评价输出信息。具体的,根据长短期记忆网络对特征向量进行计算以得到对应的评价输出信息共分为五步,具体计算过程如上述步骤所示,在此不做赘述。长短期记忆网络中的每一个细胞均计算得到一个输出信息,综合n个细胞的输出信息即可得到特征向量的评价输出信息,所得到的评价输出信息为一个1×n维的向量。概率值获取单元142,用于根据所述信息分类模型中的权重层及神经网络对所述评价输出信息进行计算以得到所述评价输出信息与所述信息分类模型中每一类别对应的概率值。根据所述信息分类模型中的权重层及神经网络对所述评价输出信息进行计算以得到所述评价输出信息与所述信息分类模型中每一类别对应的概率值。权重层中所包含权重值的数量与评价输出信息中维度的数量相同,也即是权重值的数量为n,将计算得到的评价输出信息与权重层进行相乘,即可得到附加权重值的评价输出信息。神经网络中包含n个输入节点,每一输出节点均对应一个类别,输出节点值也即是该特征信息属于该输出节点对应类别的概率值。分类结果获取单元143,用于将所述信息分类模型中概率值最高的类别作为所述待分类信息的分类结果。将所述信息分类模型中概率值最高的类别作为所述待分类信息的分类结果。获取该特征信息概率值最高的类别作为神经网络所输出的类别,也即是最终所得到的待分类信息的分类结果。此外,获取到神经网络中每一输出节点所属类别的概率值后,还可根据归一化函数对概率值进行归一化计算以得到概率百分比,所有类别的概率百分比相加等于1,将概率值进行归一化计算后能够使用户更加方便地察看待分类信息与每一类别对应的百分比数值。具体的,归一化函数可表示为,其中,k=1,……,t,t即是神经网络中输出节点的总数,z即是输出节点k对应类别的概率值。在本发明实施例所提供的基于长短期记忆网络的信息分类装置应用上述基于长短期记忆网络的信息分类方法,根据模型配置信息对预测模板进行配置生成信息分类模型,根据模型训练规则及信息数据库对信息分类模型进行训练后,根据词汇处理规则获取与第二用户所输入待分类信息对应的特征向量,将特征向量输入训练后的信息分类模型即可得到对应的分类结果。能够快捷方便地对包含不同数量字符的待分类信息进行准确分类,从而大幅提高了对信息进行分类的效率及准确率,在实际应用过程中取得了良好的技术效果。上述基于长短期记忆网络的信息分类装置可以实现为计算机程序的形式,该计算机程序可以在如图11所示的计算机设备上运行。请参阅图11,图11是本发明实施例提供的计算机设备的示意性框图。参阅图11,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行基于长短期记忆网络的信息分类方法。该处理器502用于提供计算和控制能力,支撑整个计算机设备500的运行。该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行基于长短期记忆网络的信息分类方法。该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图11中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下功能:根据第一用户所输入的模型配置信息对预测模板中的参数值进行配置以生成信息分类模型,其中,所述信息分类模型包括长短期记忆网络、权重层和神经网络;根据预设的模型训练规则及预设的信息数据库对所述信息分类模型进行训练以得到训练后的信息分类模型;若接收到第二用户所输入的待分类信息,根据预设的词汇处理规则获取所述待分类信息对应的特征向量;根据训练后的所述信息分类模型对所述特征向量进行分类以获取所述待分类信息的分类结果。在一实施例中,处理器502在执行根据预设的模型训练规则及预设的信息数据库对所述信息分类模型进行训练以得到训练后的信息分类模型的步骤时,执行如下操作:根据所述模型训练规则中的拆分比例信息将所述信息数据库拆分为对应数量的训练数据集及测试数据集;根据所述模型训练规则中的参数调整规则及多个所述训练数据集对所述信息分类模型进行迭代训练以得到待测试信息分类模型;将每一所述测试数据集输入所述待测试信息分类模型以计算得到所述待测试信息分类模型的合格率;若所述待测试信息分类模型的合格率不小于所述模型训练规则中的合格率阈值,将所述待测试信息分类模型作为训练后的信息分类模型。在一实施例中,处理器502在执行根据预设的词汇处理规则获取所述待分类信息对应的特征向量的步骤时,执行如下操作:根据所述词汇处理规则中的词汇筛选规则对所述待分类信息进行筛选以得到评价词汇信息;根据所述信息分类模型中长短期记忆网络的细胞的数量对所述评价词汇信息进行标准化处理以得到标准词汇信息;根据所述词汇处理规则中的词汇向量表获取与所述标准词汇信息相匹配的特征向量。在一实施例中,处理器502在执行根据所述模型训练规则中的参数调整规则及多个所述训练数据集对所述信息分类模型进行迭代训练以得到待测试信息分类模型的步骤时,执行如下操作:获取第一个训练数据集;根据信息分类模型中的长短期记忆网络计算所述训练数据集中每一条特征信息对应的记忆网络输出信息;根据信息分类模型中的权重层及神经网络计算得到所述训练数据集的准确率;根据参数调整规则及所述训练数据集的准确率对所述信息分类模型中的参数值进行调整;判断是否存在下一训练数据集;若存在下一训练集,获取下一训练数据集并返回执行所述根据信息分类模型中的长短期记忆网络计算所述训练数据集中每一条特征信息对应的记忆网络输出信息的步骤;若不存在下一训练集,将当前信息分类模型作为待测试信息分类模型。在一实施例中,处理器502在执行根据训练后的所述信息分类模型对所述特征向量进行分类以获取所述待分类信息的分类结果的步骤时,执行如下操作:根据所述信息分类模型中的长短期记忆网络计算得到所述特征向量的评价输出信息;根据所述信息分类模型中的权重层及神经网络对所述评价输出信息进行计算以得到所述评价输出信息与所述信息分类模型中每一类别对应的概率值;将所述信息分类模型中概率值最高的类别作为所述待分类信息的分类结果。本领域技术人员可以理解,图11中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图11所示实施例一致,在此不再赘述。应当理解,在本发明实施例中,处理器502可以是中央处理单元(centralprocessingunit,cpu),该处理器502还可以是其他通用处理器、数字信号处理器(digitalsignalprocessor,dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现成可编程门阵列(field-programmablegatearray,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现以下步骤:根据第一用户所输入的模型配置信息对预测模板中的参数值进行配置以生成信息分类模型,其中,所述信息分类模型包括长短期记忆网络、权重层和神经网络;根据预设的模型训练规则及预设的信息数据库对所述信息分类模型进行训练以得到训练后的信息分类模型;若接收到第二用户所输入的待分类信息,根据预设的词汇处理规则获取所述待分类信息对应的特征向量;根据训练后的所述信息分类模型对所述特征向量进行分类以获取所述待分类信息的分类结果。在一实施例中,所述根据预设的模型训练规则及预设的信息数据库对所述信息分类模型进行训练以得到训练后的信息分类模型的步骤,包括:根据所述模型训练规则中的拆分比例信息将所述信息数据库拆分为对应数量的训练数据集及测试数据集;根据所述模型训练规则中的参数调整规则及多个所述训练数据集对所述信息分类模型进行迭代训练以得到待测试信息分类模型;将每一所述测试数据集输入所述待测试信息分类模型以计算得到所述待测试信息分类模型的合格率;若所述待测试信息分类模型的合格率不小于所述模型训练规则中的合格率阈值,将所述待测试信息分类模型作为训练后的信息分类模型。在一实施例中,所述根据预设的词汇处理规则获取所述待分类信息对应的特征向量的步骤,包括:根据所述词汇处理规则中的词汇筛选规则对所述待分类信息进行筛选以得到评价词汇信息;根据所述信息分类模型中长短期记忆网络的细胞的数量对所述评价词汇信息进行标准化处理以得到标准词汇信息;根据所述词汇处理规则中的词汇向量表获取与所述标准词汇信息相匹配的特征向量。在一实施例中,所述根据所述模型训练规则中的参数调整规则及多个所述训练数据集对所述信息分类模型进行迭代训练以得到待测试信息分类模型的步骤,包括:获取第一个训练数据集;根据信息分类模型中的长短期记忆网络计算所述训练数据集中每一条特征信息对应的记忆网络输出信息;根据信息分类模型中的权重层及神经网络计算得到所述训练数据集的准确率;根据参数调整规则及所述训练数据集的准确率对所述信息分类模型中的参数值进行调整;判断是否存在下一训练数据集;若存在下一训练集,获取下一训练数据集并返回执行所述根据信息分类模型中的长短期记忆网络计算所述训练数据集中每一条特征信息对应的记忆网络输出信息的步骤;若不存在下一训练集,将当前信息分类模型作为待测试信息分类模型。在一实施例中,所述根据训练后的所述信息分类模型对所述特征向量进行分类以获取所述待分类信息的分类结果的步骤,包括:根据所述信息分类模型中的长短期记忆网络计算得到所述特征向量的评价输出信息;根据所述信息分类模型中的权重层及神经网络对所述评价输出信息进行计算以得到所述评价输出信息与所述信息分类模型中每一类别对应的概率值;将所述信息分类模型中概率值最高的类别作为所述待分类信息的分类结果。所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个计算机可读存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的计算机可读存储介质包括:u盘、移动硬盘、只读存储器(rom,read-onlymemory)、磁碟或者光盘等各种可以存储程序代码的介质。以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本
技术领域
的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1