神经网络训练方法和装置及命名实体识别方法和装置与流程

文档序号:16390434发布日期:2018-12-22 11:24阅读:235来源:国知局
神经网络训练方法和装置及命名实体识别方法和装置与流程
本发明涉及命名实体识别,尤其涉及用于命名实体识别的神经网络的训练方法和装置以及基于神经网络的命名实体识别方法和装置。
背景技术
命名实体识别(namedentityrecognition,ner)是一种把文本中出现的命名实体识别出来并加以归类的技术。例如,命名实体可包括三大类(实体类、时间类和数字类)、七小类(人名、机构名、地名、时间、日期、货币和百分比)命名实体。命名实体识别是自然语言处理中的一项基础性工作,同时也是很多应用(例如,信息检索、信息抽取以及机器翻译等)中的关键技术。因此,研究命名实体的自动识别具有重要的理论意义和实践价值。随着对命名实体识别技术的需求不断提高,对命名实体识别技术的要求也越来越高。然而,现有的命名实体识别技术,没有充分利用训练语料中的信息,这导致命名实体识别的准确率较低。同时在多任务场景下,没有高效地利用其它任务的相关性,这使得命名实体识别的计算量往往偏大。技术实现要素:本发明的目的在于提供一种用于命名实体识别的神经网络的训练方法和装置以及基于神经网络的命名实体识别方法和装置。本发明的一方面提供一种用于命名实体识别的神经网络的训练方法,其中,所述神经网络包括一个主神经网络以及一个或多个辅神经网络,所述训练方法包括:获取训练文本,以及获取训练文本的标注信息;其中,训练文本的标注信息包括:命名实体识别用的辅助标注和命名实体标注;将训练文本输入至所述一个或多个辅神经网络,得到每个辅神经网络输出的命名实体识别用的辅助信息;将训练文本和至少一个辅神经网络输出的辅助信息输入至主神经网络,得到所述主神经网络输出的命名实体信息;基于每个辅神经网络输出的辅助信息和相应的辅助标注,以及所述主神经网络输出的命名实体信息和相应的命名实体标注,计算神经网络的损失,并根据神经网络的损失对所述神经网络进行训练。可选地,当所述神经网络包括一个辅神经网络时,所述一个辅神经网络对应的辅助信息为分词信息或词性信息;当所述神经网络包括两个辅神经网络时,所述两个辅神经网络对应的辅助信息分别为分词信息和词性信息。可选地,主神经网络和每个辅神经网络均包括文本转换层、特征层和分类层,且主神经网络和各辅神经网络共用文本转换层和特征层;所述将训练文本输入至所述一个或多个辅神经网络,得到每个辅神经网络输出的命名实体识别用的辅助信息,以及所述将训练文本和至少一个辅神经网络输出的辅助信息输入至主神经网络,得到所述主神经网络输出的命名实体信息包括:将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息;将文本转换层输出的字相关信息输入到特征层,获得特征层输出的训练文本中的字和上下文字相关信息的关系信息;将文本转换层的输出和特征层的输出拼接在一起后,分别输入到主神经网络和每个辅神经网络的分类层,并将至少一个辅神经网络的分类层的输出信息输入到主神经网络的分类层。所述文本转换层为嵌入层;所述将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将训练文本输入到经过预训练的嵌入层,得到嵌入层输出的字相关信息;或者,所述文本转换层为语言模型;所述将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将训练文本输入到经过预训练的语言模型,得到语言模型输出的字相关信息;或者,所述文本转换层包括嵌入层和语言模型;所述将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将训练文本分别输入到经过预训练的嵌入层和语言模型,将嵌入层和语言模型的输出拼接后得到字相关信息。可选地,当所述神经网络包括第一辅神经网络和第二辅神经网络,且两个辅神经网络对应的辅助信息分别为分词信息和词性信息时,所述将至少一个辅神经网络的分类层的输出信息输入到主神经网络的分类层包括:将第一辅神经网络的分类层输出的分词信息输入到第二辅神经网络的分类层,得到第二辅神经网络的分类层输出的词性信息,将所述词性信息或者将所述分词信息和词性信息输入到主神经网络的分类层。可选地,每个辅神经网络的分类层均由全连接层和归一化层组成,主神经网络的分类层为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均由全连接层和归一化层组成。可选地,所述训练方法进一步包括对训练文本的标注信息进行编码,所述训练方法进一步包括对主神经网络输出的命名实体信息进行解码。可选地,所述对训练文本的标注信息进行编码包括:对辅助标注使用bmes编码,对命名实体标注使用obmes编码,并将编码后的标注信息分别映射到不同的数字,并对所述不同的数字分别进行独热编码,所述对主神经网络输出的命名实体信息进行解码包括:根据obmes编码来对主神经网络输出的命名实体信息进行解码。可选地,所述基于每个辅神经网络输出的辅助信息和相应的辅助标注,以及所述主神经网络输出的命名实体信息和相应的命名实体标注,计算神经网络的损失包括:基于每个辅神经网络输出的辅助信息和相应的辅助标注,计算每个辅神经网络的损失;基于所述主神经网络输出的命名实体信息和相应的命名实体标注,计算主神经网络的损失;将每个辅神经网络的损失和主神经网络的损失分别乘以相应的权重,并将相乘结果相加作为神经网络的损失,其中,所述相应的权重之和为1,每个权重的值大于等于0且小于等于1。本发明的一方面提供一种基于神经网络的命名实体识别方法,其中,所述神经网络是经过训练的,所述神经网络包括一个主神经网络以及一个或多个辅神经网络,所述命名实体识别方法包括:获取待识别的预测文本;将所述预测文本输入至所述一个或多个辅神经网络,得到每个辅神经网络输出的命名实体识别用的辅助信息;将所述预测文本和至少一个辅神经网络输出的辅助信息输入至主神经网络,得到所述主神经网络输出的命名实体信息。可选地,当所述神经网络包括一个辅神经网络时,所述一个辅神经网络对应的辅助信息为分词信息或词性信息;当所述神经网络包括两个辅神经网络时,两个辅神经网络对应的辅助信息分别为分词信息和词性信息。可选地,主神经网络和每个辅神经网络均包括文本转换层、特征层和分类层,且主神经网络和各辅神经网络共用文本转换层和特征层;所述将所述预测文本输入至所述一个或多个辅神经网络,得到每个辅神经网络输出的命名实体识别用的辅助信息,以及所述将所述预测文本和至少一个辅神经网络输出的辅助信息输入至主神经网络,得到所述主神经网络输出的命名实体名称信息包括:将所述预测文本输入到文本转换层,得到文本转换层输出的字相关信息;将文本转换层输出的字相关信息输入到特征层,获得特征层输出的训练文本中的字和上下文的关系信息;将文本转换层的输出和特征层的输出拼接在一起后,分别输入到主神经网络和每个辅神经网络的分类层,并将至少一个辅神经网络的分类层的输出信息输入到主神经网络的分类层。可选地,所述文本转换层为嵌入层;所述将所述预测文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将所述预测文本输入到经过预训练的嵌入层,得到嵌入层输出的字相关信息;或者,所述文本转换层为语言模型;所述将所述预测文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将所述预测文本输入到经过预训练的语言模型,得到语言模型输出的字相关信息;或者,所述文本转换层包括嵌入层和语言模型;所述将所述预测文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将所述预测文本分别输入到经过预训练的嵌入层和语言模型,将嵌入层和语言模型的输出拼接后得到字相关信息。可选地,当所述神经网络包括第一辅神经网络和第二辅神经网络,且两个辅神经网络对应的辅助信息分别为分词信息和词性信息时,所述将至少一个辅神经网络的分类层的输出信息输入到主神经网络的分类层包括:将第一辅神经网络的分类层输出的分词信息输入到第二辅神经网络的分类层,得到第二辅神经网络的分类层输出的词性信息,将所述词性信息或者将所述分词信息和词性信息输入到主神经网络的分类层。可选地,每个辅神经网络的分类层均由全连接层和归一化层组成,主神经网络的分类层为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均由全连接层和归一化层组成。可选地,所述命名实体识别方法进一步包括:对主神经网络输出的命名实体名称信息进行解码。可选地,所述神经网络是依据上面所述的任一项训练方法训练得到的。本发明的一方面提供一种用于命名实体识别的神经网络的训练装置,其中,所述神经网络包括一个主神经网络以及一个或多个辅神经网络,所述训练装置包括:获取单元,被配置为获取训练文本,以及获取训练文本的标注信息;其中,训练文本的标注信息包括:命名实体识别用的辅助标注和命名实体标注;辅助信息生成单元,被配置为将训练文本输入至所述一个或多个辅神经网络,得到每个辅神经网络输出的命名实体识别用的辅助信息;命名实体信息生成单元,被配置为将训练文本和至少一个辅神经网络输出的辅助信息输入至主神经网络,得到所述主神经网络输出的命名实体信息;训练单元,被配置为基于每个辅神经网络输出的辅助信息和相应的辅助标注,以及所述主神经网络输出的命名实体信息和相应的命名实体标注,计算神经网络的损失,并根据神经网络的损失对所述神经网络进行训练。可选地,当所述神经网络包括一个辅神经网络时,所述一个辅神经网络对应的辅助信息为分词信息或词性信息;当所述神经网络包括两个辅神经网络时,所述两个辅神经网络对应的辅助信息分别为分词信息和词性信息。可选地,主神经网络和每个辅神经网络均包括文本转换层、特征层和分类层,且主神经网络和各辅神经网络共用文本转换层和特征层;辅助信息生成单元和命名实体信息生成单元均被配置为:将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息,将文本转换层输出的字相关信息输入到特征层,获得特征层输出的训练文本中的字和上下文的关系信息,将文本转换层的输出和特征层的输出拼接在一起;辅助信息生成单元被配置为将文本转换层的输出和特征层的输出拼接在一起后输入到每个辅神经网络的分类层;命名实体信息生成单元被配置为将文本转换层的输出和特征层的输出拼接在一起后输入到主神经网络的分类层并将至少一个辅神经网络的分类层的输出信息输入到主神经网络的分类层。可选地,所述文本转换层为嵌入层;辅助信息生成单元和命名实体信息生成单元均被配置为:将训练文本输入到经过预训练的嵌入层,得到嵌入层输出的字相关信息;或者,所述文本转换层为语言模型;辅助信息生成单元和命名实体信息生成单元均被配置为:将训练文本输入到经过预训练的语言模型,得到语言模型输出的字相关信息;或者,所述文本转换层包括嵌入层和语言模型;辅助信息生成单元和命名实体信息生成单元均被配置为:将训练文本分别输入到经过预训练的嵌入层和语言模型,将嵌入层和语言模型的输出拼接后得到字相关信息。可选地,当所述神经网络包括第一辅神经网络和第二辅神经网络,且两个辅神经网络对应的辅助信息分别为分词信息和词性信息时,辅助信息生成单元被配置为:将第一辅神经网络的分类层输出的分词信息输入到第二辅神经网络的分类层,得到第二辅神经网络的分类层输出的词性信息,命名实体信息生成单元被配置为将所述词性信息或者将所述分词信息和词性信息输入到主神经网络的分类层。可选地,每个辅神经网络的分类层均由全连接层和归一化层组成,主神经网络的分类层为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均由全连接层和归一化层组成。可选地,所述训练装置进一步包括:编码单元,被配置为对训练文本的标注信息进行编码;解码单元,被配置为对主神经网络输出的命名实体信息进行解码。可选地,编码单元被配置为对辅助标注使用bmes编码,对命名实体标注使用obmes编码,并将编码后的标注信息分别映射到不同的数字,并对所述不同的数字分别进行独热编码,解码单元被配置为根据obmes编码来对主神经网络输出的命名实体信息进行解码。可选地,训练单元被配置为:基于每个辅神经网络输出的辅助信息和相应的辅助标注,计算每个辅神经网络的损失;基于所述主神经网络输出的命名实体信息和相应的命名实体标注,计算主神经网络的损失;将每个辅神经网络的损失和主神经网络的损失分别乘以相应的权重,并将相乘结果相加作为神经网络的损失,其中,所述相应的权重之和为1,每个权重的值大于等于0且小于等于1。本发明的一方面提供一种基于神经网络的命名实体识别装置,其中,所述神经网络是经过训练的,所述神经网络包括一个主神经网络以及一个或多个辅神经网络,所述命名实体识别装置包括:获取单元,被配置为获取待识别的预测文本;辅助信息生成单元,将所述预测文本输入至所述一个或多个辅神经网络,得到每个辅神经网络输出的命名实体识别用的辅助信息;命名实体信息生成单元,将所述预测文本和至少一个辅神经网络输出的辅助信息输入至主神经网络,得到所述主神经网络输出的命名实体信息。可选地,当所述神经网络包括一个辅神经网络时,所述一个辅神经网络对应的辅助信息为分词信息或词性信息;当所述神经网络包括两个辅神经网络时,所述两个辅神经网络对应的辅助信息分别为分词信息和词性信息。可选地,主神经网络和每个辅神经网络均包括文本转换层、特征层和分类层,且主神经网络和各辅神经网络共用文本转换层和特征层;辅助信息生成单元和命名实体信息生成单元被配置为:将所述预测文本输入到文本转换层,得到文本转换层输出的字相关信息;将文本转换层输出的字相关信息输入到特征层,获得特征层输出的训练文本中的字和上下文的关系信息;辅助信息生成单元被配置为将文本转换层的输出和特征层的输出拼接在一起后输入到每个辅神经网络的分类层,命名实体信息生成单元被配置为将文本转换层的输出和特征层的输出拼接在一起后输入到主神经网络的分类层并将至少一个辅神经网络的分类层的输出信息输入到主神经网络的分类层。可选地,所述文本转换层为嵌入层;辅助信息生成单元和命名实体信息生成单元被配置为:将所述预测文本输入到经过预训练的嵌入层,得到嵌入层输出的字相关信息;或者,所述文本转换层为语言模型;辅助信息生成单元和命名实体信息生成单元被配置为:将所述预测文本输入到经过预训练的语言模型,得到语言模型输出的字相关信息;或者,所述文本转换层包括嵌入层和语言模型;辅助信息生成单元和命名实体信息生成单元被配置为::将所述预测文本分别输入到经过预训练的嵌入层和语言模型,将嵌入层和语言模型的输出拼接后得到字相关信息。可选地,当所述神经网络包括第一辅神经网络和第二辅神经网络,且两个辅神经网络对应的辅助信息分别为分词信息和词性信息时,辅助信息生成单元被配置为将第一辅神经网络的分类层输出的分词信息输入到第二辅神经网络的分类层,得到第二辅神经网络的分类层输出的词性信息,命名实体信息生成单元被配置为将所述词性信息或者将所述分词信息和词性信息输入到主神经网络的分类层。可选地,每个辅神经网络的分类层均由全连接层和归一化层组成,主神经网络的分类层为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均由全连接层和归一化层组成。可选地,所述命名实体识别装置进一步包括:解码单元,对主神经网络输出的命名实体名称信息进行解码。可选地,所述神经网络是依据上面所述的任一训练方法训练得到的。本发明的一方面提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序在被一个或多个计算装置执行时使得所述一个或多个计算装置实现如上任一项所述的方法。本发明的一方面提供了一种包括一个或多个计算装置和一个或多个存储装置的系统,所述一个或多个存储装置上记录有计算机程序,所述计算机程序在被所述一个或多个计算装置执行时使得所述一个或多个计算装置实现如上任一项所述的方法。本发明这种利用包括主神经网络和一个或多个辅神经网络的神经网络进行命名实体识别的技术方案,由于通过辅神经网络获得辅助信息,并且获得辅助信息用于主神经网络的命名实体识别,因此能够利用文本中包含的辅助信息帮助命名实体的识别,提高了命名实体识别的准确性。此外,主神经网络加上一个或多个辅神经网络的这种多任务场景下,主神经网络利用辅神经网络输出的相关内容进行命名实体识别,大大减少了命名实体识别的计算量。将在接下来的描述中部分阐述本发明总体构思另外的方面和/或优点,还有一部分通过描述将是清楚的,或者可以经过本发明总体构思的实施而得知。附图说明通过下面结合示例性地示出一例的附图进行的描述,本发明的上述和其他目的和特点将会变得更加清楚,其中:图1示出根据本发明的用于命名实体识别的神经网络的训练方法的流程图;图2示出根据本发明的基于神经网络的命名实体识别方法的流程图;图3是示出根据本发明的用于命名实体识别的神经网络的训练装置300的框图;图4示出根据本发明的基于神经网络的命名实体识别装置;图5示出根据本发明的作为文本转换层的一个示例的嵌入层的预训练的示图;图6示出根据本发明的用于命名实体识别的神经网络的一个具体实施例的示图。具体实施方式提供以下参照附图进行的描述,以帮助全面理解由权利要求及其等同物限定的本发明的示例性实施例。所述描述包括各种特定细节以帮助理解,但这些细节被认为仅是示例性的。因此,本领域的普通技术人员将认识到:在不脱离本发明的范围和精神的情况下,可对这里描述的实施例进行各种改变和修改。此外,为了清楚和简明,可省略已知功能和构造的描述。在本发明中,用于命名实体识别的神经网络可包括一个主神经网络以及一个或多个辅神经网络。主神经网络可以是用于执行命名实体识别的神经网络,辅神经网络可以是用于生成命名实体识别用的辅助信息的神经网络。图1示出根据本发明的用于命名实体识别的神经网络的训练方法的流程图。参照图1,在步骤s110中,获取训练文本,以及获取训练文本的标注信息,其中,训练文本的标注信息包括:命名实体识别用的辅助标注和命名实体标注。作为示例,当根据本发明的用于命名实体识别的神经网络包括一个辅神经网络时,该一个辅神经网络对应的辅助信息为分词信息或词性信息;作为另一示例,当根据本发明的用于命名实体识别的神经网络包括两个辅神经网络时,该两个辅神经网络对应的辅助信息分别为分词信息和词性信息。然而,应该理解,本发明不限于此,根据本发明的用于命名实体识别的神经网络还可包括用于生成其他辅助信息的辅神经网络或者包括其他数量的辅神经网络。在步骤s120中,将训练文本输入至所述一个或多个辅神经网络,得到每个辅神经网络输出的命名实体识别用的辅助信息。作为示例,每个辅神经网络包括文本转换层、特征层和分类层。在这种情况下,可通过以下步骤来执行步骤s120:将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息;将文本转换层输出的字相关信息输入到特征层,获得特征层输出的训练文本中的字和上下文字相关信息的关系信息;将文本转换层的输出和特征层的输出拼接在一起后输入到每个辅神经网络的分类层,得到每个辅神经网络输出的命名实体识别用的辅助信息。作为示例,所述文本转换层为嵌入层;所述将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将训练文本输入到经过预训练的嵌入层,得到嵌入层输出的字相关信息;或者,所述文本转换层为语言模型;所述将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将训练文本输入到经过预训练的语言模型,得到语言模型输出的字相关信息;或者,所述文本转换层包括嵌入层和语言模型;所述将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将训练文本分别输入到经过预训练的嵌入层和语言模型,将嵌入层和语言模型的输出拼接后得到字相关信息。作为文本转换层的示例,语言模型是用来计算文本中的一个句子的概率的模型。利用语言模型,可以确定哪个词序列的可能性更大,或者给定若干个词,可以预测下一个最可能出现的词语。例如,可通过使用n-gram模型方法、决策树方法、最大熵模型方法、最大熵马尔科夫模型方法、条件随机域方法、循环神经网络方法等来获得语言模型。注意,这里对语言模型的描述也可适用于本申请的其他地方所涉及的语言模型。此外,后面将结合图5对预训练的作为文本转换层的一个示例的嵌入层进行详细描述。例如,当根据本发明的用于命名实体识别的神经网络包括第一辅神经网络和第二辅神经网络,且两个辅神经网络对应的辅助信息分别为分词信息和词性信息时,得到词性信息的步骤可包括:将第一辅神经网络的分类层输出的分词信息输入到第二辅神经网络的分类层,得到第二辅神经网络的分类层输出的词性信息。在步骤s130中,将训练文本和至少一个辅神经网络输出的辅助信息输入至主神经网络,得到所述主神经网络输出的命名实体信息。作为示例,主神经网络和每个辅神经网络均包括文本转换层、特征层和分类层。在一个示例中,主神经网络和各个辅神经网络共用文本转换层和特征层。在本发明的一个实施例中,步骤s130可包括:将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息;将文本转换层输出的字相关信息输入到特征层,获得特征层输出的训练文本中的字和上下文的关系信息;将文本转换层的输出和特征层的输出拼接在一起后输入到主神经网络的分类层,并将至少一个辅神经网络的分类层的输出信息输入到主神经网络的分类层。作为示例,所述文本转换层为嵌入层;所述将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将训练文本输入到经过预训练的嵌入层,得到嵌入层输出的字相关信息;或者,所述文本转换层为语言模型;所述将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将训练文本输入到经过预训练的语言模型,得到语言模型输出的字相关信息;或者,所述文本转换层包括嵌入层和语言模型;所述将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将训练文本分别输入到经过预训练的嵌入层和语言模型,将嵌入层和语言模型的输出拼接后得到字相关信息。例如,当根据本发明的用于命名实体识别的神经网络包括第一辅神经网络和第二辅神经网络,且两个辅神经网络对应的辅助信息分别为分词信息和词性信息时,所述将至少一个辅神经网络的分类层的输出信息输入到主神经网络的分类层包括:将所述词性信息或者将所述分词信息和词性信息输入到主神经网络的分类层。在本发明中,辅神经网络和主神经网络的分类层可具有相同或不同的配置。作为示例,每个辅神经网络的分类层均由全连接层和归一化层组成,主神经网络的分类层为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均由全连接层和归一化层组成。在步骤s140中,基于每个辅神经网络输出的辅助信息和相应的辅助标注,以及所述主神经网络输出的命名实体信息和相应的命名实体标注,计算神经网络的损失,并根据神经网络的损失对所述神经网络进行训练。作为示例,步骤s140可包括:基于每个辅神经网络输出的辅助信息和相应的辅助标注,计算每个辅神经网络的损失;基于所述主神经网络输出的命名实体信息和相应的命名实体标注,计算主神经网络的损失;将每个辅神经网络的损失和主神经网络的损失分别乘以相应的权重,并将相乘结果相加作为神经网络的损失,其中,所述相应的权重之和为1,每个权重的值大于等于0且小于等于1。在步骤s140中,优化训练的方法包括但不限于:随机梯度下降(stochasticgradientdescent,sgd)、自适应自梯度方法(adaptivesubgradientmethods,adagrad)、自适应学习率方法(adadelta)、自适应矩估计(adaptivemomentestimation,adam)等。此外,可选地,图1中的训练方法还可进一步包括对训练文本的标注信息进行编码;图1中的训练方法还可进一步包括:对主神经网络输出的命名实体信息进行解码。作为示例,所述对训练文本的标注信息进行编码包括:对辅助标注使用bmes编码,对命名实体标注使用obmes编码,并将编码后的标注信息分别映射到不同的数字,并对所述不同的数字分别进行独热编码。所述对主神经网络输出的命名实体信息进行解码包括:根据obmes编码来对主神经网络输出的命名实体信息进行解码。下面对根据本发明的一个非限制性示例实施例的编码和解码进行详细描述。在本示例实施例中,根据本发明的用于命名实体识别的神经网络包括第一辅神经网络和第二辅神经网络,且两个辅神经网络对应的辅助信息分别为分词信息和词性信息。以词性信息为例,有词性标注的训练文本(或语料)的一般格式如下:「新的/a一年/mq,/w抓住/v千载难逢/vl的/ude1机遇/n」,其中,a表示形容词,mq表示数量词,w表示标点符号,v表示动词,vl表示动词性惯用语,ude1表示词“的”,n表示名词。请注意,上述语料仅是示例,本发明不限于此,例如,语料可包括hanlp词性标注集。由于这样的语料结构无法直接用于神经网络的输出,需要进行编码使对于每个任务(即,得到辅助信息和命名实体信息的任务中的每个任务),每个字对应一个特定的标签。考虑三种任务:●中文分词(chinesewordsegmentation,cws:将文本切分成连续的单独的词任务),使用bmes编码,b代表一个分词的开始,m代表一个分词的中心,e代表一个分词的结尾,s代表单个字就是一个分词。以上面的语料为例,对应的bmes编码为:新的一年,抓住千载难逢的机遇bebesbebmmesbe实际中bmes会映射为数字0到3,并进行独热编码。●词性标注(partofspeechtagging,postagging:为文本中每一个词标注出对应的词性,如名词、动词等)任务,对于每种词性分别使用bmes编码,b代表一种词性的开始,m代表一种词性的中心,e代表一种词性的结尾,s代表单个字表示一种词性,如上面的语料会转换为:实际中每个标注标签也会映射为一个数字,并进行独热编码。●命名实体识别任务,使用obmes编码,其中,o代表不属于任何一种实体,b代表一种命名实体的开始,m代表一种命名实体的中心,e代表一种命名实体的结尾,s代表单个字就是一种命名实体,如「中医研究院医师刘维林」中「中医研究院」是一个机构名,「医师」不属于命名实体,「刘维林」是一个人名,则对应的obems编码为:同样每个标注标签会映射为一个数字,并进行独热编码。这样,在每一个任务中语料中的每个字都对应了一个类别,问题转换为了对于每个字的分类问题。这样的编码将用于神经网络的输出,在解码单元再转换为其它更便于使用的格式。接下来,对解码进行详细描述。对于新的需要命名实体识别的语料,通过根据本发明的用于命名实体识别的神经网络可以得到一个语句中的命名实体的编码后的标注标签,需要对其解码才能获得该编码后的标注标签所对应的实体。以人名为例,假设对应的bmes标签为b-per、m-per、e-per、s-per,其解码的算法如下:1记录起始标志s=-1,人名实体集合2枚举标签下标i:3如果标签为s-per,则原始文本中下标i的单字对应一个人名,将其加入到集合n4如果标签为b-per,记录s=i5如果标签为m-per且下标i-1对应的标签不为b-per或m-per,记录s=-16如果标签为e-per:7如果下标i-1对应的标签不为b-per或m-per,记录s=-18否则如果s不等于-1,则原始文本中下标s到i的子字符串对应一个人名,将其加入到集合n举例来说(注意「师」是一个错误的预测):通过上面的算法分别获得不同命名实体识别类别的结果,得到对应类别实体的集合。图2示出根据本发明的基于神经网络的命名实体识别方法的流程图。在图2的实施例中,命名实体识别方法所基于的神经网络是经过训练的,且所述神经网络包括一个主神经网络以及一个或多个辅神经网络。在步骤s210中,获取待识别的预测文本。在步骤s220中,将所述预测文本输入至所述一个或多个辅神经网络,得到每个辅神经网络输出的命名实体识别用的辅助信息。作为示例,当命名实体识别方法所基于的神经网络包括一个辅神经网络时,所述一个辅神经网络对应的辅助信息为分词信息或词性信息;当命名实体识别方法所基于的神经网络包括两个辅神经网络时,所述两个辅神经网络对应的辅助信息分别为分词信息和词性信息。然而,应该理解,本发明不限于此,根据本发明的命名实体识别方法所基于的神经网络还可包括用于生成其他辅助信息的辅神经网络或者包括其他数量的辅神经网络。作为示例,每个辅神经网络包括文本转换层、特征层和分类层。在这种情况下,可通过以下步骤来执行步骤s220:将所述预测文本输入到文本转换层,得到文本转换层输出的字相关信息;将文本转换层输出的字相关信息输入到特征层,获得特征层输出的训练文本中的字和上下文的关系信息;将文本转换层的输出和特征层的输出拼接在一起后,得到每个辅神经网络输出的命名实体识别用的辅助信息。作为示例,所述文本转换层为嵌入层;所述将所述预测文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将所述预测文本输入到经过预训练的嵌入层,得到嵌入层输出的字相关信息;或者,所述文本转换层为语言模型;所述将所述预测文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将所述预测文本输入到经过预训练的语言模型,得到语言模型输出的字相关信息;或者,所述文本转换层包括嵌入层和语言模型;所述将所述预测文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将所述预测文本分别输入到经过预训练的嵌入层和语言模型,将嵌入层和语言模型的输出拼接后得到字相关信息。例如,当根据本发明的命名实体识别方法所基于的神经网络包括第一辅神经网络和第二辅神经网络,且两个辅神经网络对应的辅助信息分别为分词信息和词性信息时,得到词性信息的步骤可包括:将第一辅神经网络的分类层输出的分词信息输入到第二辅神经网络的分类层,得到第二辅神经网络的分类层输出的词性信息。在步骤s230中,将所述预测文本和至少一个辅神经网络输出的辅助信息输入至主神经网络,得到所述主神经网络输出的命名实体信息。作为示例,主神经网络和每个辅神经网络包括文本转换层、特征层和分类层。在一个示例中,主神经网络和各个辅神经网络共用文本转换层和特征层。在本发明的一个实施例中,步骤s230可包括:将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息;将字相关信息输入到特征层,获得特征层输出的训练文本中的字和上下文字相关信息的关系信息;将文本转换层的输出和特征层的输出拼接在一起后输入到主神经网络的分类层,并将至少一个辅神经网络的分类层的输出信息输入到主神经网络的分类层。作为示例,所述文本转换层为嵌入层;所述将所述预测文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将所述预测文本输入到经过预训练的嵌入层,得到嵌入层输出的字相关信息;或者,所述文本转换层为语言模型;所述将所述预测文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将所述预测文本输入到经过预训练的语言模型,得到语言模型输出的字相关信息;或者,所述文本转换层包括嵌入层和语言模型;所述将所述预测文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息包括:将所述预测文本分别输入到经过预训练的嵌入层和语言模型,将嵌入层和语言模型的输出拼接后得到字相关信息。例如,当根据本发明的命名实体识别方法所基于的神经网络包括第一辅神经网络和第二辅神经网络,且两个辅神经网络对应的辅助信息分别为分词信息和词性信息时,所述将至少一个辅神经网络的分类层的输出信息输入到主神经网络的分类层包括:将所述词性信息或者将所述分词信息和词性信息输入到主神经网络的分类层。在本发明中,辅神经网络和主神经网络的分类层可具有相同或不同的配置。作为示例,每个辅神经网络的分类层均由全连接层和归一化层组成,主神经网络的分类层为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均由全连接层和归一化层组成。此外,可选地,根据本发明的命名实体识别方法可进一步包括:对主神经网络输出的命名实体名称信息进行解码。例如,解码方法可以与参照图1的实施例描述的解码方法相同或相似。此外,根据本发明的命名实体识别方法所基于的神经网络可以依据如上所述的任一项训练方法训练得到。图3是示出根据本发明的用于命名实体识别的神经网络的训练装置300的框图。其中,所述神经网络包括一个主神经网络以及一个或多个辅神经网络,参照图3,训练装置300包括获取单元310、辅助信息生成单元320和命名实体信息生成单元330。获取单元310被配置为获取训练文本,以及获取训练文本的标注信息,其中,训练文本的标注信息包括:命名实体识别用的辅助标注和命名实体标注。辅助信息生成单元320被配置为将训练文本输入至所述一个或多个辅神经网络,得到每个辅神经网络输出的命名实体识别用的辅助信息。训练单元340被配置为基于每个辅神经网络输出的辅助信息和相应的辅助标注以及所述主神经网络输出的命名实体信息和相应的命名实体标注,计算神经网络的损失,并根据神经网络的损失对所述神经网络进行训练。作为示例,用于命名实体识别的神经网络包括一个辅神经网络时,所述一个辅神经网络对应的辅助信息为分词信息或词性信息;当用于命名实体识别的神经网络包括两个辅神经网络时,所述两个辅神经网络对应的辅助信息分别为分词信息和词性信息。然而,应该理解,本发明不限于此,根据本发明的用于命名实体识别的神经网络还可包括用于生成其他辅助信息的辅神经网络或者包括其他数量的辅神经网络。作为示例,主神经网络和每个辅神经网络均包括文本转换层、特征层和分类层,且主神经网络和各辅神经网络共用文本转换层和特征层。在这个示例中,辅助信息生成单元320和命名实体信息生成单元330均被配置为:将训练文本输入到经过预训练的文本转换层,得到文本转换层输出的字相关信息;将文本转换层输出的字相关信息输入到特征层,获得特征层输出的训练文本中的字和上下文的关系信息;将文本转换层的输出和特征层的输出拼接在一起。此外,辅助信息生成单元320被配置为将文本转换层的输出和特征层的输出拼接在一起后输入到每个辅神经网络的分类层。命名实体信息生成单元330被配置为将文本转换层的输出和特征层的输出拼接在一起后输入到主神经网络的分类层并将至少一个辅神经网络的分类层的输出信息输入到主神经网络的分类层。作为示例,所述文本转换层为嵌入层;辅助信息生成单元320和命名实体信息生成单元330均被配置为:将训练文本输入到经过预训练的嵌入层,得到嵌入层输出的字相关信息;或者,所述文本转换层为语言模型;辅助信息生成单元320和命名实体信息生成单元330均被配置为:将训练文本输入到经过预训练的语言模型,得到语言模型输出的字相关信息;或者,所述文本转换层包括嵌入层和语言模型;辅助信息生成单元320和命名实体信息生成单元330均被配置为:将训练文本分别输入到经过预训练的嵌入层和语言模型,将嵌入层和语言模型的输出拼接后得到字相关信息。例如,当用于命名实体识别的神经网络包括第一辅神经网络和第二辅神经网络,且两个辅神经网络对应的辅助信息分别为分词信息和词性信息时,辅助信息生成单元320被配置为:将第一辅神经网络的分类层输出的分词信息输入到第二辅神经网络的分类层,得到第二辅神经网络的分类层输出的词性信息,命名实体信息生成单元330被配置为将所述词性信息或者将所述分词信息和词性信息输入到主神经网络的分类层。在本发明中,辅神经网络和主神经网络的分类层可具有相同或不同的配置。作为示例,每个辅神经网络的分类层均由全连接层和归一化层组成,主神经网络的分类层为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均由全连接层和归一化层组成。此外,可选地,所述训练装置进一步包括被配置为对训练文本的标注信息进行编码的编码单元(未示出)和被配置为对主神经网络输出的命名实体信息进行解码的解码单元(未示出)。作为示例,编码单元被配置为对辅助标注使用bmes编码,对命名实体标注使用obmes编码,并将编码后的标注信息分别映射到不同的数字,并对所述不同的数字分别进行独热编码。解码单元被配置为根据obmes编码来对主神经网络输出的命名实体信息进行解码。此外,编码单元可执行参照图1和图描述的编码方法,解码单元可执行参照图1描述的解码方法。作为示例,训练单元340被配置为:基于每个辅神经网络输出的辅助信息和相应的辅助标注,计算每个辅神经网络的损失;基于所述主神经网络输出的命名实体信息和相应的命名实体标注,计算主神经网络的损失;将每个辅神经网络的损失和主神经网络的损失分别乘以相应的权重,并将相乘结果相加作为神经网络的损失,其中,所述相应的权重之和为1,每个权重的值大于等于0且小于等于1。后面将参照图6描述根据本发明的用于命名实体识别的神经网络的一个具体实施例,其中,在该实施例中,文本转换层为嵌入层。图4示出根据本发明的基于神经网络的命名实体识别装置。该神经网络包括一个主神经网络以及一个或多个辅神经网络。在图4的实施例中,该神经网络用于命名实体识别,并且是经过训练的。例如,该神经网络是依据参照图1描述的任一训练方法训练得到的。参照图4,命名实体识别装置400包括获取单元410、辅助信息生成单元420和命名实体信息生成单元430。获取单元410被配置为获取待识别的预测文本。辅助信息生成单元420被配置为将所述预测文本输入至所述一个或多个辅神经网络,得到每个辅神经网络输出的命名实体识别用的辅助信息。命名实体信息生成单元430被配置为将所述预测文本和至少一个辅神经网络输出的辅助信息输入至主神经网络,得到所述主神经网络输出的命名实体信息。作为示例,当神经网络包括一个辅神经网络时,所述一个辅神经网络对应的辅助信息为分词信息或词性信息;当所述神经网络包括两个辅神经网络时,所述两个辅神经网络对应的辅助信息分别为分词信息和词性信息。作为示例,主神经网络和每个辅神经网络均包括文本转换层、特征层和分类层,且主神经网络和各辅神经网络共用文本转换层和特征层,在这个示例中,辅助信息生成单元420和命名实体信息生成单元430被配置为:将所述预测文本输入到文本转换层,得到文本转换层输出的字相关信息;将文本转换层输出的字相关信息输入到特征层,获得特征层输出的训练文本中的字和上下文的关系信息。此外,辅助信息生成单元420被配置为将文本转换层的输出和特征层的输出拼接在一起后输入到每个辅神经网络的分类层。命名实体信息生成单元430被配置为将文本转换层的输出和特征层的输出拼接在一起后输入到主神经网络的分类层并将至少一个辅神经网络的分类层的输出信息输入到主神经网络的分类层。作为示例,所述文本转换层为嵌入层;辅助信息生成单元420和命名实体信息生成单元430被配置为::将所述预测文本输入到经过预训练的嵌入层,得到嵌入层输出的字相关信息;或者,所述文本转换层为语言模型;辅助信息生成单元420和命名实体信息生成单元430被配置为:将所述预测文本输入到经过预训练的语言模型,得到语言模型输出的字相关信息;或者,所述文本转换层包括嵌入层和语言模型;辅助信息生成单元420和命名实体信息生成单元430被配置为:将所述预测文本分别输入到经过预训练的嵌入层和语言模型,将嵌入层和语言模型的输出拼接后得到字相关信息。例如,当用于命名实体识别的神经网络包括第一辅神经网络和第二辅神经网络,且两个辅神经网络对应的辅助信息分别为分词信息和词性信息时,辅助信息生成单元420被配置为:将第一辅神经网络的分类层输出的分词信息输入到第二辅神经网络的分类层,得到第二辅神经网络的分类层输出的词性信息;命名实体信息生成单元430被配置为将所述词性信息或者将所述分词信息和词性信息输入到主神经网络的分类层。在本发明中,辅神经网络和主神经网络的分类层可具有相同或不同的配置。作为示例,每个辅神经网络的分类层均由全连接层和归一化层组成,主神经网络的分类层为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均为线性链条件随机场层;或者,每个辅神经网络和主神经网络的分类层均由全连接层和归一化层组成。此外,可选地,命名实体识别装置400进一步包括被配置为对主神经网络输出的命名实体名称信息进行解码的解码单元(未示出)。图5示出根据本发明的作为文本转换层的一个示例的嵌入层的预训练的示图。当文本转换层为嵌入层时,文本转换层输出的字相关信息可包括字向量。参照图5,通过映射单元将输入语料转换为字向量来学习多任务学习的嵌入层的初始权重。这里,多任务学习可包括命名实体识别和用于辅助命名实体识别的辅助任务。下面对图5的实施例进行更加详细的描述。由于汉字的数量众多,使用独热编码(one-hotencoding)会造成输入向量极度稀疏,计算困难且忽略了字与字之间的关联性,通常需要将每一个字映射为更短的字向量(charactervector)作为输入。在图5中,主要要进行的是映射单元参数的学习,以便给多任务学习单元的输入语料进行编码。对输入语料的所有字符进行跳字模型(skip-gram)的训练,获得对应语料的字向量映射。请注意,字向量的计算方法不限于跳字模型,它还可以包括但不限于连续词袋(continuousbag-of-words,cbow)、全局向量(globalvectors,glove)和fasttext(一个开源库)等。特别的,由于字向量的学习不需要语料中有人为的标注,可以通过爬虫的方式获取网络上的语料(如维基百科文本、商品评论等),利用较大的网络语料训练出基本的字向量映射,然后在目标语料上进行微调(fine-tuning)。图6示出根据本发明的用于命名实体识别的神经网络的一个具体实施例的示图。注意,在该实施例中,文本转换层被示出为嵌入层,但本发明不限于此,例如,仅作为示例,文本转换层可以是如上所述的语言模型,也可以是嵌入层和如上所述的语言模型二者。此外,在该实施例中,字相关信息可为字向量。参照图6,用于命名实体识别的神经网络包括用于输出中文分词标签的第一辅助神经网络和用于输出词性标注标签的第二辅助神经网络以及用于输出命名实体识别标签的主神经网络。参照图5和图6,映射单元的参数将用于嵌入层权重的初始化,文本通过嵌入层转变为字向量后,通过特征层进一步提取每个字和上下文字向量的关系。特征层可以是一层或多层的网络结构,其最终的输出将于嵌入层的字向量连接在一起,用于全连接层和线性链条件随机场层(linear-chaincrflayer)的输入。此外,虽然图6示出了用于输出中文分词标签的第一辅助神经网络和用于输出词性标注标签的第二辅助神经网络的分类层包括全连接层和归一化层,用于输出命名实体识别标签的主神经网络的分类层包括线性链条件随机场层,但是本发明的实施例不限于此,例如,辅助神经网络和主神经网络的分类层可以自由选择包括但不限于归一化指数函数层(softmaxlayer)、线性链条件随机场层等。此外,特征层的结构包括但不限于一层或多层的卷积神经网络(convolutionalneuralnetwork,cnn)、长短期记忆网络(long-shorttermmemory,lstm)、门循环单元(gatedrecurrentunit,gru)、双向长短期记忆网络(bi-lstm)、双向门循环单元(bi-gru)等。出于效率考虑,由于主任务是命名实体识别,中文分词和词性标注属于辅助任务,可以适当降低辅助任务输出的准确性来换取训练和实际使用中的时间效率。实际中由于线性链条件随机场层输出的时间效率低于全连接和归一化层输出的时间效率,所以对于辅助任务中文分词、词性标注使用了全连接层和归一化层的结构,对于主任务命名实体识别使用了输出更准确的线性链条件随机场层。同时由于辅助任务的学习,多任务共用的网络部分依然学习到了多个任务之间共同的特征,神经网络学习到的是更具一般性的特征,降低了过拟合的可能性。对于分词任务,对每一个位置的字符对应嵌入层的字向量特征x1和特征层的输出特征x2进行拼接,作为分词的全连接层的输入xcws=[x1;x2]。全连接层将合并后的特征映射到与编码后的标签数量ncws相同长度的向量上,通过归一化层获得标签的概率分布p(cws)。与经过独热编码后的目标中文分词标签y(cws)进行对比,用分类交叉熵损失函数(categoricalcrossentropylossfunction)得到中文标签的损失:类似的,对于词性标注任务,其全连接层的输入不仅包含嵌入层和特征层的输出特征,同时也包含了中文分词任务归一化层的输出特征,即xpos=[xcws;y(cws)]。同样用分类交叉熵损失函数得到词性标注的损失:对于命名实体识别任务,其最后一层的输入为嵌入层、特征层、词性标注归一化层的输出特征xner=[xcws;y(pos)]。使用线性链条件随机场层是为了得到全局的更合理的标签,使用负对数似然函数(negativelog-likelihoodfunction)计算命名实体识别任务的损失:lner(y(ner);xner)=-log(p(y(ner)|xner))综合三个任务,整个网络的损失函数为:l=αlcws+βlpos+(1-α-β)lner其中0≤α≤1,0≤β≤1,α+β≤1用于调节不同任务损失的权重,对于更关注的任务可以提高对应任务的权重。利用整体损失函数的梯度和adam算法对模型进行优化获得神经网络模型各层的权重。请注意,优化方法不限于adam算法,它还可包括但不限于随机梯度下降(stochasticgradientdescent,sgd)、自适应自梯度方法(adaptivesubgradientmethods,adagrad)、自适应学习率方法(adadelta)、自适应矩估计(adaptivemomentestimation,adam)等。以上已参照图1至图4描述了根据本发明的示例性实施例的用于命名实体识别的神经网络的训练方法和训练装置以及基于神经网络的命名实体识别方法和装置。然而,应理解的是:图1至图4中所使用的装置、系统、单元等可被分别配置为执行特定功能的软件、硬件、固件或上述项的任意组合。例如,这些系统、装置或单元等可对应于专用的集成电路,也可对应于纯粹的软件代码,还可对应于软件与硬件相结合的单元。此外,这些系统、装置或单元等所实现的一个或多个功能也可由物理实体设备(例如,处理器、客户端或服务器等)中的组件来统一执行。此外,上述方法可通过记录在计算可读存储介质上的计算机程序来实现。例如,根据本发明的示例性实施例,可提供一计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序在被一个或多个计算装置执行时使得所述一个或多个计算装置实现本申请中所公开的任一方法。例如,在所述计算机程序被一个或多个计算装置执行时使得所述一个或多个计算装置执行以下步骤:获取待识别的预测文本;将所述预测文本输入至所述一个或多个辅神经网络,得到每个辅神经网络输出的命名实体识别用的辅助信息;将所述预测文本和至少一个辅神经网络输出的辅助信息输入至主神经网络,得到所述主神经网络输出的命名实体信息。上述计算机可读存储介质中的计算机程序可在诸如客户端、主机、代理装置、服务器等计算机设备中部署的环境中运行,应注意,所述计算机程序在被运行时还可用于执行除了上述步骤以外的附加步骤或者在执行上述步骤时执行更为具体的处理,这些附加步骤和进一步处理的内容已经在参照图1到图6进行相关方法的描述过程中提及,因此这里为了避免重复将不再进行赘述。应注意,根据本发明的示例性实施例的用于命名实体识别的神经网络的训练方法和训练装置以及基于神经网络的命名实体识别方法和装置,可完全依赖计算机程序的运行来实现相应的功能,其中,装置或系统的各个单元在计算机程序的功能架构中与各步骤相应,使得整个装置或系统通过专门的软件包(例如,lib库)而被调用,以实现相应的功能。另一方面,当图1至图6所提及的各个单元或装置以软件、固件、中间件或微代码实现时,用于执行相应操作的程序代码或者代码段可以存储在诸如存储介质的计算机可读存储介质中,使得计算装置(如处理器)可通过读取并运行相应的程序代码或者代码段来执行相应的操作。例如,根据本发明的实施例的一种包括一个或多个计算装置和一个或多个存储装置的系统,其中,所述一个或多个存储装置中存储有计算机程序,在所述计算机程序被所述一个或多个计算装置执行时使得所述一个或多个计算装置实现本申请中所公开的任一方法。例如,使得所述一个或多个计算装置执行以下步骤:获取待识别的预测文本;将所述预测文本输入至所述一个或多个辅神经网络,得到每个辅神经网络输出的命名实体识别用的辅助信息;将所述预测文本和至少一个辅神经网络输出的辅助信息输入至主神经网络,得到所述主神经网络输出的命名实体信息。具体说来,上述计算装置可以部署在服务器中,也可以部署在分布式网络环境中的节点装置上。此外,所述计算装置设备还可包括视频显示器(诸如,液晶显示器)和用户交互接口(诸如,键盘、鼠标、触摸输入装置等)。计算装置设备的所有组件可经由总线和/或网络而彼此连接。这里,所述计算装置并非必须是单个装置,还可以是任何能够单独或联合执行上述指令(或指令集)的装置或电路的集合体。所述计算装置还可以是集成控制计算装置或计算装置管理器的一部分,或者可被配置为与本地或远程(例如,经由无线传输)以接口互联的便携式电子装置。用于执行根据本发明的示例性实施例的神经网络的训练方法或命名实体识别方法的计算装置可以是处理器,这样的处理器可包括中央处理器(cpu)、图形处理器(gpu)、可编程逻辑装置、专用处理器、微控制器或微处理器。作为示例而非限制,所述处理器还可包括模拟处理器、数字处理器、微处理器、多核处理器、处理器阵列、网络处理器等。处理器可运行存储在存储装置之一中的指令或代码,其中,所述存储装置还可以存储数据。指令和数据还可经由网络接口装置而通过网络被发送和接收,其中,所述网络接口装置可采用任何已知的传输协议。存储装置可与处理器集成为一体,例如,将ram或闪存布置在集成电路微处理器等之内。此外,存储装置可包括独立的装置,诸如,外部盘驱动、存储阵列或任何数据库计算装置可使用的其他存储装置。存储装置和处理器可在操作上进行耦合,或者可例如通过i/o端口、网络连接等互相通信,使得处理器能够读取存储在存储装置中的文件。应注意本发明示例性实施注重解决目前命名实体识别方法准确率低,计算资源浪费,容易出现过拟合的问题。具体说来,一方面,为了提高识别的准确率,本发明示例性实施例的实施利用了不同任务(例如,命名实体识别任务与其相关的辅助任务)之间的相关性,同时充分利用训练语料中的信息并学习了语言本身的通用特征;另一方面,为了减少计算资源浪费,本发明示例性实施例的实施考虑到了对命名实体识别任务和其辅助任务,输出准确性要求的不同,对命名实体识别任务和其辅助任务使用了不同的网络结构,避免了辅助任务浪费计算资源;又一方面,为了减少过拟合,本发明示例性实施例的实施共用了部分网络结构,使网络公共部分更倾向于记住语言本身的通用特征,降低过拟合的倾向。以上描述了本申请的各示例性实施例,应理解,上述描述仅是示例性的,并非穷尽性的,本申请不限于所披露的各示例性实施例。在不偏离本申请的范围和精神的情况下,对于本
技术领域
的普通技术人员来说许多修改和变更都是显而易见的。因此,本申请的保护范围应该以权利要求的范围为准。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1