文本答案的查找方法及装置与流程

文档序号:19738207发布日期:2020-01-18 04:48阅读:364来源:国知局
文本答案的查找方法及装置与流程

本发明涉及计算机领域,具体而言,涉及一种文本答案的查找方法及装置。



背景技术:

相关技术中,人机对话是自然语言处理技术(naturallanguageprocessing,简称nlp)与实现真正人工智能中是一个富有挑战性的任务,现有的问答系统(questionandanswering,简称qa)旨在帮助人类完成特定的任务,比如完成人发出的指令、引导人完成某一项任务,与此同时,通过建立不同的问答系统中的问答模型来完成不同聊天背景下模仿人类自然聊天的过程。

现有的问答模型主要通过循环神经网络或者较为复杂的深度学习语言模型来实现,然而,这两类模型的缺点在于算法训练耗时较长,无法构建轻量化的问答模型。对于循环神经网络,该算法的精度有限,且模型特性导致无法并行计算,从而需要较长的训练耗时。而对于深度学习语言模型,尽管已经能够取得较高的精度,模型特性也允许并行计算,但是由于语言模型需要应对多种自然语言处理任务,导致模型结构复杂且参数量较为庞大,因此同样需要较长的训练耗时。

针对现有技术中存在的上述问题,目前尚未发现有效的解决方案。



技术实现要素:

本发明实施例提供了一种文本答案的查找方法及装置,以至少解决现有技术中查找文本答案准确性低等技术问题。

根据本发明的一个实施例,提供了一种文本答案的查找方法,包括:获取文本问题的第一词向量和文本内容的第二词向量,以及获取所述第二词向量在所述文本内容中的位置向量;提取所述第一词向量的第一文本特征;根据所述第一文本特征、所述第二词向量和所述位置向量在所述文本内容中查找所述文本问题的答案信息。

可选的,提取所述第一词向量的第一文本特征,包括:通过构建第一卷积层提取所述第一词向量的第二文本特征,其中,所述第一卷积层用于对所述第一词向量的横向维度进行降维;通过构建第一全连接层获取所述第二文本特征的第一权重值,并按照所述第一权重值对所述第二文本特征的矩阵元素进行加和,得到所述第一文本特征,其中,所述第一全连接层用于对所述第二文本特征的纵向维度进行降维。

可选的,所述文本内容包括多个所述第二词向量,根据所述第一文本特征、所述第二词向量和所述位置向量在所述文本内容中查找所述文本问题的答案信息,包括:获取第三词向量的第三文本特征,其中,所述第三词向量为多个所述第二词向量中任意词向量;根据所述第三文本特征在所述文本内容中查找所述文本问题的答案信息。

可选的,获取第三词向量的第三文本特征,包括:将所述第一文本特征与所述第三词向量进行合并,得到第四文本特征;将第一位置向量与所述第四文本特征进行合并,得到所述第三文本特征,其中,所述第一位置向量为所述第三词向量在所述文本内容中的位置向量。

可选的,根据所述第三文本特征在所述文本内容中查找所述文本问题的答案信息,包括:构建第二卷积层,其中,所述第二卷积层包括四层并行的子卷积层;向所述第二卷积层的四层子卷积层均输入所述第三文本特征,分别得到第一子文本特征,第二子文本特征,第三子文本特征以及第四子文本特征。

可选的,在得到第一子文本特征,第二子文本特征,第三子文本特征以及第四子文本特征之后,所述方法还包括:将所述第一子文本特征乘以所述第二子文本特征的向量矩阵转置,得到第五文本特征,并使用softmax()对所述第五文本特征进行归一化,得到所述第五文本特征的第二权重值;将所述第二权重值与所述第三子文本特征相乘,得到第六文本特征;将所述第六文本特征与所述第四子文本特征相加,得到第七文本特征;将所述第七文本特征输入第二全连层,得到所述文本问题的答案信息,其中,所述文本问题的答案信息包括:所述文本问题在所述文本内容是否存在答案,以及答案在所述文本内容中的位置。

可选的,获取文本问题的第一词向量和文本内容的第二词向量,以及获取所述第二词向量在所述文本内容中的位置向量,包括:通过word2vec算法构建两个并行模型结构,其中,所述并行模型结构包括第一并行结构和第二并行结构;在所述第一并行结构的词嵌入层中将所述文本问题转化为所述第一词向量,以及在所述第二并行结构的词嵌入层中将所述文本内容转化为所述第二词向量,并得到所述第二词向量的位置向量。

根据本发明的一个实施例,提供了一种文本答案的查找装置,包括:获取模块,用于获取文本问题的第一词向量和文本内容的第二词向量,以及获取所述第二词向量在所述文本内容中的位置向量;提取模块,用于提取所述第一词向量的第一文本特征;查找模块,用于根据所述第一文本特征、所述第二词向量和所述位置向量在所述文本内容中查找所述文本问题的答案信息。

可选的,所述提取模块包括:提取单元,用于通过构建第一卷积层提取所述第一词向量的第二文本特征,其中,所述第一卷积层用于对所述第一词向量的横向维度进行降维;第一处理单元,用于通过构建第一全连接层获取所述第二文本特征的第一权重值,并按照所述第一权重值对所述第二文本特征的矩阵元素进行加和,得到所述第一文本特征,其中,所述第一全连接层用于对所述第二文本特征的纵向维度进行降维。

可选的,所述文本内容包括多个所述第二词向量,所述查找模块包括:获取单元,用于获取第三词向量的第三文本特征,其中,所述第三词向量为多个所述第二词向量中任意词向量;查找单元,用于根据所述第三文本特征在所述文本内容中查找所述文本问题的答案信息。

可选的,所述获取单元包括:第一合并子单元,用于将所述第一文本特征与所述第三词向量进行合并,得到第四文本特征;第二合并子单元,用于将第一位置向量与所述第四文本特征进行合并,得到所述第三文本特征,其中,所述第一位置向量为所述第三词向量在所述文本内容中的位置向量。

可选的,所述查找单元包括:构建子单元,用于构建第二卷积层,其中,所述第二卷积层包括四层并行的子卷积层;第一处理子单元向所述第二卷积层的四层子卷积层均输入所述第三文本特征,分别得到第一子文本特征,第二子文本特征,第三子文本特征以及第四子文本特征。

可选的,所述查找单元还包括:第一计算子单元,用于在所述第一处理子单元得到第一子文本特征,第二子文本特征,第三子文本特征以及第四子文本特征之后,将所述第一子文本特征乘以所述第二子文本特征的向量矩阵转置,得到第五文本特征,并使用softmax()对所述第五文本特征进行归一化,得到所述第五文本特征的第二权重值;第二计算子单元,将所述第二权重值与所述第三子文本特征相乘,得到第六文本特征;第三计算子单元,将所述第六文本特征与所述第四子文本特征相加,得到第七文本特征;第二处理子单元,用于将所述第七文本特征输入第二全连层,得到所述文本问题的答案信息,其中,所述文本问题的答案信息包括:所述文本问题在所述文本内容是否存在答案,以及答案在所述文本内容中的位置。

可选的,所述获取模块包括:构建单元,用于通过word2vec算法构建两个并行模型结构,其中,所述并行模型结构包括第一并行结构和第二并行结构;第二处理单元,用于在所述第一并行结构的词嵌入层中将所述文本问题转化为所述第一词向量,以及在所述第二并行结构的词嵌入层中将所述文本内容转化为所述第二词向量,并得到所述第二词向量的位置向量。

根据本发明的又一个实施例,还提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述任一项装置实施例中的步骤。

根据本发明的又一个实施例,还提供了一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述任一项方法实施例中的步骤。

通过本发明,根据文本问题的第一文本特征,和文本内容的第二词向量,以及所述第二词向量在所述文本内容中的位置向量进行训练,从所述文本内容中查找所述文本问题的答案信息,解决了现有技术中查找文本答案准确性低等技术问题。

附图说明

此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:

图1是本发明实施例的一种文本答案的查找方法应用于计算机终端的硬件结构框图;

图2是根据本发明实施例的一种文本答案的查找方法的流程图;

图3是根据本发明一具体实施例提供的答案信息查找的算法流程图;

图4是根据本发明实施例的文本答案的查找装置的结构框图。

具体实施方式

下文中将参考附图并结合实施例来详细说明本发明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。

需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。

实施例1

本申请实施例一所提供的方法实施例可以在移动终端、服务器、计算机终端或者类似的运算装置中执行。以运行在计算机终端上为例,图1是本发明实施例的一种文本答案的查找方法应用于计算机终端的硬件结构框图。如图1所示,计算机终端可以包括一个或多个(图1中仅示出一个)处理器102(处理器102可以包括但不限于微处理器mcu或可编程逻辑器件fpga等的处理装置)和用于存储数据的存储器104,可选地,上述计算机终端还可以包括用于通信功能的传输设备106以及输入输出设备108。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述计算机终端的结构造成限定。例如,计算机终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。

存储器104可用于存储计算机程序,例如,应用软件的软件程序以及模块,如本发明实施例中的文本答案的查找方法对应的计算机程序,处理器102通过运行存储在存储器104内的计算机程序,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。

传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(networkinterfacecontroller,简称为nic),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(radiofrequency,简称为rf)模块,其用于通过无线方式与互联网进行通讯。

在本实施例中提供了一种文本答案的查找方法,图2是根据本发明实施例的一种文本答案的查找方法的流程图,如图2所示,该流程包括如下步骤:

步骤s202,获取文本问题的第一词向量和文本内容的第二词向量,以及获取第二词向量在文本内容中的位置向量;

本实施例中,通过word2vec算法模型同时处理短文和问题的输入,将文本问题和文本内容转化为词向量,并获取文本内容词向量在文本内容中的位置向量。

步骤s204,提取第一词向量的第一文本特征;

本实施例中,通过构建两层卷积层来提取文本问题词向量的文本特征。由于卷积层输出的文本特征需要经过压缩处理才能和文本内容的词向量结合,因此,本实施例中采用了加性注意力机制对文本问题的文本特征进行权重调整并进行压缩,从而得到压缩后的文本特征。

步骤s206,根据第一文本特征、第二词向量和位置向量在文本内容中查找文本问题的答案信息。

通过上述步骤,构建卷积层提取文本问题的文本特征,再采用注意力机制获取压缩后的文本特征,然后根据文本问题的第一文本特征,和文本内容的第二词向量,以及第二词向量在文本内容中的位置向量进行训练,从文本内容中查找文本问题的答案信息,具有训练耗时较短且参数量相对较小的轻量化特点,因此能够在较短训练时间内以相对较小的参数量训练得到文本答案,解决了现有技术中查找文本答案的问答模型的训练效率低、精度不高等技术问题。

在一个可选的实施例中,提取第一词向量的第一文本特征,包括:通过构建第一卷积层提取第一词向量的第二文本特征,其中,第一卷积层用于对第一词向量的横向维度进行降维;通过构建第一全连接层获取第二文本特征的第一权重值,并按照第一权重值对第二文本特征的矩阵元素进行加和,得到第一文本特征,其中,第一全连接层用于对第二文本特征的纵向维度进行降维。

可选地,通过构建两层卷积层提取第一词向量的文本特征,在卷积层输出文本问题的文本特征之后,采用了加性注意力机制对第一文本特征进行降维处理后,才能与文本内容的词向量结合。

根据上述实施例,通过在卷积层上额外构建前馈层,由前馈神经网络的结构可知,输入层中任一神经元的输出为输入模式分量的加权和,因此基于前馈层对卷积层输出的问题文本特征(即上述第二文本特征)进行权重调整并进行压缩,从而得到压缩文本特征(即第一文本特征),并非传统的池化层进行压缩。

在本实施例中,所构建的两层卷积层的结构均相同,均是一维卷积核,比如,卷积核长度为3。卷积层的输出与输入均为矩阵形式,但经过了卷积运算。例如,文本词向量是一个n*300维的词向量,卷积运算依序进行,在本实施例中的参数设置中,保持词向量矩阵输入卷积层,并输出卷积层后,纵向维度保持不变(即对应词的数量),而横向维度输出为256(原本词向量维度为300)。即原本是一个n*300的词向量矩阵输入第一层卷积层运算,而第一层卷积层以及第二层卷积层的输出结果为n*256的维度。

可选地,在两层卷积层中的第二层卷积层的输出(即输出第二文本特征)之后,对第二文本特征将经过加性注意力机制的处理(采用注意力机制),加性注意力的作用是将原本n*256维度的矩阵压缩至1*256维。可选的,首先构建一层前馈全连接层(即上述第一全连层),全连接层的算法公式为wx+b,其中x为输入,w与b为学习的参数;通过softmax函数进行归一化输出,得到注意力权重(即上述第一权重值)。有了注意力权重后,按照权重进行加和,得到1*256维的压缩后数据,这一组压缩后的向量,便是第一文本特征,实现了降低数据冗余的目的。

在一个可选的实施例中,文本内容包括多个第二词向量,根据第一文本特征、第二词向量和位置向量在文本内容中查找文本问题的答案信息,包括:获取第三词向量的第三文本特征,其中,第三词向量为多个第二词向量中任意词向量;根据第三文本特征在文本内容中查找文本问题的答案信息。在实施例中,根据将文本问题的文本特征和文本内容中任意词向量的文本特征结合,在文本内容中查找答案信息。

可选地,获取第三词向量的第三文本特征包括:将第一文本特征与第三词向量进行合并,得到第四文本特征;将第一位置向量与第四文本特征进行合并,得到第三文本特征,其中,第一位置向量为第三词向量在文本内容中的位置向量。

根据上述实施例,得到一组1*256维的词向量(即上述第一文本特征),将该组词向量拼接在文本内容中任意词向量,即原本n*256维的第三词向量矩阵将1*256维词向量扩展为n*256维的矩阵(即上述第四文本特征);在n*556维的矩阵的基础上,在每一组向量之后再拼接位置向量,得到上述第三文本特征,用以表示每个词语的位置信息。位置向量计算方式如公式(1)、(2)所示:

其中,i是指第i维的位置向量(位置向量的维度是大于1的),而pe则是指一个词语的位置向量,dmodel为固定值,pos为坐标位置。假设位置向量为100,则对于第二文本特征,在词向量基础上拼接另外两类向量,得到n*656维矩阵(即上述第三文本特征)。

在一个可选的实施例中,根据第三文本特征在文本内容中查找文本问题的答案信息,包括:构建第二卷积层,其中,第二卷积层包括四层并行的子卷积层;向第二卷积层的四层子卷积层均输入第三文本特征,分别得到第一子文本特征,第二子文本特征,第三子文本特征以及第四子文本特征。在本实施例中,通过构建四层并列的卷积层,输入第三文本特征之后,分别得到四个子文本特征,即第一子文本特征,第二子文本特征,第三子文本特征以及第四子文本特征。

根据上述实施例,图3是根据本发明一具体实施例提供的答案信息查找的算法流程图,如图3所示,在得到第一子文本特征,第二子文本特征,第三子文本特征以及第四子文本特征之后,还包括:

步骤s302,将第一子文本特征乘以第二子文本特征的向量矩阵转置,得到第五文本特征,并使用softmax()对第五文本特征进行归一化,得到第五文本特征的第二权重值;

步骤s304,将第二权重值与第三子文本特征相乘,得到第六文本特征;

步骤s306,将第六文本特征与第四子文本特征相加,得到第七文本特征;

步骤s308,将第七文本特征输入第二全连层,得到文本问题的答案信息,其中,文本问题的答案信息包括:文本问题在文本内容是否存在答案,以及答案在文本内容中的位置。

在一个可选的实施例的示例中,假设卷积层输入矩阵为m*n,4个卷积层分别进行并行计算得到m*n的矩阵。由于每一层卷积层则包含了自注意力机制。第一卷积输出(m*n)与第二卷积输出的转置(n*m)相乘得到n*n的矩阵(即上述第五文本特征)。通过softmax函数归一化获得n*n的注意力权重(即上述第二权重值)。将注意力权重(n*n)与第三卷积输出(m*n)相乘,得到m*n(即上述第六文本特征)。将这一输出m*n与第四卷积输出(m*n)相加,得到m*n(即上述第七文本特征)的最终输出结果,即这一卷积层的输出;这里构建了多层卷积层,但每一层卷积层结构相同。最后一层卷积层的输出将输入全连接层(即上述第二全连层)。全连接层的输出包括两项,一项为答案是否存在的判断结果,另一项是答案位置标注。第一部分输出为二分类结果以判断原文中是否存在答案,若没有,则流程结束;若有,则第二部分输出为文中每个词,作为答案开始的概率以及答案结束的概率,并将概率最高的答案开始位置与概率最高的答案结束位置作为答案位置。

例如,假设有答案,且短文中所包含的词向量有abcd,根据每一个词向量的文本特征(即上述第三文本特征),确定每一个词向量对应的作为答案开始的概率和作为答案结束的概率,如下:

若a作为答案开始的概率为90%,a作为答案结束的概率为20%;

若b作为答案开始的概率为80%,b作为答案结束的概率为40%;

若c作为答案开始的概率为60%,c作为答案结束的概率为50%;

若d作为答案开始的概率为40%,d作为答案结束的概率为30%;

可见,a作为答案开始的概率最高,c作为答案结束的概率最高,因此答案的位置为词向量abc所对应的位置。

可选地,获取文本问题的第一词向量和文本内容的第二词向量,以及获取第二词向量在文本内容中的位置向量,包括:通过word2vec算法构建两个并行模型结构,其中,并行模型结构包括第一并行结构和第二并行结构;在第一并行结构的词嵌入层中将文本问题转化为第一词向量,以及在第二并行结构的词嵌入层中将文本内容转化为第二词向量,并得到第二词向量的位置向量。

在本实施例中,模型输入包括两部分,短文(即文本内容)和问题(即文本问题),因此模型构建了两个并行结构,通过word2vec算法模型同时处理短文和问题的输入。进一步地,在第一部分中的并行结构中(即上述第一并行结构),模型对问题进行处理,于第一词嵌入层将问题转换为词向量(即第一词向量),模型在另一部分中的并行结构中(即上述第二并行结构),通过第二词嵌入层将短文转换为词向量(即第二词向量),同时得到第二词向量在文本内容中的位置信息。

在模型结构建立完毕后,即可进行训练。模型的损失函数为交叉熵(两部分输出的交叉熵损失函数共同构成),训练优化算法为adam(adam是一种可以替代传统随机梯度下降sgd(stochasticgradientdescent)过程的一阶优化算法)。模型的建立与训练均通过python的tensorflow库实现。

在本实施例中,损失函数中会加入惩罚因子,若果出现答案过长或者答案位置颠倒等问题,那么会造成损失函数值提升,模型在训练过程中将会进行优化。而对于输出方面,也不会完全按照最高概率值输出,而是强制开始与截止不能颠倒且长度大于1的前提下,输出综合概率最高的答案。

在本实施例的整个模型中,例如其中的卷积层,建立完毕后,其中的参数均是随机初始化的,因此模型建立后只是建立了结构,而模型中的参数是需要进行训练才能达到一定精度水平。损失函数就是度量模型精度的函数,而训练目标就是通过将损失函数最小化,来达到参数优化的目的。优化算法adam便是通过最小化损失函数,来计算每个参数的值。

本实施例中通过卷积神经网络和注意力机制实现问答模型,所改进的注意力机制能够有效提升问答模型的精度表现以及训练收敛效率,该模型具有训练耗时较短且参数量相对较小的轻量化特点,因此能够在较短训练时间内以相对较小的参数量训练得到问答模型。

实施例2

在本实施例中还提供了一种文本答案的查找装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。

图4是根据本发明实施例的文本答案的查找装置的结构框图,如图4所示,该装置包括:获取模块402,用于获取文本问题的第一词向量和文本内容的第二词向量,以及获取第二词向量在文本内容中的位置向量;提取模块404,连接至上述获取模块402,用于提取第一词向量的第一文本特征;查找模块406,连接至上述提取模块404,用于根据第一文本特征、第二词向量和位置向量在文本内容中查找文本问题的答案信息。

可选的,提取模块404包括:提取单元,用于通过构建第一卷积层提取第一词向量的第二文本特征,其中,第一卷积层用于对第一词向量的横向维度进行降维;第一处理单元,用于通过构建第一全连接层获取第二文本特征的第一权重值,并按照第一权重值对第二文本特征的矩阵元素进行加和,得到第一文本特征,其中,第一全连接层用于对第二文本特征的纵向维度进行降维。

可选的,文本内容包括多个第二词向量,查找模块406包括:获取单元,用于获取第三词向量的第三文本特征,其中,第三词向量为多个第二词向量中任意词向量;查找单元,用于根据第三文本特征在文本内容中查找文本问题的答案信息。

可选的,获取单元包括:第一合并子单元,用于将第一文本特征与第三词向量进行合并,得到第四文本特征;第二合并子单元,用于将第一位置向量与第四文本特征进行合并,得到第三文本特征,其中,第一位置向量为第三词向量在文本内容中的位置向量。

可选的,查找单元包括:构建子单元,用于构建第二卷积层,其中,第二卷积层包括四层并行的子卷积层;第一处理子单元向第二卷积层的四层子卷积层均输入第三文本特征,分别得到第一子文本特征,第二子文本特征,第三子文本特征以及第四子文本特征。

可选的,查找单元还包括:第一计算子单元,用于在第一处理子单元得到第一子文本特征,第二子文本特征,第三子文本特征以及第四子文本特征之后,将第一子文本特征乘以第二子文本特征的向量矩阵转置,得到第五文本特征,并使用softmax()对第五文本特征进行归一化,得到第五文本特征的第二权重值;第二计算子单元,将第二权重值与第三子文本特征相乘,得到第六文本特征;第三计算子单元,将第六文本特征与第四子文本特征相加,得到第七文本特征;第二处理子单元,用于将第七文本特征输入第二全连层,得到文本问题的答案信息,其中,文本问题的答案信息包括:文本问题在文本内容是否存在答案,以及答案在文本内容中的位置。

可选的,获取模块402包括:构建单元,用于通过word2vec算法构建两个并行模型结构,其中,并行模型结构包括第一并行结构和第二并行结构;第二处理单元,用于在第一并行结构的词嵌入层中将文本问题转化为第一词向量,以及在第二并行结构的词嵌入层中将文本内容转化为第二词向量,并得到第二词向量的位置向量。

需要说明的是,上述各个模块是可以通过软件或硬件来实现的,对于后者,可以通过以下方式实现,但不限于此:上述模块均位于同一处理器中;或者,上述各个模块以任意组合的形式分别位于不同的处理器中。

实施例3

本发明的实施例还提供了一种存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。

可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:

s1,获取文本问题的第一词向量和文本内容的第二词向量,以及获取所述第二词向量在所述文本内容中的位置向量;

s2,提取所述第一词向量的第一文本特征;

s3,根据所述第一文本特征、所述第二词向量和所述位置向量在所述文本内容中查找所述文本问题的答案信息。

可选地,在本实施例中,上述存储介质可以包括但不限于:u盘、只读存储器(read-onlymemory,简称为rom)、随机存取存储器(randomaccessmemory,简称为ram)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。

本发明的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。

可选地,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。

可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:

s1,获取文本问题的第一词向量和文本内容的第二词向量,以及获取所述第二词向量在所述文本内容中的位置向量;

s2,提取所述第一词向量的第一文本特征;

s3,根据所述第一文本特征、所述第二词向量和所述位置向量在所述文本内容中查找所述文本问题的答案信息。

可选地,本实施例中的具体示例可以参考上述实施例及可选实施方式中所描述的示例,本实施例在此不再赘述。

显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。

以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1