基于知识图谱的问答方法、电子装置、设备及存储介质与流程

文档序号:18739892发布日期:2019-09-21 01:39阅读:158来源:国知局
基于知识图谱的问答方法、电子装置、设备及存储介质与流程

本发明涉及智能技术领域,尤其涉及一种基于知识图谱的问答方法、电子装置、设备及存储介质。



背景技术:

随着计算机技术的普及,当今人们的生活已经逐渐走入智能时代。不仅仅是电脑,手机,PAD,人们的衣食住行的方方面面都开始应用出现不久的智能技术,智能电视,智能导航,智能家居等等,智能技术将在人们生活的各个方面提供方便快捷的服务。问答系统(Question Answering system,QA system)是用来回答人提出的自然语言问题的系统。

基于知识图谱的问答系统(KGQA)越来越受到重视,目前尚处于研究与探索阶段。主要原因是算法研究还刚起步,模型表现仍然有待提高。阻碍算法精度提高的一个主要原因是:对于图谱中一个实体,其所连接的一跳关系往往以百计,如果算上多跳关系,数量将是几何级数爆炸式增多。这样巨大的搜索空间,对模型的训练提出了巨大挑战。问答数据集中,一个真实问句,只对应知识图谱中的一个关系(或关系串)。算法一般以此为正样本,然后以随机采样的方式选取实体对应的其他关系,来作为负样本。然而,当正负样本的比例失衡的情况下,基于知识图谱的问答系统的问答结果准确率大大地降低。



技术实现要素:

有鉴于此,本发明提出一种基于知识图谱的问答方法、电子装置、设备及存储介质,能够在基于知识图谱的问答系统中,通过在常规的基于深度网络的关系分类模型的上层加入对抗生成训练,有效地提升模型精度,使得问答更加准确。

首先,为实现上述目的,本发明提出一种基于知识图谱的问答方法,应用于电子装置中,该方法包括步骤:

确定预训练后的第一模型为生成对抗网络的生成器;

及确定预训练后的第二模型为生成对抗网络的判别器;

通过第一模型对获取到的用户输入的问题数据进行知识图谱查询,找到所述问题数据连接的N个问答关系,并将N个所述问答关系与真实答案组成一组正负样本组;

通过所述第一模型和所述第二模型根据二人零和博弈对对抗生成网络进行训练,确定最终模型关系;

根据最终模型关系对问题数据通过查询图谱匹配到最终答案数据。

进一步地,通过第一模型对获取到的用户输入的问题数据进行知识图谱查询,找到所述问题数据连接的N个问答关系,并将N个所述问答关系与真实答案组成一组正负样本组的步骤,包括:

通过第一模型将获取的用户输入的问题数据进行实体连接找到对应的主题实体,对主题实体进行知识图谱查询,找到所述问题数据连接的N个问答关系;

通过第一模型将N个所述问答关系与真实答案组成一组正负样本组。

进一步地,通过第一模型将N个所述问答关系与真实答案组成一组正负样本组的步骤,包括:

通过第一模型对N个所述问答关系进行与问题数据的相关性评分;

根据相关性评分的结果选取分数排名为预置排名数前的M个问答关系,其中,N>M;

通过第一模型将M个所述问答关系与真实答案组成一组正负样本组。

进一步地,适于通过所述第一模型和所述第二模型根据二人零和博弈对对抗生成网络进行训练,确定最终模型关系的步骤,包括:

对所述第一模型和所述第二模型的参数进行策略梯度算法的强化学习;

根据策略梯度算法的强化学习后的结果确定所述第一模型或所述第二模型中一个为最终关系分类器,并确定最终模型关系。

进一步地,根据策略梯度算法的强化学习后的结果确定所述第一模型或所述第二模型中一个为最终关系分类器,并确定最终模型关系的步骤,包括:

确定策略梯度算法的强化学习之后的所述第一模型和所述第二模型达到纳什均衡;

根据所述第一模型和所述第二模型的结果,确定最优的所述第一模型或所述第二模型为最终关系分类器,并确定最终模型关系。

进一步地,确定预训练后的第一模型为生成对抗网络的生成器,及确定预训练后的第二模型为生成对抗网络的判别器的步骤,之前还包括:

对基于神经网络的KGQA关系分类模型的所述第一模型和所述第二模型进行预置训练数据的预训练;

其中,第一模型和第二模型的网络结构不同,预置训练数据按照预置正负样本比例随机生成。

进一步地,通过第一模型对获取到的用户输入的问题数据进行知识图谱查询,找到所述问题数据连接的N个问答关系,并将N个所述问答关系与真实答案组成一组正负样本组的步骤,之前还包括:

获取用户输入的自然查询语句对应的问题数据。

从数据库提取若干个用户历史输入的自然查询语句对应的问题数据。

此外,为实现上述目的,本发明还提供一种电子装置,其包括:

第一确定模块,适于确定预训练后的第一模型为生成对抗网络的生成器;

第二确定模块,适于确定预训练后的第二模型为生成对抗网络的判别器;

查询模块,适于通过第一模型对获取到的用户输入的问题数据进行知识图谱查询,找到所述问题数据连接的N个问答关系,并将N个所述问答关系与真实答案组成一组正负样本组;

对抗生成网络模块,适于通过所述第一模型和所述第二模型根据二人零和博弈对对抗生成网络进行训练,确定最终模型关系;

匹配模块,适于根据最终模型关系对问题数据通过查询图谱匹配到最终答案数据。

进一步地,查询模块,适于通过第一模型将获取的用户输入的问题数据进行实体连接找到对应的主题实体,对主题实体进行知识图谱查询,找到所述问题数据连接的N个问答关系;通过第一模型将N个所述问答关系与真实答案组成一组正负样本组。

进一步地,对抗生成网络模块,适于对所述第一模型和所述第二模型进行Reinforcement Learning(强化学习);确定所述第一模型或所述第二模型中一个为最终关系分类器,并确定最终模型关系。

进一步地,对抗生成网络模块,适于对所述第一模型和所述第二模型进行Reinforcement Learning(强化学习)Reinforcement Learning;确定Reinforcement Learning之后的所述第一模型和所述第二模型达到纳什均衡;根据所述第一模型和所述第二模型的结果,确定最优的所述第一模型或所述第二模型为最终关系分类器,并确定最终模型关系。

进一步地,预训练模块,适于预训练两个不同的基于神经网络的KGQA关系分类模型为所述第一模型和所述第二模型;其中,第一模型和第二模型的网络结构不同,训练数据按照预置正负样本比例随机生成。

进一步地,获取模块,适于获取用户输入的自然查询语句对应的问题数据。

为实现上述目的,本发明还提供一种计算机设备,包括存储器、处理器以及存储在存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。

为实现上述目的,本发明还提供计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。

相较于现有技术,本发明所提出的基于知识图谱的问答方法、电子装置、设备及存储介质,能够在基于知识图谱的问答系统中,通过在常规的基于深度网络的关系分类模型的上层加入对抗生成训练,有效地提升模型精度,使得问答更加准确。以及由于实际应用中限于效率的要求,不可能进行多个模型的集成。这就要进行模型选择,但是有时模型的表现比较接近,这时可以通过对抗训练,来看模型两两对抗的结果,选取更加鲁棒的模型来使用,大大地降低了研发成本。

附图说明

图1是本发明实施例之电子装置一可选的应用环境图;

图2是本发明第一实施例之电子装置的硬件架构示意图;

图3是本发明第一实施例之电子装置的程序模块示意图;

图4是本发明第二实施例之电子装置的程序模块示意图;

图5是本发明第一实施例之基于知识图谱的问答方法的流程示意图;

图6是本发明第二实施例之基于知识图谱的问答方法的流程示意图。

附图标记:

本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。

具体实施方式

为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。

参阅图1所示,是本发明电子装置20一可选的应用环境示意图。

本实施例中,所述电子装置20可通过有线或无线方式与用户端10以及服务器30进行通信。所述电子装置20通过接口23获取所述用户端10的语音输入语音信息,根据获取到的语音信息获取服务器30的回应语音,并将所述回应语音通过接口于所述用户端10进行语音播放,从而实现智能对话系统的语音匹配。所述虚拟现实设备10包括眼镜、头盔以及手柄等。所述电子装置20还可以是嵌入在用户端10或服务器30。

参阅图2所示,是本发明电子装置20一可选的硬件架构示意图。电子装置20包括,但不仅限于,可通过系统总线相互通信连接存储器21、处理22以及接口23,图6仅示出了具有组件21-23的电子装置20,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。

所述存储器21至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器21可以是所述电子装置20的内部存储单元,例如该电子装置20的硬盘或内存。在另一些实施例中,所述存储器也可以是所述电子装置20的外部存储设备,例如该电子装置20上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器21还可以既包括所述电子装置20的内部存储单元也包括其外部存储设备。本实施例中,所述存储器21通常用于存储安装于所述电子装置20的操作系统和各类应用软件,例如数据可视化系统24的程序代码等。此外,所述存储器21还可以用于暂时地存储已经输出或者将要输出的各类数据。

所述处理器22在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器22通常用于控制所述电子装置20的总体操作。本实施例中,所述处理器22用于运行所述存储器21中存储的程序代码或者处理数据,例如运行所述智能对话系统24等。

所述接口23可包括无线接口或有线接口,该接口23通常用于在所述电子装置20与其他电子设备之间建立通信连接。

至此,己经详细介绍了本发明相关设备的硬件结构和功能。下面,将基于上述介绍提出本发明的各个实施例。

首先,本发明提出一种电子装置20。

第一实施例

参阅图3所示,是本发明第一实施例之电子装置的程序模块示意图。

本实施例中,所述电子装置20包括一系列的存储于存储器21上的计算机程序指令,当该计算机程序指令被处理器22执行时,可以实现本发明各实施例的基于知识图谱的问答操作。

在一些实施例中,基于该计算机程序指令各部分所实现的特定的操作,电子装置20可以被划分为一个或多个模块。例如,在图3中,所述电子装置20可以被分割成第一确定模块201、第二确定模块202、查询模块203、对抗生成网络模块204、匹配模块205。其中:

第一确定模块201,适于确定预训练后的第一模型为生成对抗网络的生成器。

具体地,第一确定模块201,对联合概率进行建模,具体的是通过对问题和关系是否相关的概率进行建模的模型,从统计的角度表示数据的分布情况,刻画数据是如何生成的,收敛速度快。

第二确定模块202,适于确定预训练后的第二模型为生成对抗网络的判别器。

具体地,第二确定模块202,对条件概率P(Y|X)进行建模,具体地是评价问题与关系的匹配程度。。

第二确定模块202在深度学习乃至机器学习领域取得了巨大成功,其本质是将样本的特征向量映射成对应的label;而生成模型由于需要大量的先验知识去对真实世界进行建模,且先验分布的选择直接影响模型的性能。

查询模块203,适于通过第一模型对获取到的用户输入的问题数据进行知识图谱查询,找到所述问题数据连接的N个问答关系,并将N个所述问答关系与真实答案组成一组正负样本组。

对抗生成网络模块204,适于通过所述第一模型和所述第二模型根据二人零和博弈对对抗生成网络进行训练,确定最终模型关系。

匹配模块205,适于根据最终模型关系对问题数据通过查询图谱匹配到最终答案数据。

通过本实施例,能够在基于知识图谱的问答系统中,通过在常规的基于深度网络的关系分类模型的上层加入对抗生成训练,有效地提升模型精度,使得问答更加准确。

第二实施例

参阅图4所示,是本发明第二实施例之电子装置的程序模块示意图。

本实施例中,所述电子装置20包括一系列的存储于存储器21上的计算机程序指令,当该计算机程序指令被处理器22执行时,可以实现本发明各实施例的基于知识图谱的问答操作。

在一些实施例中,基于该计算机程序指令各部分所实现的特定的操作,电子装置20可以被划分为一个或多个模块。例如,在图4中,所述电子装置20可以被分割成第一确定模块201、第二确定模块202、查询模块203、对抗生成网络模块204、匹配模块205、获取模块206、预训练模块207。其中:

获取模块206,适于获取用户输入的自然查询语句对应的问题数据。

预训练模块207,适于对基于神经网络的KGQA关系分类模型的所述第一模型和所述第二模型进行预置训练数据的预训练。

具体地,第一模型和第二模型的网络结构不同,训练数据按照预置正负样本比例(如1:50)随机生成,两个模型的训练数据中的负样本采样是独立进行的。

第一确定模块201,适于确定预训练后的第一模型为生成对抗网络的生成器。

具体地,第一确定模块201,对联合概率进行建模,具体的是通过对问题和关系是否相关的概率进行建模的模型,从统计的角度表示数据的分布情况,刻画数据是如何生成的,收敛速度快。

第二确定模块202,适于确定预训练后的第二模型为生成对抗网络的判别器。

具体地,第二确定模块202,对条件概率P(Y|X)进行建模,具体地是评价问题与关系的匹配程度。

第二确定模块202在深度学习乃至机器学习领域取得了巨大成功,其本质是将样本的特征向量映射成对应的label;而生成模型由于需要大量的先验知识去对真实世界进行建模,且先验分布的选择直接影响模型的性能。

查询模块203,适于通过第一模型对获取到的用户输入的问题数据进行知识图谱查询,找到所述问题数据连接的N个问答关系,并将N个所述问答关系与真实答案组成一组正负样本组。

在一实施例中,查询模块203,适于通过第一模型将获取的用户输入的问题数据进行实体连接找到对应的主题实体,对主题实体进行知识图谱查询,找到所述问题数据连接的N个问答关系;通过第一模型将N个所述问答关系与真实答案组成一组正负样本组。

在另一实施例中,查询模块203,适于通过第一模型对N个所述问答关系进行与问题数据的相关性评分;根据相关性评分的结果选取分数排名为预置排名数前的M个问答关系,其中,N>M;通过第一模型将M个所述问答关系与真实答案组成一组正负样本组。

在一实施例中,查询模块203,适于通过第一模型将获取的用户输入的问题数据进行实体连接找到对应的主题实体,对主题实体进行知识图谱查询,找到所述问题数据连接的N个问答关系;通过第一模型将N个所述问答关系与真实答案组成一组正负样本组。例如知道一个用户问句和图谱中的关系有匹配的概率,可以通过概率来进行采样,集中于高质量的负样本,可以使得训练质量提高。

需要说明的是,本实施例中,是假设实体识别和连接过程给定。

具体地,对于每一个问句,实体连接步骤先找到主题实体,然后查询图谱找到其所连接的所有关系,然后第一模型会对这些关系进行与问句的相关性打分,选取相关性分数最高的前51个(若答案没有包含在前51,则选取前50个,然后这50个与真实答案组成一组正负样本组)。第二模型作为生成对抗网络的判别器,其任务是在给到的51个可能答案中选取出正确的那一个。正负样本组中,第一模型出了一些与问句关系很近的数据,这使得得到的负样本比简单随机采样要更加难以被判别器(第二模型)区分,这使得第二模型需要变得更好,才能完成正确的判别。

对抗生成网络模块204,适于通过所述第一模型和所述第二模型根据二人零和博弈对对抗生成网络进行训练,确定最终模型关系。

具体地,对抗生成网络模块204,适于对所述第一模型和所述第二模型的参数进行策略梯度算法的强化学习;根据策略梯度算法的强化学习后的结果确定所述第一模型或所述第二模型中一个为最终关系分类器,并确定最终模型关系。

在一实施例中,对抗生成网络模块204,适于对所述第一模型和所述第二模型的参数进行策略梯度算法的强化学习;确定策略梯度算法的强化学习之后的所述第一模型和所述第二模型达到纳什均衡;根据所述第一模型和所述第二模型的结果,确定最优的所述第一模型或所述第二模型为最终关系分类器,并确定最终模型关系。

具体地,对抗生成网络的训练过程可看成是一个二人零和博弈。第一模型和所述第二模型的参数通过REINFORCE方法,最终达到纳什均衡。最终,根据两个模型改变后的表现,来决定最终选取哪个模型作为最终的关系分类器。

在一具体实施方式中,生成对抗网络的第一模型和第二模型的训练过程是一个二人零和博弈,需要通过Reinforcement Learning(强化学习)对第一模型和第二模型的参数进行优化,以达到纳什均衡,具体地,第一模型和第二模型的参数通过采用马尔科夫决策进行策略梯度算法的梯度下降方式的强化学习,使得第一模型作为生成器更好的M个问答关系效果(即更接近真实答案与问题的关系),同时,第二模型作为判别器精确地判别。策略梯度算法的强化学习为本领域技术人员公知的,此处不再具体赘述。

在一具体实施方式中,基于策略梯度算法的梯度下降方式的强化学习,使得第一模型和第二模型在对抗生成网络训练达到稳定的平衡状态,即第一模型作为生成器生成的数据与真实样本无差别,第二模型作为判别器也无法正确的区分生成数据和真实数据。

匹配模块205,适于根据最终模型关系对问题数据通过查询图谱匹配到最终答案数据。

在一实施例中,匹配模块205根据最终模型确定关系,结合前面确定的实体,通过查询图谱找到答案,并返回答案给用户端。

通过本实施例,能够在基于知识图谱的问答系统中,通过在常规的基于深度网络的关系分类模型的上层加入对抗生成训练,有效地提升模型精度,使得问答更加准确。以及由于实际应用中限于效率的要求,不可能进行多个模型的集成。这就要进行模型选择,但是有时模型的表现比较接近,这时可以通过对抗训练,来看模型两两对抗的结果,选取更加鲁棒的模型来使用,大大地降低了研发成本。

此外,本发明还提出一种基于知识图谱的问答方法。

参阅图5所示,是本发明基于知识图谱的问答方法之第一实施例的流程示意图。所述基于知识图谱的问答方法应用于电子装置20中。在本实施例中,根据不同的需求,图5所示的流程图中的步骤的执行顺序可以改变,某些步骤可以省略。

步骤S500,确定预训练后的第一模型为生成对抗网络的生成器;

具体地,生成器是指对通过对问题和关系是否相关的概率进行建模的模型,但是一般生成器例如可以是深度神经网络,本实施例不限制模型具体内容。

步骤S501,确定预训练后的第二模型为生成对抗网络的判别器;

具体地,判别器是对条件概率P(Y|X)进行建模,判别器用于评价问题与关系的匹配程度,本实施例的判别器和生成器可以是结构完全相同的模型(不同的参数),扮演的角色不同。

步骤S502,通过第一模型对获取到的用户输入的问题数据进行知识图谱查询,找到所述问题数据连接的N个问答关系,并将N个所述问答关系与真实答案组成一组正负样本组;

在其中一个实施例中,通过第一模型将获取的用户输入的问题数据进行实体连接找到对应的主题实体,对主题实体进行知识图谱查询,找到所述问题数据连接的N个问答关系;通过第一模型将N个所述问答关系与真实答案组成一组正负样本组,通过生成器,知道一个用户问句和图谱中的关系有匹配的概率,可以通过概率来进行采样,集中于高质量的负样本,可以使得训练质量提高。

步骤S503,通过所述第一模型和所述第二模型根据二人零和博弈对对抗生成网络进行训练,确定最终模型关系;

步骤S504,根据最终模型关系对问题数据通过查询图谱匹配到最终答案数据。

通过本实施例,能够在基于知识图谱的问答系统中,通过在常规的基于深度网络的关系分类模型的上层加入对抗生成训练,有效地提升模型精度,使得问答更加准确。以及由于实际应用中限于效率的要求,不可能进行多个模型的集成。这就要进行模型选择,但是有时模型的表现比较接近,这时可以通过对抗训练,来看模型两两对抗的结果,选取更加鲁棒的模型来使用,大大地降低了研发成本。

参阅图6所示,是本发明基于知识图谱的问答方法之第二实施例的流程示意图。所述基于知识图谱的问答方法应用于电子装置20中。在本实施例中,根据不同的需求,图6所示的流程图中的步骤的执行顺序可以改变,某些步骤可以省略。

步骤S600,从数据库提取若干个用户历史输入的自然查询语句对应的问题数据。

步骤S601,对基于神经网络的KGQA关系分类模型的所述第一模型和所述第二模型进行预置训练数据的预训练。

在一个实施例中,预训练两个不同的基于神经网络的KGQA关系分类模型为所述第一模型和所述第二模型中的第一模型和第二模型的网络结构不同,训练数据按照预置正负样本比例(如1:50)随机生成,两个模型的预置训练数据中的负样本采样是独立进行的。

步骤S602,确定预训练后的第一模型为生成对抗网络的生成器;

具体地,生成器是指通过对问题和关系是否相关的概率进行建模的模型,但是一般生成器例如可以是深度神经网络,本实施例不限制模型具体内容。

步骤S603,确定预训练后的第二模型为生成对抗网络的判别器;

具体地,判别器是对条件概率P(Y|X)进行建模,判别器用于评价问题与关系的匹配程度,本实施例的判别器和生成器可以是结构完全相同的模型(不同的参数),扮演的角色不同。

步骤S604,通过第一模型将获取的用户输入的问题数据进行实体连接找到对应的主题实体,对主题实体进行知识图谱查询,找到所述问题数据连接的N个问答关系;

在其中一个实施例中,在一实施例中,通过第一模型将获取的用户输入的问题数据进行实体连接找到对应的主题实体,对主题实体进行知识图谱查询,找到所述问题数据连接的N个问答关系;通过第一模型将N个所述问答关系与真实答案组成一组正负样本组。通过生成器,知道一个用户问句和图谱中的关系有匹配的概率,可以通过概率来进行采样,集中于高质量的负样本,可以使得训练质量提高。

需要说明的是,本实施例中,是假设实体识别和连接过程给定。

步骤S605,通过第一模型对N个所述问答关系进行与问题数据的相关性评分;

具体地,对于每一个问句,实体连接步骤先找到主题实体,然后查询图谱找到其所连接的所有关系,然后第一模型会对这些关系进行与问句的相关性打分。

步骤S606,根据相关性评分的结果选取分数排名为预置排名数前的M个问答关系,其中,N>M。

具体地,选取相关性分数最高的前51个(若答案没有包含在前51,则选取前50个,然后这50个与真实答案组成一组正负样本组)。第二模型作为生成对抗网络的判别器,其任务是在给到的51个可能答案中选取出正确的那一个。正负样本组中,第一模型出了一些与问句关系很近的数据,这使得得到的负样本比简单随机采样要更加难以被判别器(第二模型)区分,这使得第二模型需要变得更好,才能完成正确的判别。

步骤S607,通过第一模型将M个所述问答关系与真实答案组成一组正负样本组。

步骤S608,对所述第一模型和所述第二模型的参数进行策略梯度算法的强化学习;

具体地,对所述第一模型和所述第二模型进行强化学习的目标是使得回报最大化。强化学习和非监督学习的关键部分就是回报的选择。强化学习是学习状态和行为之间的映射关系,以使得数值回报达到最大化。换句话说,在未知采取何种行为的情况下,学习者必须通过不断尝试才能发现采取哪种行为能够产生最大回报,即最后发现所述第一模型和所述第二模型能够产生最大回报。

在一具体实施方式中,生成对抗网络的第一模型和第二模型的训练过程是一个二人零和博弈,需要通过Reinforcement Learning(强化学习)对第一模型和第二模型的参数进行优化,以达到纳什均衡,具体地,第一模型和第二模型的参数通过采用马尔科夫决策进行策略梯度算法的梯度下降方式的强化学习,使得第一模型作为生成器更好的M个问答关系效果(即更接近真实答案与问题的关系),同时,第二模型作为判别器精确地判别。策略梯度算法的强化学习为本领域技术人员公知的,此处不再具体赘述。

步骤S609,确定策略梯度算法的强化学习之后的所述第一模型和所述第二模型达到纳什均衡。

在一具体实施方式中,基于步骤S608的策略梯度算法的梯度下降方式的强化学习,使得第一模型和第二模型在对抗生成网络训练达到稳定的平衡状态,即第一模型作为生成器生成的数据与真实样本无差别,第二模型作为判别器也无法正确的区分生成数据和真实数据。

步骤S610,根据所述第一模型和所述第二模型的结果,确定最优的所述第一模型或所述第二模型为最终关系分类器,并确定最终模型关系。

具体地,根据纳什均衡状态下的两个模型,决定最终选取哪个模型作为最终的关系分类器。

步骤S611,根据最终模型关系对问题数据通过查询图谱匹配到最终答案数据。

具体地,根据最终模型确定关系,结合前面确定的实体,通过查询图谱找到答案,并返回答案给用户端。

通过本实施例,能够在基于知识图谱的问答系统中,通过在常规的基于深度网络的关系分类模型的上层加入对抗生成训练,有效地提升模型精度,使得问答更加准确。以及由于实际应用中限于效率的要求,不可能进行多个模型的集成。这就要进行模型选择,但是有时模型的表现比较接近,这时可以通过对抗训练,来看模型两两对抗的结果,选取更加鲁棒的模型来使用,大大地降低了研发成本。

本发明还提供一种计算机设备,如可以执行程序的智能手机、平板电脑、笔记本电脑、台式计算机、机架式服务器、刀片式服务器、塔式服务器或机柜式服务器(包括独立的服务器,或者多个服务器所组成的服务器集群)等。本实施例的计算机设备至少包括但不限于:可通过系统总线相互通信连接的存储器、处理器等。

本实施例还提供一种计算机可读存储介质,如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘、服务器、App应用商城等等,其上存储有计算机程序,程序被处理器执行时实现相应功能。本实施例的计算机可读存储介质用于存储电子装置20,被处理器执行时实现本发明的基于知识图谱的问答方法。

上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。

通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。

以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1