基于知识图谱的智能对话推荐方法及装置

文档序号:25897332发布日期:2021-07-16 20:23阅读:158来源:国知局
基于知识图谱的智能对话推荐方法及装置

1.本发明涉及自然语言处理技术领域,尤其涉及一种基于知识图谱的智能对话推荐方法及装置。


背景技术:

2.在当今信息爆炸时代,基于互联网的大型电商平台彻底改变了人们的生活方式。面对平台上海量的商品信息,用户常常陷入选择和比较的困境中,如何快速的了解用户喜好,精准地推荐用户心仪的产品成为一个难题。
3.传统推荐系统需要大量的用户历史数据,在历史数据缺失的冷启动(cold start)场景下,现有推荐系统无法完成精准推荐的需求。结合近年来对话系统的快速发展,对话推荐系统(conversational recommendation system,简称crs)应运而生。在对话推荐的场景下,系统需要通过对话引导用户表达自身需求,快速建立用户画像,并结合已有商品数据完成针对用户的精准推荐。其中,大规模的知识图谱常用来存储海量的商品信息,并用来刻画商品之间的各种关系。
4.现有对话推荐系统往往对传统推荐系统和对话系统进行简单的耦合:在知识图谱上寻找推荐对象,再将推荐对象引入生成的自然语言中。然而,此类方法未能有效建模该场景下系统端的多种对话意图,包括不同对话意图下的知识推理以及对话策略生成,从而导致推荐性能和语言生成性能不理想。因此,现在亟需一种基于知识图谱的智能对话推荐方法及装置来解决上述问题。


技术实现要素:

5.针对现有技术存在的问题,本发明提供一种基于知识图谱的智能对话推荐方法及装置。
6.本发明提供一种基于知识图谱的智能对话推荐方法,包括:
7.获取用户端的语音信息;
8.将所述语音信息输入到训练好的语言模型中,得到所述语音信息对应的自然语言回复,所述训练好的语言模型是由样本对话历史内容和样本意图推理树,对语言模型进行训练得到的;
9.其中,所述样本意图推理树是根据预设对话意图、样本对话历史表示和样本用户画像,基于知识图谱进行推理得到的;所述样本对话历史表示是通过对所述样本对话历史内容进行编码得到的;所述样本用户画像是通过对所述样本对话历史内容中提及到的知识图谱的节点进行编码,基于自注意力机制得到的。
10.根据本发明提供的一种基于知识图谱的智能对话推荐方法,所述训练好的语言模型通过以下步骤得到:
11.根据样本问法和所述样本问法对应的样本回复,构建每轮次对话的样本历史对话内容,所述样本问法为用户端样本对话内容,所述样本回复为系统端样本对话内容;
12.基于预训练的bert模型,对所述样本历史对话内容进行编码,得到样本对话历史表示;
13.基于预训练的r

gcn模型,对知识图谱中每个节点进行编码,并根据所述样本对话历史内容中提及到的知识图谱的节点,将编码后的节点构建得到的目标节点矩阵,通过自注意力机制生成对应的样本用户画像;
14.通过所述样本对话历史表示和所述样本用户画像,基于知识图谱,生成预设对话意图对应的样本意图推理树;
15.根据所述样本意图推理树和所述样本历史对话内容,构建训练样本集,并将所述训练样本集输入到预训练的gpt

2模型进行微调,以根据训练好的gpt

2模型,得到训练好的语言模型,所述训练好的语言模型包括所述预训练的bert模型、所述预训练的r

gcn模型和所述训练好的gpt

2模型。
16.根据本发明提供的一种基于知识图谱的智能对话推荐方法,所述基于预训练的bert模型,对所述样本历史对话内容进行编码,得到样本对话历史表示,包括:
17.基于预训练的bert模型,对每轮次对话的样本历史对话内容进行编码,得到每轮次对话的对话表示:
18.bert([y
t
‑1;x
t
]);
[0019]
其中,x
t
表示第t轮次对话中的用户端样本对话内容,y
t
‑1表示第t

1轮次对话中的系统端样本对话内容;所述预训练的bert模型的输出层连接一个lstm层;
[0020]
通过所述lstm层,根据对话的时序关系,对所有轮次对话的对话表示按照时序关系进行编码,得到样本对话历史表示u
t

[0021]
u
t
=lstm(u
t
‑1,bert([y
t
‑1;x
t
]))。
[0022]
根据本发明提供的一种基于知识图谱的智能对话推荐方法,所述基于预训练的r

gcn模型,对知识图谱中每个节点进行编码,并根据所述样本对话历史内容中提及到的知识图谱的节点,将编码后的节点构建得到的目标节点矩阵,通过自注意力机制生成对应的样本用户画像,包括:
[0023]
基于预训练的r

gcn模型,对知识图谱中每个节点进行编码,得到每个节点在所述预训练的r

gcn模型中每一层的表示:
[0024][0025]
其中,表示与节点e有关系r的节点集合;与为训练参数;r

gcn模型第l层的节点表示为h
e
∈r
d
;e

表示与节点e有关系r的节点;
[0026]
根据所述样本对话历史内容中提及到的知识图谱的节点,将对应的编码后的节点构成目标节点矩阵m
t

[0027][0028]
[0029]
基于自注意力机制,根据所述目标节点矩阵,生成对应的样本用户画像p
t

[0030]
p
t
=α
t
*m
t

[0031]
α
t
=softmax(w
p
·
tanh(w
p
m
t
));
[0032]
其中,α
t
表示第t轮次对话的权重向量,w
p
与w
p
表示训练参数。
[0033]
根据本发明提供的一种基于知识图谱的智能对话推荐方法,所述通过所述样本对话历史表示和所述样本用户画像,基于知识图谱,生成预设对话意图对应的样本意图推理树,包括:
[0034]
根据样本对话历史表示和样本用户画像,对预设对话意图在知识图谱上进行单步推理,得到对应的推理上下文向量c
t

[0035][0036][0037]
其中,i
t
表示第t个轮次对话中每个对话意图的训练向量表示,u
t
表示样本对话历史表示,p
t
表示样本用户画像,h
e
表示知识图谱中编码后的节点,γ
(n)
表示推理跳数为n时的权重值;
[0038]
根据所述推理上下文向量,获取知识图谱中与节点e有关系r的节点e

的得分
[0039][0040]
根据满足预设函数条件的节点,构建预设对话意图对应的样本意图推理树,所述预设函数条件为:
[0041][0042]
其中,表示从节点e出发根据对应预设对话意图所能达到的节点集,τ表示预设得分。
[0043]
根据本发明提供的一种基于知识图谱的智能对话推荐方法,在所述通过所述样本对话历史表示和所述样本用户画像,基于知识图谱,生成预设对话意图对应的样本意图推理树之后,所述方法还包括:
[0044]
按照先序遍历,对样本意图推理树进行序列化处理,得到序列化后的样本意图推理树;
[0045]
将所述序列化后的样本意图推理树和样本历史对话内容输入到预训练的gpt

2模型进行微调,得到训练好的语言模型,所述训练好的语言模型为:
[0046][0047]
其中,x
t
表示第t轮次对话中的用户端样本对话内容,y
t
表示第t轮次对话中的系统
端样本对话内容,a
t
表示第t轮次对话中序列化后的样本意图推理树,k表示系统端样本对话内容中字符在整个序列中的位置。
[0048]
根据本发明提供的一种基于知识图谱的智能对话推荐方法,所述训练好的语言模型的损失函数为:
[0049][0050][0051][0052][0053][0054]
其中,表示选择预设对话意图部分的损失函数,表示意图推理树部分的损失函数,表示自然语言生成部分的损失函数,ε表示知识图谱上的节点集合,se

表示实体e

由语言模型预测的得分,表示实体e

实际得分,及表示训练参数。
[0055]
本发明还提供一种基于知识图谱的智能对话推荐装置,包括:
[0056]
语音信息获取模块,用于获取用户端的语音信息;
[0057]
智能回复生成模块,用于将所述语音信息输入到训练好的语言模型中,得到所述语音信息对应的自然语言回复,所述训练好的语言模型是由样本对话历史内容和样本意图推理树,对语言模型进行训练得到的;
[0058]
其中,所述样本意图推理树是根据预设对话意图、样本对话历史表示和样本用户画像,基于知识图谱进行推理得到的;所述样本对话历史表示是通过对所述样本对话历史内容进行编码得到的;所述样本用户画像是通过对所述样本对话历史内容中提及到的知识图谱的节点进行编码,基于自注意力机制得到的。
[0059]
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述基于知识图谱的智能对话推荐方法的步骤。
[0060]
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述基于知识图谱的智能对话推荐方法的步骤。
[0061]
本发明提供的基于知识图谱的智能对话推荐方法及装置,通过对不同对话意图下实体推理的过程进行建模,有效地提高智能对话推荐的准确性与语言生成的流畅性。
附图说明
[0062]
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0063]
图1为本发明提供的基于知识图谱的智能对话推荐方法的流程示意图;
[0064]
图2为本发明提供的训练好的语言模型的整体结构示意图;
[0065]
图3为本发明提供的神经推理单元的结构示意图;
[0066]
图4为本发明提供的基于知识图谱的智能对话推荐装置的结构示意图;
[0067]
图5为本发明提供的电子设备的结构示意图。
具体实施方式
[0068]
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0069]
图1为本发明提供的基于知识图谱的智能对话推荐方法的流程示意图,如图1所示,本发明提供了一种基于知识图谱的智能对话推荐方法,包括:
[0070]
步骤101,获取用户端的语音信息。
[0071]
在本发明中,首先通过对话推荐系统中的用户端,获取用户的语音信息,该语音信息可以是询问信息、闲聊信息或推荐信息(即需要对话系统进行推荐商品的问题)等具有不同意图的语音信息。
[0072]
步骤102,将所述语音信息输入到训练好的语言模型中,得到所述语音信息对应的自然语言回复,所述训练好的语言模型是由样本对话历史内容和样本意图推理树,对语言模型进行训练得到的;
[0073]
其中,所述样本意图推理树是根据预设对话意图、样本对话历史表示和样本用户画像,基于知识图谱进行推理得到的;所述样本对话历史表示是通过对所述样本对话历史内容进行编码得到的;所述样本用户画像是通过对所述样本对话历史内容中提及到的知识图谱的节点进行编码,基于自注意力机制得到的。
[0074]
在本发明中,对常见的对话推荐意图基于知识图谱进行建模,通过对语言模型进行训练,从而学习不同意图下的知识图谱推理模式,能够在显式的建模对话意图的前提下,学习对话中知识图谱实体推理的规律,并最终产生符合用户需求的自然语言回复。需要说明的是,本发明所选取存储了海量商品信息,并刻画商品之间各种关系的知识图谱,对于其他领域的基于知识图谱的智能对话推荐(例如,医疗对话推荐),本发明提供的方法也适用。
[0075]
本发明提供的基于知识图谱的智能对话推荐方法,通过对不同对话意图下实体推理的过程进行建模,有效地提高智能对话推荐的准确性与语言生成的流畅性。
[0076]
在上述实施例的基础上,所述训练好的语言模型通过以下步骤得到:
[0077]
步骤201,根据样本问法和所述样本问法对应的样本回复,构建每轮次对话的样本历史对话内容,所述样本问法为用户端样本对话内容,所述样本回复为系统端样本对话内
容。
[0078]
在本发明中,首先通过历史自然对话的样本,构建对应的样本历史对话内容,具体地,将样本问法和该样本问法对应的样本回复作为一轮对话,从而得到多轮次对话的样本历史对话内容d={x1,y1,..,x
t
‑1,y
t
‑1,x
t
},其中,x
t
表示样本问法,该样本问法可以是带有询问意图的问法,也可以是具有闲聊意图的问法,或者是寻求商品推荐的问法;y
t
表示该样本问法对应的自然语言回复。在本发明中,将用户端样本对话内容作为样本问法,即寻求推荐者一方的对话内容;将对应的系统端样本内容对话作为样本回答,即推荐者一方(可以为对话推荐系统或者自然语言对话中推荐方)的对话内容。
[0079]
步骤202,基于预训练的bert模型,对所述样本历史对话内容进行编码,得到样本对话历史表示;
[0080]
在本发明中,步骤202具体包括:基于预训练的bert模型,对每轮次对话的样本历史对话内容进行编码,得到每轮次对话的对话表示:
[0081]
bert([y
t
‑1;x
t
]);
[0082]
其中,x
t
表示第t轮次对话中的用户端样本对话内容,y
t
‑1表示第t

1轮次对话中的系统端样本对话内容;所述预训练的bert模型的输出层连接一个lstm层;图2为本发明提供的训练好的语言模型的整体结构示意图,可参考图2所示,在t个对话轮次中,使用预训练的语言模型bert,对每个轮次的样本历史对话内容(user utterance)进行编码,需要说明的是,本发明采用的预训练模型,通过自监督学习从大规模数据中训练获得的,可直接通过预训练模型对样本数据进行预处理,也可基于具体任务,对预训练的模型进行微调。
[0083]
通过所述lstm层,根据对话的时序关系,对所有轮次对话的对话表示按照时序关系进行编码,得到样本对话历史表示u
t

[0084]
u
t
=lstm(u
t
‑1,bert([y
t
‑1;x
t
]))。
[0085]
步骤203,基于预训练的r

gcn模型,对知识图谱中每个节点进行编码,并根据所述样本对话历史内容中提及到的知识图谱的节点,将编码后的节点构建得到的目标节点矩阵,通过自注意力机制生成对应的样本用户画像。
[0086]
在本发明中,定义关于商品信息的知识图谱g=(ε,r),其中ε为知识图谱上的节点集合,为知识图谱上所有关系集合,可参考图2所示,根据知识图谱上提及到的实体(mentioned entity),通过r

gcn模型得到样本用户画像p
t
。所述步骤203具体包括:基于预训练的r

gcn模型,对知识图谱中每个节点进行编码,得到每个节点在所述预训练的r

gcn模型中每一层的表示:
[0087][0088]
其中,表示与节点e有关系r的节点集合;与为训练参数;r

gcn模型第l层的节点表示为h
e
∈r
d
;e

表示与节点e有关系r的节点,e∈ε;
[0089]
根据所述样本对话历史内容中提及到的知识图谱的节点,将对应的编码后的节点
构成目标节点矩阵m
t

[0090][0091][0092]
基于自注意力机制,根据所述目标节点矩阵,生成对应的样本用户画像p
t

[0093]
p
t
=α
t
*m
t

[0094]
α
t
=softmax(w
p
·
tanh(w
p
m
t
));
[0095]
其中,α
t
表示第t轮次对话的权重向量,w
p
与w
p
表示训练参数。
[0096]
步骤204,通过所述样本对话历史表示和所述样本用户画像,基于知识图谱,生成预设对话意图对应的样本意图推理树;
[0097]
在本发明中,以三种在对话推荐中常见的对话意图:询问,闲聊和推荐,进行样本意图推理树的构建进行说明。为了减少模型学习的搜索空间,本发明设置图推理的跳数最大为两跳,并根据先验知识设置了各个对话意图的推理规则,如下表1:
[0098]
表1
[0099][0100]
在进行图推理时,首先选定本轮的对话意图,其次按照选定意图对应的推理规则,进行至多两条的推理。在每一跳的推理时,可选择多个节点,最终则形成一颗以对话意图为根,最大深度为2的推理树,将该推理树作为本轮的对话意图a
t
,用于指导语言生成,例如,若当前轮对话意图为i,i拥有子节点n0和n1,其中,n0连接两个叶子节点n
00
和n
01
,n1连接一个叶子节点n
10

[0101]
在本发明中,根据样本历史对话内容,首先进行对话意图的选择,将该问题视为一个三分类器:
[0102][0103]
其中,分类器的损失函数为:
[0104][0105]
为了进行知识图谱上的多跳推理,图3为本发明提供的神经推理单元的结构示意图,可参考图2和图3所示,本发明设计了一个神经推理单元(walker cell),该单元的作用是根据对话信息,基于r

gcn模型输出的实体嵌入(entity embedding)和根据样本对话历史表示和样本用户画像得到的上下文嵌入(context embedding),获取每个节点的得分,从
而基于该得分选择满足预设条件的节点构建推理树。在本发明中,在知识图谱上从对话意图(跳数n=1)或实体(跳数n=2)出发进行单步推理。
[0106]
具体地,所述步骤204包括:根据样本对话历史表示和样本用户画像,对预设对话意图在知识图谱上进行单步推理,得到对应的推理上下文向量c
t

[0107][0108][0109]
其中,i
t
表示第t个轮次对话中每个对话意图的训练向量表示,u
t
表示样本对话历史表示,p
t
表示样本用户画像,h
e
表示知识图谱中编码后的节点,γ
(n)
表示推理跳数为n时的权重值;
[0110]
根据所述推理上下文向量,获取知识图谱中与节点e有关系r的节点e

的得分
[0111][0112]
通过神经推理单元,根据满足预设函数条件的节点,构建预设对话意图对应的样本意图推理树,所述预设函数条件为:
[0113][0114]
其中,表示从节点e出发根据对应预设对话意图所能达到的节点集,τ表示预设得分。
[0115]
步骤205,根据所述样本意图推理树和所述样本历史对话内容,构建训练样本集,并将所述训练样本集输入到预训练的gpt

2模型进行微调,以根据训练好的gpt

2模型,得到训练好的语言模型,所述训练好的语言模型包括所述预训练的bert模型、所述预训练的r

gcn模型和所述训练好的gpt

2模型。
[0116]
在本发明中,对预训练的gpt

2模型进行参数初始化,再通过样本意图推理树和样本历史对话内容构建的训练样本集,对该模型进行微调,从而基于训练好的训练好的gpt

2模型、预训练的bert模型以及所述预训练的r

gcn模型,构建训练好的语言模型。
[0117]
在上述实施例的基础上,在所述通过所述样本对话历史表示和所述样本用户画像,基于知识图谱,生成预设对话意图对应的样本意图推理树之后,所述方法还包括:
[0118]
按照先序遍历,对样本意图推理树进行序列化处理,得到序列化后的样本意图推理树;
[0119]
将所述序列化后的样本意图推理树和样本历史对话内容输入到预训练的gpt

2模型进行微调,得到训练好的语言模型,所述训练好的语言模型为:
[0120]
[0121]
其中,x
t
表示第t轮次对话中的用户端样本对话内容,y
t
表示第t轮次对话中的系统端样本对话内容,a
t
表示第t轮次对话中序列化后的样本意图推理树,k表示系统端样本对话内容中字符在整个序列中的位置。
[0122]
在本发明中,将生成的样本意图推理树作为当前对话轮次的意图a
t
,用于生成自然语言回复的语言模型可以视为建立具有参数θ
g
的统计语言模型:
[0123][0124]
为了将节点树(即样本意图推理树)作为gpt

2模型的输入,本发明将节点树按先序遍历进行序列化。可参考图2所示,例如,若当前轮对话意图为i,i拥有子节点n0和n1,n0分别连接叶子节点n
00
和n
01
,n1连接一个叶子节点n
10
,构建节点树(reasoning tree),则该轮对话行为序列化如下:
[0125]
a=[i(n0(n
00
)(n
01
))(n1(n
10
))];
[0126]
每轮对话的序列化结果(dialog act)和对话历史拼接,作为gpt

2模型的输入。本发明采用预训练语言模型gpt

2对语言模型进行参数初始化,并在训练集上进行微调,提高了生成的自然语言回复的质量。
[0127]
在上述实施例的基础上,所述训练好的语言模型的损失函数l为:
[0128][0129][0130][0131][0132][0133]
其中,表示选择预设对话意图部分的损失函数,表示意图推理树部分的损失函数,表示自然语言生成部分的损失函数,ε表示知识图谱上的节点集合,s
e

表示实体e

由语言模型预测的得分,表示实体e

实际得分,及表示训练参数。
[0134]
图4为本发明提供的基于知识图谱的智能对话推荐装置的结构示意图,如图4所示,本发明提供了一种基于知识图谱的智能对话推荐装置,包括语言信息获取模块401和智能回复生成模块402,其中,语音信息获取模块401用于获取用户端的语音信息;智能回复生成模块402用于将所述语音信息输入到训练好的语言模型中,得到所述语音信息对应的自然语言回复,所述训练好的语言模型是由样本对话历史内容和样本意图推理树,对语言模
型进行训练得到的;其中,所述样本意图推理树是根据预设对话意图、样本对话历史表示和样本用户画像,基于知识图谱进行推理得到的;所述样本对话历史表示是通过对所述样本对话历史内容进行编码得到的;所述样本用户画像是通过对所述样本对话历史内容中提及到的知识图谱的节点进行编码,基于自注意力机制得到的。
[0135]
本发明提供的基于知识图谱的智能对话推荐装置,通过对不同对话意图下实体推理的过程进行建模,有效地提高智能对话推荐的准确性与语言生成的流畅性。
[0136]
在上述实施例的基础上,所述装置还包括样本对话构建模块、第一编码模块、第二编码模块、意图推理树生成模块和训练模块,其中,样本对话构建模块用于根据样本问法和所述样本问法对应的样本回复,构建每轮次对话的样本历史对话内容,所述样本问法为用户端样本对话内容,所述样本回复为系统端样本对话内容;第一编码模块用于基于预训练的bert模型,对所述样本历史对话内容进行编码,得到样本对话历史表示;第二编码模块用于基于预训练的r

gcn模型,对知识图谱中每个节点进行编码,并根据所述样本对话历史内容中提及到的知识图谱的节点,将编码后的节点构建得到的目标节点矩阵,通过自注意力机制生成对应的样本用户画像;意图推理树生成模块用于通过所述样本对话历史表示和所述样本用户画像,基于知识图谱,生成预设对话意图对应的样本意图推理树;训练模块用于根据所述样本意图推理树和所述样本历史对话内容,构建训练样本集,并将所述训练样本集输入到预训练的gpt

2模型进行微调,以根据训练好的gpt

2模型,得到训练好的语言模型,所述训练好的语言模型包括所述预训练的bert模型、所述预训练的r

gcn模型和所述训练好的gpt

2模型。
[0137]
本发明提供的装置是用于执行上述各方法实施例的,具体流程和详细内容请参照上述实施例,此处不再赘述。
[0138]
图5为本发明提供的电子设备的结构示意图,如图5所示,该电子设备可以包括:处理器(processor)501、通信接口(communicationsinterface)502、存储器(memory)503和通信总线504,其中,处理器501,通信接口502,存储器503通过通信总线504完成相互间的通信。处理器501可以调用存储器503中的逻辑指令,以执行基于知识图谱的智能对话推荐方法,该方法包括:获取用户端的语音信息;将所述语音信息输入到训练好的语言模型中,得到所述语音信息对应的自然语言回复,所述训练好的语言模型是由样本对话历史内容和样本意图推理树,对语言模型进行训练得到的;其中,所述样本意图推理树是根据预设对话意图、样本对话历史表示和样本用户画像,基于知识图谱进行推理得到的;所述样本对话历史表示是通过对所述样本对话历史内容进行编码得到的;所述样本用户画像是通过对所述样本对话历史内容中提及到的知识图谱的节点进行编码,基于自注意力机制得到的。
[0139]
此外,上述的存储器503中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read

onlymemory)、随机存取存储器(ram,randomaccessmemory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0140]
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的基于知识图谱的智能对话推荐方法,该方法包括:获取用户端的语音信息;将所述语音信息输入到训练好的语言模型中,得到所述语音信息对应的自然语言回复,所述训练好的语言模型是由样本对话历史内容和样本意图推理树,对语言模型进行训练得到的;其中,所述样本意图推理树是根据预设对话意图、样本对话历史表示和样本用户画像,基于知识图谱进行推理得到的;所述样本对话历史表示是通过对所述样本对话历史内容进行编码得到的;所述样本用户画像是通过对所述样本对话历史内容中提及到的知识图谱的节点进行编码,基于自注意力机制得到的。
[0141]
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的基于知识图谱的智能对话推荐方法,该方法包括:获取用户端的语音信息;将所述语音信息输入到训练好的语言模型中,得到所述语音信息对应的自然语言回复,所述训练好的语言模型是由样本对话历史内容和样本意图推理树,对语言模型进行训练得到的;其中,所述样本意图推理树是根据预设对话意图、样本对话历史表示和样本用户画像,基于知识图谱进行推理得到的;所述样本对话历史表示是通过对所述样本对话历史内容进行编码得到的;所述样本用户画像是通过对所述样本对话历史内容中提及到的知识图谱的节点进行编码,基于自注意力机制得到的。
[0142]
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
[0143]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
[0144]
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1