1.一种对话系统获取方法,包括:
利用神经网络模型建模至少两个智能体;
利用所述至少两个智能体组成虚拟交互系统;
针对任一智能体,分别进行以下处理:
当所述智能体向自身之外的其它智能体执行交互动作后,确定所述交互动作对应的奖励值;
根据确定出的奖励值,并以获得更高奖励值为目标,持续训练所述智能体;
当训练完成后,将所述智能体作为用于进行人机对话的对话系统。
2.根据权利要求1所述的方法,其中,
所述交互动作包括:对话交流和推荐;
所述对话交流包括:发送对话消息;
所述推荐包括:推荐内容资源。
3.根据权利要求2所述的方法,还包括:分别为各智能体维护一个内容资源池;所推荐的内容资源为所述智能体对应的内容资源池中的内容资源。
4.根据权利要求2所述的方法,其中,当所述交互动作为对话交流时,所述确定所述交互动作对应的奖励值包括:
分别获取所发送的对话消息对应的合理性评分、字数惩罚评分以及语言模型评分;
计算所述合理性评分与所述字数惩罚评分的差值,得到第一计算结果;
计算所述第一计算结果与所述语言模型评分的差值,得到第二计算结果,将所述第二计算结果作为所述交互动作对应的奖励值。
5.根据权利要求4所述的方法,其中,所述分别获取所发送的对话消息对应的合理性评分、字数惩罚评分以及语言模型评分包括:
利用合理性评分模型确定出所述对话消息对应的合理性评分;
利用语言模型确定出所述对话消息对应的语言模型评分;
统计所述对话消息中包含的字数,根据所述字数确定出所述对话消息对应的字数惩罚评分。
6.根据权利要求2所述的方法,其中,当所述交互动作为推荐时,所述确定所述交互动作对应的奖励值包括:
获取被推荐的智能体对所推荐的内容资源的评分;
计算所述评分与推荐成本的差值,将所述差值作为所述交互动作对应的奖励值,所述推荐成本为预定值。
7.根据权利要求6所述的方法,其中,所述获取被推荐的智能体对所推荐的内容资源的评分包括:
利用预先设定的评分机制,根据被推荐的智能体的兴趣分布信息及所推荐的内容资源的内容信息,确定出被推荐的智能体对所推荐的内容资源的评分。
8.一种对话系统获取装置,包括:第一构建模块、第二构建模块以及训练模块;
所述第一构建模块,用于利用神经网络模型建模至少两个智能体;
所述第二构建模块,用于利用所述至少两个智能体组成虚拟交互系统;
所述训练模块,用于针对任一智能体,分别进行以下处理:当所述智能体向自身之外的其它智能体执行交互动作后,确定所述交互动作对应的奖励值;根据确定出的奖励值,并以获得更高奖励值为目标,持续训练所述智能体;当训练完成后,将所述智能体作为用于进行人机对话的对话系统。
9.根据权利要求8所述的装置,其中,
所述交互动作包括:对话交流和推荐;
所述对话交流包括:发送对话消息;
所述推荐包括:推荐内容资源。
10.根据权利要求9所述的装置,其中,
所述第二构建模块进一步用于,分别为各智能体维护一个内容资源池;所推荐的内容资源为所述智能体对应的内容资源池中的内容资源。
11.根据权利要求9所述的装置,其中,
当所述交互动作为对话交流时,所述训练模块分别获取所发送的对话消息对应的合理性评分、字数惩罚评分以及语言模型评分,计算所述合理性评分与所述字数惩罚评分的差值,得到第一计算结果,计算所述第一计算结果与所述语言模型评分的差值,得到第二计算结果,将所述第二计算结果作为所述交互动作对应的奖励值。
12.根据权利要求11所述的装置,其中,
所述训练模块利用合理性评分模型确定出所述对话消息对应的合理性评分,利用语言模型确定出所述对话消息对应的语言模型评分,统计所述对话消息中包含的字数,根据所述字数确定出所述对话消息对应的字数惩罚评分。
13.根据权利要求9所述的装置,其中,
当所述交互动作为推荐时,所述训练模块获取被推荐的智能体对所推荐的内容资源的评分,计算所述评分与推荐成本的差值,将所述差值作为所述交互动作对应的奖励值,所述推荐成本为预定值。
14.根据权利要求13所述的装置,其中,
所述训练模块利用预先设定的评分机制,根据被推荐的智能体的兴趣分布信息及所推荐的内容资源的内容信息,确定出被推荐的智能体对所推荐的内容资源的评分。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使计算机执行权利要求1-7中任一项所述的方法。
17.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述的方法。