一种基于上下文指代的对话应答方法、装置和系统与流程

文档序号:25421476发布日期:2021-06-11 21:33阅读:52来源:国知局
一种基于上下文指代的对话应答方法、装置和系统与流程
本发明涉及计算机信息处理领域,具体而言,涉及一种基于上下文指代的对话应答方法、装置和系统。
背景技术
:客户服务中心是企业与用户沟通的主要桥梁,提升用户满意度的主要渠道。以前客户服务中心主要以人工客服为主,由专业的客服人员为用户进行服务。随着计算机信息处理技术的发展,越来越多的客户服务中心开始采用智能语音机器人来为用户进行服务,缓解人工客服等待时间过长的问题。但人们通常说话的时候会对对话内容进行省略,比如:用户:你好,请问这款手机的颜色有哪些?客服:你好,这款手机的颜色有白色、蓝色和红色。用户:内存是多大的?客服:这款手机的内存是6g的。用户:这款笔记本呢?对于人工客服来说,很容易就理解用户询问的是笔记本,但是对于智能语音机器人来说就比较困难,经常理解错误甚至无法理解,导致用户体验很差。技术实现要素:本发明旨在解决现有智能语音机器人对口语中省略的内容不能很好的理解,给用户的体验不好的问题。为了解决上述技术问题,本发明第一方面提出一种基于上下文指代的对话应答方法,方法包括:一种基于上下文指代的对话应答方法,其特征在于,方法包括:接收用户的输入内容,将用户的输入内容输入槽位判断模型,确定槽位所对应的词语;将所述槽位对应的词语输入槽位属性判断模型,若判断为主体槽位则将所对应的词语设定为第一替代词,若判断为属性槽位则将所对应的词语设定为第二替代词;若所述输入内容缺少主体槽位则回溯使用最近的历史对话中的第一替代词填充所述主体槽位,若所述输入内容缺少属性槽位则回溯使用最近的历史对话中的第二替代词填充所述属性槽位,使用填充后的内容进行对话。根据本发明的一种优选实施方式,所述槽位判断模型为基于深度学习的双向长短记忆网络模型。根据本发明的一种优选实施方式,所述槽位判断模型包括输入层、编码层以及输出层,其中,所述输入层将所述用户的输入内容转化为词向量,所述编码层对转化后的词向量编码进行特征提取,所述输出层输出槽位信息。根据本发明的一种优选实施方式,所述编码层采用双向长短记忆网络lstm编码器,所述输出层采用序列化标注算法crf。根据本发明的一种优选实施方式,所述槽位属性判断模型为基于深度学习的textcnn模型。根据本发明的一种优选实施方式,预先设定回溯轮数阈值,当回溯的对话轮数超过回溯轮数阈值时,不再使用第一替代词或第二替代词填充主体槽位或属性槽位。根据本发明的一种优选实施方式,所述回溯轮数阈值设定为3。本发明第二方面提出一种基于上下文指代的对话应答装置,包括:槽位判断模块,用于接收用户的输入内容,将用户的输入内容输入槽位判断模型,确定槽位所对应的词语;槽位属性判断模块,用于将所述槽位对应的词语输入槽位属性判断模型,若判断为主体槽位则将所对应的词语设定为第一替代词,若判断为属性槽位则将所对应的词语设定为第二替代词;槽位填充模块,若所述输入内容缺少主体槽位则回溯使用最近的历史对话中的第一替代词填充所述主体槽位,若所述输入内容缺少属性槽位则回溯使用最近的历史对话中的第二替代词填充所述属性槽位,使用填充后的内容进行对话。根据本发明的一种优选实施方式,所述槽位判断模型为基于深度学习的双向长短记忆网络模型。根据本发明的一种优选实施方式,所述槽位判断模型包括输入层、编码层以及输出层,其中,所述输入层将所述用户的输入内容转化为词向量,所述编码层对转化后的词向量编码进行特征提取,所述输出层输出槽位信息。根据本发明的一种优选实施方式,所述编码层采用双向长短记忆网络lstm编码器,所述输出层采用序列化标注算法crf。根据本发明的一种优选实施方式,所述槽位属性判断模型为基于深度学习的textcnn模型。根据本发明的一种优选实施方式,预先设定回溯轮数阈值,当回溯的对话轮数超过回溯轮数阈值时,不再使用第一替代词或第二替代词填充主体槽位或属性槽位。根据本发明的一种优选实施方式,所述回溯轮数阈值设定为3。本发明第三方面提出一种基于上下文指代的对话应答系统,包括:存储单元,用于存储计算机可执行程序;处理单元,用于读取所述存储单元中的计算机可执行程序,以执行所述的基于上下文指代的对话应答方法。本发明第四面提出一种计算机可读介质,用于存储计算机可读程序,所述计算机可读程序用于执行所述的基于上下文指代的对话应答方法。采用该技术方案,通过上下文指代填充,将用户省略的对话语句补充完整,使智能机器人更好的理解用户的意思,提高了对用户意图理解的准确度,提升了用户的感受。附图说明为了使本发明所解决的技术问题、采用的技术手段及取得的技术效果更加清楚,下面将参照附图详细描述本发明的具体实施例。但需声明的是,下面描述的附图仅仅是本发明的示例性实施例的附图,对于本领域的技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他实施例的附图。图1是本发明实施例中基于上下文指代的对话应答方法的流程示意图;图2是本发明实施例中槽位判断模型的结构示意图;图3是本发明实施例中基于上下文指代的对话应答装置的结构示意图;图4是本发明实施例中基于上下文指代的对话应答系统的结构框架示意图;图5是本发明实施例中计算机可读存储介质的结构示意图。具体实施方式现在将参考附图来更加全面地描述本发明的示例性实施例,虽然各示例性实施例能够以多种具体的方式实施,但不应理解为本发明仅限于在此阐述的实施例。相反,提供这些示例性实施例是为了使本发明的内容更加完整,更加便于将发明构思全面地传达给本领域的技术人员。在符合本发明的技术构思的前提下,在某个特定的实施例中描述的结构、性能、效果或者其他特征可以以任何合适的方式结合到一个或更多其他的实施例中。在对于具体实施例的介绍过程中,对结构、性能、效果或者其他特征的细节描述是为了使本领域的技术人员对实施例能够充分理解。但是,并不排除本领域技术人员可以在特定情况下,以不含有上述结构、性能、效果或者其他特征的技术方案来实施本发明。附图中的流程图仅是一种示例性的流程演示,不代表本发明的方案中必须包括流程图中的所有的内容、操作和步骤,也不代表必须按照图中所显示的的顺序执行。例如,流程图中有的操作/步骤可以分解,有的操作/步骤可以合并或部分合并,等等,在不脱离本发明的发明主旨的情况下,流程图中显示的执行顺序可以根据实际情况改变。附图中的框图一般表示的是功能实体,并不一定必然与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理单元装置和/或微控制器装置中实现这些功能实体。各附图中相同的附图标记表示相同或类似的元件、组件或部分,因而下文中可能省略了对相同或类似的元件、组件或部分的重复描述。还应理解,虽然本文中可能使用第一、第二、第三等表示编号的定语来描述各种器件、元件、组件或部分,但是这些器件、元件、组件或部分不应受这些定语的限制。也就是说,这些定语仅是用来将一者与另一者区分。例如,第一器件亦可称为第二器件,但不偏离本发明实质的技术方案。此外,术语“和/或”、“及/或”是指包括所列出项目中的任一个或多个的所有组合。图1是本发明一种基于上下文指代的对话应答方法的时序图,如图1所示。为了与计算机语言进行区分,人类所使用的语言被称为自然语言。而自然语言与计算机语言并不相同,计算机无法直接的理解人类使用的自然语言,槽位就是为了帮助计算机理解自然语言而设计的。槽位是系统需要向用户收集的关键信息,比如“这款手机的颜色有哪些”,槽位包括“手机”、“颜色”和“哪些”。通过槽位的设计,计算机可以很好的理解自然语言的意思。然而人们正常交流的时候经常会对话语进行省略,比上一句问的“这款手机的颜色有哪些”,下一句询问内存的时候人们常说“那内存呢?”,此时计算机就不容易理解。本发明正是为了解决这个问题,本发明提供一种基于上下文指代的对话应答方法,包括:s101、接收用户的输入内容,将用户的输入内容输入槽位判断模型,确定槽位所对应的词语。进一步地,所述槽位判断模型为基于深度学习的双向长短记忆网络模型。在本实施方式中,由于对词语内容的判断需要结合上下的内容,因此采用双向长短记忆网络模型,槽位判断模型的结构如图2所示。传统的基于深度学习的网络模型为循环神经网络rnn模型,而rnn模型共享一套参数,无法结合上下文确定哪个位置的信息的更重要,哪个位置的信息不重要,所以深度学习的时候比较困难。而双向长短记忆网络lstm模型很好的解决了这个问题,在一定程度上消减了梯度消失的问题。因此本发明中的网络模型为基于深度学习的双向长短记忆网络lstm模型。在上述技术方案的基础上,进一步地,所述槽位判断模型包括输入层、编码层以及输出层,其中,所述输入层将所述用户的输入内容转化为词向量,所述编码层对转化后的词向量编码进行特征提取,所述输出层输出槽位信息。文本的向量化,即使用数字特征来代表文本,因为计算机无法直接理解自然语言。为了让计算机能够理解自然语言,我们需要将文本信息映射到一个数值化的语义空间中,这个语义空间我们可以称之为词向量空间。将文本转化为向量有多种算法,比如tf-idf、bow、one-hot、word2vec等等。在本实施方式中,文本的向量化采用word2vec算法,word2vec模型是一个无监督的学习模型,使用未标引的语料集的训练就可以实现文本信息到语义空间的映射。在本实施方式中,输入层对用户的输入内容进行划词处理,将划词后的短语向量化。比如“这款手机的颜色有哪些”进行划词处理后,划分为“这款”、“手机”、“颜色”、“有哪些”、“?”根据word2vec模型转化为向量。在其他实施方式中,可以预先设置语意向量库,将所有汉字提前转化为向量进行存储,使用时直接从语意向量库中选取汉字对应的向量。在编码层对向量化后的文本进行特征提取获得槽位表示特征,输出层对槽位表示特征进行进行约束,提高准确性,输出槽位标签。在上述技术方案的基础上,进一步地,所述编码层采用双向长短记忆网络lstm编码器,所述输出层采用序列化标注算法crf。在本实施方式中,双向长短时期记忆网络模型是循环神经网络的一种,能够更好的对语句的前后词进行考虑,比如“我不觉得今天天气好”,其中“不”是对后面的“天气好”进行限定,表示对天气好的否定,采用双向长短时期记忆网络模型可以更好的捕捉到较长距离的依赖关系,而且双向长短时期记忆网络模型还可以顾及到后面的词对前面的词的限定,比如“今天的天气冷的不行”,其中“不行”是“冷”的修饰和限定。如图2所示,lstm层包括两个lstm模型,一个模型的输入序列是从左到右的顺序,另一个模型的输入序列是从右到左的顺序,最后将两个lstm层的隐层单元输出进行拼接,作为整个lstm层的输出。在本实施方式中,crf层可以加入一些约束来保证最终预测结果是有效的。这些约束可以在训练数据时被crf层自动学习得到,有了这些有用的约束,错误的预测序列将会大大减少,提高了输出层的准确性。s102、将所述槽位对应的词语输入槽位属性判断模型,若判断为主体槽位则将所对应的词语设定为第一替代词,若判断为属性槽位则将所对应的词语设定为第二替代词。在本实施方式中,用户服务中心积累了的大量的历史语料,使用历史语料对槽位属性判断模型进行训练,使用人工标引的方式将历史语料中的槽位进行槽位属性标引,将标引后的历史语料划分为训练样本和测试样本。使用训练样本对模型进行训练,直至模型收敛,然后使用测试样本对模型进行检验,如果通过检验模型训练完成。将槽位对应的词语输入槽位属性判断模型后,输出槽位的属性,如果判断为主体槽位则将所对应的词语设定为第一替代词,如果判断为属性槽位则将所对应的词语设定为第二替代词。比如用户进行询问“你好,请问这款手机的颜色有哪些?”。经过判断“手机”为主体槽位,“颜色”为属性槽位,因此此时第一替代词为“手机”,第二替代词为“颜色”。在上述技术方案的基础上,进一步地,所述槽位属性判断模型为基于深度学习的textcnn模型。在本实施方式中通过textcnn模型对输入的语言进行分类,确定是主体槽位还是属性槽位。在其他实施方式中,应用的领域比较具体,比如电子产品销售,涉及的产品数量并不多,因此可以通过人工输入的方式设置主体槽位库和属性槽位库。槽位属性判断模型为基于深度学习的语义匹配dssm模型,将槽位对应的词语与主体槽位库和/或属性槽位库中的词语输入dsmm模型进行匹配,通过语意匹配判断槽位的具体属性。s103、若所述输入内容缺少主体槽位则回溯使用最近的历史对话中的第一替代词填充所述主体槽位,若所述输入内容缺少属性槽位则回溯使用最近的历史对话中的第二替代词填充所述属性槽位,使用填充后的内容进行对话。下面通过实施例一对该过程进行说明。实施例一对话过程中第一替代词和第二替代词的变换过程如表1所示。表1用户与客服对话内容表一身份对话内容第一替代词第二替代词用户你好,请问这款手机的颜色有哪些?手机颜色客服你好,这款手机的颜色有白色、蓝色和红色。用户内存是多大的?手机内存客服这款手机的内存是6g的。用户那这台笔记本呢?笔记本内存从表1中我们可以看出用户在进行第一次询问时没有进行省略,主体槽位和属性槽位都是完整的。在进行第二次询问时,习惯性的省略了主体槽位,此时使用上一轮对话中的第一替代词进行填充,填充后的用户问句就是“(手机)内存是多大的”,此时系统就能够准确识别出用户的意图进行回答。在进行第三次询问时用户省略了属性槽位,此时使用上一轮对话中的第二替代次进行填充,填充后的用户问句就是“那这台笔记本(内存)呢”,此时系统也能够准确识别出用户的意图。根据识别的用户意图进行对话,比如回答“这台笔记本的内存是16g的”。在上述技术方案的基础上,进一步地,预先设定回溯轮数阈值,当回溯的对话轮数超过回溯轮数阈值时,不再使用第一替代词或第二替代词填充主体槽位或属性槽位。在上述技术方案的基础上,进一步地,所述回溯轮数阈值设定为3。在本实施方式中,用户对话过程中进行省略通常是在比较临近的对话中,如果对话相隔的轮次比较多在进行填充替代反而会导致理解错误。因此将回溯的对话轮数设定为3次,超过3次以后不再进行填充。在其他实施方式中,由于人们对话过程中还常常发生“跑题”的情况,就是对话时突然发生话题转变,不再延续上一个对话的主题,此时使用第一替代词或第二替代词填充主体槽位或属性槽位可能会导致主题理解错误。因此,在对缺少主体槽位或属性槽位进行填充前,先将用户的对话内容输入意图判断模型,判断用户的对话内容意图。当主体槽位或属性槽位缺少,需要回溯使用最近的历史对话中的第一替代词或第二替代词进行填充时,判断当前对话轮次的对话内容意图与第一替代词或第二替代词所在对话轮次的对话内容意图是否一致,如果一致则使用第一替代词或第二替代词进行填充,否则继续向前回溯,直至使用相同对话内容意图的第一替代词或第二替代词进行填充。意图判断模型为基于深度学习的textcnn模型,有历史对话语料训练而成,训练过程与槽位属性判断模型训练过程相同。下面通过实施例二对该过程进行说明。实施例二对话过程中第一替代词和第二替代词的变换过程如表2所示。表2用户与客服对话内容表二由表2中可以看出,在第1轮对话中,用户的对话内容意图为“咨询产品”,第一替代词为“手机”,第二替代词为“颜色”。在第2轮对话时,用户的对话内容意图发生变化,由“咨询产品”变更为“咨询天气”,此时第2轮对话中的第一替代词为“今天”,第二替代词为“天气”。在进行第3轮对话中,对话内容意图又变回“咨询产品”,此时缺少主体槽位,回溯第2轮对话,由于对话内容意图不同,不使用第2轮对话中的第一替代词。继续向前回溯,在第1轮对话中对话内容意图相同,因此使用第1轮对话中的第一替代词进行填充。同样的,在本实施方式中也设置回溯轮数阈值,当回溯轮数超过设定的回溯轮数阈值,不再进行填充。在本实施方式中,如果超过设置的回溯轮数阈值无法对缺少的主体槽位或属性槽位进行填充导致系统无法理解用户的意图,或者用户的输入内容同时缺少主题槽位和属性槽位,系统使用预先设置的兜底话术进行回答,比如回答“不好意思,不是很清楚您的问题,您能再说一遍么”。图3是本发明实施例中基于上下文指代的对话应答装置的结构示意图,如图3所示,本发明提供一种基于上下文指代的对话应答装置400,包括:槽位判断模块301,用于接收用户的输入内容,将用户的输入内容输入槽位判断模型,确定槽位所对应的词语。在上述技术方案的基础上,进一步地,所述槽位判断模型为基于深度学习的双向长短记忆网络模型。在本实施方式中,由于对词语内容的判断需要结合上下的内容,因此采用双向长短记忆网络模型,槽位判断模型的结构如图2所示。传统的基于深度学习的网络模型为循环神经网络rnn模型,而rnn模型共享一套参数,无法结合上下文确定那个位置的信息的更重要,哪个位置的信息不重要,所以深度学习的时候比较困难。而双向长短记忆网络lstm模型很好的解决了这个问题,在一定程度上消减了梯度消失的问题。因此本发明中的网络模型为基于深度学习的双向长短记忆网络lstm模型。在上述技术方案的基础上,进一步地,所述槽位判断模型包括输入层、编码层以及输出层,其中,所述输入层将所述用户的输入内容转化为词向量,所述编码层对转化后的词向量编码进行特征提取,所述输出层输出槽位信息。文本的向量化,即使用数字特征来代表文本,因为计算机无法直接理解自然语言。为了让计算机能够理解自然语言,我们需要将文本信息映射到一个数值化的语义空间中,这个语义空间我们可以称之为词向量空间。将文本转化为向量有多种算法,比如tf-idf、bow、one-hot、word2vec等等。在本实施方式中,文本的向量化采用word2vec算法,word2vec模型是一个无监督的学习模型,使用未标引的语料集的训练就可以实现文本信息到语义空间的映射。在本实施方式中,输入层对用户的输入内容进行划词处理,将划词后的短语向量化。比如“这款手机的颜色有哪些”进行划词处理后,划分为“这款”、“手机”、“颜色”、“有哪些”、“?”根据word2vec模型转化为向量。在其他实施方式中,可以预先设置语意向量库,将所有汉字提前转化为向量进行存储,使用时直接从语意向量库中选取汉字对应的向量。在编码层对向量化后的文本进行特征提取获得槽位表示特征,输出层对槽位表示特征进行进行约束,提高准确性,输出槽位标签。在上述技术方案的基础上,进一步地,所述编码层采用双向长短记忆网络lstm编码器,所述输出层采用序列化标注算法crf。在本实施方式中,双向长短时期记忆网络模型是循环神经网络的一种,能够更好的对语句的前后词进行考虑,比如“我不觉得今天天气好”,其中“不”是对后面的“天气好”进行限定,表示对天气好的否定,采用双向长短时期记忆网络模型可以更好的捕捉到较长距离的依赖关系,而且双向长短时期记忆网络模型还可以顾及到后面的词对前面的词的限定,比如“今天的天气冷的不行”,其中“不行”是“冷”的修饰和限定。如图2所示,lstm层包括两个lstm模型,一个模型的输入序列是从左到右的顺序,另一个模型的输入序列是从右到左的顺序,最后将两个lstm层的隐层单元输出进行拼接,作为整个lstm层的输出。在本实施方式中,crf层可以加入一些约束来保证最终预测结果是有效的。这些约束可以在训练数据时被crf层自动学习得到,有了这些有用的约束,错误的预测序列将会大大减少,提高了输出层的准确性。槽位属性判断模块302,用于将所述槽位对应的词语输入槽位属性判断模型,若判断为主体槽位则将所对应的词语设定为第一替代词,若判断为属性槽位则将所对应的词语设定为第二替代词。在本实施方式中,用户服务中心积累了的大量的历史语料,使用历史语料对槽位属性判断模型进行训练,使用人工标引的方式将历史语料中的槽位进行槽位属性标引,将标引后的历史语料划分为训练样本和测试样本。使用训练样本对模型进行训练,直至模型收敛,然后使用测试样本对模型进行检验,如果通过检验模型训练完成。将槽位对应的词语输入槽位属性判断模型后,输出槽位的属性,如果判断为主体槽位则将所对应的词语设定为第一替代词,如果判断为属性槽位则将所对应的词语设定为第二替代词。比如用户进行询问“你好,请问这款手机的颜色有哪些?”。经过判断“手机”为主体槽位,“颜色”为属性槽位,因此此时第一替代词为“手机”,第二替代词为“颜色”。在上述技术方案的基础上,进一步地,所述槽位属性判断模型为基于深度学习的textcnn模型。在本实施方式中通过textcnn模型对输入的语言进行分类,确定是主体槽位还是属性槽位。在其他实施方式中,应用的领域比较具体,比如电子产品销售,涉及的产品数量并不多,因此可以通过人工输入的方式设置主体槽位库和属性槽位库。槽位属性判断模型为基于深度学习的语义匹配dssm模型,将槽位对应的词语与主体槽位库和/或属性槽位库中的词语输入dsmm模型进行匹配,通过语意匹配判断槽位的具体属性。槽位填充模块303,若所述输入内容缺少主体槽位则回溯使用最近的历史对话中的第一替代词填充所述主体槽位,若所述输入内容缺少属性槽位则回溯使用最近的历史对话中的第二替代词填充所述属性槽位,使用填充后的内容进行对话。在上述技术方案的基础上,进一步地,预先设定回溯轮数阈值,当回溯的对话轮数超过回溯轮数阈值时,不再使用第一替代词或第二替代词填充主体槽位或属性槽位。在上述技术方案的基础上,进一步地,所述回溯轮数阈值设定为3。在本实施方式中,用户对话过程中进行省略通常是在比较临近的对话中,如果对话相隔的轮次比较多在进行填充替代反而会导致理解错误。因此将回溯的对话轮数设定为3次,超过3次以后不再进行填充。在其他实施方式中,由于人们对话过程中还常常发生“跑题”的情况,就是对话时突然发生话题转变,不再延续上一个对话的主题,此时使用第一替代词或第二替代词填充主体槽位或属性槽位可能会导致主题理解错误。因此,在对缺少主体槽位或属性槽位进行填充前,先将用户的对话内容输入意图判断模型,判断用户的对话内容意图。当主体槽位或属性槽位缺少,需要回溯使用最近的历史对话中的第一替代词或第二替代词进行填充时,判断当前对话轮次的对话内容意图与第一替代词或第二替代词所在对话轮次的对话内容意图是否一致,如果一致则使用第一替代词或第二替代词进行填充,否则继续向前回溯,直至使用相同对话内容意图的第一替代词或第二替代词进行填充。意图判断模型为基于深度学习的textcnn模型,有历史对话语料训练而成,训练过程与槽位属性判断模型训练过程相同。同样的,在本实施方式中也设置回溯轮数阈值,当回溯轮数超过设定的回溯轮数阈值,不再进行填充。如图4所示,本发明的一个实施例中还公开一种基于上下文指代的对话应答系统,图4显示的基于上下文指代的对话应答系统仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。基于上下文指代的对话应答系统400,包括存储单元420,用于存储计算机可执行程序;处理单元410,用于读取所述存储单元中的计算机可执行程序,以执行本发明各种实施方式的步骤。在本实施方式中基于上下文指代的对话应答系统400还包括,连接不同系统组件(包括存储单元420和处理单元410)的总线430、显示单元440等。其中,所述存储单元420存储有计算机可读程序,其可以是源程序或都只读程序的代码。所述程序可以被处理单元410执行,使得所述处理单元410执行本发明各种实施方式的步骤。例如,所述处理单元410可以执行如图1所示的步骤。所述存储单元420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(ram)4201和/或高速缓存存储单元4202,还可以进一步包括只读存储单元(rom)4203。所述存储单元420还可以包括具有一组(至少一个)程序模块4205的程序/实用工具4204,这样的程序模块4205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。总线430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。基于上下文指代的对话应答系统400也可以与一个或多个外部设备470(例如键盘、显示器、网络设备、蓝牙设备等)通信,使得用户能经由这些外部设备470通过输入/输出(i/o)接口450进行与处理单元410进行交互,还可以通过网络适配器460与一个或者多个网络(例如局域网(lan),广域网(wan)和/或公共网络,例如因特网)进行。网络适配器460可以通过总线430与基于上下文指代的对话应答系统400的其它模块通信。应当明白,尽管图中未示出,基于上下文指代的对话应答系统400中可使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、raid系统、磁带驱动器以及数据备份存储系统等。图5是本发明的一个计算机可读介质实施例的示意图。如图5所示,所述计算机程序可以存储于一个或多个计算机可读介质上。计算机可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储单元(ram)、只读存储单元(rom)、可擦式可编程只读存储单元(eprom或闪存)、光纤、便携式紧凑盘只读存储单元(cd-rom)、光存储单元件、磁存储单元件、或者上述的任意合适的组合。当所述计算机程序被一个或多个数据处理设备执行时,使得该计算机可读介质能够实现本发明的上述方法,即:s101、接收用户的输入内容,将用户的输入内容输入槽位判断模型,确定槽位所对应的词语;s102、将所述槽位对应的词语输入槽位属性判断模型,若判断为主体槽位则将所对应的词语设定为第一替代词,若判断为属性槽位则将所对应的词语设定为第二替代词;s103、若所述输入内容缺少主体槽位则回溯使用最近的历史对话中的第一替代词填充所述主体槽位,若所述输入内容缺少属性槽位则回溯使用最近的历史对话中的第二替代词填充所述属性槽位,使用填充后的内容进行对话。通过以上的实施方式的描述,本领域的技术人员易于理解,本发明描述的示例性实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读的存储介质(可以是cd-rom,u盘,移动硬盘等)中或网络上,包括若干指令以使得一台数据处理设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明的上述方法。所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、rf等等,或者上述的任意合适的组合。可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如java、c++等,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(lan)或广域网(wan),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。综上所述,本发明可以执行计算机程序的方法、装置、电子设备或计算机可读介质来实现。可以在实践中使用微处理单元或者数字信号处理单元(dsp)等通用数据处理设备来实现本发明的一些或者全部功能。以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,本发明不与任何特定计算机、虚拟装置或者电子设备固有相关,各种通用装置也可以实现本发明。以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1