对基于自然智能的人机交互系统进行训练的方法与流程

文档序号:18267521发布日期:2019-07-27 09:18阅读:284来源:国知局
对基于自然智能的人机交互系统进行训练的方法与流程

本发明涉及一种对人机交互系统进行训练的方法,具体而言,涉及一种对基于自然智能的人机交互系统进行训练的方法,以及相应的人机交互设备和人际交互系统。



背景技术:

目前常用的机器智能(mi,machineintelligence)技术主要包括人工智能(ai,artificialintelligence)技术。其中比较常见的有基于人工智能的自然语言处理(nlp,naturallanguageprocessing)技术。

对基于人工智能的自然语言处理(也可简称为ai-nlp)而言,对于所处理的语音,需要从语音先转文本,再通过已建立的语法模型和语义模型来实现语义的理解。不过,这种方法受制于语音识别器的准确率。例如,一个句子有10个字,语音识别器能够实现90%的准确度,但如果错误发生在关键词(字),那么现有的ai-nlp技术便无法实现正确的语义理解。特别地,在噪音环境下,由于语音识别器的准确率会下降,所以要用ai-nlp技术准确地进行语义理解的难度也更高了。另一方面,由于ai-nlp需要人工构建海量的语法模型和语义模型,因而会产生极大的人工成本。事实上,目前世界上从事ai-nlp技术研发和应用的主要企业均有数千甚至更多的员工从事语音的人工标注和模型构建。



技术实现要素:

根据本发明的一个方面,提供了一种基于自然智能的自然表达处理方法,其中,包括:接收自然表达的输入,得到具有第一信息颗粒度的第一语言信息,将第一语言信息转换为具有第二信息颗粒度的第二语言信息,其中,第二信息颗粒度的数量级介于第一信息颗粒度的数量级与文字的信息颗粒度的数量级之间,将第二语言信息转换为第三语言信息,第三语言信息作为对自然表达进行理解的结果,其中,第二语言信息和与该第二语言信息对应的第三语言信息作为配对数据被存储在数据库,对于数据库中已有的成对的第二语言信息和第三语言信息,将该第二语言信息的元素的各种排列组合与该第三语言信息或者该第三语言信息的元素的各种排列组合进行循环迭代,建立第二语言信息的元素的各种排列组合与第三语言信息或第三语言信息的元素的各种排列组合之间的对应关系,获得更多的第二语言信息与第三语言信息的配对数据,并存储在数据库中。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,当从输入的第一语言信息获得第二语言信息后,将该第二语言信息与数据库中已有的第二语言信息进行比较,然后根据比较结果来确定与该第二语言信息对应的第三语言信息,或者计算将该第二语言信息对应到某第三语言信息的正确率,如果机器理解能力不够成熟,不足以或者不确定将该第二语言信息转换到某条第三语言信息,那么进行人工辅助理解,通过人工对输入的第一语言信息进行理解,得到与自然表达的含义所对应的第三语言信息,并且将从该第一语言信息得到的第二语言信息与第三语言信息对应起来或者将第一语言信息与第三语言信息对应起来,得到新的配对数据存入数据库。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,对于新的第二语言信息与第三语言信息的配对数据或者新的第一语言信息与第三语言信息的配对数据,将其中的第二语言信息或者由第一语言信息转换得到的第二语言信息的元素的各种排列组合与其中的第三语言信息或者该第三语言信息的元素的各种排列组合进行循环迭代,建立第二语言信息的元素的各种排列组合与第三语言信息或第三语言信息的元素的各种排列组合之间的对应关系,获得更多的第二语言信息与第三语言信息的配对数据,并存储在数据库中。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,通过人工辅助理解纠正数据库中第二语言信息与第三语言信息之间错误的对应关系。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,通过自信度来衡量机器理解能力,其中,基于第二语言信息与第三语言信息的对应关系来计算自信度。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,从第一语言信息得到第二语言信息之后,通过深度神经网络、有穷状态转换器、自动编码器解码器中的一个或多个来产生对第三语言信息的对数概率或相类似分数,再利用归一化的指数函数来计算出对第三语言信息的自信度。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,第二语言信息的信息颗粒度是文字的信息颗粒度的1/10~1/1000。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,在对第二语言信息与第三语言信息的配对数据进行循环迭代时,也对第二语言信息到第三语言信息的转换模型进行循环优化。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,用循环迭代得到的第二语言信息测试机器对于第二语言信息到第三语言信息的转换,并将不能被正确转换的第二语言信息及其应正确对应的第三语言信息写入对照表,对于后续输入的自然表达,由自然表达转换的第二语言信息先与对照表中存储的第二语言信息进行对比。

根据本发明的一方面,提供了一种基于自然智能的自然表达处理及回应方法,其中包括:通过根据前述的自然表达处理方法获得第三语言信息;调用或生成与第三语言信息相匹配的标准回应;以与第一语言信息对应的方式输出标准回应。

根据本发明实施例的基于自然智能的自然表达处理及回应方法,其中,标准回应是预先存储在回应数据库中的固定数据,或者基于变量参数和预先在回应数据库中存储的标准回应的基础数据来生成标准回应。

根据本发明的一方面,提供了一种基于自然智能的自然表达处理及回应设备,其中,包括:对话网关,中央控制器,mau工作站,机器人,表达数据库,回应数据库和回应生成器,其中,对话网关接收来自用户的自然表达,发送给中央控制器进行后续处理,并且将对自然表达的回应发送给用户;中央控制器接收来自对话网关的自然表达,并与机器人以及mau工作站协同工作,将该自然表达转换为表示该自然表达的含义的标准表达,并根据标准表达指示回应生成器生成与该标准表达对应的标准回应;机器人根据中央控制器的指示,将自然表达转换为次级语言信息,其中,次级语言信息的信息颗粒度的数量级介于自然表达的信息颗粒度的数量级与文字的信息颗粒度的数量级之间,并将次级语言信息转换为标准表达;mau工作站将自然表达呈现给外部的mau人工座席,mau人工座席通过mau工作站输入或者选择标准表达,然后mau工作站将该标准表达发送给中央控制器;训练数据库用于存储次级语言信息和标准表达的配对数据;回应数据库存储回应相关数据,包括供调用的标准回应数据和/或用于生成回应的数据;回应生成器接收中央控制器的指令,通过调用和/或运行回应数据库中的数据来生成对用户的自然表达的回应,其中,设备进一步包括训练器,该训练器用于训练机器人将自然表达转换为标准表达,其中,训练器使得机器人对于训练数据库中已有的成对的次级语言信息和标准表达,将该次级语言信息的元素的各种排列组合与该标准表达或者该标准表达的元素的各种排列组合进行循环迭代比较,建立次级语言信息的元素的各种排列组合与标准表达或标准表达的元素的各种排列组合之间的对应关系,获得更多的次级语言信息与标准表达的配对数据,并存储在训练数据库中。

根据本发明的一方面,提供了一种基于自然智能的人机交互系统,其中,包括:自然表达处理及回应设备和呼叫设备,其中,用户通过呼叫设备与自然表达处理及回应设备通信,mau人工座席对自然表达处理及回应设备进行人工操作,自然表达处理及回应设备包括:对话网关,中央控制器,mau工作站,机器人,表达数据库,回应数据库和回应生成器,其中,对话网关接收来自用户的自然表达,发送给中央控制器进行后续处理,并且将对自然表达的回应发送给用户;中央控制器接收来自对话网关的自然表达,并与机器人以及mau工作站协同工作,将该自然表达转换为表示该自然表达的含义的标准表达,并根据标准表达指示回应生成器生成与该标准表达对应的标准回应;机器人根据中央控制器的指示,将自然表达转换为次级语言信息,其中,次级语言信息的信息颗粒度的数量级介于自然表达的信息颗粒度的数量级与文字的信息颗粒度的数量级之间,并将次级语言信息转换为标准表达;mau工作站将自然表达呈现给mau人工座席,mau人工座席通过mau工作站输入或者选择标准表达,然后mau工作站将该标准表达发送给中央控制器;训练数据库用于存储次级语言信息和标准表达的配对数据;回应数据库存储回应相关数据,包括供调用的标准回应数据和/或用于生成回应的数据;回应生成器接收中央控制器的指令,通过调用和/或运行回应数据库中的数据来生成对用户的自然表达的回应,其中,设备进一步包括训练器,该训练器用于训练机器人将自然表达转换为标准表达,其中,训练器使得机器人对于训练数据库中已有的成对的次级语言信息和标准表达,将该次级语言信息的元素的各种排列组合与该标准表达或者该标准表达的元素的各种排列组合进行循环迭代,建立次级语言信息的元素的各种排列组合与标准表达或标准表达的元素的各种排列组合之间的对应关系,获得更多的次级语言信息与标准表达的配对数据,并存储在训练数据库中。

根据本发明的一方面,提供了一种基于自然智能的自然表达处理方法,其中包括:接收第一自然表达,将第一自然表达转换为次级语言信息,计算将由第一自然表达转换的次级语言信息转换为数据库中的标准表达的自信度,当计算得到对于某标准表达的自信度不低于第一自信度阈值,输出该标准表达作为对第一自然表达进行理解的结果。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,当计算的自信度均低于第二自信度阈值,提示输入与第一自然表达具有相同含义的第二自然表达。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,将第二自然表达转换为次级语言信息,计算将由第二自然表达转换的次级语言信息转换为数据库中的标准表达的自信度,当计算得到对于某标准表达的自信度不低于第一自信度阈值,输出该标准表达作为对第一自然表达进行理解的结果。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,当计算得到的对某标准表达的自信度低于第一自信度阈值但不低于第二自信度阈值,提示输入第三自然表达以确认该标准表达是否对应于第一自然表达的含义。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,将第三自然表达转换为次级语言信息,计算将由第三自然表达转换的次级语言信息转换为表示“确认”含义的第二标准表达的自信度,如果该自信度不低于第一自信度阈值,输出第一标准表达作为对第一自然表达进行理解的结果。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,将由第一自然表达转换的次级语言信息与第一标准表达作为配对数据存储在数据库。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,如果计算的自信度低于第一自信度阈值或者其它自信度阈值,对第一自然表达进行人工辅助理解或者其它人工处理。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,基于次级语言信息与标准表达的对应关系来计算自信度,通过深度神经网络、有穷状态转换器、自动编码器解码器中的一个或多个来产生对单条或多条标准表达的对数概率或相类似分数,再利用归一化的指数函数来计算出对该条或该多条标准表达的自信度。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,次级语言信息的信息颗粒度的数量级小于文字的信息颗粒度的数量级。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,次级语言信息的信息颗粒度是文字的信息颗粒度的1/10~1/1000。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,对于数据库中已有的成对的次级语言信息和标准表达,将该次级语言信息的元素的各种排列组合与该标准表达或者该标准表达的元素的各种排列组合进行循环迭代,建立次级语言信息的元素的各种排列组合与标准表达或标准表达的元素的各种排列组合之间的对应关系,获得更多的次级语言信息与标准表达的配对数据,并存储在数据库中。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,用循环迭代得到的次级语言信息测试机器对于次级语言信息到标准表达的转换,并将不能被正确转换的次级语言信息及其应正确对应的标准表达写入对照表,对于后续输入的自然表达,由自然表达转换的次级语言信息先与对照表中存储的次级语言信息进行对比。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,在对次级语言信息与标准表达的配对数据进行循环迭代时,也对次级语言信息到标准表达的转换模型进行循环优化。

根据本发明的一方面,提供了一种基于自然智能的自然表达处理及回应方法,其中,包括:前述的自然表达处理方法获得第一标准表达;调用或生成与标准表达相匹配的标准回应;以与第一自然表达对应的方式输出标准回应。

根据本发明的一方面,提供了一种基于自然智能的自然表达处理及回应设备,其中,包括:对话网关,中央控制器,mau工作站,机器人,训练数据库,回应数据库和回应生成器,其中,对话网关接收来自用户的自然表达,发送给中央控制器进行后续处理,并且将对自然表达的回应发送给用户;中央控制器接收来自对话网关的自然表达,并与机器人以及mau工作站协同工作,将该自然表达转换为表示该自然表达的含义的标准表达,并根据标准表达指示回应生成器生成与该标准表达对应的标准回应;机器人根据中央控制器的指示,将自然表达转换为次级语言信息,计算将由自然表达转换的次级语言信息转换为训练数据库中的标准表达的自信度,当计算得到对于某标准表达的自信度不低于第一自信度阈值,将次级语言信息转换为该标准表达;mau工作站将自然表达呈现给外部的mau人工座席,mau人工座席通过mau工作站输入或者选择标准表达,然后mau工作站将该标准表达发送给中央控制器;训练数据库用于存储次级语言信息和标准表达的配对数据;回应数据库存储回应相关数据,包括供调用的标准回应数据和/或用于生成回应的数据;回应生成器接收中央控制器的指令,通过调用和/或运行回应数据库中的数据来生成对用户的自然表达的回应。

根据本发明的一方面,提供了一种基于自然智能的人机交互系统,其中,包括:自然表达处理及回应设备和呼叫设备,其中,用户通过呼叫设备与自然表达处理及回应设备通信,mau人工座席对自然表达处理及回应设备进行人工操作,自然表达处理及回应设备包括:对话网关,中央控制器,mau工作站,机器人,训练数据库,回应数据库和回应生成器,其中,对话网关接收来自用户的自然表达,发送给中央控制器进行后续处理,并且将对自然表达的回应发送给用户;中央控制器接收来自对话网关的自然表达,并与机器人以及mau工作站协同工作,将该自然表达转换为表示该自然表达的含义的标准表达,并根据标准表达指示回应生成器生成与该标准表达对应的标准回应;机器人根据中央控制器的指示,将自然表达转换为次级语言信息,计算将由自然表达转换的次级语言信息转换为训练数据库中的标准表达的自信度,当计算得到对于某标准表达的自信度不低于第一自信度阈值,将次级语言信息转换为该标准表达;mau工作站将自然表达呈现给mau人工座席,mau人工座席通过mau工作站输入或者选择标准表达,然后mau工作站将该标准表达发送给中央控制器;训练数据库用于存储次级语言信息和标准表达的配对数据;回应数据库存储回应相关数据,包括供调用的标准回应数据和/或用于生成回应的数据;回应生成器接收中央控制器的指令,通过调用和/或运行回应数据库中的数据来生成对用户的自然表达的回应。

根据本发明的一个方面,提供了一种基于自然智能的自然表达处理方法,其中包括:在数据库中设置分别与多个意图对应的多个标准表达,接收自然表达,将自然表达转换为次级语言信息,从次级语言信息获取与多个意图对应的部分,将获取的与多个意图对应的次级语言信息的部分分别转换为标准表达,其中,次级语言信息的信息颗粒度的数量级小于文字的信息颗粒度的数量级。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,由自然表达转换得到的次级语言信息和从该次级语言信息转换得到的分别与多个意图对应的多个标准表达作为配对数据被存储在数据库,将该次级语言信息的元素的各种排列组合与多个标准表达的组合或者该多个标准表达的组合的元素的各种排列组合进行循环迭代,建立次级语言信息的元素的各种排列组合与多个标准表达的组合或者该多个标准表达的组合的元素的各种排列组合之间的对应关系,获得更多的次级语言信息与标准表达组合的配对数据,并存储在数据库中。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,用循环迭代得到的次级语言信息测试机器对于次级语言信息到标准表达的转换,并将不能被正确转换的次级语言信息及其应正确对应的标准表达写入对照表,对于后续输入的自然表达,由自然表达转换的次级语言信息先与对照表中存储的次级语言信息进行对比。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,在对次级语言信息与标准表达的配对数据进行循环迭代时,也对次级语言信息到标准表达的转换模型进行循环优化。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,当从输入的自然表达获得次级语言信息后,将该次级语言信息与数据库中已有的次级语言信息进行比较,然后根据比较结果来确定与该次级语言信息对应的标准表达或标准表达组合,和/或计算将该次级语言信息正确对应到某标准表达的概率,如果机器理解能力不够成熟,不足以或者不确定将该次级语言信息转换到某标准表达,那么进行人工辅助理解,通过人工对输入的自然表达进行理解,得到与某个或某些意图所对应的标准表达或标准表达组合,并且将从该自然表达得到的次级语言信息与标准表达或标准表达组合对应起来或者将自然表达与标准表达或标准表达组合对应起来,得到新的配对数据存入数据库。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,对于新的次级语言信息与标准表达或标准表达组合的配对数据或者新的自然表达与标准表达或标准表达组合的配对数据,将其中的次级语言信息或者由自然表达转换得到的次级语言信息的元素的各种排列组合与其中的标准表达或标准表达组合本身或者该标准表达或标准表达组合的元素的各种排列组合进行循环迭代,建立次级语言信息的元素的各种排列组合与标准表达或标准表达组合本身或者该标准表达或标准表达组合的元素的各种排列组合之间的对应关系,获得更多的次级语言信息与标准表达或标准表达组合的配对数据,并存储在数据库中。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,通过人工辅助理解纠正数据库中次级语言信息与标准表达或标准表达组合之间错误的对应关系。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,通过自信度来衡量机器理解能力,其中,基于次级语言信息与标准表达的对应关系来计算自信度。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,从自然表达得到次级语言信息之后,通过深度神经网络、有穷状态转换器、自动编码器解码器中的一个或多个来产生对单条或多条标准表达的对数概率或相类似分数,再利用归一化的指数函数来计算出对于该条或该多条标准表达的自信度。

根据本发明实施例的基于自然智能的自然表达处理方法,次级语言信息的信息颗粒度是文字的信息颗粒度的1/10~1/1000。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,通过多次理解或者多轮会话来从次级语言信息获取与多个意图对应的部分。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,在数据库中设置多个上位意图,在每个上位意图设置多个下位意图,在一次意图获取操作中,从次级语言信息获取与不同上位意图的各自下位意图对应的部分,并将这些部分转换为标准表达。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,对于与多个意图中的一个意图对应的标准表达,或者与多个意图中的一部分意图对应的标准表达的组合,预先在数据库中存储该标准表达和与该标准表达对应的自然表达或次级语言信息作为配对训练数据,或存储标准表达组合和与该标准表达组合对应的自然表达或次级语言信息作为配对训练数据,并利用这些配对训练数据进行训练。

根据本发明的一方面,提供了一种基于自然智能的自然表达处理及回应方法,其中包括:通过根据前述的自然表达处理方法获得标准表达或标准表达的组合;调用或生成与标准表达或标准表达的组合相匹配的标准回应;以与自然表达对应的方式输出标准回应。

根据本发明实施例的自然表达处理及回应方法,其中,标准回应是预先存储在回应数据库中的固定数据,或者基于变量参数和预先在回应数据库中存储的标准回应的基础数据来生成标准回应。

根据本发明的一方面,提供了一种基于自然智能的自然表达处理及回应设备,其中,包括:对话网关,中央控制器,mau工作站,机器人,表达数据库,回应数据库和回应生成器,其中,对话网关接收来自用户的自然表达,发送给中央控制器进行后续处理,并且将对自然表达的回应发送给用户;中央控制器接收来自对话网关的自然表达,并与机器人以及mau工作站协同工作,将该自然表达转换为与设置的多个意图对应的多个标准表达,并根据标准表达指示回应生成器生成与该标准表达对应的标准回应;机器人根据中央控制器的指示,将自然表达转换为次级语言信息,从次级语言信息获取与多个意图对应的部分,将获取的与多个意图对应的次级语言信息的部分分别转换为标准表达,其中,次级语言信息的信息颗粒度的数量级小于文字的信息颗粒度的数量级;mau工作站将自然表达呈现给外部的mau人工座席,mau人工座席通过mau工作站输入或者选择标准表达,然后mau工作站将该标准表达发送给中央控制器;训练数据库存储次级语言信息和标准表达或标准表达组合的配对数据;回应数据库存储回应相关数据,包括供调用的标准回应数据和/或用于生成回应的数据;回应生成器接收中央控制器的指令,通过调用和/或运行回应数据库中的数据来生成对用户的自然表达的回应,训练器,该训练器用于训练机器人将自然表达转换为标准表达或标准表达组合。

根据本发明的一方面,提供了一种基于自然智能的人机交互系统,其中,包括:自然表达处理及回应设备和呼叫设备,其中,用户通过呼叫设备与自然表达处理及回应设备通信,mau人工座席对自然表达处理及回应设备进行人工操作,自然表达处理及回应设备包括:对话网关,中央控制器,mau工作站,机器人,表达数据库,回应数据库和回应生成器,其中,对话网关接收来自用户的自然表达,发送给中央控制器进行后续处理,并且将对自然表达的回应发送给用户;中央控制器接收来自对话网关的自然表达,并与机器人以及mau工作站协同工作,将该自然表达转换为与设置的多个意图对应的多个标准表达,并根据标准表达指示回应生成器生成与该标准表达对应的标准回应;机器人根据中央控制器的指示,将自然表达转换为次级语言信息,从次级语言信息获取与多个意图对应的部分,将获取的与多个意图对应的次级语言信息的部分分别转换为标准表达,其中,次级语言信息的信息颗粒度的数量级小于文字的信息颗粒度的数量级;mau工作站将自然表达呈现给外部的mau人工座席,mau人工座席通过mau工作站输入或者选择标准表达,然后mau工作站将该标准表达发送给中央控制器;训练数据库存储次级语言信息和标准表达或标准表达组合的配对数据;回应数据库存储回应相关数据,包括供调用的标准回应数据和/或用于生成回应的数据;回应生成器接收中央控制器的指令,通过调用和/或运行回应数据库中的数据来生成对用户的自然表达的回应,训练器,该训练器用于训练机器人将自然表达转换为标准表达或标准表达组合。

根据本发明的一方面,提供了一种基于自然智能的自然表达处理方法,其中,包括:接收并存储自然表达,将自然表达转换为次级语言信息,计算将由自然表达转换的次级语言信息转换为数据库中的标准表达的自信度,当对于第一标准表达所计算的自信度不低于第一自信度阈值,输出第一标准表达作为对第一自然表达进行理解的结果;当自信度低于第一自信度阈值,静默座席对存储的自然表达进行理解,当静默座席能够理解自然表达,则由静默座席输入理解得到的第二标准表达;当静默座席不能理解自然表达,则静默座席提示再次输入具有相同含义的自然表达或者转由高级座席理解存储的自然表达并进行应答。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,知识库设计师根据高级座席对静默座席不能理解的自然表达的应答进行话术的后台构建。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,将由自然表达转换的次级语言信息与第二标准表达作为配对数据存储在数据库。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,基于次级语言信息与标准表达的对应关系来计算自信度,通过深度神经网络、有穷状态转换器、自动编码器解码器中的一个或多个来产生对单条或多条标准表达的对数概率或相类似分数,再利用归一化的指数函数来计算出对于该条或该多条标准表达的自信度。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,次级语言信息的信息颗粒度的数量级小于文字的信息颗粒度的数量级。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,次级语言信息的信息颗粒度是文字的信息颗粒度的1/10~1/1000。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,对于数据库中已有的成对的次级语言信息和标准表达,将该次级语言信息的元素的各种排列组合与该标准表达或者该标准表达的元素的各种排列组合进行循环迭代,建立次级语言信息的元素的各种排列组合与标准表达或标准表达的元素的各种排列组合之间的对应关系,获得更多的次级语言信息与标准表达的配对数据,并存储在数据库中。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,用循环迭代得到的次级语言信息测试机器对于次级语言信息到标准表达的转换,并将不能被正确转换的次级语言信息及其应正确对应的标准表达写入对照表,对于后续输入的自然表达,由自然表达转换的次级语言信息先与对照表中存储的次级语言信息进行对比。

根据本发明实施例的基于自然智能的自然表达处理方法,其中,在对次级语言信息与标准表达的配对数据进行循环迭代时,也对次级语言信息到标准表达的转换模型进行循环优化。

根据本发明的一方面,提供了一种基于自然智能的自然表达处理及回应方法,其中,包括:通过前述的自然表达处理方法获得第一标准表达或第二标准表达;调用或生成与第一标准表达或第二标准表达相匹配的标准回应;以与自然表达对应的方式输出标准回应。

根据本发明的一方面,提供了种基于自然智能的自然表达处理及回应设备,其中,包括:对话网关,中央控制器,mau工作站,机器人,训练数据库,回应数据库和回应生成器,其中,对话网关接收来自用户的自然表达,发送给中央控制器进行后续处理,并且将对自然表达的回应发送给用户;中央控制器接收来自对话网关的自然表达,并与机器人以及mau工作站协同工作,将该自然表达转换为表示该自然表达的含义的标准表达,并根据标准表达指示回应生成器生成与该标准表达对应的标准回应;机器人根据中央控制器的指示,将自然表达转换为次级语言信息,计算将由自然表达转换的次级语言信息转换为训练数据库中的标准表达的自信度,当对于第一标准表达所计算的自信度不低于第一自信度阈值,将次级语言信息转换为第一标准表达;mau工作站将自然表达呈现给外部的mau人工座席,其中,mau人工座席包括静默座席和高级座席,静默座席通过mau工作站输入或者选择标准表达,然后mau工作站将该标准表达发送给中央控制器,当计算得到的自信度低于第一自信度阈值,静默座席对存储的自然表达进行理解,当静默座席能够理解自然表达,则由静默座席输入理解得到的第二标准表达,当静默座席不能理解自然表达,则静默座席提示用户再次输入具有相同含义的自然表达或者转由高级座席理解存储的自然表达并进行应答;训练数据库用于存储次级语言信息和标准表达的配对数据;回应数据库存储回应相关数据,包括供调用的标准回应数据和/或用于生成回应的数据;回应生成器接收中央控制器的指令,通过调用和/或运行回应数据库中的数据来生成对用户的自然表达的回应。

根据本发明的一方面,提供了一种基于自然智能的人机交互系统,其中,包括:自然表达处理及回应设备和呼叫设备,其中,用户通过呼叫设备与自然表达处理及回应设备通信,mau人工座席对自然表达处理及回应设备进行人工操作,自然表达处理及回应设备包括:对话网关,中央控制器,mau工作站,机器人,训练数据库,回应数据库和回应生成器,其中,对话网关接收来自用户的自然表达,发送给中央控制器进行后续处理,并且将对自然表达的回应发送给用户;中央控制器接收来自对话网关的自然表达,并与机器人以及mau工作站协同工作,将该自然表达转换为表示该自然表达的含义的标准表达,并根据标准表达指示回应生成器生成与该标准表达对应的标准回应;机器人根据中央控制器的指示,将自然表达转换为次级语言信息,计算将由自然表达转换的次级语言信息转换为训练数据库中的标准表达的自信度,当对于第一标准表达所计算的自信度不低于第一自信度阈值,将次级语言信息转换为第一标准表达;mau工作站将自然表达呈现给mau人工座席,其中,mau人工座席包括静默座席和高级座席,静默座席通过mau工作站输入或者选择标准表达,然后mau工作站将该标准表达发送给中央控制器,当计算得到的自信度低于第一自信度阈值,静默座席对存储的自然表达进行理解,当静默座席能够理解自然表达,则由静默座席输入理解得到的第二标准表达,当静默座席不能理解自然表达,则静默座席提示用户再次输入具有相同含义的自然表达或者转由高级座席理解存储的自然表达并进行应答;训练数据库用于存储次级语言信息和标准表达的配对数据;回应数据库存储回应相关数据,包括供调用的标准回应数据和/或用于生成回应的数据;回应生成器接收中央控制器的指令,通过调用和/或运行回应数据库中的数据来生成对用户的自然表达的回应。

根据本发明的一方面,提供了一种对基于自然智能的人机交互系统进行训练的方法,其中包括:生成与标准表达对应的文字脚本,通过文本语音转换工具得到与文字脚本对应的语音,将各条语音分别转换为次级语言信息,其中,次级语言信息的信息颗粒度的数量级小于文字的信息颗粒度的数量级,次级语言信息和与其对应标准表达作为配对数据被存储在数据库,对于数据库中已有的成对的次级语言信息和标准表达,将该次级语言信息的元素的各种排列组合与该标准表达或者该标准表达的元素的各种排列组合进行循环迭代,建立次级语言信息的元素的各种排列组合与标准表达或或标准表达的元素的各种排列组合之间的对应关系,获得更多的次级语言信息与标准表达的配对数据,并存储在数据库中。

根据本发明实施例的对基于自然智能的人机交互系统进行训练的方法,其中,输入语音,将输入的语音转换为次级语言信息,将从输入的语音转换得到的次级语言信息与数据库中已有的次级语言信息进行比较,然后根据比较结果来确定与该次级语言信息对应的标准表达,和/或计算将该次级语言信息正确对应到某标准表达的概率,如果机器理解能力不够成熟,不足以或者不确定将该次级语言信息转换到某标准表达,那么进行人工辅助理解,通过人工对输入的语音进行理解,得到标准表达,并且将从该语音得到的次级语言信息与该标准表达对应起来,得到新的配对数据存入数据库。

根据本发明实施例的对基于自然智能的人机交互系统进行训练的方法,其中,对于新的次级语言信息与标准表达或标准表达组合的配对数据或者新的自然表达与标准表达或标准表达组合的配对数据,将其中的次级语言信息或者由自然表达转换得到的次级语言信息的元素的各种排列组合与其中的标准表达或标准表达组合本身或者该标准表达或标准表达组合的元素的各种排列组合进行循环迭代,建立次级语言信息的元素的各种排列组合与标准表达或标准表达组合本身或者该标准表达或标准表达组合的元素的各种排列组合之间的对应关系,获得更多的次级语言信息与标准表达或标准表达组合的配对数据,并存储在数据库中。

根据本发明实施例的对基于自然智能的人机交互系统进行训练的方法,其中,通过人工辅助理解纠正数据库中次级语言信息与标准表达或标准表达组合之间错误的对应关系。

根据本发明实施例的对基于自然智能的人机交互系统进行训练的方法,其中,通过自信度来衡量机器理解能力,其中,基于次级语言信息与标准表达的对应关系来计算自信度。

根据本发明实施例的对基于自然智能的人机交互系统进行训练的方法,其中,从自然表达得到次级语言信息之后,通过深度神经网络、有穷状态转换器、自动编码器解码器中的一个或多个来产生对单条或多条标准表达的对数概率或相类似分数,再利用归一化的指数函数来计算出对于该条或该多条标准表达的自信度。

根据本发明实施例的对基于自然智能的人机交互系统进行训练的方法,次级语言信息的信息颗粒度是文字的信息颗粒度的1/10~1/1000。

根据本发明实施例的对基于自然智能的人机交互系统进行训练的方法,其中,用循环迭代得到的次级语言信息测试机器对于次级语言信息到标准表达的转换,并将不能被正确转换的次级语言信息及其应正确对应的标准表达写入对照表,对于后续输入的自然表达,由自然表达转换的次级语言信息先与对照表中存储的次级语言信息进行对比。

根据本发明实施例的对基于自然智能的人机交互系统进行训练的方法,其中,在对次级语言信息与标准表达的配对数据进行循环迭代时,也对次级语言信息到标准表达的转换模型进行循环优化。

根据本发明的一方面,提供了一种基于自然智能的语音处理及回应设备,其中,包括:对话网关,中央控制器,mau工作站,机器人,训练数据库,回应数据库,回应生成器,文本语音转换器,其中,对话网关接收来自用户的语音,发送给中央控制器进行后续处理,并且将对语音的回应发送给用户;中央控制器接收来自对话网关的语音,并与机器人以及mau工作站协同工作,将该语音转换为表示该语音的含义的标准表达,并根据标准表达指示回应生成器生成与该标准表达对应的标准回应;机器人根据中央控制器的指示,将语音转换为次级语言信息,其中,次级语言信息的信息颗粒度的数量级小于文字的信息颗粒度的数量级,并将次级语言信息转换为标准表达;mau工作站将语音呈现给外部的mau人工座席,mau人工座席通过mau工作站输入或者选择标准表达,然后mau工作站将该标准表达发送给中央控制器;训练数据库用于存储次级语言信息和标准表达的配对数据;回应数据库存储回应相关数据,包括供调用的标准回应数据和/或用于生成回应的数据;回应生成器接收中央控制器的指令,通过调用和/或运行回应数据库中的数据来生成对用户的语音的回应,文本语音转换器,基于与标准表达对应的文字脚本生成与该文字脚本对应的语音,机器人将文本语音转换器得到的语音转换为次级语言信息,并将该次级语言信息与相应文本所对应的标准表达构成配对数据存储在训练数据库,其中,设备进一步包括训练器,该训练器用于训练机器人将语音转换为标准表达,其中,机器人将次级语言信息的元素的各种排列组合与对应的标准表达或者该标准表达的元素的各种排列组合进行循环迭代,建立次级语言信息的元素的各种排列组合与标准表达或标准表达的元素的各种排列组合之间的对应关系,获得的次级语言信息与标准表达的配对数据,存储在训练数据库中。

根据本发明的一方面,提供了一种基于自然智能的人机交互系统,其中,包括:自然表达处理及回应设备和呼叫设备,其中,用户通过呼叫设备与自然表达处理及回应设备通信,mau人工座席对自然表达处理及回应设备进行人工操作,自然表达处理及回应设备包括:对话网关,中央控制器,mau工作站,机器人,训练数据库,回应数据库,回应生成器,文本语音转换器,其中,对话网关接收来自用户的语音,发送给中央控制器进行后续处理,并且将对语音的回应发送给用户;中央控制器接收来自对话网关的语音,并与机器人以及mau工作站协同工作,将该语音转换为表示该语音的含义的标准表达,并根据标准表达指示回应生成器生成与该标准表达对应的标准回应;机器人根据中央控制器的指示,将语音转换为次级语言信息,其中,次级语言信息的信息颗粒度的数量级小于文字的信息颗粒度的数量级,并将次级语言信息转换为标准表达;mau工作站将语音呈现给外部的mau人工座席,mau人工座席通过mau工作站输入或者选择标准表达,然后mau工作站将该标准表达发送给中央控制器;训练数据库用于存储次级语言信息和标准表达的配对数据;回应数据库存储回应相关数据,包括供调用的标准回应数据和/或用于生成回应的数据;回应生成器接收中央控制器的指令,通过调用和/或运行回应数据库中的数据来生成对用户的语音的回应,文本语音转换器,基于与标准表达对应的文字脚本生成与该文字脚本对应的语音,机器人将文本语音转换器得到的语音转换为次级语言信息,并将该次级语言信息与相应文本所对应的标准表达构成配对数据存储在训练数据库,其中,设备进一步包括训练器,该训练器用于训练机器人将语音转换为标准表达,其中,机器人将次级语言信息的元素的各种排列组合与对应的标准表达或者该标准表达的元素的各种排列组合进行循环迭代,建立次级语言信息的元素的各种排列组合与标准表达或标准表达的元素的各种排列组合之间的对应关系,获得的次级语言信息与标准表达的配对数据,存储在训练数据库中。

附图说明

为了更清楚地说明本发明实施例的技术方案,下面将对实施例的附图作简单地介绍,显而易见地,下面描述中的附图仅仅涉及本发明的一些实施例,而非对本发明的限制。

图1概括示出了从采集的声波(a语言信息)到y语言信息的逐层转换过程;

图2示出了从采集的声波(a语言信息)到y语言信息的转换的一个例子;

图3示出了对语音信息进行识别的一个例子;

图4是多层感知的原理示意图;

图5示出了一个利用高斯混合模型将采集的声波转换为x语言信息的例子;

图6示意性地示出了根据本发明一个实施例的自然表达处理方法的流程;

图7示意性地示出了根据本发明一个实施例的自然表达处理及回应方法的流程;

图8示意性地示出了根据本发明一个实施例的基于自然智能的人机交互系统的信息萃取和槽填充流程;

图9进一步示例性地示出了“订机票”问询项下的自然表达槽填充处理流程;

图10示意性示出了根据本发明实施例的智能人机交互系统;

图11进一步示出了图10系统中的智能应答设备的部分结构;

图12a~图12p示意性地示出了根据本发明实施例的意图获取和槽填充系统的操作界面;

图13示意性地示出了根据本发明实施例的机器人理解与人工辅助理解(mau)相结合的自然表达处理过程;

图14示意性地示出了一个由mau工作站呈现给mau人工座席9的操作界面的例子;

图15示出了智能人机交互的一个例子。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其它实施例,都属于本发明保护的范围。

除非另作定义,此处使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明专利申请说明书以及权利要求书中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。同样,“一个”或者“一”等类似词语也不表示数量限制,而是表示存在至少一个。

人工智能(ai)是基于计算机技术和传统it技术建立的,简单讲,就是通过人为建立计算机可以执行的规则,来模仿人类智力活动的结果,其背后的核心逻辑是黑白逻辑(distinctlogic)。而自然智能(ni,naturalintelligence)虽然也是通过计算机技术实现,但却是模仿人类智力活动本身,由计算机自己构建规则,其背后的核心逻辑是灰度逻辑(fuzzylogic)。

在自然语言处理(nlp)领域,基于人工智能的自然语言处理技术(ai-nlp技术)需要先将自然语言的语音转写为文本,然后再进行自然语言理解(nlu,naturallanguageunderstanding)。采用这种方法如下所述有很大的弊端,但这其中有其历史的原因。

一方面,人工智能技术在自然语言处理领域的发展起源于机器翻译,即,将一段某种语言的文字翻译为另一种语言的文字,以两种语言文字的准确对应为价值导向。并且采用概率和统计的方法基于语法规则对自然语言进行处理。但是,对于随意性较强的非书面语或者文义容易高度模糊的长串句子,当套用实际语法进行分析时可能会产生出成千上万种可能性。尽管可以采用诸如语料库及马可夫模型(markovmodels)等方法减少歧义,但是仍然要求建立含有庞大数据量的配对语料的语料库供计算机学习和使用。而无论生成配对语料(往往通过人为标注)所需的数据收集、语法模型和语义模型的建立、还是检索和反馈所需的计算,都需要非常大的计算资源和成本。

基于人工智能的语音识别技术作为上述机器翻译技术的延伸,也是采用相同的方法论和类似的方法,通过收集和标注而生成语音和文本之间的配对语料、利用语法模型、语义模型等进行学习,仍然以语音识别的准确度为价值取向。

但是,由于自然语言理解或意图识别并不要求对每个字都进行准确严谨的翻译或识别,因此上述思路和方法实际上带来了巨大的资源浪费。

另一方面,这种先将语音识别为文本再对所识别的文本进行理解的方法本身使得语言理解的准确度存在一个并不高的理论极限。这是因为,将语音识别为文本的过程本身损失了大量的信息(例如,5分钟双声道、16位采样位数、44.1khz采样频率声音的不压缩数据量约50mb,而如果按照每分钟200汉字的语速,五分钟1000汉字,对应的数据量为2kb,相差25000倍),而这部分损失的信息很可能包含了语言理解所需的关键信息。换句话说,识别出的文本与原始语音相比,信息颗粒度是非常粗的。例如,类似前面所述的例子,对于具有10个字的一句话,如果其中的关键字是3个且识别错1个关键字就会造成理解错误,那么即使能够保证90%的识别准确率,理解正确的概率也只有70%;即使能够通过文字之间的关联信息一定程度上减小因识别错1个或者多个关键字而造成理解错误的概率,整体理解正确率也不会比70%高多少。例如,业界称80%准确率瓶颈为“ai商用的世纪魔咒”。

自然智能是对于人类智能行为的模仿,人类智能行为本身就是基于灰度逻辑的。具体在与外界交互过程中,人脑并非先将从外部感知的表达(声音、图像、接触、味道等)转换为文本,再进行理解,而是直接对通过感觉器官感知获得的信息进行分析理解。该理解基于已有知识和经验(经验也可以理解是概然性)从感知的信息获得外部表达的含义,因此实际上是可能有偏差的。例如,观察者看到一个人在摇头,通常会认为被观察者表达了否定的态度。不过如果观察者意识到自己身处印度,被观察者是印度人,并且了解印度人轻微摇头(晃头)多表示肯定态度的话,那么观察者对于该表达(摇头)的理解就会是正确的,尽管这与一般认知相反;而如果观察者不具有这样的知识和经验,那么他/她就可能做出错误的判断,但是观察者仍然可以通过被观察者面部表情、肢体动作或手势等表达来纠正自己的判断(这个问题实际中更加复杂,如果被观察的印度人是面无表情或者微笑但两眉较为靠近眉心地左右上下摇晃头,那么他更可能表达的是“不置可否”的态度)。

而对于人工智能来说,它可以通过图像识别或视频识别来将所述外部表达识别为描述动作的文本——“摇头”或者“某某人轻轻摇头”或者更长的语句,但是其不能根据所识别出的文本内容本身对基于一般认知规则在此的适用结果是否正确进行校验。这是因为,人工智能只采集了用于判断动作(可以例如包括动作主体)本身的信息来进行识别,而滤除了其它的信息,但这些被滤除的信息中恰巧包括了用于判断该动作所表达的真实意图的关键信息。并且这些关键信息的损失是不可逆的,并不能从描述所识别的动作的文本中重新获得。

再举一个自然语言理解的例子。听到一句话“tianshanghuihuii”,可能识别为“天上灰灰地”或者“天上灰灰鸡”,但是如果具有对咿呀学语的孩童的表达或者对于口齿不清的人都表达具有理解能力,甚至有对演变而来的网络语言的理解能力,则会理解到该语音正确的含义是“天上飞飞机”。

从上面这个关于自然语言理解的例子我们也可以想到,不掌握文字的孩童或者原始文明,可以清晰地通过语言来表达和沟通自己的意图,这也是自然智能相比人工智能更接近人类智能原因所在——自然智能能够处理文本但不依赖文本,但人工智能依赖文本作为识别和理解的媒介。

以下我们以自然语言处理为例,进一步阐述自然智能与人工智能的异同。

如图1所示,为了便于说明,我们将不同的信息用字母a-d和x-y表示。

a语言,即声波,是由声波采集设备(如:麦克风)收集的物理层数据。

“b语言”,是由b元素的各种排列组合形成的语言。b元素可以是音素,而b元素的某些排列组合构成音节。这里的“音素”和“音节”与其在语言学范畴下的含义相同。图2中示出了b元素的例子,这些例子是中文(汉语)的音素。

“c语言”是由c元素的各种排列组合形成的语言。b元素的全部或部分排列组合形成c元素,因此也可以理解为b语言转换为c元素,而c元素构成了c语言。于是,从b语言到c语言的转换关系是“多对多”的关系。如果沿用音素、音节的语言学体系,c元素对应于自然语言中的“字”。图2中示出了c元素的例子,这些例子是中文的字。

“d语言”是由d元素的各种排列组合形成的语言。c元素的全部或部分排列组合形成d元素,因此也可以理解为c语言转换为d元素,而d元素构成了d语言。于是,从c语言到d语言的转换关系也是“多对多”的关系。如果沿用音素、音节、字的语言学体系,d元素对应于自然语言中的“词”或“短语”。图2中示出了d元素的例子,这些例子是中文的词。

图2中的“c语言”例子和“d语言”的例子看上去内容相同,均由“我”、“的”、“信”、“用”、“卡”、“丢”、“了”顺序组成,但是,熟悉中文的人可以知道,仅从c语言来进行理解,会产生很大的多义性,而转换为“d语言”后,该表达的含义就比较确定了。对于其它语种而言,从字→词或短语的转换对于语义理解也是十分重要的,特别是由智能系统(语音机器人)实现语音识别的情况下。根据不同的自然语言,“字”和“词”,也就是c语言信息和d语言信息,也可能归为一个语言信息层级。

如果基于前述ai的原理进行自然语言处理或者自然语言理解(nlu),那么参考图3,是沿着a→b→c或d的路径,也可以是a→b→c→d。也就是前述的将采集到的语音(声波)转换为文本的过程。

其中,从a语言信息(声波)到b语言信息(音素)的转换,一般可以由机器人比较准确地自动完成。但是,从b语言信息(音素)到c语言信息(字)的转换,可能会发生较高的错误率。例如,以中文为例,如图3例子所示,客户输入的原始语言信息为“乒乓球拍卖完了”,可能因为客户发音或口音的问题,“乒乓球”可能被分别识别为“平板就”,“拍”可能被识别为“怕”,结果这段声波最终被转换成“平板就怕卖完了”七个字。为了提高机器人的识别准确度,特别是针对诸如上述发音或口音的问题,需要对机器人的识别结果进行纠正,通常采用人工辅助识别的方式。此阶段的人工辅助识别称为转写(transcription)。所谓转写,就是转写人员通过使用特定的转写工具,将“声波”(a语言信息)进行精准切割,然后将切割出来的波段各自转成相应的“字”(c语言信息),也就是为机器人定义a语言(声波)→c语言(字)的转换/翻译关系。切割是否精准,关键取决于转写人员是否足够细心,对转写工具掌握的熟悉程度;而能否准确转成相应的“字”,关键取决于转写人员对这段声波所处的语境,以及上下文(位于这段声波前后的其他声波),是否已经准确理解。特别是汉字,同音字很多,也加大了转写人员精准工作的难度。

接下来,从c语言信息(字)获得d语言信息(词、短语)。从字到词的转换同样会发生歧义,如前例,即使从声波到字的识别是准确的,得到了“乒乓球拍卖完了”七个字的顺序排列结果,但是仍然会转换为至少“乒乓球拍+卖+完了”和“乒乓球+拍卖+完了”两种结果,其含义显然是不同的。同样,可以采取人工辅助识别来进行纠正。此阶段的人工辅助识别称为关键字切割(keywordspotting),也可以简称为“切词”,就是切词人员将转写出来的“字”(c语言信息)进行组合,形成“词(关键字)”(d语言信息),也就是为机器人定义c语言(字)→d语言(词)的转换/翻译关系。切词是否准确,往往取决于切词人员对业务知识的掌握程度。针对不同的领域,需要熟悉该领域业务内容和用语的人员进行切词操作,其成本也会比转写有所提高。

最后,从d语言信息理解意思(即y语言信息)。仅仅获得了一定顺序排列的词语,往往还不能准确了解客户的真实含义。例如,客户说“我的信用卡不见了”,机器人识别不出其含义,技术员就将“我的”、“信用卡”、“不见了”作为新的关键字放入数据库的语法表中;另一个客户说:“俺的刷刷卡丢了”,机器人又识别不出其含义,技术员就将“俺的”、“刷刷卡”(就是“信用卡”的意思)、“丢了”作为新的关键字放入数据库的语法表中。这样,通过人工辅助的方式,将客户的含义或者需求加以理解,并归纳加入数据库。这种人工辅助识别称为关键字堆砌(keywordpile-up),简称为“堆词”,就是积累“词”的排列组合,并根据其的含义予以归纳入数据库。这项工作的工作量也是巨大的,并且也需要训练人员的专业知识来辅助理解。

如果依照a→b→c→d→y的多层“多对多”关系转换,在学术上被称为多层感知(mlp,multi-layerperception),如图4所示的原理,其弊端在于:每做一次转换,都会造成原始信息在某种程度上的失真,同时也会给系统增加更多的处理负荷,造成进一步性能损失。转换的次数越多,原始信息的失真越厉害,而系统的处理速度也越慢。同理,由于在前述处理过程中的机器人训练均需要人工辅助识别的介入,一方面会产生很高的工作量和成本,另一方面多次人为介入也会提高出错的概率。

x语言是对a语言数据进行语音信号处理(ssp,speechsignalprocessing)后所得到的逻辑层数据,本发明实施例中称之为“x语言”。x语言是由x元素的各种排列组合形成的语言。x元素是系统通过某种建模工具,如:高斯混合模型(gmm,gaussianmixturemodel),将声波自动切割成的高低不同的若干柱状元素。图5示出了一个利用高斯混合模型将采集的声波(以直方图表示)转换为x元素(以矢量量化直方图表示)的例子。

根据不同的建模工具,应用于不同的自然语音集,x元素的数量可以控制在一定的范围内(例如,200以下)。根据本发明的实施例,可以将2位ascii字符的组合定义为x元素的id,如图2所示。也就是说,x元素的数量最高可达16,384(128x128=16,384),可以满足未来因声波建模技术的进一步发展而需增加x元素数量的需求。切割后的声波单元与x元素是一一对应的,由于a语言信息可以认为是声波单元的组合,x语言信息是x元素的组合,因而从a语言到x语言的转换关系是“多对多”的关系。在图3中也示出了用ascii字符表示的x元素的例子。

基于前述ai的原理进行自然语言处理或者自然语言理解的过程中,并不涉及x语言信息,之所以在图1、图2和图3中标识出了x语言(x元素)层,一方面是说明从信息颗粒度的角度x元素是位于声波和音素之间的;另一方面说明进行自然语言处理或者自然语言理解也是可以采用a→x→b→c或d以及a→x→b→c→d的路径,也就是说,将x元素作为a语言(声波)与b语言(音素)之间转换的中间数据也是可以的。

“y语言”,如图1和图2所示,是指对原始自然语言信息a进行理解后获得的体现“意思”或者“含义”的语言信息。本发明实施例所定义的“标准表达”即为“y语言”的一种形式。根据本发明的实施例,例如:银行业可以用业务编码“21”代表“信用卡挂失”的含义;可以用业务编码“252”代表“信用卡部分还款”的含义,而“252-5000”(需求代码=252,需求参数=5000)则代表“信用卡还款5000元”的含义;娱乐业可以用编码“24”代表“观看电影”的含义,而“24-中国合伙人”(需求代码=24,需求参数=“中国合伙人”)则代表“观看电影《中国合伙人》”的含义。

简单而言,基于自然智能的自然语言处理或者自然语言理解,首先将来自用户的以物理数据形式表现的无规则的自然表达信息,例如,声波(即“a语言信息”),通过某种建模工具,进行基本的自动识别或转换,得到以若干基本元素(“x元素”)排列组合的形式表现的语言信息(“x语言信息”),然后将从a语言信息识别或转换得到的x语言信息再转换成某种形式的标准表达(“y语言信息”)。也就是说,采用a→x→y的处理路径,而无需转换为“字”和“词”(“c语言信息”和“d语言信息”),也无需转换成音素(“b语言信息”),如前所述,这是自然智能与人工智能在自然表达处理中很重要的不同点。可以看出,这种不同是处理路径的不同,也是方法论上的不同。于是可以省去b→c→d→y的多层“多对多”关系转换,提高表达信息转换的正确率和效率,也可以降低人工辅助识别的工作量和出错率。

与前述的基于人工智能进行自然表达处理相比,基于自然智能的自然表达处理在处理非文字信息的表达时,无需将该表达转换为文本,而是转换为x语言信息,这种x语言信息具有比文字细得多的信息颗粒度,因此如前所述具有更高的关键信息识别准确度。例如,x语言信息的信息颗粒度与文字的信息颗粒度是在数量级上的差异,如果文字的信息颗粒度是1,那么x语言信息的信息颗粒度是1/10、1/100、1/1000等等的数量级;另一方面,由于x语言信息是对a语言信息(声波、图像等)进行采样和转换得到的,因此x语言信息比a语言信息的信息颗粒度粗,例如沿用之前的比例关系,如果文字的信息颗粒度是1,那么声波的信息颗粒度是诸如1/10000,1/100000,1/1000000等等。前述的b语言信息(由音素构成)、c语言信息(由音节构成)、d语言信息(由词或短语构成),基本上与文字的信息颗粒度处于同一数量级,因此它们在与x语言信息进行信息颗粒度层面的对比时,与文字是相似的。

关于信息颗粒度与表达理解准确度的关系,例如,对于语言表达“ilostmycreditcart”,而正确的表达应该是“ilostmycreditcard”,如果以单词为信息颗粒单位,那么最后一个词“card”错误,理解的错误率会是1/5=20%,则理解正确率为80%;如果以字符(包括空格)为信息颗粒单位,那么最后一个字符“d”错误,理解的错误率会是1/22=4.55%,则理解正确率为95.45%。

基于同样的原理,如果采用更细的信息颗粒度,那么理论上有更高的正确率。根据我们上线产品的实测数据,采用更细信息颗粒度的x基元,可以获得95%以上甚至更高的理解准确率,轻松突破前述的“ai商用的世纪魔咒”。

另一方面,在处理文字信息的表达时(即a语言信息是文字信息的情况),因为y语言信息是基于前述的灰度逻辑与a语言信息对应的,也就是说,a语言信息到y语言信息的对应可以容忍较大的模糊度。更有利的是,由于不需要将a语言信息转换为某种人类语言的文本,因而不会受到同音字和语法的限制,也不会受到说话方式的限制。因此,基于自然智能的方法,从a语言信息到y语言信息的对应可以适用于方言和混合语言或混合语音,例如,汉语中夹杂英语,粤语中混合普通话,上海话中混合英语和普通话,以及更多的细分语言、方言及其混合,甚至还可以适用于多种说话方式的混合,而且理解准确率不会受到影响。对于人工智能的nlp技术,即使做出海量语法模型并付出极大成本,也无法获得高理解准确率。实际上,对于ai而言,混合语种、混合方言、混合说话方式等情况会造成语法模型的指数增长,是根本无法实现的。

以上用自然语言处理和自然语言理解作为例子说明自然智能与人工智能的异同。人类的自然表达方法是多种多样的,例如,可将来自客户的自然表达,即“a语言信息”分为以下四大类:文字信息、语音信息、图像信息、动画信息。其中,文字信息表达可以是:客户通过键盘输入文本表达自己,例如,客户在一家银行的互联网通道呼叫中心用户界面上键入“我的储蓄账户里还有多少钱?”;图像信息表达可以是:客户通过图像表达自己,例如,客户通过电脑桌面截屏工具,将使用某种软件的出错信息,以图像的方式表达自己所遇到的问题;语音信息表达可以是:客户通过说话表达自己,例如,客户与一家银行的服务热线(电话通道呼叫中心)客服专员对话,期间在电话上说:“你说的到底是什么意思?我不是太明白”;动画(或称“视频”)信息表达可以是:客户通过在镜头前摇头以表达自己不同意(这类似于前述的一般情况)。

在基于自然智能进行自然表达处理时,首先,将客户的自然表达(a语言信息)进行自动识别或转换,得到以某种语言形式表示的信息。如果a语言信息是语音信息,那么例如可以通过建模工具采集声波波形信息并通过系统(智能机器人)自动识别或转换为某种(对应于语音信息)的x语言;如果a语言信息是图形信息,那么例如可以通过建模工具采集图形像素信息并通过系统(智能机器人)自动识别或转换为(对应于图像信息的)x语言;如果a语言信息是动画信息,那么例如可以通过建模工具采集图形像素信息和图像变化速度信息并通过系统(智能机器人)自动识别或转换为(对应于动画信息的)x语言;如果a语言信息是文字信息,则将文字信息转换为以字符为单位(基元)的x语言或者无需转换。

然后,对以上从a语言信息自动转换得到的x语言信息或无需转换的文字信息进一步处理,得到计算机或其它处理设备能够“理解”的规则化标准表达(y语言信息)。y语言信息可被计算机业务系统进行自动处理。

根据本发明的实施例,可以用规则化的编码来实现所述规则化标准表达(y语言信息)。例如,采用如下的数字+英文字母的编码方式,其包括行业代码,行业业务代码,机构代码,机构业务代码和表达信息代码。

(1)行业代码

主行业(2位英文字母,最多26×26=676个主行业)

子行业(3位英文字母,每个主行业最多有26×26×26=17,576个子行业)

(2)行业业务代码

一级行业业务范畴(1位数字0-9)

二级行业业务范畴(1位数字0-9)

三级行业业务范畴(1位数字0-9)

四级行业业务范畴(1位数字0-9)

五级行业业务范畴(1位数字0-9)

六级行业业务范畴(1位数字0-9)

七级行业业务范畴(1位数字0-9)

八级行业业务范畴(1位数字0-9)

九级行业业务范畴(1位数字0-9)

十级行业业务范畴(1位数字0-9)

(3)机构代码(uid)(24位数字=国家号3位+城市号3位+机构号18位)

(4)机构业务代码

一级机构业务范畴(0-9)

二级机构业务范畴(0-9)

三级机构业务范畴(0-9)

四级机构业务范畴(0-9)

五级机构业务范畴(0-9)

(5)表达信息代码

信息类型代码(2位数字1-99)

语言代码(使用rfc3066标准:http://tools.ietf.org/html/rfc3066,如zh-cn代表“简体中文”)

方言代码(3位数字1-999)

其中,行业代码表示来自客户的无规则自然表达(a语言信息)所指向的提供服务的主体所在的行业,例如,可以用2位英文字母表示,则可以涵盖676个行业,可选地,增加3位英文字母的子行业代码,可增加涵盖每个行业的17576个子行业。这样,该编码基本上可以涵盖所有常见的行业;行业业务代码表示来自客户的a语言信息所指向的服务需求,同样可以用多位阿拉伯数字表示,例如,采用10位数字进行编码,可以涵盖更多的行业业务范畴;机构代码表示来自客户的a语言信息所指向的提供服务的主体,例如,可以标识该机构所在国家和城市;机构业务代码表示提供服务的主体的内部个性化业务划分,便于机构进行个性化内部管理;表达信息代码表示客户的a语言信息本身的标识性信息,可以包括信息的类型、语言的类型等等,用数字和字母表示。

以下是根据以上编码方式的规则化标准表达(y语言信息)的两个例子:

例一:fsbnk27100000000860109558800000000000000000002zh-cn003

其中,

行业代码为,

·fs=financialservice金融服务(主行业)

·bnk=bank银行(子行业)

行业业务代码为,

·2710000000=一级行业业务范畴—2(信用卡)二级行业业务范畴—7(调整信用额度)三级行业业务范畴—1(增加信用额度)0000000(再无更细分范畴)

机构代码为,

·086010955880000000000000=国家号086(中国)010(北京)955880000000000000(中国工商银行总行)

机构业务代码为,

·00000=无机构业务范畴(在这个y语言信息中,没有“中国工商银行总行”这个机构自己定义的机构业务范畴,即表示:该y语言信息完全属于行业业务范畴,为银行业通用。)

表达信息代码为,

·02=语音(客户提供的a语言信息类型为“语音”)

·zh-cn=大陆中文

·003=广东话方言

在此例子中,该y语言信息所对应的a语言信息可以是,诸如,“我的信用卡额度太少了”,“我想增加我的信用卡额度”,“我要减低我的信用卡额度”,“我需要调整信用卡额度”等等语音信息。

在一些特定的应用情形,特别是提供服务的主体确定的情况,上述的行业代码、机构代码和机构业务代码都可以作为系统缺省值预设。也就是说,仅从客户提供的a语言信息中获得业务代码和表达信息代码即可,在这种情况下,可以将y语言信息表示为“271000000002zh-cn003”;或者,如果针对特定应用3位数字表示行业业务代码就够了,则可以进一步表示为“27102zh-cn003”;再者,如果仅针对语音服务,则可以表示为“271zh-cn003”;如果只考虑客户的需求表达,而不关心表达自身的类型信息,甚至仅用“271”表示即可。例二:tvtkt11200000000014047730305000000000001240003fr-ch000

·tv=travelingservice旅游服务(主行业)

·tkt=ticketing票务(子行业)

·1120000000=一级行业业务范畴—1(飞机票)二级行业业务范畴—1(机票改签)三级行业业务范畴—2(延后)0000000(再无更细分范畴)

·001404773030500000000000=国家号001(美国)404(乔治亚州、亚特兰大市)773030500000000000(美国delta航空公司)

·12400=一级机构业务范畴—1(折扣票)二级机构业务范畴—2(淡季)三级机构业务范畴—4(亚太区)00(再无更细分范畴)

·03=图像(客户提供的a语言信息类型为“图像”,如:客户在delta官方网站上进行机票改签操作时,遇到系统报错,客户将屏幕截图,作为向delta客服求助的自然表达。)

·fr-ch=瑞士法文

·000=无方言

在此例子中,y语言信息所对应的a语言信息是通过图像识别得到的。同理,在提供服务的主体确定的情况,上述的行业代码、机构代码可以作为系统缺省值预设。在这种情况下,可以将y语言信息表示为“11200000001240003fr-ch000”;如果只考虑客户的需求表达,而不关心表达自身的类型信息,仅用“112000000012400”表示即可;如果针对特定应用3位数字表示行业业务代码,3位数字表示机构业务代码,仅用“112124”表示即可。

以上只是根据本发明实施例的规则化标准表达(y语言信息)的例子,可以采用不同的代码位数和代码排列顺序,也可以采用不同的代码表示或编码方式。采用这种代码化的方式来表示所理解的表达意图,可以减少人工辅助理解所需要的人工输入工作量,更便捷地和实时地实现人工辅助理解。

来自客户的自然表达(a语言信息)往往体现了该客户的具体需求,如前所述,首先将客户的a语言信息自动转换为x语言信息或无需转换的语言信息(当a语言信息是文字信息的时候),然后将x语言信息或文字语言信息转换为编码形式的标准表达(y语言信息)。在前面的例子中,y语言信息可以包括行业代码,行业业务代码,机构代码,机构业务代码和表达信息代码。可选地,a语言信息也可以包括体现客户需求范畴下的具体参数(可称之为“需求参数”),如:“转5000块给张三”(例一)、“我想看一部电影,叫《中国合伙人》”(例二)等等。特定的需求代码集(例如包括前述的行业代码,行业业务代码,机构代码,机构业务代码和表达信息代码中的一种或多种)对应特定的参数集。如上例二,若“看电影”的需求代码是123,其对应的参数集可以包括参数:电影名称。那么。这个a语言信息对应的y语言信息是“123<中国合伙人>”。123是需求代码,<>里的五个中文字是需求参数。在y语言信息中将需求代码与需求参数区分的方式有多种,可以是利用诸如“<>”的符号,也可以是用空格,还可以用特定顺序排列等方式。

上述的用代码来表示规则化的标准表达的例子,特别可以应用于交互式语音应答系统(ivrs,interactivevoiceresponsesystem)。交互式语音应答(ivr,interactivevoiceresponse)是一种基于电话的语音增值业务的统称。很多机构(如银行,信用卡中心,电信运营商等)都通过交互式语音应答系统(ivrs)向客户提供各式各样的自助服务,客户可拨打指定的电话号码,进入系统,根据系统之指示,键入适当的选项或个人资料,以听取预录之信息,或经计算机系统根据预设的程序(callflow)组合数据,以语音方式读出特定的资料(如户口结余、应付金额等),还可通过系统输入交易指示,以进行预设的交易(如转账、更改密码、更改联系电话号码等)。机构可以构建专用的标准表达的代码化规则以及基于标准表达的对话术,从而规范内部的客服对话数据体系,并进行数据的保护(第三方即使获知该机构的y语言信息,也无法了解代码对应的对话数据)。另一方面,智能表达处理引擎的服务商在提供a语言信息到y语言信息的转换服务中,即使了解了a语言信息的数据和对应转换得到的y语言信息(例如,一组数字或数字+字母的代码),也不会知道该y语言信息在用户机构的客服对话数据库中所对应的含义,从而能够提供数据安全的智能表达处理服务。

前述的将a语言信息转换为x语言信息的过程,可以通过语音信号处理技术、语音识别技术、图像识别技术和视频处理技术来实现,这些技术也可以是已有的技术。实际上,根据本发明实施例的编码化标准表达思想也可以被应用到自然表达的识别处理中,通过规则化的编码来表示x语言信息。

根据本发明实施例的自然表达处理方法,首先对客户的自然表达(a语言信息)进行自动转换得到x语言信息,或无需转换直接得到c语言信息(当a语言信息是文字信息的时候);然后将x语言信息或c语言信息转换为y语言信息。从而省去a→b→c→d→y的多层“多对多”关系转换,可以提高表达信息转换的正确率和效率,也可以降低人工辅助识别的工作量和出错率。

具体地,根据本发明实施例的技术,首先通过建模工具,将文本、语音、图形、视频这些非规则化的自然表达信息转换成x语言信息;然后将x语言作为左侧语言,y语言作为右侧语言,通过使用机器翻译(mt,machinetranslation)技术,实现x语言信息到y语言信息的转换。

具体而言,以处理语音这种非规则化自然表达信息为例,首先利用“语音信号处理(speechsignalprocessing)”技术自动将a语言自动转换/翻译成x语言(基于目前的“语音信号处理”技术,a→x的转换准确率可高达95%以上,而改进的“语音信号处理”技术在降噪方面做得更好,可将a→x的转换准确率提升至99%以上);然后再利用机器翻译技术实现x→y的自动机器翻译,而无需再通过x→b→c→d→y的多层转换。

可以利用类似于基于对实例样本进行统计分析的机器翻译算法来将转换得到的无规则自然表达(x语言信息)转换为规则化标准表达(y语言信息)。这种机器翻译算法要求x语言与y语言之间对应数据的量足够大,而且足够准确。

进一步,考虑到已可以实现a→x的精确机器自动转换,为了积累x语言与y语言之间的对应数据,可以积累a语言与y语言之间的对应数据。于是,基于自然智能的方案提供了mau(mortalaidedunderstanding,人工辅助理解)这一新的人工座席工作模式,通过人工理解结合代码输入,实现a语言与y语言之间的对应数据积累。如前例,可以用“271”这个需求代码来表示调整信用卡额度的含义,同理,也可以用“21”来表示信用卡挂失的含义,这样就可以用“21”来对应于前述的“我的信用卡不见了”或“俺的刷刷卡丢了”的自然表述信息。

所述的mau可以通过已有的这种简洁的代码输入方式,将传统“说话的座席”转为“不用说话的座席”——静默座席,令座席的工作变得更舒适,工作效率得以大幅提升之余,更充分利用了人类最高价值的理解能力,准确而高速地收集海量的a/x语言与y语言的对应数据,提供给mt引擎进行循环迭代,自学习a/x→y的转换/翻译规律,形成和优化a/x→y的翻译模型。

以下介绍根据本发明的机器翻译技术及机器翻译机器人训练技术的工作原理。

机器翻译是用来对两种语言进行自动翻译的一种人工智能技术。这里所指的“语言”不是狭义的国家语言(例如:中文、英文……),而是广义的信息表达方式。如前所述,以表达方式分,语言可分为四大类:文字、语音、图像、动画(或称“视频”)。

语言是由元素集里的元素,通过各种排列组合而形成的信息。例如:英文文字是由ascii字符集(元素集)里的128个ascii字符(元素),通过各种一维(串行)排列组合而形成的一种语言;中文这种语言,就是由国标码里的几千个中文字再加上标点符号(构成中文信息的基本元素)的无限排列组合;又例如:rgb平面图像是由红、绿、蓝三种子像素,通过各种二维(长与宽)排列组合而形成的另一种语言。

任何两种语言之间存在着某种转换/翻译规律,都可以通过分析两种语言元素排列组合的对应关系,找出两种语言之间的自动转换/翻译规律。首先需要人工收集两种语言的对应数据(或称“翻译样本”),然后通过对两种语言元素排列组合的迭代循环,自动找出两种语言之间的自动转换/翻译规律,形成两种语言的翻译模型。

做机器翻译需要两张数据表:“训练数据表(trainingdataset)”和“检验数据表(testingdataset)”。

这两张表的数据结构是类似的:存储的是一对对的数据,左值是“左语言”(或称“源语言”),右值是“右语言”(或称“目标语言”)。我们可以形象地做这么一个比喻:“训练数据表”是人类给mt机器人自学的课本,而“检验数据表”则是人类给mt机器人出的考题,用以评估机器人的自学效果。

下面是英文→中文的mt“训练数据表”和“检验数据表”的例子:

训练数据表

检验数据表

mt机器人是以组成语言的元素为单位进行排列组合的迭代循环的。如上例中,通过训练数据表中的#3和#4两组数据对,发现英文“mayihaveyour”这15个ascii字符元素(3个英文字母“may”+1个空格+1个英文字母“i”+1个空格+4个英文字母“have”+1个空格+4个英文字母“your”)的排列组合对应着中文的“请问您”这3个国标码中文字的排列组合;通过训练数据表中的#2和#5两组数据对,发现英文“age”这3个ascii字符元素的排列组合对应这中文的“年纪”这2个国标码中文字的排列组合。

因此,如果机器人能将检验数据表中的英文“mayihaveyourage?”准确翻译成中文“请问您年纪?”,那就证明机器人学会了这一句的中英文翻译。如果不能,那就证明机器人还没学会。那么机器人就需要修正一下自己的学习方法(例如,寻找另一条路径去尝试再学习),对训练数据表重新消化一次,这又是一次迭代;……如此不断重复着这种“迭代修正”,可使得机器人的翻译准确率不断地爬升。当爬升到一定程度(例如,翻译准确率为70%)后,机器人的翻译准确率可能会一直徘徊在这个水平,再也很难上去了,也就是说遇到了“机器自学习”的瓶颈,那么就需要为机器人增加mt训练数据表数据。mt训练数据表的数据可以从外部数据库导入,也可以通过“人工辅助理解”来进行生成和添加。

例如,沿用之前信用卡业务的例子,假设所得到的无规则自然表达为“我的信用卡能透支的太少了”,而机器人理解力不够成熟的时候,“人工辅助理解”可以介入,通过人工将该表达理解为“我想增加我的信用卡额度”,并输入与之对应的y语言信息。可选地,“人工辅助理解”处理无需记录对于自然表达的理解过程和理解结果,只需要记录作为最终处理结果的对应标准表达(y语言信息)。这样可以简化人工操作,节省资源。例如,操作员可能只需要输入“271”作为对应标准表达即完成了对于无规则自然表达“我的信用卡能透支的太少了”的处理。例如,将新的自然表达实例,例如上述的自然表达“我的信用卡能透支的太少了”,及其对应的标准表达“271”添加进现有mt训练数据表,从而增加和更新mt训练数据表数据。于是,通过“人工辅助理解”,一方面可以实现对于目标自然表达的准确而稳定的转换(将其转换为标准表达–y语言信息),另一方面可以实现mt训练数据表数据的高效添加与更新,从而使得系统mt训练数据表中的数据更加丰富、准确,也可能使得机器人的翻译(转换)准确率高效得到提升。

理论上,mt机器人需要对#3的左值“mayihaveyourtime”这20个ascii字符元素的所有排列组合进行穷尽罗列,也需要对#3的右值“请问您现在什么时间了”这10个国标码中文字的所有排列组合进行穷尽罗列。即,mt机器人需要对训练数据表中的每一对数据的左右两组元素的所有排列组合都进行穷尽罗列。通过这种元素级的穷尽罗列,mt机器人一定能发现很多重复出现的排列组合(如“your”、“mayihaveyour”、“age”、“time”、“您”、“请问您”、“年纪”……),从而能找出这些重复出现的左语言元素排列组合和右语言元素排列组合之间的某种对应关系,也就是两种语言之间的翻译模型。也就是说,训练数据表里左右语言数据对的数量越大,mt机器人所能发现的重复出现的左右两种语言元素的排列组合也就越多,而左右两边重复出现的元素排列组合的对应关系也就越多,那么mt机器人所掌握的左右两种语言的转换/翻译规律也就越多,翻译模型也就越成熟。因此,采用根据本发明技术思想的“规则化标准表达”和“人工辅助理解”,可以更高效地积累mt训练数据表数据,帮助实现机器人自学习和自动机器翻译。

本发明中的x语言→y语言之间的机器翻译,与中英文的机器翻译原理是一样的,只不过我们把英文改成了x语言,把中文改成了y语言,而左右两种语言的元素集不同而已。

如前所述,机器翻译技术可用于将一种语言自动翻译成另一种语言。其技术原理就是对收集到的两种语言的配对信息(左侧语言和右侧语言)进行基本元素级分析,通过对大量的语言信息对的基本元素各种排列组合进行循环迭代比较,从而找出两种语言之间的转换/翻译规律,形成两种语言的翻译模型。

本发明的技术将机器翻译技术的应用范围从对不同国家语言之间进行自动翻译,延展到将所有非规则化多媒体自然表达信息(文字、语音、图像、视频,即a语言信息)自动转换成所述的规则化标准信息(y语言信息),以便各行各业的业务系统可以对它们进行处理,从而实现真正意义上的、实用的自然表达处理。

对于自然语言处理而言,由于不需要进行传统的机器翻译所需的多层语言学分析,而采用对实例进行基本元素级分析的方式,可以增加翻译的准确度和快捷度,同时,也很容易通过添加自然表达实例和标准表达来进行更新和扩充。

对于本发明实施例的自然表达处理而言,因为只需要进行自然表达(a语言信息)到标准表达(y语音信息)的转换,换句话说,只需建立a/x→y的翻译模型,并非对文本的语言翻译结果,因此无需对翻译结果进行修改的处理。

此外,根据本发明实施例的自然表达处理,可以被限制用于具体行业机构的具体业务,例如,上述的信用卡业务,则处理系统所需的mt训练数据表规模可以大大缩小,由此在提高机器人理解成熟阀值的同时,降低mt训练数据表构建和维护的成本,同时也可以有效缩短a/x→y翻译模型的成熟周期。

如前所述,根据本发明实施例的自然表达处理系统,实现了从自然表达到编码化的标准表达的转换。该转换的基础在于存储a/x语言信息与y语言信息配对数据的mt训练数据表(即训练数据库),以及在mt训练数据表基础上得到的a/x→y的翻译模型。因此,需要采集一定量的准确的a/x语言数据和y语言数据来生成mt训练数据表,并通过机器人(信息处理系统)的自学习(自训练)来形成a/x→y的翻译模型。而形成mt训练数据表是可以通过人工辅助理解来进行的。

上述的将a语言信息转换为y语言信息的方法同样适用于a语言信息是文字信息的情况。在这种情况下,可以将a语言信息中的字(例如中文单字、英文单字等)或字符(例如英文字母及字符、德文字母及字符等)作为x元素,从而将a语言信息直接作为x语言信息或者转换为以字符为x元素的x语言信息,并根据上述方法进行x→y的翻译模型的训练,从而实现a→y的翻译(转换)。并且,同样不需要在a→y的转换中进行文字识别和语法分析,不需要分词库和语法表的支撑,也不受语种和语种混合的限制。

在此概括一下根据本发明实施例的自然智能方法论。在自然智能的方法论下,将对自然表达的机器理解问题,等价于将a语言信息转换为y语言信息的过程,在该过程中,先从a语言信息获得比a语言信息的信息颗粒度更粗的x语言信息,然后将通过将x语言信息与y语言信息相对应来获得与a语言信息对应的y语言信息。

更具体地,x语言信息可以是字、字符等,也可以是比文字具有细很多的信息颗粒度的信息,利用类似机器翻译的算法将x语言信息与y语言信息对应(也可以称为转换或识别)并不会受到文字处理的语法规则的限制,无需建立语法模型等模型以及规则库。因为无需人工进行模型构建及规则库的维护,因此这种类似机器翻译的算法还可以实现百分之百的机器自学习。构建x语言信息与y语言信息的训练数据库,输入x语言信息与y语言信息的正确配对数据,并让机器(即机器人或处理引擎)对于数据库中已有x语言信息的元素的各种排列组合与已有y语言信息或者已有y语言信息的元素的各种排列组合(这些排列组合也包括该y语言信息本身)进行循环迭代,进一步建立x语言信息的元素的各种排列组合与y语言信息或y语言信息的元素的各种排列组合之间的对应关系,从而获得更多的x语言信息与y语言信息的配对数据并存储在训练数据库中。这种循环迭代可以包括对于训练数据进行多次迭代训练,也就是说,将一次训练后的数据(训练所用的数据加上训练得到的新的数据)作为下一次训练的训练数据再次进行训练,经过多次循环不断得到新的训练数据,将所有的数据存储在训练数据库中;如果有新的配对数据输入,再对所有数据(新的数据和已有的数据)进行循环迭代。

于是,在ni方法论下,x语言信息与y语言信息的数据库是可以自动扩展的,既包括输入的配对数据,也包括通过元素的排列组合以及训练迭代而扩展得到的训练数据。这也是我们称所述数据库为训练数据库的原因。在ai的方法论下,需要人工对规则库添加规则,而规则库本身不能自我扩展,而在ni的方法论下,机器可以通过自我训练来扩展用于实现x语言信息到y语言信息的对应转换的数据库。在通过循环迭代获得新的训练数据的同时,也对机器的理解模型(包括x语言信息到y语言信息的转换模型)进行迭代,从而实现对模型的优化,增强模型的准确度。在自然智能的方法论下,模型的优化也是机器自动完成的,并不需要模型工程师的工作,从而能够极大地降低机器学习的成本。

当从新输入的a语言信息获得x语言信息后,可以将该x语言信息与数据库中已有的x语言信息(包括前述的通过元素排列组合扩展的x语言信息)进行比较,然后根据比较结果确定与该x语言信息对应的y语言信息,或者计算将该x语言信息对应到某y语言信息的正确率。如果机器的理解能力不够成熟,不足以或者不确定将该x语言信息转换到某y语言信息,那么通常需要进行人工辅助理解。通过人工对所述新输入的a语言信息进行理解,也就是说,用人的理解能力对原始的自然表达进行理解而非对转换后的x语言信息进行理解,得到与自然表达的含义所对应的y语言信息,并且可以将从该a语言信息得到的x语言信息与y语言信息对应起来,得到新的配对数据存入训练数据库,并进行上述的数据扩展和训练,从而在训练数据库中增加新的数据并对模型进行优化。由于前述的数据扩展,使得按照这种方式进行人工辅助理解可以不仅仅增加一条配对数据,而增加一组或多组配对数据,从而快速增加数据库的配对数据量,提升机器的理解能力。

另外,通过人工辅助理解还可以纠正训练数据库中x语言信息与y语言信息之间错误的对应关系。例如,通过人工辅助理解指定某条a语言信息(自然表达)对应某条y语言信息,取代之前与该条a语言信息对应的y语言信息,或者通过人工辅助理解告知机器人某条a语言信息对应某条y语言信息的正确率高于该条a语言信息与之前的一条y语言信息相对应的正确率,从而由该条a语言信息转换的x语言信息与y语言信息的对应关系被予以纠正或优化。

在自然智能的方法论中,上述对配对数据进行扩展和训练的机器学习,可以采用统计学、深度学习、概率计算、速最优化路径搜寻等模型中的一种或者多种来实现。但模型本身可能带来微小的误差,可以称之为固有误差。对于大数据量的扩展和训练而言,这种系统固有误差所导致的错误是可见的。例如,如果扩展后的数据为500万条,利用这些配对数据进行测试得到错误率为0.2%,也就是说,扩展后的配对数据中有1万条是错误的。为了对这种固有误差进行补充,将这些已知的不能被正确识别出的x语言信息数据及其应正确对应的y语言信息写入对照表。每次进行自然表达的转换时,可以先将由自然表达转换的x语言信息与对照表中存储的x语言信息进行对比,如果新的x语言信息在对照表中,则可以通过对照表得到其正确对应的y语言信息;如果新的x语言信息不在对照表中,则在训练数据库中检索与之相同或相近的x语言信息,并通过例如自信度判断等方式确定与该新的x语言信息对应的y语言信息。由于设置了用于纠错的对照表,而数据库中对照表之外数据的准确度是经过筛选来保证的,于是可得出对已看见数据的零错误率效果。在向训练数据库增加新的配对数据(为了节省计算量和时间,通常是批量的),并进行数据扩展训练后,还可以用上述的方法对所述对照表进行相应的扩展,提高转换和识别的准确率。

图6示意性地示出了根据本发明一个实施例的自然表达处理方法的流程。

在步骤s20,系统接收自然表达信息(a语言信息),如前所述,该自然表达信息可以是文本信息、语音信息、图像信息、视频信息等。

在步骤s21,判断机器人的理解能力是否成熟。其中,对于机器人理解是否成熟的判断,可以基于在一定时间区间内(根据具体应用要求设定),机器人将a语言信息转换成x语言信息,然后将x语言信息转换成y语言信息的结果,与人工将a语言信息直接转换成y语言信息的结果进行比较,两者相同的次数,除以比较的总次数,得到的百分比,就是机器人理解准确率。还可以采用机器人自我判断理解能力是否成熟的方式,即机器人估计其将某条或某些条a语言信息正确地转换为确定的y语言信息的概率或准确率,我们也称之为机器人的“自信度”或“自信值”。随着人工辅助训练及机器人的自学习,机器人对于特定y语言信息的转换自信度会不断提高。对机器人自信度或自信值的计算,是基于x语言信息与y语音信息的对应关系来进行的。具体而言,从a语言信息通过转换或者提取得到x语言信息之后,通过诸如深度神经网络、有穷状态转换器、自动编码器解码器等一个或多个识别器/分类器来产生对y语言信息的对数概率或相类似分数,再利用归一化的指数函数来计算出机器人自信度。

该自信度可以是对应于指定的y语言信息(标准表达)来进行计算,其中指定的标准表达可以是单条,也可以是多条(多于一条)。例如,对于某条自然表达,其转换得到的标准表达可以是“标准表达1”、“标准表达2”或“标准表达3”,或者说,需要从某条自然表达中识别出“标准表达1”、“标准表达2”、“标准表达3”中的一个所对应的意图。

如果针对单条标准表达独立计算自信度,即,分别计算将所述自然表达转换得到的x语言信息(次级语言信息)对应到“标准表达1”、“标准表达2”或“标准表达3”的自信度,得到的结果例如为:转换为“标准表达1”的自信度为80%、转换为“标准表达2”的自信度为40%,转换为“标准表达3”的自信度为10%。如果此时设置自信度阈值为80%,则“标准表达1”满足阈值要求;如果设置自信度阈值为90%,则三个标准表达均不满足阈值要求;如果设置自信度阈值为40%,那么有两个标准表达的自信度满足阈值要求,可以输出自信度更高的那个标准表达作为理解结果,但通常不会设定这么低的自信度阈值。在这种方案下,对于各条标准表达的自信度是独立的,因此并非自信度累加求和为100%的情况。另一方面,对于同一条自然表达还可以计算相对于其它标准表达的理解自信度,只不过对于设定话术而言,通常并不需要计算对于话术之外的标准表达的理解自信度。

如果一次对于多条标准表达计算自信度,还可以利用类似softmax函数来使得多条标准表达的自信度之和为100%,例如计算得到转换为“标准表达1”的自信度为70%、转换为“标准表达2”的自信度为20%,转换为“标准表达3”的自信度为10%,那么更有利于通过自信度阈值对自然表达的理解结果进行区分。

此外,还可以采用相对自信度,即对不同标准表达计算理解概率后,用各个概率之间的相互数值比较关系来进一步计算自信度。例如,对于“标准表达1”的理解(识别)概率为65%,对于“标准表达2”的理解(识别)概率为35%,计算得到的自信度可以是“标准表达1”为80%,“标准表达2”为20%。

前述的机器人理解准确率和机器人自信度都是衡量机器人理解成熟程度的指标。其中,对于机器人理解准确率的计算通常需要一定时间的数据积累,换句话说,机器人理解准确率可以是针对较大训练数据量的统计结果,其相比较少训练数据的情况更准确地衡量机器人理解成熟度程度。而机器人自信度是针对机器人对于某条或某些条a语言信息进行理解的理解能力评估,对于较少训练数据的情况也可以比较准确地评估机器人的理解能力。其中,对于机器人理解准确率的计算通常需要一定时间的数据积累,这是因为较多数据能更广泛地代表表达的多样性,从而更准确地反映实际应用的情况。换句话说,机器人理解准确率可以是针对较大训练数据量的统计结果,其相比较少训练数据的情况更准确地衡量机器人理解成熟度程度。而自信值则是用来衡量机器人自身答案的可靠性。一般来说,当从用户表达获得的用于语义理解的语言象征比较模糊时,相比于语言象征更清晰的情况,机器人的自信度相对较低,这反映了用户自然表达的语义模糊或表达接近多个语义的情况。从另一个角度区分,机器人理解准确率是对特定应用的成熟度评估,而自信度则反映出机器人对自身答案的不确定性。

根据应用需要设定的机器人理解准确率或者自信度,我们称之为“机器人理解成熟阀值”。如果机器人理解准确率或者自信度低于机器人理解成熟阀值,系统则认为机器人理解尚未成熟,不会采用机器人转换结果,而仍继续采用人工转换结果y2,以保证系统对a语言信息理解的准确与稳定。同时,系统将a语言信息通过机器自动转换的x语言信息(左侧语言),以及人工转换结果y2(右侧语言)加入mt训练数据表中,供mt机器人自训练使用。

如果机器人理解成熟了,则在步骤s22让机器人自动将该自然表达a直接转换为标准表达y;如果机器人理解还未成熟,则在步骤s23由机器人尝试将该自然表达a转换为标准表达y1,同时在步骤s24由mau座席将该自然表达a转换为标准表达y2。

在步骤s26,若步骤s21判断机器人理解能力已经成熟,则输出由机器人自动转换的结果y;否则,输出有mau座席人工转换的结果y2。

可选地,在步骤s25,对自然表达a、机器人尝试转换的结果y1、mau座席人工转换的结果y2进行如下的后续处理:将a自动转换成x语言信息(左侧语言)连同y2(右侧语言),作为一对新的配对数据放入mt训练数据表中;将y1和y2进行比较,用作“判断机器人理解是否成熟”的统计数据。可选地,将原始数据a保留,当未来a→x转换技术进一步发展成熟(转换准确率更高)时,更新mt训练数据表的左侧语言数据。

图7示意性地示出了根据本发明一个实施例的自然表达处理及回应方法的流程。

在图7所示的处理中,首先在步骤s30接收自然表达a。

然后在步骤s31判断是否能够通过机器转换将自然表达a转换为标准表达y。该步骤等同于图6中步骤s21。类似于图6的处理,当在步骤s31判断不能通过机器转换得到所需的标准表达时,在步骤s32进行人工转换处理。

在实际应用中,可能存在即使通过人工处理仍不能理解所识别的自然表达或者理解客户所表达的需求,这时,在步骤s33作出提示客户重新输入的回应,然后处理回到步骤s30,接收客户再次输入的自然表达信息a。“提示客户重新输入的回应”可以是,例如,语音提示“不好意思,请您再讲一遍您的需求”,“请您讲慢一些”;文字提示“不好意思,请您写具体些”;或者图像提示等。

在步骤s34输出机器转换或人工转换的标准表达。在步骤s35查询与该标准表达匹配的标准回应。标准回应可以是预先存储在数据库中的固定数据,也可以是预先在数据库中存储标准回应的基础数据,然后经系统运行,将基础数据与个案变量参数合成而生成标准回应。在一个实施例中,设置标准回应id来作为回应数据的主键,并在数据库中设置标准表达(y语言信息)的需求代码与标准回应id的对应关系表,从而将标准表达(y语言信息)的需求代码与回应数据相关联。以下的表1~表3分别示意性示出了表达数据表、表达回应关系表和回应数据表的例子。可选地,标准表达与标准回应id可以是多对一的关系,如表4所示。此外,在其它实施例中,由于标准表达(y语言信息)的需求代码本身是编码化的,也可以直接用标准表达(y语言信息)的需求代码作为回应数据的主键。

表1

表2

表3

表4

如前所述,标准表达可以包括与自然表达相关的信息,例如,表达类型,语言类型,方言类型,等等。例如,来自客户的自然表达为语音“收到了”,通过转换后的标准表达查询得到标准回应为语音“好,知道了,谢谢!”;还例如,来自客户的自然表达为图像“转账失败页面截屏”,通过转换后的标准表达查询得到标准回应为视频“转账纠错简易教程”。

如果数据库中没有与所述标准表达匹配的标准回应,则可以在步骤s36通过人工匹配与之相应的回应。人工匹配可以通过输入或选择标准回应id来将标准表达与该标准回应id相关联,也可以直接将标准表达与回应数据相关联,还可以建立新的回应数据。找不到标准回应的原因可能是该标准表达是通过人工新添加的,也可能是因为没有匹配到相同类型的标准回应。

然后,在步骤s37输出机器匹配或者人工匹配的回应。可以根据不同的信息类型来调用或者生成回应的内容。例如,对于语音回应,可以回放真人录音或者输出通过语音合成(texttospeech,tts)的语音;对于用户数字化操作,例如,电话按键顺序组合“2-5-1000”,通过程序运行完成“信用卡还款1000元”的操作。

而对于例如,“转5000块给我妈”的文字信息,需要通过运行程序进行“转账5000元给x女士”的操作,但是系统可能并不预先掌握“x女士”的账户信息,一方面可能需要人工添加该账户信息以实现标准表达的转换,另一方面,即使实现了标准表达的转换,也可能查询不到对应的标准回应,而需要人工作出回应处理。这时,会生成新的回应数据(如操作程序),也会手动或者自动为该回应数据分配一个新的标准回应id,并将该标准回应id与上述转换的标准表达相关联。于是,在实现对于客户的自然表达回应的同时,可以实现人工辅助理解和训练,更新表达—回应数据库。

根据本发明实施例的自然表达处理和应答方法,可以利用标准表达快速指向回应,从而使得客户无需再花长时间遍历复杂的常规功能菜单来寻找自己所需的自助服务。

另一方面,与传统的应答方式不同,人工操作主要限于后台的“决策”工作,包括确定标准表达(y语言信息)需求代码,选择回应(或回应id)或者生成回应操作等,但不需要在前台通过通话或者文字输入(输入标准表达(y语言信息)需求参数除外)等方式来与客户直接进行交流,即前述的静默座席模式。从而可以大量节省人力资源,大幅提升工作效率。此外,系统对客户提供的标准化回应,相对于人工座席直接对客户提供的传统的自由式回应,不受人工座席的情绪、声腺、口音、业务熟练度等诸多因素影响,更能保证客户体验的稳定性。

再者,通过系统(机器人)的自动学习、训练及人工辅助理解,可以建立经转换的自然表达(x语言信息)—标准表达—标准回应数据库,逐渐实现系统自动理解和回应。并且该数据库中的x语言信息数据还可以具有信息颗粒度细、业务范畴窄、数据保真度高等优点,从而降低机器人训练难度,缩短机器人智能的成熟周期。

根据本发明的实施例,可以通过设置机器人自信度阈值来对人机交互的流程进行控制。例如,设置第一自信度阈值作为判断机器人理解力是否成熟的标准。还可以通过设定自信度的其它阈值来对人机交互进行智能控制。例如,设置第二自信度阈值,当机器人自信度低于第一自信度阈值但不低于第二自信度阈值,则机器人请用户确认其输入的自然表达的含义是否为某条确定的标准表达。又例如,再设置第三自信度阈值,当机器人自信度低于第二自信度阈值但不低于第三自信度阈值,则机器人请用户重复自然表达的输入,当机器人自信度低于第三自信度阈值,则机器人自动切换到人工辅助理解。

例如,图15示出了用于身份认证的智能人机交互的例子。在图15所示的例子中,机器人询问用户的问题是“请问是余先生本人吗?”,作为回复,用户输入的自然表达为一段语音,其所表达的含义可以是“是”、“不是”、“没听清”或者“没兴趣或不愿接听”四种含义中的一种。

在图15所示的例子中,设置第一自信度阈值为80%,第二自信度阈值为60%。当机器人对于用户所述一段语音回复(第一次语音回答)的含义理解的自信度不低于80%时,也就是说,机器人将该段语音回复理解为“是”、“不是”、“没听清”或者“没兴趣或不愿接听”中的一种的自信度不低于80%。机器人将用户语音对应的含义理解为“是”、“不是”、“没听清”或者“没兴趣或不愿接听”中自信度不低于80%的一种。通常在(对应于自然表达的含义或者意图的)标准表达的区分设计较好的情况下,不会发生对多于一个标准表达的自信度都超过50%的情况,但由于训练数据偏差等原因也会产生高自信度偏差的情况,这时如果出现多于一个标准表达的自信度超过阈值,可以自动选择自信度最高的那个标准表达作为理解结果。也可以采用一起计算对多于一个的标准表达的自信度,并使得对各个标准表达的自信度之和为100%,这样就不会出现超过一个的标准表达的自信度高于50%的情况。

当机器人对于用户第一次语音回答的含义理解的自信度不高于80%但不低于60%时,也就是说,例如机器人理解到用户回答的含义可能是“不是”,但是又不是很确定(60%≤cl<80%,cl表示自信度),于是机器人请用户确认其回答的含义是否为“不是”,用户随后再次输入语音回答,机器人遂对于用户的第二次语音回答进行理解,如果机器人对于用户第二次语音回答的含义理解的自信度不低于80%时,机器人获得用户对其第一次语音回答的含义的确认(“是”),因而根据用户的确认结果将用户语音对应的含义理解为“是”、“不是”、“没听清”或者“没兴趣或不愿接听”中的一种,而如果机器人对于用户第二次语音回答的含义理解的自信度达不到80%或者用户的确认结果为“不是”,那么机器人将求助于人工辅助理解或人工应答。

当机器人对于用户第一次语音回答的含义理解的自信度达不到60%时,或者说,机器人不能理解用户回答的含义,于是机器人请用户再次进行回答,用户随后再次输入语音回答,机器人遂对于用户的这一次的语音回答进行理解,如果机器人对于用户第二次语音回答的含义理解的自信度不低于80%时,机器人将用户语音对应的含义理解为“是”、“不是”、“没听清”或者“没兴趣或不愿接听”中的一种,而如果机器人对于用户这一次(第二次)语音回答的含义理解的自信度仍达不到80%,那么机器人将求助于人工辅助理解或人工应答。

考虑到交互次数对于用户体验的影响,上面对于图15所示例子的描述中只设定用户通过两个轮次进行回答。可选地,也可以增加用户回答的轮次,例如,在第二轮次,如果对于用户的第二次语音回答,机器人的理解自信度达不到80%但不低于60%,那么仍然可以请用户进行第三次语音回答,以确认机器人对于第二次语音回答的含义的理解是否正确。

另外,还可以设置第三自信度阈值,例如,40%,当机器人对于用户第一次语音回答的含义的理解自信度低于40%时,自动转人工辅助理解处理,这样可以减少交互次数,改善用户体验。

当然,上述的第一自信度阈值、第二自信度阈值和第三自信度阈值等等,都是可以根据需要设定的,例如第一自信度阈值是90%,第二自信度阈值是50%等等。

上述基于理解自信度进行多轮交互的方式可以被视为通过用户表达输入对机器人进行反馈控制,也就是说,根据机器人对于用户所输入的表达的理解自信度来产生逻辑输出,并通过该逻辑输出对交互过程进行逻辑控制。这种方案直接的效果是可以大大减少人工辅助理解或者人工应答的工作量。例如,对于用户对某含义的表达的理解,机器人的实际正确率是60%,那么用户就同一含义表达两次以后,机器人理解正确一次的概率理论上为100%-(100%-60%)×(100%-60%)=84%。或者,对于用户对某含义的表达的理解,机器人的自信度不低于80%的概率是60%,那么用户就同一含义表达两次以后,机器人理解正确一次的概率理论上为100%-(100%-60%)×(100%-60%)=84%。实际上,通常在提示用户“不好意思,没听清,麻烦您再说一下?”后,用户的第二次语音输入的含义清晰度和/或发音清晰度都会有提高,因而机器人通常对于就用户对相同含义的第二次表达的理解正确率也会提高。这样通过自动提示用户重复其含义,可以增加机器人的理解准确率。进一步,再自动提示用户确认其含义,由于对于用户确认所用的表达通常是“是”、“对”、“不是”、“不对”等等简单的表达,因而机器人对于用户确认其含义的表达的理解正确率或者理解自信度通常比较高,例如在90%-100%,那么通过多轮互动将用户重复表达其含义和用户确认其表达的含义相结合,可以基本上实现机器人的自动应答,从而大大减少转入人工处理(包括进行人工辅助理解的静默座席或者人工客服)的用户表达的量。

另一方面,对于用户通过表达输入而确认含义的情况,可以将从用户第一次输入的表达转换得到的x语言信息与该表达对应的预设含义(以y语言信息表示的标准表达)作为配对数据存入训练数据库,并利用前述的方式针对该配对数据进行训练。通过这种方式,仅通过用户的表达输入,就可以产生扩展训练数据库的配对数据,而不需要通过人工辅助对于用户表达的含义进行理解或确认。也就是说,可以实现在服务端的智能数据积累和机器人(引擎)自动学习。

图15例子所示的人机交互方案所涉及的用户表达可以是语音也可以是其它表达方式。如果是人机语音交互方案,可以通过ivr来控制实现。

上面阐述了基于自然智能的自然表达处理原理和方法及交互方法,接下来描述基于自然智能的人机交互的精准信息萃取。需要强调的是,根据本发明实施例的人机交互中的精准信息萃取可以完全涵盖上述基于自然智能的自然表达处理方法,也可以说,在上述方法的基础上,通过增加或者调整部分步骤来实现精准信息萃取。

“精确信息萃取方法”,通俗来讲,就是从一条自然表达中获取多个意图。如前所述,自然表达并不限于自然语言,还可以是静态图像、动态图像等等。结合前面的自然智能体系,也可以这样理解,就是从一条自然表达中得到与分别出多个意图对应的y语言信息。具体来讲,机器人先将a语言信息转换成x语言信息,然后从x语言分析和计算与预设意图对应的部分,之后将这些部分分别转换为y语言信息。也就是说,与前述的自然表达处理过程相比,在x语言信息层进行了关键信息的甄别和提取,采用精确转换或局部转换而非整体转换。这种方式可以提高机器人理解的准确度,特别对于含有多个体现意图的关键信息的自然表达而言,精准转换比整体转换的准确度更高。利用“精确信息萃取方法”获取自然表达中的意图之后,填入与意图分类向对应的槽(slot)中,实现填槽(slotfilling)处理。

例如,前述的代码“112124”(y语言信息)中,各位代码分别表示:1(飞机票),1(机票改签),2(延后),1(折扣票),2(淡季),4(亚太区),前面三位代码对应的是操作,后面三位代码对应的是对象。还原成完整的意图,就是延后改签亚太区淡季折扣(机)票。假设对需求的关键信息进行分类,包括槽1——操作,槽2——对象,那么如果填入槽,则可以对应在槽1填入“延后改签机票”,在槽2填入“亚太区淡季折扣票”。对于槽的设置,类似于前面的对y语言信息的编码,可以根据需要增减或调整。例如,将槽填充限定为涉及飞机票的票务操作,那么在槽1中填入“延后改签”即可,又例如,对票务操作的对象进行细化,槽2对应机票折扣类型,槽3对应目的地,则在槽2中填入“淡季折扣票”,在槽3中填入“亚太区”。可见,槽填充是根据需求细化分类提取意图,并按照分类进行存放的过程。如前面类似,如果用代码表示细分后的意图,可以在槽1中填入“12”,在槽2中填入“12”,在槽3中填入“4”。

进一步,由于具体意图可能是多样的,比如,前述槽3对应的机票目的地,可能包括成百上千个国际机场以及成千上万个国内机场,如果是这种情况,还可以用字母组合(如国际航空运输协会(iata,internationalairtransportassociation)制定的机场三字代码)或者字母与数字的组合所形成的代码来指示具体的机场名称。不过这种情况下,这些代码有时并不利于人工辅助人员记忆并输入,人工辅助人员可以直接将具体目的地(机场名称)以一种系统能自动将之与代码对应的表述填入槽中。例如,直接填城市名或者城市代码,例如,上海、shanghai、沪,等等。

在基于ai的自然表达处理方法论之下,通过意图获取或信息获取来进行“槽填充”还要运用语法模型、语义模型来从自然表达转化得到的文本得到所需要提取的关键信息。在基于ni的自然表达处理方法论之下,自然表达到标准表达的转换的实质上是对自然表达的理解,因此仍然不需要通过语法模型和语义模型,而是基于前述的机器翻译原理将自然表达与标准表达中的所要提取的意图部分对应起来。换句话说,在信息获取(萃取)的过程中,仅对与所需提取的意图有关的信息进行标准表达(y语言信息)的转换。例如,对于自然表达“我明晚从上海飞北京,回家”,如果对航班预订进行信息萃取和填槽操作,且假设槽1对应“出发地”、槽2对应“目的地”、槽3对应“日期”,则槽1填入“上海”、槽2填入“北京”、槽3填入“明天”或者系统自动确定的与“明天”对应的具体日期,而其它信息,诸如订票人信息、接机目的地信息等,不会在此次信息萃取和填槽操作中使用。

从转换过程上,机器人先将a语言信息转换成x语言信息,然后从x语言信息提取与所要填入槽的y语言信息对应的部分,之后转换为y语言信息,并填入槽。也就是说,与前述的自然表达处理过程相比,在x语言信息层进行了关键信息的甄别和提取,采用精确转换而非整体转换。这种方式可以提高机器人理解的准确度,特别对于含有多个体现意图的关键信息的自然表达而言,精确转换比整体转换的准确度更高。

图8示意性地示出了根据本发明一个实施例的基于自然智能的人机交互系统的信息萃取和槽填充流程。

在步骤s40,系统接收自然表达信息(a语言信息),如前所述,该自然表达信息可以是文本信息、语音信息、图像信息、视频信息等。

在步骤s41,判断机器人的精确信息萃取能力(或者简单称之为“意图获取能力”)是否成熟。其中,对于机器人精确信息萃取能力是否成熟的判断,是基于在一定时间区间内(根据具体应用要求设定),机器人从a语言信息转换成x语言信息,然后从x语言信息提取与所要填入槽的y语言信息对应的部分,转换为y语言信息,与人工从a语言信息直接获得的需要填入槽的y语言信息进行比较,两者相同的次数,除以比较的总次数,得到的百分比,就是机器人精确信息萃取准确率或意图获取准确率。

类似前述,也可以采用机器人自我判断理解能力是否成熟的方式,即机器人估计其基于某条或某些条a语言信息对某个意图进行正确地信息获取的概率,我们称之为机器人的“精确信息萃取自信度”或“意图获取自信度”(也可以通俗地称之为“填槽自信度”)。随着人工辅助训练及机器人的自学习,机器人对于特定意图的意图获取自信度会不断提高。机器人对于意图获取的正确概率的估计,可以基于其当前处理的a语言信息与mt训练数据表中已有的a语言信息之间在x元素层面的比较。具体地,基于x语言信息(次级语言信息)与y语言信息(标准表达)的对应关系来计算所述自信度,通过深度神经网络、有穷状态转换器、自动编码器解码器中的一个或多个来产生对y语言信息的对数概率或相类似分数,再利用归一化的指数函数来计算出所述自信度。

根据应用需要设定的机器人意图获取准确率或者意图获取自信度,称之为“机器人意图获取成熟阀值”。如果机器人意图获取准确率或者意图获取自信度低于机器人意图获取成熟阀值,系统则认为机器人意图获取能力尚未成熟,不会采用机器人意图获取结果yf,而仍继续采用人工意图获取结果yf2,以保证系统对a语言信息的意图获取的准确与稳定。同时,系统将a语言信息通过机器自动转换的x语言信息(左侧语言),以及人工意图获取结果yf2(右侧语言)加入mt训练数据表(即训练数据库)中,供mt机器人自训练使用。

如果机器人精确信息萃取能力成熟了,则在步骤s42让机器人自动进行意图获取和填槽操作,从a语言信息转换成x语言信息,然后从x语言信息提取与所要填入槽的y语言信息对应的部分,转换为y语言信息,并填入槽;如果机器人精确信息萃取能力还未成熟,则在步骤s43由机器人尝试从自然表达a转换所要提取的标准表达yf1并填入槽,同时在步骤s44由mau座席从a语言信息直接获得需要填入槽的y语言信息yf2并填入槽。

可选地,在步骤s45,对自然表达a、机器人尝试从自然表达a转换所要提取的标准表达的提取转换结果yf1、mau座席人工提取转换的结果yf2进行如下的后续处理:将a自动转换成x语言信息(左侧语言)连同yf2(右侧语言),作为一对新的配对数据放入mt训练数据表中;将yf1和yf2进行比较,用作“判断机器人精确信息萃取能力是否成熟”的统计数据。可选地,将原始数据a保留,当未来a→x转换技术进一步发展成熟(转换准确率更高)时,更新mt训练数据表的左侧语言数据。如果对提取转换得到的yf1和yf2直接进行上述后续处理,那么在步骤s43实际上并不需要将yf1填入槽。也可以对将yf1和yf2分别填槽后的填槽数据作为训练数据或者统计数据。

如果a语言信息是文字,则如前所述,将文字本身或者字符等作为x元素而得到或者转换为x语言信息,进行后续操作。

图9进一步示例性地示出了“订机票”问询项下的自然表达意图获取和槽填充处理流程。如图9所示,处理开始后,在步骤es11接收自然表达“我明晚从上海飞北京,回家”,如前所述,该表达可以是语音、文字等形式。在步骤es12判断所述表达所体现的意图是否为“订机票”问询项,如果判断不是“订机票”问询项,则对用户提示当前为“订机票”问询项或者请求用户确定当前需求为“订机票”,然后请用户重新输入表达。步骤es12也可以在处理开始时用户输入表达之前进行,即先提示用户当前的问询项。然后在步骤es13进一步判断用户是否在给自己订机票还是给别人定机票,用户可以输入“我爸妈”、“我太太”、“董事长”等等,如果机器人能够识别出这些表达所对应的具体的人并具有这些人的信息,那么可以自动将订票人信息填入对应槽内。如果es13判断用户是给自己订机票,那么机器人进一步在步骤es15提取与“出发地”有关的信息、与“目的地”有关的信息以及与“日期”有关的信息,该信息提取与前述的从x语言信息到y语言信息的转换在原理和基本方法上是一致的,只不过是仅将与“出发地”有关的信息、与“目的地”有关的信息以及与“日期”有关的信息精确地提取出来转换成y语言信息。机器人可以在步骤es15的意图获取和填槽操作后,询问或者自主判断用户有无其它意图,例如,在本例中,用户的表达中还包括了“回家”,因此,机器人发现该“回家”的表达之后还可以进行后续的处理,例如,询问或者自主提示用户是否需要接机服务,并可以将用户的家庭住址(如果机器人的知识库中包括用户家庭住址的数据)填入“接机目的地”槽中。所需信息填入槽中后,机器人可进行对应的应答操作,例如,显示或者语音告知客户可能符合客户需求的航班信息,等等。

值得说明的是,图9中的多个步骤可以包括前述的(例如图7或图8所示的)将自然表达转换为标准表达或者基于自然表达进行意图获取和填槽的过程。例如,从自然表达判断问询项(es12),确定订票人(es13、es14),确定“出发地”、“目的地”和“日期”(es15),确定其它意图(es16),进行后续填槽处理(es17)。

这些信息的精确提取不必通过一次自然表达到标准表达的转换完成。如果是一次提取,实际上包括7个槽,即,“问询项”槽——填入“订机票”,“订票人”槽——填入“本人”,“出发地”槽——填入“上海”,“目的地”槽——填入“北京”,“日期”槽——填入“明天”或对应的日期,“其它意图”槽——填入“接机”,“接机目的地”槽——填入“家”或具体家庭地址。这样会大大增加机器人理解所需的运算量和数据流,也会增加人工辅助理解的操作复杂度。因此,可以通过多次理解来实现对于各个槽对应信息的提取和对各个槽的填充。例如,第一次理解确认“问询项”(即后文所述的常见问题“faq”)是“订机票”,这样可以将a/x→y的数据库缩小到“问询项”为“订机票”所对应的范围内,于是大大降低机器人理解和训练所需的数据量和运算量,大大加快迭代运算的收敛速度。也可以采用默认的方式或者用户选择的方式来确定“问询项”。同样地,可以通过再次理解或者默认或者用户选择的方式来确定用户给自己订机票。也可以通过多轮会话的方式来逐步获得各个槽对应的信息。例如,机器人先通过文字、语言或图像等方式询问用户所需的服务——“订机票”,然后询问用户为谁订票,之后再询问用户“出发地”、“目的地”、“日期”、“优选时段”、“价位”等信息,以及询问有无其它需求(诸如接机等)。

还可以设置“问询项”的上位槽——“应用场景”槽,将“问询项”进行归类。如果问询项“订机票”所归入的“应用场景”可以是“出行”。上位槽对应的可以是上一层次的意图。

不仅可以在一次填槽操作中实现针对一个“问询项”的多槽填入,还可以在一次填槽操作中实现跨多个“问询项”的多槽操作。例如,对于表达“我想明晚7点半从上海回京在大董请两个外国朋友吃饭”,就可以包括两个应用场景——“出行”和“餐饮”的“问询项”,分别是“订机票”和“订堂餐”,于是,在一次填槽操作中,除了实现“订机票”下的“出发地”、“目的地”、“日期”、“时间”的填槽操作,还同时实现“订堂餐”下的“餐厅名”、“就餐人数”的填槽操作。这种一次理解填入多个槽的表达处理方式可以降低对话次数,节省用户时间,极大地提升用户体验。具有这种填槽功能的智能人机交互系统可以作为虚拟个人助理(vitualpersonalassitant,vpa)实现跨平台的同步对接,例如,对于“出行”应用场景,与携程网对接,对于“餐饮”应用场景,与大众点评(美团)对接。

如果一次理解所需要填入的槽数过多,那么运算所需数据量和运算复杂度会有很大增加,因此,具体应用中可以在用户体验和处理效率/资源耗费之间寻求预设平衡或者动态平衡。

基于自然智能的自然表达处理方法、人机交互方法和精确信息萃取方法尤其可以应用于诸如前述的交互式语音应答ivr或互联网呼叫中心系统iccs的客户服务系统或其他远程客户联络系统(如:电话销售系统、网络销售系统、vtm智能远程终端机……)。如前所述,在这类应用中,对机器翻译的要求并非逐字的确切含义,而是需要将客户的自然表达转换为系统能够理解的信息,从而为客户提供与其表达对应的应答。也就是说,这里的机器翻译侧重于对人类语言背后的实质涵义的理解,从而以计算机程序更易于处理的形式表示从自然表达中所“理解”到的客户实际意图或需求。

图10示意性示出了根据本发明实施例的一种智能人机交互系统。如图10所示,该智能人际交互系统包括智能应答设备1(相当于服务器端),以及呼叫设备2(相当于客户端),客户8通过呼叫设备2与智能应答设备1通信,mau人工座席9(系统服务人员)对智能应答设备1进行人工操作。其中,智能应答设备1包括对话网关11,中央控制器12,mau工作站13,和机器人14。可选地,智能应答设备1还包括训练器15。

客户8指的是机构远程销售和远程服务的对象。远程销售通常指的是机构通过自己专属的电话或互联网通道,以“呼出”的形式主动联系客户,试图对其推销自己的产品与服务。远程服务通常指的是机构的客户通过机构专属的电话或互联网通道,以“呼入”的形式主动联系机构,询问或使用机构的产品与服务。

呼叫设备2可以是机构为了对客户8进行远程销售(呼出业务)和向客户提供远程服务(呼入业务)而设立的专属电话信道或互联网信道。电话通道呼叫系统例如自动呼叫分配系统(automaticcalldistribution,acd),是机构通过后台的自动业务系统(例如,基于电话按键技术的传统ivr系统,或者基于智能语音技术的新型vp(voiceportal)语音门户系统)和人工座席,与客户8以语音形式进行交互的对话通道。

互联网通道呼叫系统例如基于即时通讯(instantmessaging,im)技术的互联网呼叫中心系统(internetcallcenter,icc),是机构通过后台的客户自助系统(例如,自然语言处理系统(naturallanguageprocessing,nlp))和人工座席,与客户8以文字、语音、图像、视频等形式,进行交互的对话通道。

智能应答设备1使得机构可以管控其后台的自动业务系统和人工座席,以及与客户8之间以文字、语音、图像、视频等多媒体形式进行的对话,从而实现机构与客户间的标准化和自动化交互对话。

对话网关11在智能应答设备1中担当“前置门户”的角色,主要职能包括:经由呼叫设备2接收来自客户8的无规则自然表达(以文字、语音、图像、视频)和规则化非自然表达(如以电话键盘按键等形式),发送给中央控制器12进行后续处理;接收来自中央控制器12的指令,实现对客户8表达的回应(以文字、语音、图像、视频、程序等形式)。

如图11所示,对话网关11包括表达接收器111,身份认证器112,回应数据库113和回应生成器114。

表达接收器111通过呼叫设备2接收来自客户8的表达。该表达可以是前述的各种无规则自然表达和规则化非自然表达。

可选地,在表达接收器111之前设置身份认证器112。该身份认证器112可以在对话的初始阶段识别和验证客户8的身份。可采用传统的“密码输入”技术(如:电话按键输入密码、键盘输入网站登录密码,等等);也可采用“密语(pass-phrase)+声纹(voice-print)识别”技术;也可同时混合采用以上两种技术。

设置身份认证器112,并采用“密语+声纹识别”的客户身份识别和验证方法,可以提升客户体验,使得客户无需再记忆多个不同密码;降低在“密码输入”传统方法中密码被盗的安全风险;此外,将“密语+声纹识别”方法和“密码输入”传统方法混合使用,既能被市场广泛接受,更能提升客户身份识别和验证的安全性。

回应数据库113存储用以回应客户的回应数据。类似于以上表格中举例示出的,该数据可以包括以下多种类型:

文字:预编的文字,例如,网银faq(常见问答)中的文字答案。

语音:预录的真人录音,或没有变量的tts语音合成录音,例如:“您好!这里是未来银行。请问有什么我可以帮到您的?”。

图像:预制的图像,例如,北京地铁网络图。也包括非视频动画,例如:银行给客户介绍如何在网银系统进行国际汇款操作的gif文件、flash文件,等等。

视频:预制的视频,例如,电熨斗供应商给客户演示如何使用它们的新产品。

程序:预编的一系列指令,例如,在客户以说话表达“我想看中国合伙人”,云端智能电视机将按照客户的要求进行操作回应客户:首先自动打开电视机,然后从云服务器端自动下载并缓存《中国合伙人》这部电影,最后开始播放。

模板:可填变量的文字、语音、图像、程序模板。

回应生成器114接收中央控制器12指令,通过调用和/或运行回应数据库113中的数据来生成对客户8表达的回应。具体而言,可以按照指令中的标准回应id,从回应数据库113中查询调用回应数据,或显示文字、图像,或播放语音、视频,或执行程序;也可以依指令回应数据库113中调用模板,并将指令中传送的变量参数予以填充,或播放实时产生的tts语音合成(例如,“您已成功还款信用卡5000元。”其中,“5000元”为指令中的变量),或显示一段文字,或显示一幅实时产生的图片或动画,或执行一段程序。

可选地,中央控制器12可以对回应数据库113中的数据进行维护和更新,包括回应数据、标准回应id等。

中央控制器12接收来自表达接收器111的客户需求表达信息(包括:无规则自然表达和规则化非自然表达),并与机器人14以及经由mau工作站13与mau人工座席9协同工作,从而将客户的无规则自然表达信息依前述的方法转换为标准表达或者提取转换为所需要的标准表达并填入对应槽,并根据标准表达的转换结果或者意图获取结果来确定与之对应的标准回应id,然后将该标准回应id发送给回应生成器114。可选地,中央控制器12可以更新mt训练数据表中的数据。

机器人14是实施上述机器智能技术的应用机器人。机器人14可以实施对文字信息、语音信息、图像信息、视频信息等自然表达(a语言信息)的转换,得到标准表达(y语言信息)和/或前述的意图获取和填槽操作。如前所述,当机器人14的理解能力或精确信息萃取能力达到一定水平时,例如,在某个特定范畴的判断理解能力或精确信息萃取能力成熟时,其可以独立进行a→x→y的转换或填槽操作,而无需人工座席的辅助。mt训练数据表可以设置在机器人14内,也可以是外置数据库,在其中存储的标准表达数据或填槽结果数据(右侧语言)的需求代码可以与标准回应id相关联。该数据库可以由中央控制器12更新。另外,用于文字翻译、语音识别、图像识别、视频处理等的数据库可以是外置数据库,也可以设置在机器人14内。

mau工作站13是智能应答设备1与mau人工座席9的接口。mau工作站13将经识别的自然表达或者客户原始表达呈现给mau人工座席9。mau人工座席9通过mau工作站13输入或者选择标准表达、或者输入或者选择填槽内容,然后mau工作站13将该标准表达或填槽内容发送给中央控制器12。可选地,如果需要人工辅助确定回应,则mau人工座席9通过mau工作站13输入或者选择回应(或者标准回应id)。

可选地,在智能应答设备1中还可以包括训练器15。该训练器15用于训练机器人14将自然表达转换为标准表达的能力和/或从自然表达获取意图的能力。例如,训练器15利用mau人工座席9的判断结果去训练机器人11,不断提升机器人11在各个范畴(例如,前述的业务范畴和次级业务范畴等)的机器人理解正确率或意图理解正确率。针对每个范畴,在机器人理解正确率达不到“机器人理解成熟阀值”的情况下,训练器15将mau人工座席9的标准表达转换结果与机器人11的标准表达转换结果进行比较处理,如结果相同,相应增加该范畴“机器人判断准确次数”和“机器人判断次数”各一次,类似地,在机器人意图获取正确率达不到“机器人意图获取成熟阀值”的情况下,训练器15将mau人工座席9的意图获取结果与机器人11的意图获取结果进行比较处理,如结果相同,相应增加该范畴“机器人意图获取准确次数”和“机器人意图获取次数”各一次;否则,将人工转换结果或意图获取结果(意图获取结果也可以用人工填槽结果表示)添加进mt训练数据表,作为新的机器人训练数据。训练器15也可以指示机器人14进行前述的“自学习”。

此外,训练器15也可以用于对机器人14进行诸如文字翻译、语音识别、图像识别、视频处理等机器智能技术的训练。训练器15也可以对于mt训练数据表、用于文字翻译、语音识别、图像识别、视频处理的数据库进行维护和更新。

可选地,训练器15也可以与中央控制器12集成在一起。

可选地,回应生成器114和回应数据库113可以独立于对话网关11,也可以集成在中央控制器12中。

智能应答设备1可以实现前述的自然表达处理和应答方法。例如,对话网关11通过表达接收器111从呼叫设备2接收来自客户8的自然表达信息,并将其发送到中央控制器12;中央控制器12指示机器人11将该自然表达信息识别为计算机可处理的某种形式的语言信息(例如x语言信息)及相关的表达信息,然后指示机器人11将该语言信息及相关的表达信息转换为标准表达;如果机器人11的理解力不够成熟或者未实现语料匹配,而不能完成标准表达的转换,则中央控制器12指示mau工作站13提示mau人工座席9进行标准表达的人工转换;mau人工座席9将机器人11识别的语言信息及相关表达信息转换为标准表达,并通过mau工作站13输入并发送到中央控制器12,可选地,mau人工座席9可以直接将未经识别的无规则自然表达信息转换为标准表达;中央控制器12查询表达—回应数据库,检索出与标准表达匹配的标准应答id,如果无匹配结果,则再通过mau工作站13提示mau人工座席9进行标准回应的选择和输入相应的标准回应id,可选地,mau人工座席9也可以直接将标准表达与回应数据相关联,或者建立新的回应数据;中央控制器12指示回应生成器114调用和/或运行回应数据库113中的数据来生成对客户8表达的回应;然后,对话网关11将回应通过呼叫设备2反馈给客户8;可选地,中央控制器12根据mau人工座席9确定或添加的标准表达或标准回应分别维护和更新mt训练数据表或回应数据库,并且相应维护和更新表达—回应数据库。

智能应答设备1也可以实现前述的意图获取和填槽方法。例如,对话网关11通过表达接收器111从呼叫设备2接收来自客户8的自然表达信息,并将其发送到中央控制器12;中央控制器12指示机器人11将该自然表达信息识别为计算机可处理的某种形式的语言信息(例如x语言信息),然后指示机器人11从该语言信息中提取与所需标准表达对应的部分,转换为标准表达,并填入槽;如果机器人11的精确信息萃取能力不够成熟或者未实现语料匹配,而不能完成填槽,则中央控制器12指示mau工作站13提示mau人工座席9进行人工填槽;mau人工座席9直接对自然表达进行理解,并根据理解结果或者通过理解得到的标准表达进行填槽操作,通过mau工作站13输入并发送到中央控制器12;中央控制器12查询表达—回应数据库,检索出与与填槽结果对应的标准表达相匹配的标准应答id,如果无匹配结果,则再通过mau工作站13提示mau人工座席9进行标准回应的选择和输入相应的标准回应id,可选地,mau人工座席9也可以直接将标准表达(包括填槽结果)与回应数据相关联,或者建立新的回应数据;中央控制器12指示回应生成器114调用和/或运行回应数据库113中的数据来生成对客户8表达的回应;然后,对话网关11将回应通过呼叫设备2反馈给客户8;可选地,中央控制器12根据mau人工座席9确定或添加的标准表达(包括填槽结果)或标准回应分别维护和更新mt训练数据表或回应数据库,并且相应维护和更新表达—回应数据库。

图12a~图12p示意性地示出了根据本发明实施例的意图获取和槽填充系统的操作界面。

图12a示出了设置“faq”的界面。所谓“faq”,可以是指人机交互话术中的常见问题(也即前述的“询问项”),例如,图中,“changepassword”是修改密码,“checkcreditbalance”是查询信用卡余额,“customerservice”是售后服务,等等。“id”是为faq分配的唯一标识,用于方便地查询、输入或者选择faq。图12a的界面可以用来显示和设置faq,例如,当需要新增一个faq时,例如,订购机票,可以手动输入faq的内容描述“flight”以及“id”。也可以用批量上传的方式,新增和修改数据库中的faq数据表。图12a的界面也可以用来设置更上位范围的应用场景。可以通过应用场景将faq归类。例如,将“checkcreditbalance”归入信用卡服务场景,将“flight”归入出行服务场景。如前所述,可以通过多轮人机对话实现对一个应用场景下的多个faq或者多个应用场景下的多个faq的意图获取和填槽操作,也可以通过一次意图获取和填槽操作同时实现跨faq甚至跨应用场景的意图获取和多槽填充操作。

图12b的对话及响应显示界面示出了关于faq的初始数据形态。在图12b左侧——聊天“chat”部分,“customersupport”表示机器人的话语,“test”表示用户的表达;在图12b右侧——引擎响应“engineresponse”部分,显示系统(引擎)理解的faqid及faq。可以通过在(具有“typeamessagehere”标记)的输入框输入或者批量上传的方式来输入用户表达。如果之前数据库中并无用户表达数据,则用这样的方式来构建最初的用户表达数据。在如图12b所示的训练初始状态,由于没有经过训练,对应于聊天“chat”部分的各条用户表达,如,“有没有从上海去北京的票”,“checkcreditbalance”,“changepassword”,机器人的回答都是“sorry,idon’tknow”,而右侧的引擎响应“engineresponse”部分所显示的响应结果也都是缺省的“id:changepassword”“changepassword”。图12b中所示界面下部的下拉菜单所示的“auto”状态表示当前系统处理采用自动方式,而未使用人工辅助。另外,图12b中所示界面左下角的“confidence”后面的输入框中的数字“80”,表示当前设置的机器人自信度阈值为80%,也可以设置其它数字作为阈值。成熟阈值越高,对于机器人自动进行理解的准确率要求越高,通常也就需要更多的人工辅助帮助对机器人进行训练。图12b右侧下方的控件“发送”(“send”)用于发送在其左侧的输入框中输入的消息,控键“新会话”(“newsession”)用于开启一个新的会话,在屏幕上清除左侧的数据。

在图12c所示的界面中,通过人工辅助为用户表达(“question”)赋予对应的faqid/faq。如图12c所示,由于机器人没有经过训练或者对于faq/faqid的理解成熟度没有达到阈值,无法理解获得正确的faqid,因而faqid(界面中“faqid”)的缺省值为“-1”。这种情况下,可以通过人工辅助填写与“question”对应的faqid(界面中“expectedfaqid”)。例如,在图12c中,将“id”为322-326的“question”所对应的“expectedfaqid”都输入或者选择为“flight”,即前述的订机票;将“id”为327-329的“question”所对应的“expectedfaqid”分别输入或者选择为“checkcreditbalance”,“changepassword”和“customerservice”。这里的“id”是输入项的标识,“qid”是“question”的标识,在这个界面的例子中,用户表达“question”是唯一的输入项类型,因而用“id”作为标识,将“qid”缺省设置为“default”;也可以同时用“qid”标识“question”,在通过批量上传的方式输入“question”时,“qid”是很好的索引。“timestamp”是时间戳,表示各条question数据输入完成的时间,利用该时间可以对question数据进行检索,以选择特定时间窗口内的数据进行操作。“cl%”是机器人对question的理解自信度,由于还没有对机器人进行训练,因此缺省的“cl%”是“0.00”。“responseid”是与“question”对应的系统应答的标识,对于不同的“question”可以有不同的“responseid”,也可以对应相同的“responseid”。图12c中界面的左上角的输入框和“go”用于选择其下数据表格的页,可以通过输入页码进行跳转。图12c中界面的右上部分:单选框“includetrainingdata”(包括训练数据)用于选择检索结果是否包括已有的训练数据;单选框“mismatchfaqid”(不匹配faqid)用于选择检索结果是否包括faqid与expectedfaqid不相同的训练数据,这样可以查看未经人工纠正之前的不匹配数据;重置控键“reset”用于对“question”的检索条件进行一次性重置;检索控键“search”用于根据设定的检索条件对“question”及其相关数据进行检索;训练引擎控键“trainengine”用于启动对引擎(也可以认为是前述的机器人或者机器人的一部分)的训练,人工为用户表达(“question”)赋予对应的faqid,也就相当于赋予对应的faq后,点击控键“trainengine”(训练引擎)对机器人进行训练。

图12d所示的界面用于为faq生成与意图对应的槽。图12d的界面左侧是系统菜单栏,其中,“faq”项目下有:“treeeditor”(树编辑器),用于编辑人工交互的话术,即基于对用户表达的理解进行应答的对话逻辑;“import/export”(输入/输出)用于输入或者批量上传faq数据或者输出faq数据。“chat”(对话)项目用于对人机交互对话进行显示、选择、编辑等操作。“response”(响应)项目下有:“report”(报告),用于生成关于引擎响应的报告;“import/export”(“输入/输出”)用于输入或输出引擎响应。“slotfilling”(槽填充)项目下有:“report”(报告),用于生成关于槽填充的报告;“slotseditor”(槽编辑器)用于对槽进行新建、修改、删除等编辑工作。“user”(用户)项目用来编辑用户数据。“engineconfig”(引擎配置)项目用来配置引擎。

当对于faq生成槽时,首先点击“slotseditor”(槽编辑器)标记,然后在(标注有“pleaseselect”的)“faq”下拉菜单选择需要生成(增加)槽的faq,例如“flight”,然后点击该下拉菜单右侧的“add”(增加)控键。接下来在弹出窗口(如图12e-1和12e-2所示)填写所生成(增加)的槽的信息。

如图12e-1和图12e-2所示,所选择的faq是“flight”,在“id”输入框填入“槽标识”(slotid),例如,指向“出发地”的“from”,指向目的地的“to”,等等。“sort”栏用于输入与槽对应的快捷键(即热键,hotkey),用于静默座席以人工方式赋予槽对应值时的快速输入,例如用“1”对应“from”、用“2”对应“to”,这样在之后通过人工辅助输入或查询槽值(slotvalue)时可以通过输入“sort”数值或代码来快捷地实现对槽的指定。“description”(描述)输入框用于输入对于槽所填入的内容的描述,例如用“from”描述出发地,用“to”描述目的地。槽的有效值“validvalues”是能够有效填入槽中的值。可以将槽的有效值看作是从用户自然表达中转换并提取的标准表达。例如图12e-1和图12e-2所示,在“validvalues”所指向的编辑框内输入的“pek”、“pvg”、“hkg”等都是机场的唯一代码。因为飞机出发地和目的地可以根据行程变化,但是机场的代码一般是不变的,因此,同一个槽有效值可以适应填入不同的槽。并且在不同的faq中或者甚至在不同的应用场景下,均可以使用某个槽有效值,并且该槽有效值在不同的faq或者应用场景中的含义是相同的。例如,与北京国际机场对应的槽有效值“pek”也可以用于“餐饮”或“购物”应用场景,还可以用在“出行”应用场景下的另一个faq“pickup”(接送站)。对于采用独立数据库和引擎的应用场景产品,也可以使用相同的槽有效值来表示不同的含义。在各个输入框完成填写后,单击“add”(“添加”)按键来将与槽标识所对应的槽的内容添加进入后台数据库,从而完成槽的添加。

填入的槽有效值与标准表达相对应,而每个标准表达可以对应多个x语言信息,通过转换得到这些x语言信息的a语言信息(自然表达)又是多种多样的。例如,在图12e-1和图12e-2所示的例子中,从各个a语言信息,例如,sh,shanghaipudong,shanghai,shanghaipudong,pudong,pudong,上海浦东国际机场,浦东国际机场,上海,上海浦东,都可以与pvg对应,也就是说,当用户自然表达中出现这些表达中的任何一个,都可能被认为与槽有效值pvg相对应,而被转换为pvg填入对应的槽中。另一方面,在通过人工辅助来训练机器人的精确信息萃取能力时,可以通过静默座席从自然表达理解出上海浦东机场,且其为出发地,然后将pvg输入与出发地对应的槽中。正确的x语言信息与填槽结果配对数据将被保存到数据库(即前述的mt训练数据表)中,供机器人学习。

机器人利用正确的x语言信息与填槽结果配对数据进行学习以提高理解正确率和自信度,因而也可以通过从外部导入训练数据的方式加快机器人的训练。

另外,还可以通过局部配对数据进行训练。如图12f所示,通过点击控键如图12g所示的弹出窗口,再点击控键“choosefile”(选择文件)可以对槽“from”上传槽数据文件。所述槽数据文件例如包括这样的数据:pvg,sh;pvg,shanghaipudong;pvg,shanghai;pvg,shanghaipudong;pvg,pudong;pvg,pudong;pvg,上海浦东国际机场;pvg,浦东国际机场;pvg,上海;pvg,上海浦东;hkg,hongkonginternationalairport;hkg,hongkongairport;hkg,hongkong;hkg,hk;hkg,hongkong;hkg,香港赤腊角国际机场;hkg,香港国际机场;hkg,香港机场;hkg,香港;pek,bj;pek,beijing;pek,beijingcapitalinternationalairport;pek,beijingshoudujichang;pek,beijingshouduguojijichang;pek,北京首都机场;pek,首都机场;pek,首都国际机场;pek,北京首都国际机场;pek,北京,等等。这些槽数据中包括了分别与pvg、hkg、pek对应的多个表达方式,经过训练后,机器人可以更准确或者自信地从自然表达转换得到的x语言信息中识别出与pvg、hkg、pek对应的部分。

对于填槽而言,还需要考虑对表达的整体理解,例如,即使理解出了pvg,还需要从整体表达中获知其是应作为出发地而填入“from”还是作为目的地而填入“to”,而这需要将涵盖与pvg关联的出发地和目的地信息以及对应pvg的信息的自然表达或整体自然表达转换成x语言信息,并将该x语言信息与填槽结果“from”“pvg”组成配对数据进行训练。尽管仅依靠与槽有效值对应的槽数据(因为不包括与槽本身对应的信息(例如“from”或者“to”),于是可以将这样的与槽有效值对应的槽数据连同槽有效值所形成的配对数据称为局部配对数据)进行训练并不能完全实现机器人自动进行填槽的能力,但是这种训练可以有效提升机器人的理解准确率和自信度,从而提高机器人意图获取和填槽的能力。并且这种训练可以在人工辅助训练之前预先进行,提高迭代运算的收敛速度,从而减少人工辅助训练的工作量。因而这种基于局部配对数据的训练可以被视为完全由机器人自己进行的预训练。根据前述的自学习原理,在训练时所采用的实际数据也仍然是将与槽有效值对应的槽数据转换后得到的x语言信息与槽有效值所形成的配对数据。

在图12g中,当上传了上述槽数据文件后,点击控键“update”(更新)进行更新。然后可以点击控键“trainslotvalues”(训练槽值),如图12h所示,机器人利用已有的槽数据与槽有效值的配对数据进行训练。

图12f~图12h所示的用局部配对数据进行训练的方式也可以用在前述的标准表达理解转换中,作为训练的可选手段。

在前面的步骤中,例如,在图12a所示步骤新增faq“flight”及其对应的id,在图12c所示步骤对于每条输入的表达赋予“expectedfaqid”并进行引擎训练,在图12d、图12e-1和图12e-2所示步骤添加槽、输入槽的有效值并进行训练,在图12f、图12g和图12h所示的可选步骤上传槽数据并训练槽值(用槽数据和槽有效值的配对数据训练引擎),都可以是为了下面的人工辅助填槽过程进行准备。

图12i示出了人工辅助填槽的主引导界面。在该界面上部设置了多个用于数据筛选的输入框。例如,“updatedatefrom…to…”是用更新日期来作为数据筛选条件,“createdatefrom…to…”是用创建日期来作为数据筛选条件,“confidencemin:…max…”是用自信度来作为数据筛选条件,“qid”、“question”、“faqid”、“expectedfaqid”、“responseid”的含义如前所述,也可以作为数据删选条件。控键“search”(检索)用来根据设定的检索条件进行检索,而控键“reset”(重置)用来对检索条件进行一次性全部重置。单选框“includetrainingdata”(包括训练数据)用于选择检索结果是否包括已有的训练数据;单选框“mismatchfaqid”(不匹配faqid)用于选择检索结果是否包括不匹配的faqid。

图12i下部的表格部分与图12c类似,但是在最右侧显示出了控键用来指定槽。当通过前述操作对应于“expextedfaqid”添加了槽之后,就会在具有这样的“expextedfaqid”的用户表达记录后面显示控键

点击控键然后在弹出的窗口中会显示“responseid”、“faq”、“question”等表项。可以进行人工操作,用鼠标或者键盘等输入工具选中用所要填入的槽所对应的填入部分,例如,图12j-1中因被选中而蓝色高亮的部分“hongkong”,并通过选中控键或者输入与槽对应的快捷键(“1”或“2”)来选中与要填入部分对应的槽,例如,槽1“from”,之后在“from”对应行中间的文字框中会显示“hongkong”,静默座席工作人员再利用同一行右边的下拉菜单来选择对应的槽有效值,例如,与被选中表达“hongkong”对应的槽有效值是“hkg”。类似地,如图12j-2所示,通过控键选中槽2“to”,并在“question”项的部分选中“shanghai”,以及通过下拉菜单选中对应的槽有效值“pvg”。如图12k所示选中单选框“template”的目的是将该条用户表达“iwanttobuyaticketfromhongkongtoshanghai”作为训练所有槽的模板。完成图12j-1、图12j-2和图12k所示的操作后,点击控键“update”上传数据并可同时关闭此窗口。之后,可以对图12i中所示的其它具有控键的表达项进行类似的处理。

然后,如图12l所示,点击控键“trainengine”对引擎进行训练。此时的训练不再是用局部配对数据进行训练,而是用完整用户表达所转换的x语言信息与填槽结果的配对数据进行训练,获得或者提升关于配对数据所指向的faq的精确信息萃取能力,在图12l所示例子中,训练针对的是对faq“flight”(订机票)的精确信息萃取能力。

图12m示出了访问引擎来检验训练效果的例子。如“chat”对话框中所示,当输入表达“我要买一张从香港去北京的机票”,机器人可以正确地识别出faq是“flight”;并且在右侧的“engineresponse”部分可以看到,机器人正确记录faqid是“flight”,并且能够自动得到正确的填槽内容“from”,“hkg”,“to”,“pek”;当输入表达“iwanttobuyaticketfrombeijingtoshanghai”,机器人可以正确地识别出faq是“flight”;并且在右侧的“engineresponse”部分可以看到,机器人正确记录faqid是“flight”,并且能够自动得到正确的填槽内容“from”,“pek”,“to”,“pvg”。

图12n示出了访问引擎来检验训练效果的另一个例子。在该例中,引擎响应结果出现了丢失槽值或者槽填充值错误的情况。如图12n所示,当输入的表达为“我要买一张去北京的机票,从香港飞”,机器人可以正确地识别出faq是“flight”;在右侧的“engineresponse”部分可以看到,机器人正确记录faqid是“flight”,并且能够自动得到正确的填槽内容“from”,“hkg”,但是却缺少填槽内容“to”,“pek”。这种情况下,可以通过点击图12d所示界面左侧导航栏中response项下的“report”,进入图12i所示的界面,如前述操作,为该条表达进行人工填槽,并训练引擎。在这种出差错后人工纠正而得到的表达与填槽结果的配对数据,可以提供有价值的训练数据,因而最好选中“template”使该数据成为模板数据,用于以后同时对所有槽进行训练。此处的例子是对于文字表达进行处理,由于文字的信息颗粒度比x语言信息粗,因此信息量比x语言信息还小,因此将文字表达与填槽结果作为配对数据进行存储也是可以的。也就是说,可以将从文字表达转换得到的x语言信息与填槽结果构成配对数据进行训练,也可以将文字表达与填槽结果构成配对数据进行存储,在训练时再将该文字表达转换为x语言信息。

也有不能获得正确填槽内容的其它情况。如图12o所示。在图12o中,对于左侧示出的表达“我要去上海从北京走”,在右侧的“engineresponse”部分可以看到,机器人正确记录faqid是“flight”,但却不能自动得到正确的填槽内容。这种情况发生的原因是机器人自信度低于设定的阈值,如图12o所示的自信度阈值“confidence”为80,而图12p中所示针对表达“我要去上海从北京走”,机器人的当前自信度“cl%”为69.12,低于80。对于这种情况,可以如前所述通过点击图12d所示界面左侧导航栏中response项下的“report”进入窗口再次训练,或者也可以调低自信度阈值,允许机器人在低于80的自信度并且在当前自信度69.12的情况下自动将理解的内容填入对应槽中。

图13示意性地示出了根据本发明实施例的机器人理解与人工辅助理解(mau)相结合的自然表达处理的过程。如图13所示,在从上向下包括了四层处理。

第一层处理由机器人自动完成。如前所述,可以通过设定机器人理解成熟阈值来作为机器人自动进行处理的条件,该机器人理解成熟阈值可以是机器人理解准确率阈值或者机器人自信度阈值。例如,将机器人理解成熟阈值设定为90,那么如图13所示,机器人理解准确率或者机器人自信度低于90的自然表达将不被机器人进行自动处理,而转到静默座席进行标准化的处理。

第二层处理由静默座席完成。如前所述,静默座席是一种利用客服人员对自然表达的理解能力提供标准化的理解结果,从而辅助机器人进行回答,并形成用于训练机器人的配对数据。具体而言,当机器人理解成熟度达不到阈值时,机器人会将待理解的自然表达转给静默座席处理。静默座席经系统提示后通过观看、接听等方式用自身感官来接收该自然表达,并基于自己的理解能力对自然表达进行理解,然后将用标准表达输出理解结果,之后机器人根据该理解结果进行自动应答。静默座席的理解能力就是普通客服人员的理解能力,并且由于不需要直接回应客户表达,因此不需要对静默座席人员有发声、口音、应答熟练度等要求,可以说降低了对客户人员的从业能力要求,也有利于促进社会就业。

从智能客服的角度,一方面,机器人自动接收表达并进行应答,静默座席只负责理解不需要应答,都可以大量节省人力资源,并且这种模式下静默座席可以同时对多个会话进行理解操作,从而进一步提升工作效率;另一方面,静默座席根据自然表达输出的理解结果为标准表达,因此将该自然表达与对应的标准表达形成配对数据,加入前述的mt训练数据表,可以用于对机器人进行训练,提升机器人的理解能力,随着机器人理解能力的提升,在理解成熟阈值不变的情况下,越来越少比例的客户表达被转到静默座席,因此可以进一步减少人工座席的数量,降低用工成本,从而实现系统的闭环正反馈。

机器人根据静默座席的理解结果自动应答,也能够保证回应不受客服人员的情绪、声腺、口音、业务熟练度等诸多因素影响。对于具体范畴(或者说是具体的垂直应用)而言,如果标准应答的量不太多,可以通过预先录制的语音、视频等作为应答,相比通过tts技术等合成的语音或者合成的动画,能够带来更好的用户体验。

关于静默座席的工作方式和工作界面,也可以参考前述图12a~图12p及其对应描述。对于静默座席关于人工辅助进行意图获取和填槽的常规工作而言,可以仅进行类似图12j-1和图12j-2的填槽操作,而不必进行faq设定、槽设定以及机器人预训练、训练等工作。

图14示意性地示出了一个由mau工作站呈现给mau人工座席9的操作界面的例子,此处的mau人工座席9即为静默座席。如图14所示,mau工作站13的操作界面包括:客户表达显示区131,对话状态显示区132,导航区133,范畴选择区134和快捷区135。

客户表达显示区131显示客户(即用户)的自然表达,例如,呈现从文字、图像、语音转换而成的文本等形式,或者显示作为自然表达的图像本身,也可以提示链接等,由mau人工座席9选择点击收听语音表达。

对话状态显示区132显示客户8与mau人工座席9或机器人14之间的对话实时状态信息,如:对话来回次数、对话总时长、客户信息等等。该显示区域也可以不设置。

导航区133显示mau人工座席9目前已选择到达的范畴。该区左端显示目前范畴路径的文字版本(如图中所示:银行→信用卡),右端显示该范畴对代码(如图中所示:“12”,“1”代表“银行”范畴,“2”代表在“银行”范畴的下一级范畴“信用卡”。与前述的例子不同,在该应用中,用“1”代表“银行”范畴,而未用“bnk”,二者的标识作用是相同的)。

范畴选择区134供mau人工座席9选择下一级范畴。如图中所示:mau人工座席9已进入到“银行”范畴的下一级范畴“信用卡”,而“信用卡”这一级范畴下辖7个子范畴:“激活新卡”、“申请新卡及申请进度查询”、“还款”……。如客户8的表达是“我的信用卡能透支太少了。”,mau人工座席9就在当前范畴“银行→信用卡”中选择“7”,导航区将更新显示“银行→信用卡→调整信用额度……127”,进入再下一级范畴。mau人工座席9也可以在收到并理解客户8的表达后,在键盘上直接输入“127”,到达目标范畴“银行→信用卡→调整信用额度”。这样,客户8无需再花长时间遍历复杂的功能菜单树寻找自己所需的自助服务,只需直接说出自己的需求,mau人工座席9便能快捷地帮助客户直接启动“调整信用卡额度”处理,从而,用户体验变得容易便捷,而目前传统ivr系统的自助服务流程利用率将得到大幅提升。

快捷区135为mau人工座席9提供了常用快捷键,例如,“-”返回上层范畴、“0”转接人工座席、“+”返回顶层范畴(在这个例子中,就是根范畴“银行”)。快捷区135也可以为mau人工座席9提供了其它快捷键。快捷区135可以提高mau人工座席9的处理速度。快捷区135也是可选设置区域。

这里只给出了mau工作站13的操作界面的一个例子,其可用于mau人工座席9对于标准表达的转换处理。也可以通过类似的操作界面来进行对于回应的人工处理。

第三层处理由高级座席进行。当静默座席遇到非标准情况,也就是在他/她不确定自己对于客户表达的理解是否正确,或者发现系统中没有可以用来对应该表达的标准表达,亦或者发现系统中没有可以准确回应该客户表达的标准应答时,静默座席可以将处理转交高级座席,由高级座席以语音或者文字的方式与客户进行直接沟通。也就是说高级座席通常负责处理非标准的情况(包括新出现的情况)。当然,静默座席也可以反馈客户自己没有听清或者没能理解客户的表达,请客户再次表达或者换一种方式表达,如果还是认为自己处理不了,再转给高级座席。这里的高级座席有些类似于传统客服的座席主管,处理疑难问题。

高级座席也可以为系统提供正反馈。具体地,高级座席将遇到的客户问题(具体表达)和解决方案(应答)形成q&a(问题及回答),提供给后台的知识库设计师。知识库设计师进行话术的后台构建,例如针对某一具体范畴或其下的子范畴设计树状的对话方案。如图13所示,知识库设计师根据高级座席提供的q&a,设计业务范畴“branch-1”的子范畴“branch-11”下的新的常见问题“faq-12”。该faq可以包括与客户表达对应的标准表达、填槽结果,还包括与标准表达、填槽结果等对应的标准应答。

前述的mau人工座席9可以包括上述的静默座席,也可以包括上述的高级座席,还可以包括知识库设计师。

根据本发明实施例的基于人工智能的自然表达处理方法、设备和人机交互系统,通过由自然表达转换获得的x语言信息(即次级语言信息)与对应于该自然表达的含义(意图)的y语言信息(即标准表达)构成配对数据,再通过元素排列组合的迭代比较进行自学习(训练)。也就是说,机器自学习(训练)的基础是自然表达与对应该自然表达含义的标准表达的配对数据。如前所述,可以通过静默座席等进行人工辅助理解的方式来获得这样的配对数据,也可以通过用户输入自然表达进行验证而获得。还可以通过机器来自动获得这样的配对数据。

以自然表达为语音(声波)为例,具体而言,可以先生成与标准表达对应的文字脚本,例如,标准表达是“是”的含义,那么文字脚本可以写多条来对应这一含义,例如,“yes”(英语),“对”,“啊”,等等,这些文字脚本可以由人工编写,也可以从数据库中调用;然后通过文本语音转换工具(tts)转换得到对应的语音,于是得到了标准表达——语音配对数据。由于该标准表达可以预先设计,tts工具对于文本到语音的转换又是比较准确的,因此可以得到准确的配对数据,进一步获得将标准表达转换为信息颗粒度比文字小的次级语言信息与标准表达的配对数据,从而形成供机器自学习的数据。我们也可以称这种方式是自然智能机器人的预训练。

并且可以通过tts工具来丰富和扩展与该条标准表达对应的语音,增加配对语料。例如,可以通过tts工具调整变化语音的语速、音量、语气、语调中的一个或多个参数,例如,1.1倍、0.9倍的语速,1.1倍、0.9倍的音量,以及通过随机变量对语音声波进行微调,该随机变量的选择以及变化范围可以基于对人语音的大数据统计模型来确定。还可以采用具有不同性别声音模型的tts工具,采用具有不同语种或不同方言的声音模型的tts工具,以及采用具有不同说话习惯、说话方式等声音模型的tts工具,来生成供训练用的语音。

这样的预训练配对数据以及基于这些数据生成并存储在训练数据库中的配对数据也可以根据需要复制到其他垂直领域或者范畴的训练数据库,也可以从当前训练数据库中移除这些配对数据。

在图10和图11所示的人机交互系统中,可以用回应生成器114来作为上述的tts工具生成与标准表达对应的语音。

根据本发明实施例的基于自然智能的人机交互系统可以包括一台或多台计算机、移动终端或其它数据处理设备,其中,可以使用这样的数据处理设备来进行自然表达到标准表达的自动转换处理或者基于自然表达的精准信息萃取。该系统还可以实现闭环反馈以及预训练。

根据本发明实施例的自然表达处理和应答方法、设备及系统以及多意图获取方法和系统,可以利用标准表达(包括意图获取结果)快速指向回应,从而使得客户无需再花长时间遍历复杂的常规功能菜单来寻找自己所需的自助服务。

根据本发明实施例的基于自然智能的人机交互系统,通过机器人的自动学习、训练及人工辅助理解,可以建立经转换的自然表达信息(x语言信息)—标准表达(包括意图获取信息)—标准回应数据库,逐渐实现系统自动理解和回应。数据库中存储的经过转换的自然表达信息数据还可以具有业务范畴窄、保真度高等优点,从而降低机器人训练难度,缩短机器人智能的成熟周期。

与常规的应答方式不同,静默座席主要进行后台的“决策”工作,包括确定标准表达(y语言信息)或意图,选择回应(或回应id)或者生成回应操作等,但不需要在前台通过通话或者文字输入等方式来与客户直接进行交流。从而可以大量节省人力资源,提升工作效率。此外,系统对客户提供的标准化回应,相对于传统人工座席直接对客户提供的传统的自由式回应,不受人工座席的情绪、声腺、口音、业务熟练度等诸多因素影响,更能保证客户体验的稳定性。

此外,可以以具体的应用场景(业务范畴)为单位实现机器人的自动学习、训练和成熟度及自信度评价,从而逐点实现整体系统的智能化。在实际应用中,该“机器人理解逐点成熟”机制更容易得到机构的认可与接受,因为风险相对来说极低,旧系统改造成本不高,且对日常运营不会造成负面影响。

以上所述仅是本发明的示范性实施方式,而非用于限制本发明的保护范围,本发明的保护范围由所附的权利要求确定。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1