基于文本到语音转换以及语义的音频人类交互证明的制作方法

文档序号:2827113阅读:178来源:国知局
基于文本到语音转换以及语义的音频人类交互证明的制作方法
【专利摘要】本文所述的文本到语音转换音频HIP技术在一些实施例中使用经由文本到语音转换引擎生成的不同的相关或不相关的单词或句子作为音频HIP质询。该技术可在说出要被用作HIP质询串的句子的文本到语音转换合成器中应用不同的效应。这些不同的效应可包括例如谱频率翘曲;元音持续时间翘曲;背景添加;回声添加;以及改变单词间的持续时间等等。在某些实施例中,该技术改变该组参数来防止自动语音识别工具使用先前使用的音频HIP质询来习得可然后被用来识别由该技术生成的将来的音频HIP质询的模型。此外,在一些实施例中,该技术在HIP质询中引入语义理解的要求。
【专利说明】基于文本到语音转换以及语义的音频人类交互证明

【背景技术】
[0001] 人类交互证明(HIP),也称为CAPTCHA(区分计算机和人类的完全自动化公共图灵 测试),它将人类用户与自动编程(即机器人程序(bot))相区分。
[0002] 大多数HIP方案的目标是防止计算机自动访问,而允许人类访问。通常,该目标是 通过提供一种用于生成和分级大多数人能够容易通过而大多数计算机程序不能通过的测 试来解决的。


【发明内容】

[0003] 提供本
【发明内容】
是为了以简化的形式介绍将在以下详细描述中进一步描述的一 些概念。本
【发明内容】
并不旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于 限制所要求保护主题的范围。
[0004] 本文描述的文本到语音转换音频人类交互证明(HIP)技术提供了一种音频HIP, 它在创建音频质询时采用文本到语音转换技术以及语义,以确定未知计算机用户是人类还 是机器人程序。为了使得说出的句子不能被通用或定制的自动语音识别(ASR)系统(通常 由机器人程序使用来尝试自动地解密音频HIP)识别,该技术防止ASR系统的语音识别机制 识别由该技术生成的HIP样本或从中学习。该技术通过使得说出的HIP句子非常不同于在 训练ASR系统的模型时使用的音频数据,以及通过改变说出的HIP单词或句子中的特征来 实现这一点。ASR系统通常基于统计模型。HIP句子离ASR模型的训练数据分布越远,ASR 系统越难以识别HIP的单词或句子。
[0005] 本文所述的文本到语音转换音频HIP技术可在通过文本到语音转换(TTS)引擎生 成说出的HIP句子时应用谱频率翘曲、元音持续时间翘曲、音量翘曲、背景添加、回声添加、 以及单词间持续时间。所得到的说出的句子的节奏、音高、以及话音因此与用于训练ASR系 统的常用数据非常不同。此外,该技术采用大集合的文本到语音转换参数,来允许该技术 频繁地或经常地改变各种效应以禁止使用之前使用的音频HIP质询,使其不能被用于训练 ASR系统的模型以识别该技术所生成的HIP质询。
[0006] 本文所述的文本到语音转换音频HIP技术的一个实施例可添加附加机制来将人 类用户与机器人程序相区分:音频HIP质询的句子必须被理解以便通过该质询。例如,该句 子可以是一问题或指令,需要对作为音频质询提出的该句子的语义理解以便正确地回答该 质询。以此方式,即使先前描述的机制失败,即ASR系统能够识别被用作音频质询的句子中 的全部单词,在不理解该句子的情况下机器人程序可能仍然不能通过该测试。对句子的语 义理解仍然被认为是一种挑战性的人工智能问题。

【专利附图】

【附图说明】
[0007] 参考以下描述、所附权利要求书以及附图,将更好地理解本公开的具体特征、方面 和优点,附图中:
[0008] 图1是用于实践本文所描述的文本到语音转换音频HIP技术的一个示例性实施例 的示例性架构。
[0009] 图2描绘了用于采用文本到语音转换音频HIP技术的一个实施例的示例性过程的 流程图。
[0010] 图3描绘了用于采用文本到语音转换音频HIP技术的一个实施例的示例性过程的 另一流程图。
[0011] 图4描绘了用于采用文本到语音转换音频HIP技术的一个实施例的示例性过程的 又一流程图。
[0012] 图5是可用于实践文本到语音转换音频HIP技术的示例性计算环境的示意图。

【具体实施方式】
[0013] 在以下对文本到语音转换音频HIP技术的描述中,对附图作出参考,附图形成了 该描述的一部分,且通过可实践此处所描述的文本到语音转换音频HIP技术的说明性示例 示出。要理解,可以利用其他实施例,并且可以作出结构上的改变而不背离所要求保护的主 题的范围。
[0014] 1. 0 f本到语咅转换咅频HIP抟术
[0015] 以下各节提供了对人类交互证明(HIP)的介绍、此处描述的文本到语音转换音频 HIP技术的概览、以及用于实践该技术的示例性架构和示例性过程。还提供了该技术的各种 实施例的细节。
[0016] 1. 1人类夺互证明(HIP)的介绍
[0017] HIP,也称为CAPTCHA(区分计算机和人类的完全自动化公共图灵测试),它将人类 用户与自动编程(即机器人程序(bot))相区分。大多数HIP方案的目的是防止计算机自 动访问,而允许人类访问。通常,该目标是通过提供一种用于生成和分级大多数人能够容易 通过而大多数计算机程序不能通过的测试来解决的。
[0018] 目前有许多HIP方案可用。例如,一种常规视觉方案通过从字典随机选择字符或 单词、然后呈现包含所述字符或单词的畸变图像来操作。该方案然后向其用户提供一测试, 该测试由该畸变图像以及要键入出现在该图像中的一些字符或单词的请求所组成。通过定 制所应用的变形的类型,创建一图像,其中大多数人能从畸变图像中读取所需数量的字符 或单词,而当前的计算机程序通常不能。
[0019] 在另一音频HIP示例中,各个字符由人说出。与伴随的视觉HIP相同的那些说出 的字符被扭曲并且被拼接在一起,其中在字母间有不同的时间持续期。还添加了背景噪声。 用户被要求键入说出的字母。
[0020] 在又一音频HIP中,各个单词被说出、变形且加有背景噪声。用户被要求键入说出 的单词。所键入的单词中存在一些误差是可容忍的。
[0021] 1. 2抟术概览
[0022] 本文所述的文本到语音转换音频HIP技术在一些实施例中使用经由文本到语音 转换引擎生成的不同的(最好是不重复的)句子或单词作为音频HIP质询。该技术可在说 出要被用作HIP的句子或单词的文本到语音转换合成器中施加不同的效应。这些不同的效 应可包括例如谱频率翘曲;元音持续时间翘曲;音量翘曲;背景添加;回声添加;单词间的 持续时间的变化等等。在某些实施例中,该技术改变参数集合来随时间生成音频HIP质询 并用于生成不同的质询,以便阻止ASR习得可被用来识别该技术所生成的音频HP质询的模 型。此外,在一些实施例中,为了解答HIP质询,该技术引入语义理解的要求。
[0023] 1. 3示例件架构
[0024] 图1示出用于实践文本到语音转换音频HIP技术的一个实施例的示例性架构100。 如图1所示,该示例性架构100包括文本选择器模块101,文本选择器模块可包含文本库 102 (例如文本句子和预期回答)或单词库103。模块101选择文本106并将其提供给HIP 生成模块104,以及选择预期回答107并将其提供给验证器109。在一个实施例中,文本选 择器模块101可以随机方式或特定方式来选择特定项(如最好是文本句子及其预期回答)。 文本库102中的句子可从由特定源提供的文档或文章中选择、从因特网爬寻、或基于特定 规则或模式从一模块(图1中未示出)生成。在某些实施例中,预期回答是与句子一起产 生的。预期回答可以是句子本身,或是人类响应于该句子而将提供的回答。前者通常被用 在句子是从文档或文章自动产生的时候。后者通常被用在句子是由程序模块产生的时候。
[0025] 在一个实施例中,文本选择器模块110可包含可从中以随机方式或特定方式选择 一组相关或不相关的单词的单词库。所选单词被用作被发送给HIP生成模块104的所选 文本106,与所选文本106相同顺序排列的单词还被用作被发送给验证器109的预期回答 107。
[0026] 该架构包括与文本选择器101驻留在同一或不同通用计算设备500上的音频HIP 生成模块104。将参考图5来更详细地讨论通用计算设备500。HIP生成模块104包含TTS 引擎、TTS畸变模块114以及后TTS畸变模块116。一种常规的TTS引擎由两部分组成:语 音模型108以及文本到语音转换合成器110。该TTS引擎使用语音模型108来处理所选文 本106。在两个TTS引擎组成部分(语音模型108和TTS合成器110)之间,TTS畸变模块 114调整由语音模型108建模的参数来应用一个或多个畸变,使得所选文本106将在被文本 到语音转换合成器110读出时被扭曲。TTS输出可进一步由后TTS畸变模块116来处理,以 应用一个或多个附加畸变,例如向TTS生成的说出的文本添加回声或背景。所产生的声音 被用作音频HIP/CATCHA 112。对于生成音频质询串的每个实例而言,这些畸变或者定义了 TTS合成器110或后TTS中的一个或多个畸变的参数可随机地或以特定模式改变。
[0027] HIP生成模块104确定被用于使用语音模型108来对所选文本进行建模的畸变参 数。在一个实施例中,该语音模型108是被用于对频谱(声道)、基频(声源)以及语音的 持续时间(韵律)进行建模的隐形马尔可夫模型(HMM)。HIP生成模块104内部的TTS畸 变模块114可包括频率翘曲模块120,频率翘曲模块120在所选文本106被文本到语音转换 合成器110读出时翘曲所选文本的频率参数。TTS畸变模块114还可包括用于改变可发音 的声音的持续时间的模块118。例如,该模块118可执行元音持续时间翘曲,元音持续时间 翘曲在所选句子106被文本到语音转换合成器110读出时改变所选句子106的元音的发音 时间。此外,TTS畸变模块114可包括在文本到语音转换合成器110为所选文本106生成 话音时用于改变声音音量的模块122和/或改变单词间的持续时间的模块124。
[0028] 在文本到语音转换合成器110生成了所选文本的话音之后,可利用后TTS畸变模 块116应用一个或多个附加畸变。后TTS畸变模块116可包括添加回声效应的回声添加模 块126和/或向从文本到语音转换合成器110生成的所选文本106的音频剪辑添加背景声 音的背景添加模块128。
[0029] 背景添加模块128可添加不同的背景声音。在一个实施例中,可添加音乐作为背 景声音。在另一实施例中,可向所选文本106的来自文本到语音转换合成器110的话音(称 为前景话音)添加另一话音(下文称为背景话音)。可向背景声音应用畸变和其他修改,以 对相同的或不同的音频HIP质询产生背景声音上的附加变化。
[0030] 当话音被添加时,背景话音可以与前景话音为相同的语言。它也可以是与前景话 音的语言不同的语言。例如,当前景话音是英语时,背景话音可以是中文或西班牙语。背景 话音可以与前景话音类似的方式用TTS合成器110生成。在背景话音的生成期间,可应用 上面关于前景话音所提及的诸如频率翘曲等之类的不同畸变。背景话音的文本可以是从文 本库选择的句子或从字典随机选择的单词。有了添加的背景话音,人类能够容易地区分两 种语言并标识和识别前景语言,而诸如ASR引擎之类的机器不能将前景话音与背景话音相 区分,从而不能识别前景话音的说出的文本。
[0031] 从HIP生成模块生成的音频质询被发送给一未知用户130,该用户能用诸如使用 键盘、鼠标、或触摸屏之类的各种方法来输入回答。在一个实施例中,该未知用户130可说 出一回答,而话音识别技术可被用于识别该回答并将其转换成文本。接收到的文本回答132 然后被发送给验证器109,验证器109将接收到的回答与音频质询的预期回答相比较。如果 确定来自于该未知用户的回答132匹配预期回答107,则验证器109将该未知用户130标识 为人类134。否则,该未知用户被标识为机器人程序136。在一个实施例中,该未知用户130 识别音频质询112来提供正确的回答以便通过测试。在另一实施例中,为了提供正确的回 答以便通过测试,该未知用户130必须对该音频质询具有语义理解。
[0032] 许多技术可被用在验证器109中来确定接收到的回答132是否匹配预期回答。在 一个实施例中,验证器仅在这两个回答精确匹配时才确定他们彼此匹配。在该情况下,不容 忍任何误差。在另一实施例中,如果两个回答之间的误差低于容限误差,则验证器确定这两 个回答彼此匹配。在一个实施例中,两个回答之间的误差是使用编辑距离或其变体来计算 的。
[0033] 验证器109可在将一回答与另一回答相比较之前处理该回答。例如,验证器109 可对一回答的文本进行规范化(例如用其标准表达来替换一单词或一串文本)以及去除无 关紧要的单词。验证器109也可将一文本回答转换成音素串,并对各音素串进行比较来确 定两个回答是否彼此匹配。可使用许多技术来将文本转换成音素。在一个实施例中,TTS中 的语音模型被用于将文本转换成音素。
[0034] 1. 4用于实践该抟术的示例件讨稈
[0035] -般来说,图2示出用于实践本文所述的文本到语音转换音频HIP技术的一个实 施例的一般示例性过程。如框202所示,从多个文本句子或多个单词选择文本句子或一组 相关或不相关的单词。如框204所示,应用文本到语音转换引擎来生成所选文本的话音作 为音频质询,用于标识未知用户是人类还是机器人程序,其中在所选文本的话音的生成期 间或之后应用了一个或多个畸变。
[0036] 图3示出用于实践文本到语音转换音频HIP技术的另一实施例的更详细的示例性 过程300。一般来说,文本到语音转换音频HIP技术的该实施例通过首先查找或定义离散文 本句子或单词的库来操作,如框302所示。例如,可从各种合适的文本源来选择文本句子。 在一个实施例中,文本库中的文本是从人类容易理解的文章或文档(诸如面向普通人类读 者的报纸和杂志)中自动提取的不重复的句子。在一个实施例中,提取的句子的长度具有 预设范围。如果某一句子太短,则它可与下一句子组合或简单地被丢弃。太长的句子可被 切成两个或更多个更小的块以适合所要求的长度。文章或文档可从内部源提供,或者从因 特网爬寻。在另一实施例中,该音频HIP技术构建或定义了单词库。可通过去除无关紧要 的单词或令人混淆的单词来从一字典中构建该库。人类容易被其拼写或被其声音混淆的那 些单词可从库中被移除。给定该文本句子库或单词库,如框304所示,该技术从文本句子库 中自动选择一文本句子或从单词库中自动选择一组相关或不相关的单词,用于创建用来确 定未知用户是人类还是机器人程序的音频质询。如框306所示,如果回答与被检索出的文 本句子一起被存储在库中,则该技术还可从文本句子库检索预期回答,或者从所选的文本 句子或该组相关或不相关的单词中生成预期回答。在一个实施例中,所生成的预期回答与 所选文本串相同。在另一实施例中,所生成的预期回答是在文本规范化被应用于所选文本 之后的结果。文本规范化接收一文本输入并产生一文本输出,该文本输出将该输入文本转 换成标准格式。例如,在文本规范化期间,诸如"a"、"an"之类的无关紧要的单词可被移除, "I'm"可被"I am"替换。(如后面将讨论的,预期回答被发送给验证器316以与来自未知 用户的回答314相比较,以确定该未知用户318是人类还是机器人程序320)。如框308所 示,在所选文本被文本到语音转换合成器读出时,所选文本于是被自动处理以确定参数来 添加一个或多个畸变。在框308中,在确定所述参数时可使用一个或多个语言模型。下面 将更详细地讨论的这些畸变可包括谱频率翘曲、元音持续时间翘曲、音量翘曲、单词间时间 的翘曲。
[0037] -旦在框308中由文本到语音转换合成器产生所选文本的话音,该技术就在框 310中创建音频质询。在音频质询的创建期间,可对框308中生成的话音应用一个或多个附 加畸变。这些畸变可以是添加回声、背景话音或音乐。在将背景音乐或话音添加到框308 中生成的话音之前可将畸变应用于背景音乐或话音。可用与前景话音的生成类似的方式来 生成背景话音,例如通过从一库中选择一文本句子或一组相关或不相关的单词,然后应用 一语言模型以及文本到语音转换合成器来生成背景话音。当话音被文本到语音转换合成器 生成时,可确定以及修改参数来应用一个或多个畸变。这些畸变可与前景话音的生成期间 TTS合成器内部应用的畸变类似。背景话音可以具有不同的语言。在一个实施例中,添加 的背景话音具有与框308中生成的前景话音的语言相同的语言。在另一实施例中,添加的 背景话音具有与框308中生成的前景话音的语言不同的语言。在使用TTS合成器生成话音 期间和之后添加失真有助于创建对人来说相对容易识别、但对计算机却难以识别的音频质 询,并且在所生成的音频质询间引入变化。
[0038] -旦在框310中生成了一音频质询,则下一步骤是将该音频质询发送并呈现给一 未知用户以供标识,如框312所示。该未知用户然后被要求通过键入或说出对该音频质询 的回答来进行响应,如框314所示。注意,即使在预期回答是所选文本串时,由于语音识别 不能将说出的回答正确地转换成下一框中使用的文本回答,攻击者不能播放该音频HIP质 询作为说出的回答。如框316所示,然后将该用户的回答与预期回答相比较。在一个实施 例中,该用户的回答被说出来。在将说出的回答与预期回答比较之前,语音识别技术被应用 来将说出的回答转换成文本回答。仅当键入的回答被确定为与预期回答相匹配时,才认为 该未知用户是人类(框318)。否则,该未知用户被认为是机器人程序(框320)。在一个实 施例中,要求匹配是精确的。在另一实施例中,匹配不必是精确的。可允许两个回答之间的 某种失配。只要失配处于某一预定误差容限或阈值内,该用户的回答就仍被确定为与预期 回答相匹配。
[0039] 在确定用户的回答是否与预期回答匹配时,在比较两个回答之前,框316中的验 证器可以对各回答进行规范化以去除相同表达的变体。该规范化可去除无关紧要的字符或 单词,以及用标准、等价的单词来替换一个或多个单词。例如,"I'm"可被"I am"替换,而 "inti. "可被"international"替换。在又一实施例中,各回答可被转换成声音(即音素) 的串,比较基于音素而非文本。
[0040] 在框316中可使用许多技术来计算两个回答之间的误差。在一个实施例中,编辑 距离被用来计算两个文本或音素串之间的误差。上段中提及的规范化阶段可在计算编辑距 离之前被应用。对于编辑距离的计算可基于单词或音素,或基于字符。当对单词计算误差 时,如果一个单词是另一个的变体,例如另一单词的复数形式,或者两个单词之间的差异处 于某一误差容限范围,则这两个单词可被认为是相同的。当对音素计算误差时,在计算两个 回答的误差时,两个类似发音的音素可被认为是相同的。
[0041] 图4示出用于实践文本到语音转换音频HIP技术的另一实施例的又一示例性过程 400。一般来说,在该实施例中,该技术通过首先定义离散文本句子及其预期回答的库来操 作,这些预期回答要求用户理解句子的语义含义以便提供对句子的正确回答,如框402所 示。在一个实施例中,文本是基于预设的一组规则自动生成的不重复的句子。库中的文本句 子通常是指令或问题,对于该指令或问题,要求理解句子来提供正确的答案。例如,一组规 则可产生与物品的增加或减少有关的许多问题,其中物品可以是任何常见对象,例如苹果、 狗或飞机等。通过使用不同的数量和物品,可生成许多问题,例如"Simon ate three apples yesterday and has eaten two bananas today. What is the total number of fruits Simon has eaten since yesterday ?"("西蒙昨天吃了三个苹果,今天吃了两个香蕉。西 蒙从昨天开始吃的水果总数是多少? ")可以改变主语、时间、数量以及物品名称来生成更 多问题。另一组规则可使用乘法和/或除法、和/或加法和乘法来产生许多问题。作为另 一示例,一组规则可通过要求用户以特定方式输入回答来生成问题,例如通过提供一句子 然后要求用户以相反的顺序输入说出的单词的第二个字母,或输入第三个单词然后是其前 一单词。该组规则也可生成许多问题。文本到语音转换音频HIP技术改变同一组规则所生 成的句子的模式,以及对使用不同组规则生成的句子进行交织,来生成音频HIP质询,以便 防止机器人程序基于生成音频HIP质询时使用的该组规则,或通过知道如何基于特定模式 或关键词来提供正确的回答来正确地归类音频HIP。
[0042] 文本句子与它们的合适的答案或预期回答一起被存储。给定这一文本句子库,如 框404所示,该技术从该库中自动选择一个或多个文本句子,用于创建要在确定未知的计 算机用户是人类还是机器人程序时使用的音频质询。该所选句子然后可被自动处理以确 定在该所选句子被文本到语音转换合成器读出时可被添加的一个或多个畸变,如框406所 示。下面将更详细地讨论的这些畸变包括谱频率翘曲、元音持续时间翘曲、音量翘曲、以及 单词间时间的变化。在创建音频HIP时,可将诸如背景添加和回声添加之类的一个或多个 附加畸变应用于由文本到语音转换合成器生成的话音,如框408所示。然而应注意,在一个 实施例中,要求语义理解的句子在被文本到语音转换合成器读出之时或之后该句子不被畸 变。未被畸变的音频HIP质询依赖于对该质询的语义理解来确定未知用户是人类还是机器 人程序。语义理解防止机器人程序提供正确的回答。
[0043] 如框410所示,下一步骤是将该音频质询呈现给未知方来标识。然后该未知方被 要求要么通过键入要么通过说出合适的回答来对该要求语义理解的句子进行回答,如框 412所示。通过应用语音识别技术,说出的回答可被转换成文本回答。回答可被转换成表示 该回答如何被发音的音素串。可对回答应用规范化来用表达该回答的标准方式替换变体, 无关紧要的字符或单词也可被去除。用户的回答然后与该音频质询的预期回答相比较,以 确定它们是否匹配,如框414所示。仅当用户的回答被确定为与预期回答相匹配时,该未知 用户才被认为是人类,如框416所示。否则,该未知用户被认为是机器人程序,如框418所 示。在一个实施例中,仅当两个回答彼此精确匹配时才将该两个回答确定为彼此匹配。在 另一实施例中,如果两个回答的误差处于容限范围内,则这两个回答被确定为彼此匹配。可 使用不同的技术来计算两个回答的误差,例如编辑距离或其变体。对图3中所示的示例性 过程描述的许多技术也可被应用于图4中所述的示例性过程。
[0044] 1. 5该抟术的各种实施例的细节。
[0045] 已经描述了用于实践文本到语音转换音频HIP技术的示例性架构和示例性过程, 下面的段落提供了用于实现该技术的各种实施例的各种细节。
[0046] 1. 5. 1可破应用的各种畸变
[0047] 如上所讨论的,在从所选文本创建音频质询期间可应用一个或多个畸变。这些畸 变可在生成文本的话音之时和/或之后被应用。这些畸变可随产生音频质询的每个实例而 变化。在所选文本被文本到语音转换合成器读出时,和/或通过在创建音频HIP质询时对 所生成的话音进行背景添加和回声添加,文本到语音转换音频HIP技术可以采用谱频率翘 曲、诸如元音持续时间翘曲之类的可发音的声音的变化、话音音量的变化、以及相邻单词间 时间的变化。下文描述在创建用于确定未知用户是人类还是机器人程序的音频HIP质询时 应用这些和其他畸变的细节。
[0048] 1. 5. 1. 1谱频率詡曲
[0049] 在将所选文本转换成话音时可应用许多不同类型的频率翘曲来畸变所生成的话 音,以便使机器人程序更难以识别该音频质询。例如,在音频质询的生成期间可应用一个或 多个频率翘曲畸变来扭曲所生成的话音。为了这样做,各种翘曲函数和参数被确定并用于 随时间以及随不同的音频质询来改变谱频率翘曲效应。
[0050] 在该文本到语音转换音频HIP技术的一个实施例中,为了执行谱频率翘曲,使用 具有参数α的翘曲函数??,α可随时间t改变。同时,使用函数? = 叻来执行该变 换。翘曲函数可以是线性的、分段线性的、双线性的或非线性的。在一个实施例中,此处所 述的文本到语音转换音频技术使用基于具有单位增益的简单一阶全通滤波器的双线性频 率翘曲函数:
[0051]

【权利要求】
1. 一种用于提供自动人类交互证明的计算机实现的方法,包括: 从多个文本句子或多个单词中选择文本串;以及 应用文本到语音转换引擎来生成所选文本的话音作为音频质询,用于标识未知用户是 人类还是机器人程序。
2. 如权利要求1所述的计算机实现的方法,其特征在于,进一步包括: 从所述未知用户接收对所述音频质询的回答; 验证来自所述未知用户的对所述音频质询的所述回答,以确定所述未知用户是人类还 是机器人程序。
3. 如权利要求2所述的计算机实现的方法,其特征在于,接收到的回答被所述未知用 户说出,并且其中话音识别被应用来识别该回答并将该回答与正确的答案相比较。
4. 如权利要求1所述的计算机实现的方法,其特征在于,进一步包括: 在所选文本的话音的生成期间或之后应用一个或多个畸变。
5. 如权利要求4所述的计算机实现的方法,其特征在于,在生成期间应用的所述一个 或多个畸变包括在所选文本的话音的生成期间应用谱频率翘曲来创建所述音频质询。
6. 如权利要求4所述的计算机实现的方法,其特征在于,在生成期间应用的所述一个 或多个畸变还包括以下至少之一: 在所选文本的话音的生成期间调整可发音的声音的持续时间来创建所述音频质询;以 及 在所选文本的话音的生成期间调整说出的单词之间的持续时间来创建所述音频质询。
7. 如权利要求4所述的计算机实现的方法,其特征在于,在生成期间应用的所述一个 或多个畸变还包括改变所选文本的话音的音量来创建所述音频质询。
8. 如权利要求2所述的计算机实现的方法,其特征在于,需要对所述音频质询的语义 理解来达到正确的答案。
9. 一种用于生成用于自动人类交互证明的基于音频的质询的系统,包括: 通用计算设备; 包括可由所述通用计算设备执行的程序模块的计算机程序,其中所述计算机程序的所 述程序模块指示所述计算设备来: 选择要被用作质询串的文本串; 用一个或多个畸变来对所选文本的语音模型的参数进行畸变,使得所选文本句子在被 文本到语音转换引擎读出时将被扭曲; 使用被畸变的参数以及所述语音模型,使用文本到语音转换合成器来读出所选文本句 子作为对未知计算机用户的音频质询;以及 自动确定来自所述未知计算机用户的回答是否与预期回答相匹配。
10. 如权利要求9所述的系统,其特征在于,所述未知计算机用户必须具有对所选文本 串的语义理解,以便提供预期回答。
【文档编号】G10L13/033GK104115221SQ201380009453
【公开日】2014年10月22日 申请日期:2013年2月1日 优先权日:2012年2月17日
【发明者】Y·钱, B·B·朱, F·K-P·宋 申请人:微软公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1