一种语音对话方法及装置与流程

文档序号:21279355发布日期:2020-06-26 23:29阅读:130来源:国知局
一种语音对话方法及装置与流程

本发明涉及金融科技(fintech)领域,尤其涉及一种语音对话方法及装置。



背景技术:

随着计算机技术的发展,越来越多的技术应用在金融领域,传统金融业正在逐步向金融科技(fintceh)转变,但由于金融行业的安全性、实时性要求,也对技术提出的更高的要求。

目前对话系统中具有一套完备的知识库体系,该知识库体系包含固定话术集合,当用户提问时,该系统通过关键词的精确匹配或者模糊匹配,从知识库中按照预设的固定顺序选取回答内容。但是该方法受限于用户的语言表达能力,有些用户语言表达可能不够准确,导致提问的内容往往信息不充分,因此系统输出的答复内容往往无法满足用户的真实需求,影响用户的使用体验。



技术实现要素:

本发明实施例提供一种语音对话方法及装置,用以解决现有技术中对话系统不能准确识别用户意图,不能根据用户意图主动发起对话然后准确查找正确答案的问题。

第一方面,本发明实施例提供了一种语音对话方法,包括:

服务器获取用户输入的第一语音信息,然后利用第一预设模型对第一语音信息进行解析,确定用户意图和m个槽位。进一步地,服务器查询用户的信息,获取与m个槽位对应的槽位值,当m个槽位中有至少一个槽位为空槽位时,输出与空槽位对应的至少一个预设问句。进一步地,服务器获取用户基于预设问句反馈的至少一个第二语音信息,接着利用第二预设模型对至少一个第二语音信息进行解析,确定与空槽位对应的槽位值。最后,服务器根据用户意图和m个槽位的槽位值,确定并输出答复信息。

在一种可能的实施例中,服务器接收用户的信息,其中可以是文本形式也可以是语音形式,服务器先把用户的信息进行格式处理后,转换成服务器理解的格式,再根据预先训练好的模型对上述语言信息进行解析,也就是通过语言表达bert模型进行处理,进行意图分析,本质上就是进行文本分类处理,然后得到该信息对应的用户意图,从而得到对应的m个槽位。

进一步地,服务器根据用户的身份信息,比如用于预先输入的身份证号码,在数据库中查询该用户的账号信息,将对应的信息填入上述m个槽位中。其中,当不能填满槽位时,针对空槽生成并输出询问信息,进一步地,获取的用户回复信息并进行意图识别,将识别出来的意图信息填入相应空槽。当所有槽位填满之后,根据上述用户意图,在知识库中查找对应槽位值相同的m个槽位及对应的答复信息并输出,完成对话。本发明实施例做到了主动向用户发起对话以获取必要信息,从而根据用户信息对应的填满的槽位,找到对应的预设答复语句并输出,完成对话,实现准确快速地查找用户想要的答案的有益效果。

在一种可能的设计中,第一预设模型至少包括语言表达模型;服务器利用第一预设模型对第一语音信息进行解析,确定用户意图和m个槽位,包括:服务器根据语言表达模型,对第一语音信息进行文本分类,确定用户意图和m个槽位;其中,用户意图和m个槽位是以用户意图树的形式存储,用户意图树中用户意图为根节点,m个槽位为子节点。

在一种可能的实施例中,服务器利用预设语言表达模型,对用户的信息进行处理,具体地,将用的信息输入第一预设模型,生成用户意图,再根据该用户意图得到对应的m个槽位。进一步地,以用户意图为根节点,m个槽位中各个槽位为子节点,生成用户意图书,并以字符串的形式存储到数据库中。这样,实现了将用户意图和槽位转换成意图树,再以字符串的形式存储,进一步地,以加载技术loadingcache实现快速实时存储和加载,使对话更快速。

在一种可能的设计中,第二预设模型至少包括自然语言理解模型;利用第二预设模型对至少一个第二语音信息进行解析,确定与空槽位对应的槽位值,包括:服务器根据自然语言理解模型,对至少一个第二语音信息进行文本分类,确定与每个空槽对应的用户意图,将与每个空槽对应的用户意图作为空槽的槽位值。

在一种可能的实施例中,服务器根据用户身份信息,查询用户账户资料后对m个槽位填槽后,当槽位未填满时,针对未填满的槽位,生成并输出对应的询问信息,进一步地,根据用户的回复进行意图识别,并将识别后的意图填入对应空槽。通过针对m个槽位中的空槽生成询问信息,可以准确得到用户信息,并根据用户信息在数据库中进行答案查找,使整个对话更加有针对性,使查找到的答案更加准确。

在一种可能的设计中,服务器根据用户意图和m个槽位的槽位值,确定并输出答复信息,包括:从知识库中的意图树中确定与用户意图关联的k个子节点;从k个子节点中确定包括m个槽位的槽位值的第一子节点;确定与第一子节点对应的答复信息。

在一种可能的设计中,服务器接收用户的信息之前,预先构建知识库,知识库中包括以用户意图为根节点,槽位的槽位值为子节点和参考答复信息为孙节点的意图树。

在一种可能的实施例中,服务器预先构建知识库,其中包括以各个用户意图,比如“还款-还款方式”、“还款-还款原因”等,也就是各个用户意图为根节点,以各个用户意图对应m个槽位中的各个槽位以及对应的槽位值为子节点,以参考答复信息为孙节点的意图树。

在一种可能的设计中,服务器接收用户的信息之前,预先根据语料库对第一预设初始模型和第二预设初始模型进行训练,生成第一预设模型和第二预设模型;其中,第一预设模型包括bert层、bi-lstm-crf层中的至少一个。

在一种可能的实施例中,在第一初始模型和第二初始模型中输入语料库进行模型训练,得到第一预设模型和第二预设模型。本申请实施例中通过对模型进行训练,得到预设模型,通过上述两种预设模型可以准确快速分析用户的信息,识别出用户的意图标识。

第二方面,本发明实施例提供一种语音对话装置,包括:接收单元,用于获取用户输入的第一语音信息。处理单元用于利用第一预设模型对第一语音信息进行解析,确定用户意图和m个槽位,还用于查询用户的信息,获取与m个槽位对应的槽位值;当m个槽位中有至少一个槽位为空槽位时,输出与空槽位对应的至少一个预设问句。上述接收单元,还用于获取用户基于所述预设问句反馈的至少一个第二语音信息;处理单元还用于利用第二预设模型对至少一个第二语音信息进行解析,确定与空槽位对应的槽位值。处理单元用于还根据用户意图和m个槽位的槽位值,确定并输出答复信息。

在一种可能的设计中,第一预设模型至少包括语言表达模型,进一步地,处理单元,具体用于根据语言表达模型,对第一语音信息进行文本分类,确定用户意图和m个槽位。其中,用户意图和m个槽位是以用户意图树的形式存储,用户意图树中用户意图为根节点,m个槽位为子节点。

在一种可能的设计中,第二预设模型至少包括自然语言理解模型,进一步地,处理单元具体用于:根据自然语言理解模型,对至少一个第二语音信息进行文本分类,确定与每个空槽对应的用户意图。然后将与每个空槽对应的用户意图作为空槽的槽位值。

在一种可能的设计中,处理单元具体用于:从知识库中的意图树中确定与用户意图关联的k个子节点;从k个子节点中确定包括m个槽位的槽位值的第一子节点;确定与第一子节点对应的答复信息。

在一种可能的设计中,处理单元具体用于:构建知识库,知识库中包括以用户意图为根节点,槽位的槽位值为子节点和参考答复信息为孙节点的意图树。

在一种可能的设计中,接收单元接收用户的信息之前,处理单元还用于:根据语料库对第一预设初始模型、第二预设初始模型进行训练,生成第一预设模型、第二预设模型;其中,第一预设模型包括bert层、bi-lstm-crf层中的至少一个。

第三方面,本发明实施例还提供了一种计算设备,包括:

存储器,用于存储程序指令;

处理器,用于调用存储器中存储的程序指令,按照获得的程序执行上述第一方面的方法。

第四方面,本发明实施例还提供了一种计算机可读存储介质存储有计算机可执行指令,计算机可执行指令用于使计算机执行上述第一方面的方法。

附图说明

为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明实施例提供的一种语音对话系统的架构示意图;

图2为本发明实施例提供的一种参考意树示意图;

图3为本发明实施例提供的一种第一预设初始模型的示意图;

图4为本发明实施例提供的一种语音对话方法的流程示意图;

图5为本发明实施例提供的一种用户意图树示意图;

图6为本发明实施例提供的一种用户意图树示意图;

图7为本发明实施例提供的一种语音对话方法的流程示意图;

图8为本发明实施例提供的一种语音对话装置的结构示意图。

具体实施方式

为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。

图1示例性的示出了本发明实施例所适用的一种语音对话系统,该系统架构为服务器10和客户端20,该服务器10可以包括处理器110、通信接口120和存储器130。

客户端20,用于接收用户输入的第一语音信息。

其中,服务器10中的通信接口120,用于与客户端20进行通信,从客户端20获取第一语音信息。

服务器10中的处理器110是服务器10的控制中心,利用各种接口和路线连接整个服务器10的各个部分,通过运行或执行存储在存储器130内的软件程序/或模块,以及调用存储在存储器130内的数据,执行服务器10的各种功能和处理数据。可选地,处理器110可以包括一个或多个处理单元。

存储器130可用于存储软件程序以及模块,处理器110通过运行存储在存储器130的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器130可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据业务处理所创建的数据等。此外,存储器130可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。

需要说明的是,上述图1所示的结构仅是一种示例,本发明实施例对此不做限定。

在描述本申请实施例提供的语音对话方法之前,本申请实施例中,需要预先在服务器10中训练生成知识库,该知识库包括以各个用户意图为根节点,槽位及其槽位值为子节点和参考答复信息为孙节点的意图树。示例性地,图2示例性的示出了一种意图树。该意图树的意图为:零钱_还款_操作,槽位为:渠道和还款方式。其中不同的槽位的槽位值对应不同的答案信息。示例性地,可能包括如下可能的对应关系。

(1)、零钱_还款_操作-->{“渠道”:“qq”,“还款方式”:“零钱包”}对应答案1;其中答案1可以为:您好,您可以通过零钱包还款。

(2)、零钱_还款_操作-->{“渠道”:“微信”,“还款方式”:“零钱包”}对应答案2;其中答案2可以为:您好,您可以通过零钱包还款。

(3)、零钱_还款_操作-->{“渠道”:“qq”,“还款方式”:“银行卡”}对应答案3;其中答案3可以为:您好,您可以通过银行卡还款。

(4)、零钱_还款_操作-->{“渠道”:“微信”,“还款方式”:“银行卡”}对应答案4;其中答案4可以为:您好,您可以通过银行卡还款。

需要说明的是,该服务器10中还需要根据语料库预先训练生成第一预设模型、第二预设模型。其中,第一预设模型至少包括语言表达(bidirectionalencoderrepresentationfromtransformers,bert)模型。进一步地,第一预设模型包括bert、bi-lstm-crf(一种命名实体识别模型)中的至少一个。图3示例性的示出了本发明实施例提供的第一预设模型的示意图,语句“我可以用零钱包还款吗”中会先经过bert得到字向量bi“”,第一层bi-lstm-crf模型得到第一类的结果ri,ri会映射为对应的类向量li,还得到编码结果ei1。进一步地,li,ei1,bi进入第二层bi-lstm-crf后得到最终的用户意图“零钱_还款_操作”。语言表达模型还有助于准确地识别出地点名称。其中,第二预设模型至少包括自然语言理解nlu(naturallanguageunderstanding)模型。可选地,第一预设模型、第二预设模型可以融合成一个预设模型。

基于上述描述,图4示例性的示出了本发明实施例提供的一种语音对话方法的流程,包括:

步骤401,服务器10获取用户输入的第一语音信息。

在一种可能的实施例中,服务器10中的通信接口120从客户端20获取用户输入的第一语音信息。示例性地,用户通过手机拨打微粒贷客服热线并提出语音问题:“我可以用零钱包还款吗?”,因此微粒贷业务对应的服务器10可以获取该语音信息。

步骤402,服务器10利用第一预设模型对该第一语音信息进行解析,确定用户意图和m个槽位。

其中,m为正整数。具体来说,服务器10根据语言表达模型,对第一语音信息进行文本分类,确定用户意图和m个槽位;其中,用户意图和m个槽位可以以用户意图树的形式存储:用户意图为根节点,m个槽位为子节点。如图5所示的用户意图树,其中以用户意图50为根节点,槽位51、槽位52、槽位53、槽位54为子节点。

接续上例,服务器10利用上述第一预设模型对“我可以用零钱包还款吗?”进行文本分类处理,确定用户意图为“零钱_还款_操作”,并确定与该用户意图对应的两个槽位为“渠道”、“还款方式”。示例性地,如图6所示的用户意图树示意图,以用户意图“零钱_还款_操作”为根节点,“渠道”槽位和“还款方式”槽位为用户意图的子节点。

步骤403,服务器10查询该用户的信息,获取与m个槽位对应的槽位值。

在一种可能的实施例中,服务器10中的处理器110根据用户的身份信息,从存储器130中的数据库中,查找该用户的账户信息,进一步地,服务器10获取对应2个槽位“渠道”、“还款方式”的槽位值。其中,槽位值为槽位对应的取值。示例性地,“渠道”槽位的槽位值可以为“qq”或“微信”;“还款方式”槽位的槽位值可以为“零钱包”或“银行卡”。

步骤404,当m个槽位中有至少一个槽位为空槽位时,服务器10输出与空槽位对应的至少一个预设问句。

在一种可能的实施例中,服务器10中的处理器110在数据库中查找“渠道”的槽位值时,查询结果为空,那么服务器10根据“渠道”槽位,生成并输出预设问句“请问您是微信渠道的用户吗”。再比如,假设服务器10中的处理器110在数据库中查找“还款方式”的槽位值时,查询结果也为空,那么服务器10根据“还款方式”槽位,又生成并输出预设问句“请问您是打算用零钱包还款吗”。

步骤405,服务器10获取用户根据预设语句反馈的至少一个第二语音信息。

示例性,服务器10获取用户回答的第二语音信息为:“我是微信渠道的”,再比如,服务器10还可以获取用户回答的第二语音信息为“我打算用零钱包还款”。

步骤406,服务器10利用第二预设模型对至少一个第二语音信息进行解析,确定与空槽位对应的槽位值。

具体的,服务器10可以根据第二预设模型,再次对上述至少一个第二语音信息进行文本分类,确定与每个空槽对应的槽位值。

示例性地,服务器10中的处理器110将该第二语音信息输入第二预设模型,该第二预设模型对该第二语音信息进行意图识别处理,识别出用户意图为“是微信渠道的用户”,所以“渠道”槽位的槽位值应该为“微信”。进一步地,服务器10中的处理器110对“渠道”槽位进行填槽,填入对应槽位值“微信”。

一种可能的实施方式,服务器10可以根据获取的第二语音信息“我打算用零钱包还款”,确定与“还款方式”槽位对应的槽位值为“银行卡”。另一种可能的实施方式,服务器10可以在数据库中查找该用户的“微信”渠道下的账户资料,并根据查询结果,确定出用户的常用还款方式为“银行卡”,因此设置还款方式”槽位对应的槽位值为“银行卡”。

步骤407,服务器10根据用户意图和m个槽位的槽位值,确定并输出答复信息。

具体来说,服务器10可以从知识库中的意图树中确定与用户意图关联的k个子节点,然后从k个子节点中确定包括m个槽位的槽位值的第一子节点,确定与第一子节点对应的答复信息。示例性地,服务器10可以根据用户意图“零钱_还款_操作”,从图2所示意图树中确定出与该用户意图对应的4个子节点,从4个子节点中确定出与“渠道”槽位的槽位值“微信”,“还款方式”槽位的槽位值“零钱包”对应的答案2作为答复信息。

在一种可能的实施例中,服务器10可以利用loadingcache技术(一种加载技术)定时更新知识库中的各个用户意图的答案配置信息到缓存中。实现快速加载答案配置信息,加快语音对话效率。如图2所示的参考意图树,其中,数据结构可以利用map(图谱)来简单实现。

具体地,用户意图为map第一层key,value为第二层map,其中第二层map的key为json(字符串)形式保存槽位值列表。示例性地,服务器10利用loadingcache技术初始化加载map对应的答案配置信息到存储器130的数据库中的部分代码如下表:

进一步地,在槽位值填满后,服务器10根据用户意图从缓存的map中搜索对应的槽位值以及对应的答案配置信息。进一步地,服务器10将对应用户意图下的所有槽位值列表的json字符串解析为key-value的map形式,和用户意图树中的槽位值map进行匹配。示例性地,匹配算法可以由下表中的代码实现:

本发明实施例中,服务器10利用loadingcache加载配置,以及用json字符串形式存储槽位值组合列表以及对应的答案信息,实现了实时快速的配置答案,实现快速语音对话,提高了语音对话效率。

本发明实施例中,实现在金融场景下实时预测用户的潜在意图,利用用户意图+m个槽位构建用户意图树,可让实现使语音对话系统查询数据库中的用户账户信息,然后针对空槽位主动发起多轮问答,完善上述构建的用户意图树,最终利用完善的用户意图树做决策回复,使得服务器10的回答更加人性化,更有针对性,不再是根据关键字进行单一的固定话术答复,增加了服务器10主动与用户互动的金融反向问答场景,实现智能语音对话,帮助用户快速准确地解决金融问题,提高用户体验。

需要说明的是,在上述步骤401之前,用户预先输入自己的身份信息,服务器10根据用户的身份信息在数据库中进行查询,然后将查询到的信息填入m个槽位。

基于相同的技术构思,图7示例性的示出了本发明实施例提供的一种语音对话方法的流程示意图。

步骤701,服务器10接收用户输入的信息。步骤702,服务器10根据第一预设模型对该信息进行意图识别,生成用户意图和对应的m个槽位。步骤703,根据空槽位获取用户信息,其中,针对空槽位发起多轮对话,输出预设问句,获取用户回答信息。

示例性地,服务器10在第一预设模型对该用户输入的信息中进行处理,提取出用户意图,生成该用户意图对应的m个槽位。可选地,根据用户预先输入的身份信息,比如手机号或者身份证号,在数据库中查询该用户的账户信息,根据该信息进行填槽。进一步地,当槽位未填满时,服务器10根据空槽位向用户发起对话,进一步询问用户。

步骤704,服务器10根据历史对话信息,进行意图识别并进行填槽。

当所有槽位填满之后,步骤705服务器10根据用户意图和填满的槽位及其对应槽位值,匹配知识库中的答案信息。

步骤706:服务器10输出对应答案信息。

示例性地,服务器10根据对应用户意图匹配对应槽位及其槽位值的答案信息,输出回复语句给用户。由此完成对话,实现智能高效对话。

示例性地,在与用户输入查询信息之前,获取该用户的身份信息,比如直接获取用户与服务器10联系的手机号或者对应的账号信息,也可以通过交互的方式间接获取用户身份信息。其中,服务器10可能为微粒贷客服热线中的客服机器人。

在一种可能的实施例中,微粒贷客服热线中的客服机器人与用户发生下述交互内容:

用户:你好!为什么还款失败?

客服机器人:亲!请问您是零钱还款还是银行卡还款?

用户:我是零钱还款。

客服机器人:亲!请问您是自动扣款还是手动扣款?

用户:我是自动扣款。

客服机器人:因为您的微信零钱余额不足,所以扣款失败。

通过上述交互内容可知,客服机器人中的对话系统可以根据用户输入的语音信息进行处理后得到用户意图及对应m个槽位,再根据其中未填满的槽位主动对用户发起询问,获取相关必要信息,填入对应槽位,再在知识库中根据用户意图和槽位及其槽位值查找答案信息,输出对应答复语句,完成对话。实现了在对话过程中快速识别用户意图,查找答案信息,提高对话质量,提高用户体验。

基于相同的技术构思,图8示例性的示出了本发明实施例提供的一种语音对话装置的结构示意图。

该装置包括接收单元801,用于获取用户输入的第一语音信息。

处理单元802,用于利用第一预设模型对第一语音信息进行解析,确定用户意图和m个槽位,还用于查询用户的信息,获取与m个槽位对应的槽位值;当m个槽位中有至少一个槽位为空槽位时,输出与空槽位相关的至少一个预设问句。

上述接收单元801,还用于获取用户的至少一个第二语音信息;处理单元802还用于利用第二预设模型对至少一个第二语音信息进行解析,确定与空槽位对应的槽位值。

处理单元802,用于还根据用户意图和m个槽位的槽位值,确定并输出答复信息。

在一种可能的设计中,第一预设模型包括语言表达模型,进一步地,处理单元802,具体用于根据语言表达模型,对第一语音信息进行文本分类,确定用户意图和m个槽位。其中,用户意图和m个槽位是以用户意图树的形式存储,用户意图树中用户意图为根节点,m个槽位为子节点。

在一种可能的设计中,第二预设模型包括自然语言理解模型。处理单元802具体用于:根据自然语言理解模型,对至少一个第二语音信息进行文本分类,确定与每个空槽对应的用户意图。然后将与每个空槽对应的用户意图作为空槽的槽位值。

在一种可能的设计中,处理单元802具体用于:从知识库中的意图树中确定与用户意图关联的k个子节点;从k个子节点中确定包括m个槽位的槽位值的第一子节点;确定与第一子节点对应的答复信息。

在一种可能的设计中,处理单元802具体用于:构建知识库,知识库中包括以用户意图为根节点,槽位的槽位值为子节点和参考答复信息为孙节点的意图树。

在一种可能的设计中,接收单元801接收用户的信息之前,处理单元802还用于:根据语料库对第一预设初始模型、第二预设初始模型进行训练,生成第一预设模型、第二预设模型;其中,第一预设模型包括bert层、bi-lstm-crf层中的至少一个。

基于相同的技术构思,本发明实施例提供了一种计算机可读介质,其存储有可由终端设备执行的计算机程序,当程序在终端设备上运行时,使得终端设备执行结算方法的步骤。

本领域内的技术人员应明白,本发明的实施例可提供为方法、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。

本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。

显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1