基于上下文的对话生成方法及系统与流程

文档序号:23845604发布日期:2021-02-05 11:15阅读:54来源:国知局
基于上下文的对话生成方法及系统与流程

[0001]
本申请涉及对话生成技术领域,特别是涉及基于上下文的对话生成方法及系统。


背景技术:

[0002]
本部分的陈述仅仅是提到了与本申请相关的背景技术,并不必然构成现有技术。
[0003]
网络虚拟接触特有的低投入,高回报的特点,使得网上作业逐渐广泛。目前来看,网络对话、网络办公、网络购物、网上诊疗已然成为人们生活的一大部分。网络发展的大背景下,聊天机器人逐渐走向人们视野中心,这主要得益于聊天机器人遍布人们网络生活的各个角落:网上购物时,机器人可以取代客服推荐符合客户需求的商品;网上诊疗时,机器人可以根据病情描述向病人推荐主治医生;快节奏高强度的生活状态下,机器人可能成为用户不可或缺的排解心情的对话工具。此外,据有效数据显示,人类第一次使用消息应用的次数超过了他们使用社交网络的次数,这说明消息类应用是网上人群聚集的地方,不可否认,一个在现实生活中只言片语的人在网上也有自己的精神世界,人们将更多的情感储备在网络上,网络对话开始占据生活交流的一大部分。因此,无论从聊天机器人的应用背景还是发展前景来看,聊天机器人都有无限潜力。
[0004]
具体来讲,聊天机器人是人们网络对话的学习者,与现实对话不同,网络对话缺失了物理世界的切实触碰,抛开面对面接触的仪式感,一方面通过语言文字营造出的特殊意境将带给人心理上的安全感,人们更愿意倾诉内心;另一方面,不受时间紧迫性的影响,人们有更大的时空理清自己的思路,促就更高质量的有效对话。因此聊天机器人不仅是简单地基于文字的服务,为了获得更好的用户体验,需要带给用户一种熟悉的感觉。
[0005]
聊天机器人涉猎极广,近年来已经吸引人工智能学者的广泛关注。目前,chatbots在任务型对话中的方法臻于成熟,主要问题在于缺少有效注释的大型语料库。不同于任务型对话知识固定性的特点,闲聊型机器人被要求具备更广泛的知识以及更自然的信息整合处理能力,对话上下文信息显得愈来愈重要也直接影响用户的体验性。为了解决上述问题,一些学者主张在检索式对话中执行上下文与候选回答的相关性计算,比如wu yu等人提出一种新型的序列匹配模型(swf)来识别上下文中的有效部分或者在生成式对话中研究上下文与当前对话的相关性,比如tian zhiliang等人则通过计算上下文与当前对话余弦相似度来利用上下文信息,实验表明这种显式的加权能够有效过滤无效信息保留有用信息。


技术实现要素:

[0006]
为了解决现有技术的不足,本申请提供了基于上下文的对话生成方法及系统;
[0007]
第一方面,本申请提供了基于上下文的对话生成方法;
[0008]
基于上下文的对话生成方法,包括:
[0009]
获取当前对话语句、当前对话的上文语句和当前对话的下文语句;
[0010]
将当前对话语句、当前对话的上文语句和当前对话的下文语句,输入到预先训练好的编解码器中,编解码器输出当前对话语句的预测对话语句。
[0011]
第二方面,本申请提供了基于上下文的对话生成系统;
[0012]
基于上下文的对话生成系统,包括:
[0013]
获取模块,其被配置为:获取当前对话语句、当前对话的上文语句和当前对话的下文语句;
[0014]
预测模块,其被配置为:将当前对话语句、当前对话的上文语句和当前对话的下文语句,输入到预先训练好的编解码器中,编解码器输出当前对话语句的预测对话语句。
[0015]
第三方面,本申请还提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述第一方面所述的方法。
[0016]
第四方面,本申请还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成第一方面所述的方法。
[0017]
第五方面,本申请还提供了一种计算机程序(产品),包括计算机程序,所述计算机程序当在一个或多个处理器上运行的时候用于实现前述第一方面任意一项的方法。
[0018]
与现有技术相比,本申请的有益效果是:
[0019]
本申请针对生成式多轮对话中如何有效结合上下文的问题,提出一种新型的加权学习的方法来更好地理解上下文语意。该方法能够起到承上启下的作用,将与当前对话相关的上下文信息结合起来生成更有效的信息,一方面可以使对话更加地流畅,保持对话的前后一致性、逻辑性;另一方面能够给神经网络提供更多的前提输入信息,研究表明丰富的输入信息有利于神经网络生成更有意义的回答。
[0020]
考虑到多轮对话上下文中交叉存在对当前对话有用的信息以及无用的噪音,本申请通过对当前对话有用信息进行加权从而有效利用上下文。按照上下文与当前对话的相关权重参与到神经网络的编码输入中,体现了生成式对话中信息利用的合理性,对分层递归编解码模型中编码结构的信息输入来说,大大减少了噪音信息的干扰性,有利于神经网络的训练,并进一步推动模型的参数优化,从而体现模型的鲁棒性。
[0021]
为了更好地训练分层递归编解码模型,本申请针对模型任务的特殊性收集整理了百万条单轮对话数据集,不同于简单的问答对话,该数据集能够最大程度地体现前后语句之间的相关性,推动本文模型的高效率训练,同样,该数据集也可用于文本分类、知识推理、摘要提取等方面的研究。
[0022]
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
[0023]
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
[0024]
图1为第一个实施例的加权上下文生成式对话系统示意图;
[0025]
图2为第一个实施例的求和结构示意图;
[0026]
图3为第一个实施例的拼接结构示意图;
[0027]
图4为第一个实施例的句间rnn示意图。
具体实施方式
[0028]
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本申请使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
[0029]
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
[0030]
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
[0031]
实施例一
[0032]
本实施例提供了基于上下文的对话生成方法;
[0033]
基于上下文的对话生成方法,包括:
[0034]
s101:获取当前对话语句、当前对话的上文语句和当前对话的下文语句;
[0035]
s102:将当前对话语句、当前对话的上文语句和当前对话的下文语句,输入到预先训练好的编解码器中,编解码器输出当前对话语句的预测对话语句。
[0036]
作为一个或多个实施例,s102:将当前对话语句、当前对话的上文语句和当前对话的下文语句,输入到预先训练好的编解码器中,编解码器输出当前对话语句的预测对话语句;具体步骤包括:
[0037]
将当前对话语句、当前对话的上文语句和当前对话的下文语句,输入到预先训练好的编解码器的编码器中,编码器对当前对话语句、当前对话的上文语句和当前对话的下文语句分别进行特征提取,编码器对提取的特征进行编码处理得到编码结果;编解码器的解码器对编码结果进行解码处理,得到当前对话语句的预测对话语句。
[0038]
进一步地,所述编码器,包括:
[0039]
第一递归神经网络gru、第二递归神经网络gru、第三递归神经网络gru、第一隐藏层、第二隐藏层、第三隐藏层和特征融合层;
[0040]
第一递归神经网络gru,用于对当前对话的上文语句进行特征向量提取得到上文语句特征向量;上文语句特征向量输入到第一隐藏层进行处理,第一隐藏层输出第一特征向量;第一隐藏层将处理后的结果输入到第二隐藏层,作为第二隐藏层的输入值;
[0041]
第二递归神经网络gru,用于对当前对话的下文语句进行特征向量提取得到下文语句特征向量;下文语句特征向量和第一隐藏层将处理后的结果,均输入到第二隐藏层中进行处理,第二隐藏层输出第二特征向量;第二隐藏层将处理后的结果输入到第三隐藏层,作为第三隐藏层的输入值;
[0042]
第三递归神经网络gru,用于对当前对话语句进行特征向量提取得到当前对话语句特征向量;当前对话语句特征向量和第二隐藏层将处理后的结果,均输入到第三隐藏层中,第三隐藏层输出第三特征向量;
[0043]
将第一特征向量、第二特征向量和第三特征向量输入到特征融合层中进行加权融合,输出融合后的特征,融合后的特征作为编码器的输出值,送入解码器中,解码器通过解
码处理输出得到当前对话语句的预测对话语句。
[0044]
进一步地,所述加权融合中,权重的获取步骤为:
[0045]
计算第一特征向量与第三特征向量之间的第一互信息;基于第一互信息,并依照注意力机制应用softmax函数执行平滑归一化,计算出第一特征向量的权重;
[0046]
计算第二特征向量与第三特征向量之间的第二互信息;基于第二互信息,并依照注意力机制应用softmax函数,计算出第二特征向量的权重。
[0047]
进一步地,所述加权融合中,权重的获取步骤为:
[0048]
将第二特征向量与第三特征向量之间的第二互信息,输入注意力机制原则下的softmax函数,计算出第三特征向量的权重。
[0049]
进一步地,所述融合,包括拼接融合或/和加和融合以及使用rnn的隐藏层递归。
[0050]
进一步地,所述预先训练好的编解码器,训练步骤包括:
[0051]
构建彼此连接的编码器和解码器;
[0052]
构建训练集,所述训练集包括已知当前对话,已知当前对话的下一句对话,已知当前对话的上文语句和已知当前对话的下文语句;
[0053]
将已知当前对话、已知当前对话的上文语句和已知当前对话的下文语句,均输入到编码中,将已知当前对话的下一句对话作为解码器的输出值;对编码器和解码器进行训练,得到训练好的编解码器。
[0054]
为了学习上下文与当前对话的相关性,本申请假设相邻两句话之间存在较强的相关性,从而计算两条语句之间的互信息。模型训练上,本申请选取了高质量的豆瓣多轮对话以及日常生活类文章共五百万作为数据集,将数据处理为前后两条语句为一组。根据tian zhiliang等人研究显示,处理上下文与当前对话的信息时,分层的模型较不分层的模型表现更好。因此,本申请在处理上下文信息时,对每条上下文分别处理,将训练好的模型直接应用于检测每条上下文与当前对话的相关性。显式加权后选择权重较高句子向量,将联合当前对话直接参与对话生成的前提输入,最后输出生成的上下文相关的回答。总的来说,本申请的贡献体现在以下两个方面:
[0055]
整理出上万条生活中常用语句,为其他有关日常聊天数据以及话语关系的研究提供条件。
[0056]
提出了一种新型的计算上下文与当前对话相关性的学习方法,保存对当前对话有用信息遗忘嘈杂信息,在有效利用上下文信息的同时提高了对话的流畅度,改善用户体验。
[0057]
人与人的对话信息不同于单一的问答系统,现实生活中人与人的交流体现对话的递进性,信息的传递性,话题的广泛性。因此,人与人的日常交流对话系统将更倾向的是开放领域多轮对话系统。为了训练开放领域下的对话机器人,研究者们提出了基于检索和基于生成的两种方法:jia等人使用信息检索技术结合海量会话数据进行研究,实验表明在短文本对话中可以得到一个近乎智能的回答,这种方法下,固定规则和检索方法的制定将直接体现对话机器人的性能,但这种基于规则或者检索的对话系统的智能程度与程序设定是一致的,在开放领域对话系统中不显优势;ritter等人提出使用统计机器翻译的技术实现对话生成系统、shang等人通过seq2seq转换器基于给定输入完成输出。在大量聊天数据的训练下,生成式对话系统开始具备语言学习的功能。相比检索式方法,基于生成的对话更具有发展前景,然而早期的生成式对话系统仅仅考虑当前的对话,并不能考虑结合上下文进
行应答。
[0058]
随着深度学习技术的发展以及网络聊天数据的激增,神经网络逐渐显现出关于对话模型的强大学习能力,现有的研究也开始意识到上下文信息的重要性,部分学者提出感知上下文的对话系统。比如,yan等人采用直接连接上下文语句与当前问题的方法来生成包含上下文信息的回答;serben等人采用分层的方法,首先捕捉上下文中每条语句的特征向量再进一步将全部向量连接起来。目前,存在多种组合上下文与当前问题的方法,本申请中采用先分层表示后拼接的方法完成上下文与当前对话的结合,关键点在于在分层的过程中突出与当前对话最相关上下文的权重的赋值。
[0059]
sordoni等人将上下文和当前对话统一编码进入递归神经网络中学习,是将上下文放入神经网络中进行学习的首次体现,该研究体现了上下文感知的必要性。如何将上下文信息整合为一个输入向量,主要分为两种实现方法,一种通过单一模型逐步提取上下文所有语句的信息,这种方法可以称为不分层的方法,例如yan等人采取此类方法同时关注上下文中所有句子信息来进行搜索候选回答的匹配问题。但在生成式对话系统中,tian zhiliang等人的研究表明,分层较不分层的方法表现得更好,因此,本申请所做工作均在分层的条件下进行,对上下文中每条语句单独捕获信息。
[0060]
已经对上下文中每条语句单独捕获信息后仍然需要解决信息合并的问题,本申请对信息整合的方式主要从三方面展开,分别是求和、拼接、句间rnn。
[0061]
在对话进行的不同阶段,上下文的内容也会有所不同,找到与当前实时对话相关的上下文信息是有效结合上下文的关键。tian zhiliang等人提出使用余弦相似度的方法测量上下文与当前对话的相关性,首先计算有限上下文中每条语句与当前问句的余弦值,并遵循注意力机制进一步将余弦相似度归一化。这种方法可被视为主动关注获得权重,研究表明,显式加权后的上下文能够过滤掉一部分无用的上下文信息,从而生成与上下文更相关以及更有意义的回答。
[0062]
不同于计算上下文与当前对话的余弦相似度的思路,本申请使用互信息的方法来加权上下文的表示。互信息的方法不仅可以表达出上下文中那些信息与当前对话存在相关性,而且能够显式计算出相关性的大小,因此可以帮助选择出对当前对话更有价值的信息传送到神经网络中进行输出。
[0063]
本申请主要围绕生成式对话系统中如何有效利用上下文展开研究,按照单独处理上下文语句的原则采用求和、拼接、句间rnn的方法进一步联合上下文。其中,句间rnn在使用rnn输出上下文及当前对话的隐藏层向量之后可进一步按照求和或者拼接的方式进行,属于本申请中比较复杂但较全面的模型,其他方法为该模型的简化形式,以该方法为例,模型图描述如图1所示。
[0064]
上下文中不同语句包含不同的信息因此发挥不同作用,不同于使用单一的网络将上下文和当前对话转化为固定长度的向量,为了更好地捕捉到每条语句的信息,本申请首先捕获每条单独语句的信息,然后将所有上下文和当前对话进一步连接起来。为了更好地介绍上下文与当前对话的连接情况在分层模型上的表现,下面将分别介绍分层模型下几种联合上下文的方式。
[0065]
求和(sum)。求和也就是将每一维度的信息进行简单相加后形成一个完整的数据集,在本申请的应用中,主要体现在将上下文中每一条语句的向量表达进行相加编码后作
为模型的输入。这种比较直观的求和的方式能够对整体的信息有所把握,但容易忽视每条单独信息的独特性。给定上下文句子的向量表达单独信息的独特性。给定上下文句子的向量表达以及当前对话(present)的向量p
v
,那么编码输入如下
[0066][0067]
得益于神经网络比传统方法可以获得更多的特征,本申请中在使用求和方式时作用在基于rnn的上下文与当前对话的句子级特征的提取上,具体结构图如图2所示。
[0068]
拼接(concatenation)。为了更好地捕捉到不同的上下文与当前对话的信息,sordoni等人使用另一种拼接的方法来对上下文和当前对话进行编码,这种拼接的方式把上下文向量与p
v
,表示为一个长向量:与相加的方式相比,向量拼接可以将不同话语之间的信息单独呈现出来,确保了每条话语的独立性融合在一起共同构成生成输出的前提条件,如图3所示。
[0069]
句间rnn(hidden)。源于神经网络学习可以得到更多的知识,部分学者在上下文的向量提取上进一步使用rnn的隐藏层,例如yao等人基于卷积神经网络的隐藏层获取特征作为语境信息。同理,本申请基于递归神经网络进行训练,在上下文以及当前对话上应用句间rnn获取句子向量特征,经过大量训练学习之后,可以得到一个合理的端到端的输入输出模型。该方法的示意图中,与h
p
分别代表上下文与当前对话在神经网络中的隐藏层输出。注意,句间rnn的方法仅作用在向量特征提取层面,隐藏层输出后的结果仍然可以运用求和以及拼接的方式作为最后的输入编码向量。本申请中后续实验会分情况进行阐述。那么在不结合其他方法的情况下,句间rnn结构图可以如图4所示。
[0070]
余弦相似度:
[0071]
当计算两条文本的相似度时常用到余弦相似度,通过计算表示文本的向量间的距离得到关于话语的相关性。原则上,相似度越小,距离越大,相似度越大,距离越小。本申请中,使用余弦相似度的方法计算上下文与当前对话的相似度时,首先需要将上下文以及当前对话进行特征向量提取,这里采用带门控单元的递归神经网络(gru),得到上下文与当前对话的向量后,分别求上下文中每条单独语句与当前对话之间夹角的余弦值。给定上下文变量c
i
与当前对话向量p,上下文与当前对话的余弦相似度计算公式如下:
[0072][0073]
其中
[0074][0075]
互信息:
[0076]
互信息作为一种有效的信息度量,能够从给定两个目标对象中找到相互依赖关系,简洁来说,根据已知一个变量的情况下,另一个变量是否会因此减少不确定性,来判断两者之间是否存在正向的依赖关系。本申请中使用互信息来计算上下文与当前对话的依赖关系,主要是期望判断给定不同的上下文语句时,是否给当前对话增加额外的信息,从而给对话生成网络更多的输入编码信息,以生成更符合逻辑的对话应答。不同于贝叶斯公式的简单表示,贝叶斯公式的独立性假设下,可以判断两个向量之间是否存在关系,互信息的计
算则可以计算出两者之间依赖关系的大小,在本申请中指不同语句给当前对话带来的贡献度大小。本申请中定义上下文变量为c
i
,当前对话为p,将目标转化为向量表示之后,那么互信息的定义过程如下:
[0077]
首先来看假设两个变量独立的情况下有
[0078]
p(p,c
i
)=p(p)p(c
i
)
ꢀꢀꢀ
(4)
[0079]
由贝叶斯公式得
[0080][0081]
由此可得,当给定上下文时可以判断是否可以给当前对话提供更多的信息,或者说上下文与当前对话的两者之间是否存在强依赖关系,为了更好的表示出两者之间关系的强弱大小值,进一步引出两者之间的互信息公式。
[0082][0083]
因此,可以看出,当上下文与当前对话不不存在任何相关性时p(p,c
i
)=p(p)p(c
i
),那么log[p(p,c
i
)/p(p)p(c
i
)]=0,即r(p,c
i
)=0,则认为上下文不能给当前对话带来有用信息,两者不存在相互依赖关系。综上所述,p(p|c
i
)表示在已知上下文c
i
的情况下,对出现当前对话p的确定程度,而本申请计算的互信息可以计算上下文中每条语句分别为当前对话不确定性减少的程度,突出上下文中与当前对话依赖度最高的一部分。
[0084]
权重的应用:
[0085]
为了更好地规划求得的上下文与当前对话相关度的值,根据bahdanau提出的注意力机制,本申请在两种相关度计算的基础上统一通过softmax函数来进行平滑归一化,公式如下:
[0086][0087][0088]
其中s
p
与相对应具有相同的计算方法并且恒为1,表示两个相同向量完全相关,这样构建平滑函数的目的是,当上下文与当前对话相关度极小时,能够保证嵌入向量更多地关注当前对话本身信息,当上下文信息对当前对话贡献度较大时,模型将尽可能均匀地编码信息,这对于生成合理的应答是极为重要的。
[0089]
综上,根据上文中提到的联合上下文的方法(求和、拼接、句间rnn),与权重信息相结合可分别得到编码输入的变体。在句间rnn基础上使用权重情况如下,其他变体同理,不再做具体阐述,实验结果分析将包含所有变体。
[0090]
在句间rnn中使用最后输出的隐藏层向量h
p
与权重结合后求和的变体:
[0091][0092]
在句间rnn中使用最后输出的隐藏层向量h
p
与权重结合后拼接的变体:
[0093][0094]
实施例二
[0095]
本实施例提供了基于上下文的对话生成系统;
[0096]
基于上下文的对话生成系统,包括:
[0097]
获取模块,其被配置为:获取当前对话语句、当前对话的上文语句和当前对话的下文语句;
[0098]
预测模块,其被配置为:将当前对话语句、当前对话的上文语句和当前对话的下文语句,输入到预先训练好的编解码器中,编解码器输出当前对话语句的预测对话语句。
[0099]
此处需要说明的是,上述获取模块和预测模块对应于实施例一中的步骤s101至s102,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例一所公开的内容。需要说明的是,上述模块作为系统的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
[0100]
上述实施例中对各个实施例的描述各有侧重,某个实施例中没有详述的部分可以参见其他实施例的相关描述。
[0101]
所提出的系统,可以通过其他的方式实现。例如以上所描述的系统实施例仅仅是示意性的,例如上述模块的划分,仅仅为一种逻辑功能划分,实际实现时,可以有另外的划分方式,例如多个模块可以结合或者可以集成到另外一个系统,或一些特征可以忽略,或不执行。
[0102]
实施例三
[0103]
本实施例还提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述实施例一所述的方法。
[0104]
应理解,本实施例中,处理器可以是中央处理单元cpu,处理器还可以是其他通用处理器、数字信号处理器dsp、专用集成电路asic,现成可编程门阵列fpga或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
[0105]
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
[0106]
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。
[0107]
实施例一中的方法可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
[0108]
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元及算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是
软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
[0109]
实施例四
[0110]
本实施例还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成实施例一所述的方法。
[0111]
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1