基于图卷积网络的答案抽取方法、装置及相关组件与流程

文档序号:24640986发布日期:2021-04-09 20:53阅读:72来源:国知局
基于图卷积网络的答案抽取方法、装置及相关组件与流程
本发明涉及自然语言处理
技术领域
,特别涉及基于图卷积网络的答案抽取方法、装置及相关组件。
背景技术
:机器阅读理解任务(mrc)是指给定一篇文章,以及基于该文章的一个问题,通过机器从该文章中找到对应问题的答案。早期的mrc系统主要依赖规则及人工生成的数据集,这种方式由于数据集较小,因此很难推广到其他领域。在进入到机器学习时代后,将机器阅读理解任务定义为有监督学习任务,并将收集的数据进行人工标注,标注成段落、问题、答案三元组,并引入机器学习算法,通过加入丰富的语义特征集实现对训练数据的拟合,这种方法相比早期基于规则的方法有一定的提升,但提升程度相对有限,且会依赖于依存分析解析器、语义角色标注系统的性能。随着深度学习的发展,以及较大规模的带标注数据集的涌现,如squad数据集(一种问答数据集)、cnn/dailymail数据集(一种有监督数据集)等,将深度神经网络引入到机器阅读理解任务,如match-lstm模型,该模型原先用于文本蕴含任务,后来加入pointer-net使之可以适用于阅读理解任务,该模型将问题看作是premise(前提)、把文章看作是hypotheis(假说),相当于带着问题去文章中寻找答案,并通过pointer-net模型(主要用于解决组合优化类问题)给出答案的区域。bidaf模型是另一个较为典型的机器阅读理解模型,该模型引入了双流注意力机制,通过问题与上下文的双向注意力交互,得到问题感知的上下文表征,使得答案的抽取准确率得以提升。以上两个模型虽然都能在一定程度上进行答案抽取,但是也存在一些问题,如两个模型都使用了lstm网络,导致训练速度及预测速度比较慢。为了提高训练速度并进一步提高答案抽取准确率,qanet(一种问答架构)采用了卷积代替传统的rnn结构,并采用了多种技巧,使得训练速度和推断速度在不影响精度的情况下大幅提升。虽然qanet能提高训练速度,但是由于只使用了文本本身的特征,使得准确率提高不多,如果引入额外信息,对文本特征进行深层次刻画,则能进一步提高答案抽取的准确率。技术实现要素:本发明实施例提供了一种基于图卷积网络的答案抽取方法、装置、计算机设备及存储介质,旨在提高答案抽取的准确率。第一方面,本发明实施例提供了一种基于图卷积网络的答案抽取方法,包括:获取用户问题以及包含所述用户问题的文档;基于句法依存分析对所述文档构建图网络;利用图卷积网络,对所述文档与所述图网络进行融合,得到文档向量,以及对所述用户问题与所述图网络进行融合,得到问题向量;基于所述图卷积网络和注意力机制对所述文档向量和问题向量进行学习,以获取所述文档中的答案起始概率和答案终止概率;将所述答案起始概率和答案终止概率分别作为所述文档的起始索引和终止索引,并将所述起始索引和终止索引之间的文本作为所述用户问题的答案。第二方面,本发明实施例提供了一种基于图卷积网络的答案抽取装置,包括:获取单元,用于获取用户问题以及包含所述用户问题的文档;构建单元,用于基于句法依存分析对所述文档构建图网络;融合单元,用于利用图卷积网络,对所述文档与所述图网络进行融合,得到文档向量,以及对所述用户问题与所述图网络进行融合,得到问题向量;学习单元,用于基于所述图卷积网络和注意力机制对所述文档向量和问题向量进行学习,以获取所述文档中的答案起始概率和答案终止概率;答案抽取单元,用于将所述答案起始概率和答案终止概率分别作为所述文档的起始索引和终止索引,并将所述起始索引和终止索引之间的文本作为所述用户问题的答案。第三方面,本发明实施例提供了一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的基于图卷积网络的答案抽取方法。第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的基于图卷积网络的答案抽取方法。本发明实施例提供了一种基于图卷积网络的答案抽取方法、装置、计算机设备及存储介质,该方法包括:获取用户问题以及包含所述用户问题的文档;基于句法依存分析对所述文档构建图网络;利用图卷积网络,对所述文档与所述图网络进行融合,得到文档向量,以及对所述用户问题与所述图网络进行融合,得到问题向量;基于所述图卷积网络和注意力机制对所述文档向量和问题向量进行学习,以获取所述文档中的答案起始概率和答案终止概率;将所述答案起始概率和答案终止概率分别作为所述文档的起始索引和终止索引,并将所述起始索引和终止索引之间的文本作为所述用户问题的答案。本发明实施例基于图卷积网络和句法依存分析对包含用户问题的文档构建图网络,并使图网络与用户问题和文档进行语义融合,从而提高答案抽取的准确率。附图说明为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1为本发明实施例提供的一种基于图卷积网络的答案抽取方法的流程示意图;图2为本发明实施例提供的一种基于图卷积网络的答案抽取方法中步骤s102的子流程示意图;图3为本发明实施例提供的一种基于图卷积网络的答案抽取方法中步骤s104的子流程示意图;图4a为本发明实施例提供的一种基于图卷积网络的答案抽取方法的示例示意图;图4b为本发明实施例提供的一种基于图卷积网络的答案抽取方法的另一示例示意图;图5为本发明实施例提供的一种基于图卷积网络的答案抽取方法的另一示例示意图;图6为本发明实施例提供的一种基于图卷积网络的答案抽取方法的网络结构示意图;图7a为本发明实施例提供的一种基于图卷积网络的答案抽取方法中图卷积网络融合层的结构示意图;图7b为本发明实施例提供的一种基于图卷积网络的答案抽取方法中特征融合层的结构示意图;图8为本发明实施例提供的一种基于图卷积网络的答案抽取装置的示意性框图;图9为本发明实施例提供的一种基于图卷积网络的答案抽取装置中构建单元802的子示意性框图;图10为本发明实施例提供的一种基于图卷积网络的答案抽取装置中学习单元804的子示意性框图。具体实施方式下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。下面请参见图1,图1为本发明实施例提供的一种基于图卷积网络的答案抽取方法的流程示意图,具体包括:步骤s101~s105。s101、获取用户问题以及包含所述用户问题的文档;s102、基于句法依存分析对所述文档构建图网络;s103、利用图卷积网络,对所述文档与所述图网络进行融合,得到文档向量,以及对所述用户问题与所述图网络进行融合,得到问题向量;s104、基于所述图卷积网络和注意力机制对所述文档向量和问题向量进行学习,以获取所述文档中的答案起始概率和答案终止概率;s105、将所述答案起始概率和答案终止概率分别作为所述文档的起始索引和终止索引,并将所述起始索引和终止索引之间的文本作为所述用户问题的答案。本实施例中,在所述文档(context)中抽取所述用户问题(query)的答案时,首先对所述文档根据句法依存关系构建所述图网络。根据所述图网络,使所述用户问题和所述文档分别与所述图网络进行融合,并对应得到所述问题向量和文档向量。然后通过所述注意力机制对所述问题向量和文档向量进行学习计算,得到对应的答案起始概率和答案终止概率,进而将所述答案起始概率和答案终止概率分别作为所述文档的起始索引和终止索引,然后将所述起始索引和终止索引之间的文本作为所述用户问题的答案进行抽取。本实施例引入句法依存分析技术构建图网络,将与中心词存在句法依存关系的词作为中心词的邻接节点。而现有技术通常是根据滑窗的方式,以中心词作为节点,将中心词滑窗内的词作为邻接节点,但是这种方式会引入冗余信息,也会丢失滑窗外对节点有贡献的其他信息。相比之下,本实施例通过句法依存分析构建图网络,保留了句子内对该节点有意义的其他节点信息,在构建图网络时不受距离限制,能从更丰富的维度来刻画节点的信息,使得节点的表示更为准确,进而使最终抽取的答案更加准确可靠。另外,本实施例还提出通过所述特征融合层(featurefusionlayer)将图网络与所述用户问题对应的第一词向量表示以及所述文档对应的第二词向量表示分别进行自适应语义融合,使所述用户问题和文档的语义表示更加丰富。在一实施例中,所述步骤s101包括:获取用户问题以及包含所述用户问题的文档,利用预设的词向量模型分别对所述用户问题和文档进行学习,得到所述用户问题对应的第一词向量表示和所述文档对应的第二词向量表示。在一具体实施例中,在利用预设的词向量模型分别对所述用户问题和文档进行学习,得到所述用户问题对应的第一词向量表示和所述文档对应的第二词向量表示前,利用gensim工具包对预设的词向量模型进行训练,对于所述词向量模型可以自定义特征维度,例如设置向量维度为256。进一步的,由所述词向量模型得到的第一词向量表示和第二词向量表示分别为[n,s1,h]和[n,s2,h],其中,n为训练样本数,s1为所述用户问题的序列长度,s2为所述文档的序列长度。在一实施例中,如图2所示,所述步骤s102包括:步骤s201~s203。s201、按句子对所述文档进行切分,并对切分后的每一句子进行分词,得到每一句子包含的字词;s202、针对每一句子,将每一字词作为所述图网络的图节点,获取各字词之间的依存关系,并根据各字词之间的依存关系连接对应的图节点;s203、获取各句子中相同的字词,并将所述相同的字词作为连接节点使不同的句子连接,从而构建得到所述文档的图网络。本实施例中,在构建图网络时,首先对包含用户问题的文档进行句子切分,并进一步地对句子中的字词进行分词处理,然后针对每一句子,构建该句子的图网络,即将该句子中的字词作为图节点,连接存在依存关系的字词。在构建完每一句子的图网络后,通过各句子中相同的字词将各句子连接起来,从而形成对于所述文档的图网络。其中,在连接存在依存关系的字词时,可以利用依存弧进行连接,依存弧的具体指向可以是用从属词指向支配词,另外,所述依存关系为各字词之间的主谓关系、动宾关系、状中关系等等。举例来说,对句子“深度学习是机器学习领域中一个新的研究方向”与句子“方向比努力更重要”进行句法依存分析,可以得到如图4a和图4b所示的句法依存关系示意图,其中,图4a和图4b中的依存关系标记如表1所示:关系类型标记关系类型标记动宾关系vob并列关系coo间宾关系iob介宾关系pob前置宾语fob左附加关系lad兼语dbl右附加关系rad定中关系att独立结构is状中结构adv核心关系hed动补结构cmp表1例如词“领域/6”与词“机器/4”、“学习/5”、“中/7”之间关系均为定中关系(其中,数字6、4、5、7表示词在句子中的索引,下同),因此在图网络中,节点“领域/6”与节点“机器/4”、“学习/5”、“中/7”之间均存在连接。另外,结合图6,由于“学习/5”除了与“领域/6”存在依存关系,“学习/2”还与“深度/1”,“是/3”存在依存关系,具有不同索引的同一个词在图网络中共享节点,因此“学习”除了与“领域”连接还与“深度”、“是”相连。不同的句子通过相同词连接在一起,如上述两个句子通过相同词“方向/12”、“方向/1”连接在一起。进一步的,在一实施例中,所述步骤s102还包括:按照下列公式对所述图网络中两两节点之间的边的权重进行初始化:r′i,j=ri,j式中,r′i,j与ri,j均表示节点i与节点j之间的边的权重,其中r′i,j记为节点i与节点j更新前的权重,ri,j记为节点i与节点j更新后的权重,r′i,j初始化为1,vi表示节点i的向量,vj表示节点j的向量,cos(vi,vj)表示vi和vj的余弦相似度。idxi表示节点i在句子中的位置,idxj表示节点j在句子中的位置,len表示句子的长度,表示两节点之间的相对距离;按照下列公式对所述图网络中的节点的权重进行更新:式中,aij为邻接矩阵,即边与边的连接权重,dii为邻接矩阵的度矩阵,为重归一划形式的拉普拉斯矩阵,w(l)为权重矩阵,b(l)为偏置项,σ为非线性映射函数,hi(l)为更新后的节点i的权重,hj(l-1)为更新前的节点j的权重。本实施例中,在构建所述图网络后,为了表示所述图网络各节点的重要性,可以对各节点的权重以及任意两两节点之间的边的权重进行更新和初始化,例如图5中对于边的标记v1-v15,即是指两两节点之间边的权重。在一实施例中,所述步骤s103包括:在所述图网络中获取与所述第二词向量表示相同的节点向量,并按照下列公式对所述第二词向量表示与节点向量进行融合:new_x=x+node*σ(w1[x,node]+b1)式中,σ为非线性激活函数,node为所述节点向量,x所述第二词向量表示,[x,node]表示所述第二词向量表示和节点向量进行拼接,w1为待训练权重矩阵,b1为偏置项,new_x为输出向量;将所述输出向量new_x输入至前馈神经网络,并由所述前馈神经网络输出所述文档向量:h=f(w3*f(w2new_x+b2)+b3)式中,h为所述文档向量,w2、w3、b2和b3均为待训练参数,f为激活函数。本实施例中,结合图7a,在利用所述图卷积网络的融合层(fusionlaye)对所述图网络和所述第二词向量表示进行融合时,首先在所述图网络的节点向量中选取与所述第二词向量表示相同的节点向量,并使所述第二词向量表示与选取的节点向量进行融合。换句话说,对于所述文档中的每一个字词,在所述图网络中找寻相同的字词,并获取该字词的在所述图网络中节点的向量表示,并对该向量表示与所述第二词向量表示进行自适应融合。通过非线性映射(例如sigmoidf非线性映射),可以获取句子中不同字词的重要程度,根据该重要程度对所述节点向量进行融合,并利用前馈神经网络对融合后的向量进行计算,即可得到所述文档向量。例如得到所述文档向量h,其维度为[n,s2,h]在另一实施例中,在利用所述图卷积网络的融合层对所述图网络和所述第一词向量表示进行融合时,同样是首先在所述图网络的节点向量中选取与所述第一词向量表示相同的节点向量,并使所述第一词向量表示与选取的节点向量进行融合。然后通过非线性映射(例如sigmoidf非线性映射),可以获取所述用户问题的句子中不同字词的重要程度,根据该重要程度对所述节点向量进行融合,并利用前馈神经网络对融合后的向量进行计算,即可得到所述问题向量,例如得到所述问题向量u,其维度为[n,s1,h]。在一实施例中,如图3所示,所述步骤s104包括:步骤s301~s304。s301、将所述文档向量和问题向量输入至相互注意力层,并得到第一目标向量;s302、利用自注意力层对所述第一目标向量进行计算,得到第二目标向量;s303、将所述第二目标向量和所述文档向量输入至特征融合层,并得到第三目标向量;s304、将所述第三目标向量输入至输出层,并由所述输出层输出对应的答案起始概率和答案终止概率。本实施例中,通过所述相互注意力层对所述问题向量和文档向量进行计算,得到所述第一目标向量,通过所述自注意力层对所述第一目标向量进行计算,得到所述第二目标向量,以及通过所述特征融合层对所述第二目标向量和文档向量进行融合计算,得到所述第三目标向量,再通过所述输出层输出所述第三目标向量对应的答案起始概率和答案终止概率,进而根据所述答案起始概率和答案终止概率即可在所述文档中抽取对应的答案。在一实施例中,所述步骤s301包括:按照下列公式计算所述文档向量和问题向量之间的相似度,获取目标矩阵sij:式中,hi为所述文档向量,uj为所述问题向量,为向量点积,表示得到的s矩阵的维度为s2*s1,s2为所述文档的序列长度,s1为所述用户问题的序列长度,s为所述文档向量与所述问题向量相乘后的矩阵;按照下列公式对所述目标矩阵si进行归一化处理:式中,b为归一化处理后的输出向量,maxrow(s)表示对s按行求最大值,表示按行求最大值后得到s2个实数;按照下列公式对归一化处理后的输出向量b进行计算,得到所述第一目标向量g:g=b·h式中,h为所述文档向量hi构成的矩阵。本实施例中,在通过所述相互注意力层(inter-attentionlayer)输出所述第一目标向量时,首先对所述文档向量和问题向量之间的相似度进行计算,以此得到所述目标矩阵,然后利用softmax函数对所述目标矩阵进行归一化处理,再对经过归一化处理后的输出向量进行计算,从而得到所述第一目标向量。在一实施例中,所述步骤s302包括:按照下列公式对输入至所述自注意力层中的第一目标向量进行计算,以得到所述第二目标向量m:式中,q、k和v是输入向量g(即所述第一目标向量)乘以一个矩阵后得到的三个矩阵,为尺度标度,表示q、k和v三个矩阵的特征维度。在一具体应用场景中,设置dk=256。在一实施例中,所述步骤s303包括:将所述第二目标向量和所述文档向量输入至特征融合层,并按照下列公式计算得到所述第三目标向量:v=m+x*σ(w4[x,m]+b4)式中,v为所述第三目标向量,w4和b4为可训练参数,m为所述第二目标向量,x为所述文档向量,σ为激活函数。本实施例中,结合图7b,为了保留所述文档中对答案抽取的有用的信息,将所述文档向量与经过自注意力层计算得到的所述第二目标向量输入至所述特征融合层(featurefusionlayer),从而过滤掉所述文档中的干扰信息,提高最终答案抽取的准确率。在一实施例中,所述步骤s304包括:分别按照下列公式计算得到所述答案起始概率和答案终止概率:start=softmax(w5v+b5)end=softmax(w6v+b6)式中,w5、b5、w6和b6均为可训练参数,v为所述第三目标向量,start表示所述答案起始概率,end表示所述答案终止概率。本实施例中,通过上述公式即可得到所述用户问题在所述文档中的答案起始概率和答案终止概率,将所述答案起始概率和答案终止概率作为所述文档中的索引,即所述起始答案索引和终止答案索引,而所述起始答案索引和所述终止答案索引之间的文本即可作为所述用户问题的答案。在一实施例中,如图6所示,利用句法依存分析对包含用户问题(query)的文档(context)构建图网络,然后通过前馈神经网络分别对图网络和文档、图网络和用户问题进行融合,得到文档向量(h)和问题向量(u),再将文档向量和问题向量输入至相互注意力层得到第一目标向量(g),利用自注意力层对所述第一目标向量进行计算,得到第二目标向量(m),将所述第二目标向量和所述文档向量输入至特征融合层,并得到第三目标向量(v),将所述第三目标向量输入至输出层,并由所述输出层输出对应的答案起始概率和答案终止概率。图8为本发明实施例提供的一种基于图卷积网络的答案抽取装置800的示意性框图,该装置800包括:获取单元801,用于获取用户问题以及包含所述用户问题的文档;构建单元802,用于基于句法依存分析对所述文档构建图网络;融合单元803,用于利用图卷积网络,对所述文档与所述图网络进行融合,得到文档向量,以及对所述用户问题与所述图网络进行融合,得到问题向量;学习单元804,用于基于所述图卷积网络和注意力机制对所述文档向量和问题向量进行学习,以获取所述文档中的答案起始概率和答案终止概率;答案抽取单元805,用于将所述答案起始概率和答案终止概率分别作为所述文档的起始索引和终止索引,并将所述起始索引和终止索引之间的文本作为所述用户问题的答案。在一实施例中,所述获取单元801包括:向量表示单元,用于获取用户问题以及包含所述用户问题的文档,利用预设的词向量模型分别对所述用户问题和文档进行学习,得到所述用户问题对应的第一词向量表示和所述文档对应的第二词向量表示。在一实施例中,如图9所示,所述构建单元802包括:切分单元901,用于按句子对所述文档进行切分,并对切分后的每一句子进行分词,得到每一句子包含的字词;第一连接单元902,用于针对每一句子,将每一字词作为所述图网络的图节点,获取各字词之间的依存关系,并根据各字词之间的依存关系连接对应的图节点;第二连接单元903,用于获取各句子中相同的字词,并将所述相同的字词作为连接节点使不同的句子连接,从而构建得到所述文档的图网络。在一实施例中,所述融合单元803包括:文档融合单元,用于在所述图网络中获取与所述第二词向量表示相同的节点向量,并按照下列公式对所述第二词向量表示与节点向量进行融合:new_x=x+node*σ(w1[x,node]+b1)式中,σ为非线性激活函数,node为所述节点向量,x所述第二词向量表示,[x,node]表示所述第二词向量表示和节点向量进行拼接,w1为待训练权重矩阵,b1为偏置项,new_x为输出向量;前馈输出单元,用于将所述输出向量new_x输入至前馈神经网络,并由所述前馈神经网络输出所述文档向量:h=f(w3*f(w2new_x+b2)+b3)式中,h为所述文档向量,w2、w3、b2和b3均为待训练参数,f为激活函数。在一实施例中,如图10所示,所述学习单元804包括:第一输入单元1001,用于将所述文档向量和问题向量输入至相互注意力层,并得到第一目标向量;第一计算单元1002,用于利用自注意力层对所述第一目标向量进行计算,得到第二目标向量;第二输入单元1003,用于将所述第二目标向量和所述文档向量输入至特征融合层,并得到第三目标向量;第三输入单元1004,用于将所述第三目标向量输入至输出层,并由所述输出层输出对应的答案起始概率和答案终止概率。在一实施例中,所述第二输入单元1003包括:第三计算单元,用于将所述第二目标向量和所述文档向量输入至特征融合层,并按照下列公式计算得到所述第三目标向量:v=m+x*σ(w4[x,m]+b4)式中,v为所述第三目标向量,w4和b4为可训练参数,m为所述第二目标向量,x为所述文档向量,σ为激活函数。在一实施例中,所述第三输入单元1004包括:概率计算单元,用于分别按照下列公式计算得到所述答案起始概率和答案终止概率:start=softmax(w5v+b5)end=softmax(w6v+b6)式中,w5、b5、w6和b6均为可训练参数,v为所述第三目标向量,start表示所述答案起始概率,end表示所述答案终止概率。由于装置部分的实施例与方法部分的实施例相互对应,因此装置部分的实施例请参见方法部分的实施例的描述,这里暂不赘述。本发明实施例还提供了一种计算机可读存储介质,其上存有计算机程序,该计算机程序被执行时可以实现上述实施例所提供的步骤。该存储介质可以包括:u盘、移动硬盘、只读存储器(read-onlymemory,rom)、随机存取存储器(randomaccessmemory,ram)、磁碟或者光盘等各种可以存储程序代码的介质。本发明实施例还提供了一种计算机设备,可以包括存储器和处理器,存储器中存有计算机程序,处理器调用存储器中的计算机程序时,可以实现上述实施例所提供的步骤。当然计算机设备还可以包括各种网络接口,电源等组件。说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。应当指出,对于本
技术领域
的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的状况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1