一种基于迁移学习与DNN的软件故障诊断方法与流程

文档序号:17695772发布日期:2019-05-17 21:30阅读:213来源:国知局
一种基于迁移学习与DNN的软件故障诊断方法与流程

本发明提供一种基于迁移学习与dnn的软件故障诊断方法,属于软件可靠性、软件故障诊断领域。



背景技术:

随着计算机软件规模的日益庞大与复杂,其质量难以得到有效的控制和保障。在软件的调试与实际使用阶段会产生大量的故障数据,并积累丰富的软件故障案例数据,如何有效提取并利用已有的海量故障案例语义信息对软件故障进行快速、精确地识别是目前软件故障诊断领域的一个关键问题。迁移学习是运用已有知识对不同但相关领域问题进行求解的学习方法,该方法通过将源领域学习得到的知识迁移至目标领域中,以实现领域知识共享,从而解决目标领域内学习样本少、样本分布不平衡造成的训练模型性能差的问题。与增量学习、多任务学习以及自我学习等方法相比,迁移学习着重强调学习任务之间的相关性,并利用这种相关性完成知识之间的迁移。深度学习的概念起源于人工智能的机器学习领域,由多个隐藏层组成的深度神经网络模型(deepneuralnetwork,简称dnn)是深度学习模型的显著特点。相比于浅层神经网络模型,dnn可以组合底层特征形成更加抽象的高层特征表示,从而发现数据的隐含特征表达,通过数据特征的逐层转化,有效地提取和表示信息的特征。本发明提出了一种基于迁移学习与dnn的软件故障诊断方法,该方法首先采用语言模型对源领域的大规模语料库进行预训练,获得模型的嵌入向量。其次对目标领域的故障案例样本进行量化处理,并与源领域的词嵌入权重进行匹配,获得用于目标领域模型的词嵌入权重。再次针对软件故障分类这一目标任务,设定目标领域的dnn模型整体结构、初始化参数以及学习机制。最后,将词嵌入权重迁移至目标领域dnn的词嵌入层,利用案例样本数据微调dnn整体参数,完成模型的训练与测试。得到的模型能够利用软件故障描述文本提取有效的语义特征数据,用于准确地识别软件故障类型。

该方法基于迁移学习与深度学习技术融合故障分析与故障处理等相关理论、方法和技术进行构建,在提高软件维护性的同时,达到提高软件可靠性、安全性、可用性的目的。



技术实现要素:

本发明目的:目前基于信息检索的软件故障诊断方法尽管能够利用故障案例文档作为整体语境,对语境内的文本构建词向量以表征语义信息,然而,这类方法仅能抽取和比较局部的文本语义,不能有效地分析上下文语境对文本的语义及相似度进行表达,在语义表示精度方面存在缺陷。此外,对于新加入的大批量案例文本,现有方法需要对所有文本重新进行处理以获取新的语义表示向量,在文本内容扩展方面存在缺陷。因此本发明将克服现有技术的不足,提供一种基于迁移学习与dnn的软件故障诊断方法对上述问题进行解决。该方法通过分析文本的上下文语境,采用词嵌入对文本词语进行分布表征,以充分地获取语义信息。利用迁移学习机制,将源领域中采用语料库预训练的语言模型的词嵌入权重转移至目标领域的dnn的嵌入层。通过微调的方式对dnn进行训练。这一方法得到的dnn在输入软件故障描述信息后,能有效地识别故障的具体类型,为软件故障诊断领域提供了一种新的解决方法,并对现有的故障识别方法进行了创新。

本发明技术方案:一种基于迁移学习与dnn的软件故障诊断方法,其步骤如下:

步骤1、搜集大量的软件故障案例,统计每个案例对应的故障类型信息作为标签数据;

步骤2、对故障案例文本进行预处理,构建软件故障词典;

步骤3、构建故障案例样本索引矩阵以及样本标签矩阵;

步骤4、利用大规模语料库对基于word2vec的语言模型进行预训练,获得语料库词汇的嵌入向量;

步骤5、构建权重矩阵,匹配软件故障词典词汇与语料库词汇的嵌入向量,将向量写出至该权重矩阵;

步骤6、设定用于软件故障诊断的dnn整体模块结构;

步骤7、设定dnn输入层、各隐藏层、输出层的参数以及学习机制;

步骤8、利用步骤5建立的权重矩阵初始化dnn的输入层;

步骤9、对故障案例样本索引矩阵和样本标签矩阵进行划分,得到训练数据集、验证数据集以及测试数据集;

步骤10、利用训练数据集和验证数据集对dnn进行训练,利用测试数据集对dnn的识别准确率进行测试。

其中,在步骤2中所述的“对故障案例文本进行预处理”,其作法如下:

步骤2.1:读入所有故障案例样本fc={fci|i=1,…,n},其中,fci为第i个案例样本,n为样本数目。以空格字符作为分隔符对各样本的文本词语进行分词处理,并将文本词语中存在的大写字符转换为小写字符,得到样本集fc’={fci’|i=1,…,n};

步骤2.2:筛除各样本中的标点符号、特殊符号以及停用词,以降低样本的文本长度,得到样本集fc”={fci”|i=1,…,n};

步骤2.3:设定案例样本的最大文本长度l1,若样本集fc”内的样本fci”的长度小于l1,则在fci”的头部补上对应数目的自定义词汇“_pad_”;若fci”的长度大于l1,则在fci’的头部截去对应数目的文本词汇,得到样本集fc”’={fci”’|i=1,…,n}。

其中,在步骤2中所述的“构建软件故障词典”,其作法如下:

步骤2.4:读入预处理后的样本集fc”’,对样本的文本词汇频数进行统计;

步骤2.5:按照词汇统计频数由大到小的顺序排名,将所有样本的词汇写入至词典。额外添加两个词汇“_pad_”和“_ukn_”至词典的第一位和第二位,得到词典的词汇数目dicl。其中,词汇“_pad_”表示填充词汇,用于填充词汇数目小于规定值的样本,词汇“_ukn_”表示未知词汇,用于后续的匹配分析;

步骤2.6:对词典中的词汇分配索引数字,得到“词汇-索引”映射表。

其中,在步骤3中所述的“构建案例样本索引矩阵以及样本标签矩阵”,其作法如下:

步骤3.1:构建尺寸为n*l1的索引矩阵x,用于保存样本的词汇-索引值;

步骤3.2:读取样本集fc”’={fci”’|i=1,…,n},根据“词汇-索引”映射表,将fci”’内的词汇转换为对应的索引数字,并写入至矩阵x;

步骤3.3:读取样本集fc”’对应的标签数据集lb={lbi∈{j}|i=1,…,n,j=1,…,l2},其中,lbi为第i个案例样本对应的标签,n为样本数目,l2为标签的类型数目;

步骤3.4:构建尺寸为n*l2的标签矩阵y,用于保存样本的标签编码向量;

步骤3.5:对lbi进行独热编码,获得对应的标签向量,并写入至标签矩阵y。所述的“独热编码”,是指一种编码方法,可以将类别变量转换为用于机器学习的0-1向量。

其中,在步骤4中所述的“大规模语料库”,是指用于文本分类、文本挖据以及信息检索研究的开源标准数据集,由数目单位为万级的新闻文档组成,能够涵盖自然语言中绝大部分词汇。

其中,在步骤4中所述的“基于word2vec的语言模型”,是指一种无监督神经网络模型,这一模型以大量的文本语料作为输入,通过调节中间隐藏层的权重来学习文本词汇间的关联关系,最后输出语料词汇对应的嵌入向量,这些嵌入向量能够有效表示词语的语义特征。

其中,在步骤4中所述的“利用大规模语料库对基于word2vec的语言模型进行预训练”,其作法如下:首先载入用于语言模型学习的语料库文本数据,然后设定语言模型的训练方法类型、输出嵌入向量长度、词汇滑窗长度、训练并行数目以及训练迭代次数这一系列参数,随后采用无监督学习机制,利用语料库数据对语言模型进行训练,最后得到语言模型的权重以及语料库文本词汇对应的嵌入向量(维数为eml)。

其中,在步骤5中所述的“构建权重矩阵,匹配软件故障词典词汇与语料库词汇的嵌入向量,将向量写出至该权重矩阵”,其作法如下:

步骤5.1:构建尺寸为l1*eml的权重矩阵w,用于保存软件故障词典中词对应的嵌入向量;

步骤5.2:设定软件故障词典中词“_pad_”嵌入向量是维数为eml的全零向量,词典中词“_ukn_”的嵌入向量是均匀初始化得到的维数为eml的嵌入向量;

步骤5.2:读取软件故障词典的词,利用语言模型查找词典中词对应的嵌入向量;

步骤5.3:若语言模型中未匹配到对应词的嵌入向量,则该词的嵌入向量替换为“_ukn_”的嵌入向量;

步骤5.4:利用“词汇-索引”映射表获得词典的词索引,并将得到的嵌入向量写入至权重矩阵w对应的行数;

步骤5.5:重复执行“步骤5.2”~“步骤5.4”,直至完成对软件故障词典的遍历,并得到保存词嵌入向量的权重矩阵w;

其中,在步骤6中所述的“设定用于软件故障诊断的dnn整体模块结构”,其作法如下:

步骤6.1:设定dnn的第一层即输入层为embedding层;

步骤6.2:设定dnn的第二层为dropout层;

步骤6.3:设定dnn的第三层为conv1d层;

步骤6.4:设定dnn的第四层为globalmaxpooling1d层;

步骤6.5:设定dnn的第五层为dropout层;

步骤6.6:设定dnn的第六层为conv1d层;

步骤6.7:设定dnn的第七层为globalmaxpooling1d层;

步骤6.8:设定dnn的第八层为dropout层;

步骤6.9:设定dnn的第九层即输出层为dense层。

其中,在步骤6.1所述的“embedding层”,是指一种词嵌入网络层,这一网络层用于将索引矩阵x转换为具有固定大小的二维特征张量,供后续网络层学习使用;

其中,在步骤6.2所述的“dropout层”,是指一种深度学习环境中应用的优化网络层,在dnn训练过程中,这一网络层以概率p舍弃神经元,并让其它神经元以概率q=1-p保留,每个神经元被舍弃的概率是相同的,舍弃的神经元的输出均设置为零;通过这种方式减轻dnn的过拟合问题,一定程度上达到正则化效果;

其中,在步骤6.3所述的“conv1d层”,是指一种一维卷积网络层(即时域卷积),用以在一维输入向量上进行邻域滤波,这一网络层将输入向量与卷积核按照单一的时域方向进行卷积,并生成用于后续网络层学习的三维特征张量;

其中,在步骤6.4所述的“globalmaxpooling1d层”,是指一种一维全局最大池化网络层,这一网络层将三维特征张量进行最大池化处理,生成用于后续网络层学习的二维特征张量;

其中,在步骤6.9所述的“dense层”,是指一种全连接网络层,这一网络层用于抽取特征张量,并输出样本数据所属类别的概率分布。

其中,在步骤7中所述的“设定dnn输入层、各隐藏层、输出层的参数以及学习机制”,其作法如下:

步骤7.1:设定embedding网络层参数,输入维数为dicl,输出维数为eml,输入长度为l1;

步骤7.2:设定第三层conv1d的卷积核数目为128,时域窗长度为3,激活函数为并均匀分布初始化该层的权重与偏差;

步骤7.3:设定第六层conv1d的卷积核数目为256,时域窗长度为3,激活函数为并均匀分布初始化该层的权重与偏差;

步骤7.4:设定dropout网络层的概率参数均为0.2;

步骤7.5:设定dense网络层参数,神经元数目为l2,激活函数为并均匀分布初始化该层的权重与偏差。

步骤7.6:设定dnn的损失函数为多分类交叉熵,参数优化方法为adam方法,评估指标为dnn对于样本所属类别的识别准确率。

其中,在步骤7.6所述的“多分类交叉熵”,是指一种对数损失函数,用来衡量多分类模型的预测值和真实值之间的误差,交叉熵越小,说明匹配得越准确,模型准确率越高;所述的“adam方法”,是指一种基于梯度的优化方法,该方法能根据参数梯度的一阶矩估计和二阶矩估计,动态地调整dnn中每个参数的学习速率。

其中,在步骤8中所述的“利用建立的权重矩阵初始化dnn的输入层”,其作法如下:设定dnn的embedding层的初始化权重参数为权重矩阵w,并设定embedding层利用权重参数w进行微调训练;

其中,在步骤9中所述的“对故障案例样本索引矩阵和样本标签矩阵进行划分”,其作法如下:首先对样本索引矩阵x与标签矩阵y进行合并以得到样本集z=(x,y)={(xi,yi)|i=1,…,n},设定学习与测试数据划分比例,对z进行划分,分别得到学习数据集和测试数据集;然后设置学习数据集的批量数目,按照批量数对学习数据集随机划分,最后设定训练与验证划分比例,对所有批次的学习数据集进行划分,得到每个批次对应的训练样本和验证样本;

其中,在步骤10中所述的“利用训练数据集和验证数据集对dnn进行训练,利用测试数据集对dnn的识别准确率进行测试”,其作法如下:设置dnn的学习轮次数目,使用批量训练样本和验证数据集对dnn进行多轮学习,多轮次学习后,使用测试数据集对dnn识别故障案例样本所属类型的准确性进行验证。

通过上述步骤,可以实现基于迁移学习与dnn的软件故障诊断方法,该方法首先采用基于word2vec的语言模型对大规模语料库进行预训练,获得丰富的词嵌入向量。其次对故障案例文本词汇与语言模型的词嵌入向量进行匹配,获得词嵌入权重。再次构建用于软件故障分类的dnn模型。最后,将词嵌入权重迁移至dnn的词嵌入层,利用案例样本数据微调dnn整体参数,完成模型的训练与测试。得到的模型能够利用待诊断的软件故障描述文本信息提取有效的语义特征数据,用于准确地识别具体的故障类型。

本发明与现有技术相比的优点在于:目前,基于信息检索的故障诊断方法在语义表示精度方面和文本内容扩展方面存在缺陷,对软件故障识别的准确率和效率造成了影响。而本发明采用词嵌入方法对案例文本进行分布表征,以充分地获取并准确地表示文本的语义信息。利用迁移学习技术从预训练模型中快速匹配案例文本的词嵌入权重用于dnn的构建,dnn通过多隐藏层结构提取文本的隐含语义信息,并能够利用语义特征数据精确地识别案例的故障类型。

附图说明

图1为本发明的总体步骤流程。

图2为本发明的故障案例文本处理流程。

图3为本发明的权重矩阵构建流程。

图4为本发明的样本数据集划分流程。

图5为本发明的dnn整体结构。

图中序号、符号、代号说明如下:

图1中的“步骤1~10”是本发明技术方案中对应的步骤;

图1中的“dnn”是深度神经网络,用于识别软件故障的具体类型;

图5中的“embedding层”是嵌入层,用于将索引矩阵转换为二维特征张量;

图5中的“dropout网络层”是优化网络层,用于减轻模型的过拟合问题;

图5中的“cnn层”是多层卷积神经网络,用于提取文本向量的特征;

图5中的“conv1d网络层”是一维卷积网络层,用于抽取文本特征并生成三维特征张量;

图5中的“globalmaxpooling1d层”是一维全局最大池化网络层,用于对三维特征张量进行最大池化处理以生成二维特征张量;

图5中的“dense层”是全连接网络层,这一网络层用于抽取并特征张量,输出样本数据所属类别的概率分布;

图5中的“x”是故障案例的词嵌入向量;

图5中的“y”是故障案例所属故障类别的概率值。

具体实施方式

为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图进行详细描述。

本发明提出了一种基于迁移学习与dnn的软件故障诊断方法,该方法采用词嵌入对文本词语进行分布表征,以充分地获取语义信息。利用迁移学习机制,将源领域中采用语料库预训练的语言模型的词嵌入权重转移至目标领域的dnn中。通过微调对dnn进行训练。训练完成的dnn在输入软件故障描述信息后,能有效地识别故障的具体类型。

本发明一种基于迁移学习与dnn的软件故障诊断方法,如图1所示,其具体构建步骤如下:

步骤一:搜集大量的软件故障案例,统计每个案例对应的故障类型信息作为标签数据;

步骤二:对故障案例文本进行预处理,并读入案例文本以构建故障词典,案例文本的处理流程如图2所示,其作法如下:

步骤2.1:读入所有故障案例样本fc={fci|i=1,…,n},其中,fci为第i个案例样本,n为样本数目。以空格字符作为分隔符对各样本的文本词语进行分词处理,并将文本词语中存在的大写字符转换为小写字符,得到样本集fc’={fci’|i=1,…,n};

步骤2.2:筛除各样本中的标点符号、特殊符号以及停用词,以降低样本的文本长度,得到样本集fc”={fci”|i=1,…,n};

步骤2.3:设定案例样本的最大文本长度l1,若样本集fc”内的样本fci”的长度小于l1,则在fci”的头部补上对应数目的自定义词汇“_pad_”;若fci”的长度大于l1,则在fci’的头部截去对应数目的文本词汇,得到样本集fc”’={fci”’|i=1,…,n};

步骤2.4:读入预处理后的样本集fc”’,对样本的文本词汇频数进行统计;

步骤2.5:按照词汇统计频数由大到小的顺序排名,将所有样本的词汇写入至词典。额外添加两个词汇“_pad_”和“_ukn_”至词典的第一位和第二位,得到词典的词汇数目dicl。其中,词汇“_pad_”表示填充词汇,用于填充词汇数目小于规定值的样本,词汇“_ukn_”表示未知词汇,用于后续的匹配分析;

步骤2.6:对词典中的词汇分配索引数字,得到“词汇-索引”映射表;

步骤三:构建案例样本索引矩阵以及样本标签矩阵,其作法如下:

步骤3.1:构建尺寸为n*l1的索引矩阵x,用于保存样本的词汇索引值;

步骤3.2:读取样本集fc”’={fci”’|i=1,…,n},根据“词汇-索引”映射表,将fci”’内的词汇转换为对应的索引数字,并写入至矩阵x;

步骤3.3:读取样本集fc”’对应的标签数据集lb={lbi∈{j}|i=1,…,n,j=1,…,l2},其中,lbi为第i个案例样本对应的标签,n为样本数目,l2为标签的类型数目;

步骤3.4:构建尺寸为n*l2的标签矩阵y,用于保存样本的标签编码向量;

步骤3.5:对lbi进行独热编码,获得对应的标签向量,并写入至矩阵y,独热编码是指一种编码方法,可以将类别变量转换为用于机器学习的0-1向量;

步骤四:大规模语料库是指用文本分类、文本挖据以及信息检索研究的开源标准数据集,由数目单位为万级的新闻文档组成,能够涵盖自然语言中绝大部分词汇。基于word2vec的语言模型是一种无监督神经网络模型,这一模型以大量的文本语料作为输入,通过调节中间隐藏层的权重来学习文本词汇间的关联关系,最后输出语料词汇对应的嵌入向量,这些嵌入向量能够有效表示词语的语义特征。利用大规模语料库对基于word2vec的语言模型进行预训练,来获得语料库词汇的嵌入向量,其作法如下:首先载入用于语言模型学习的语料库文本数据,然后设定语言模型的训练方法类型、输出嵌入向量长度、词汇滑窗长度、训练并行数目以及训练迭代次数这一系列参数,随后采用无监督学习机制,利用语料库数据对语言模型进行训练,最后得到语言模型的权重以及语料库文本词汇对应的嵌入向量(维数为eml);

步骤五:构建权重矩阵,匹配软件故障词典词汇与语料库词汇的嵌入向量,,将向量写出至该权重矩阵,权重矩阵的构建流程如图3所示,其作法如下:

步骤5.1:构建尺寸为l1*eml的权重矩阵w,用于保存软件故障词典中词对应的嵌入向量;

步骤5.2:设定软件故障词典中词“_pad_”嵌入向量是维数为eml的全零向量,词典中词“_ukn_”的嵌入向量是均匀初始化得到的维数为eml的嵌入向量;

步骤5.2:读取词典的词,利用语言模型查找词典中词对应的嵌入向量;

步骤5.3:若语言模型中未匹配到对应词的嵌入向量,则该词的嵌入向量替换为“_ukn_”的嵌入向量;

步骤5.4:利用“词汇-索引”映射表获得词典的词索引,并将得到的嵌入向量写入至权重矩阵w对应的行数;

步骤5.5:重复执行“步骤5.2”~“步骤5.4”,直至完成对词典的遍历,并得到保存词嵌入向量的权重矩阵w;

步骤六:设定用于软件故障诊断的dnn整体模块结构,其作法如下:

步骤6.1:设定dnn的第一层(输入层)为embedding层,embedding层是一种嵌入网络层,这一网络层用于将索引矩阵x转换为具有固定大小的二维特征张量,供后续网络层学习使用;

步骤6.2:设定dnn的第二层为dropout层,dropout层是一种深度学习环境中应用的优化网络层,在dnn训练过程中,这一网络层以概率p舍弃神经元,并让其它神经元以概率q=1-p保留,每个神经元被舍弃的概率是相同的,舍弃的神经元的输出均设置为零;通过这种方式减轻dnn的过拟合问题,一定程度上达到正则化效果;

步骤6.3:设定dnn的第三层为conv1d层,conv1d层是一种一维卷积网络层(即时域卷积),用以在一维输入向量上进行邻域滤波,这一网络层将输入向量与卷积核按照单一的时域方向进行卷积,并生成用于后续网络层学习的三维特征张量;

步骤6.4:设定dnn的第四层为globalmaxpooling1d层,是一种一维全局最大池化网络层,这一网络层将三维特征张量进行最大池化处理,生成用于后续网络层学习的二维特征张量;

步骤6.5:设定dnn的第五层为dropout层;

步骤6.6:设定dnn的第六层为conv1d层;

步骤6.7:设定dnn的第七层为globalmaxpooling1d层;

步骤6.8:设定dnn的第八层为dropout层;

步骤6.9:设定dnn的第九层(输出层)为dense层,dense层是一种全连接网络层,这一网络层用于抽取特征张量,并输出样本数据所属类别的概率分布;

步骤七:设定dnn输入层、各隐藏层、输出层的参数以及学习机制,其作法如下:

步骤7.1:设定embedding网络层参数,输入维数为dicl,输出维数为eml,输入长度为l1;

步骤7.2:设定第三层conv1d的卷积核数目为128,时域窗长度为3,激活函数为并均匀分布初始化该层的权重与偏差;

步骤7.3:设定第六层conv1d的卷积核数目为256,时域窗长度为3,激活函数为并均匀分布初始化该层的权重与偏差;

步骤7.4:设定dropout网络层的概率参数均为0.2;

步骤7.5:设定dense网络层参数,神经元数目为l2,激活函数为并均匀分布初始化该层的权重与偏差;

步骤7.6:设定dnn的损失函数为多分类交叉熵,多分类交叉熵是一种对数损失函数,用来衡量多分类模型的预测值和真实值之间的误差,交叉熵越小,说明匹配得越准确,模型准确率越高。设定dnn的参数优化方法为adam方法,adam方法是一种基于梯度的优化方法,该方法能根据参数梯度的一阶矩估计和二阶矩估计,动态地调整dnn中每个参数的学习速率。设定dnn的评估指标为对样本所属类别的识别准确率;

步骤八:利用建立的权重矩阵初始化dnn的输入层,设定dnn的embedding层的初始化权重参数为权重矩阵w,并设定embedding层利用权重参数w进行微调训练;

步骤九:对故障案例样本索引矩阵和样本标签矩阵进行划分,样本矩阵的划分流程如图4所示,首先对样本索引矩阵x与标签矩阵y进行合并以得到样本集z=(x,y)={(xi,yi)|i=1,…,n},设定学习与测试数据划分比例,对z进行划分,分别得到学习数据集和测试数据集;然后设置学习数据集的批量数目,按照批量数对学习数据集随机划分,最后设定训练与验证划分比例,对所有批次的学习数据集进行划分,得到每个批次对应的训练样本和验证样本;

步骤十:利用训练数据集和验证数据集对dnn进行训练,设置dnn的学习轮次数目,使用批量训练样本和验证数据集对dnn进行多轮学习,多轮次学习后,使用测试数据集对dnn识别故障案例样本所属类型的准确性进行验证。

通过上述步骤,可以实现基于迁移学习与dnn的软件故障诊断方法,这一方法首先采用语言模型对大规模语料库进行预训练,获得丰富的词嵌入向量。其次对故障案例文本词汇与语言模型的词嵌入向量进行匹配,获得词嵌入权重。再次构建用于软件故障分类的dnn模型。最后,将词嵌入权重迁移至dnn的词嵌入层,如图5所示,利用案例样本数据微调dnn整体参数,完成模型的训练与测试。得到的dnn能够利用待诊断的软件故障描述文本信息提取有效的语义特征数据,准确地识别具体的故障类型。

本发明未详细阐述部分属于本领域公知技术。

以上所述,仅为本发明部分具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本领域的人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1