基于残差卷积神经网络的隧道围岩级别智能判定方法

文档序号:25861743发布日期:2021-07-13 16:18阅读:47来源:国知局
基于残差卷积神经网络的隧道围岩级别智能判定方法
本发明涉及隧道与地下工程的勘察设计领域,适用于各种交通、水利水电等隧道与地下工程的勘察设计,具体为一种基于残差卷积神经网络的隧道围岩级别智能判定方法。
背景技术
:隧道是修筑在具有一定应力历史和构造迹象的多种围岩介质中的一种洞室结构体系,隧道围岩是指隧道周围一定范围内对隧道稳定性产生影响的岩土体,隧道周围的地层不管是岩体还是土体统称为隧道围岩。为满足隧道工程建设的需要,用综合指标或单一指标把围岩的稳定程度划分为若干级别,这种分级称为围岩分级。对隧道的围岩级别作出正确的评价不仅关系到隧道的设计和施工方案、隧道的工程造价,而且还关系到隧道施工与运营期间的安全与稳定。因此,对岩体给出客观评价的围岩分级方案,是隧道设计和施工阶段的重要依据。虽然规范给出了各级围岩的相关描述,但目前围岩分级的各项指标与围岩等级尚未建立精确的关系,并且部分围岩分级指标之间没有明确界限,所以隧道围岩分级受主观因素的影响较大。隧道围岩分级是一个经验性极强的领域,包含了多种不确定因素,很多情况都要依靠工程经验丰富的专家确定围岩等级。目前,隧道围岩分级主要依靠现场采集定量、定性指标,根据规范要求方式进行选取。现场信息采集还存在获取难度高、工作量较大、误差较大、效率不高、采集过程安全性差的不足。因此,研究一种基于图像(非接触式)的隧道围岩特征提取并自动进行围岩分级的方法十分有意义,能够很大程度上保证围岩分级的准确性、安全性。技术实现要素:为克服现有技术存在的技术缺陷,本发明公开了一种基于残差卷积神经网络的隧道围岩级别智能判定方法。本发明所述基于残差卷积神经网络的隧道围岩级别智能判定方法,包括如下步骤:步骤一.采集隧道掌子面高分辨率图像数据,构建样本库;步骤二.从步骤一得到的样本库中随机选取大于70%比例数量的样本作为训练集,剩余的作为测试集,并采用数据增广方法进行样本集的扩充,使其满足后续神经网络训练所需要的样本数量;步骤三.构建残差深度卷积神经网络,用于学习训练,通过训练不断降低损失函数值并更新网络权重参数,经过多次训练后,得到学习后更新了网络权重参数的神经网络;所述残差深度卷积神经网络中包括多个顺序连接的残差块,所述残差块的数据处理方式包括直线连接和跳跃连接,所述直线连接为将上一层输出作为本层原始输入逐步进行卷积、归一化、激活处理;所述跳跃连接直接将上一层输出与所述直线连接输出处进行张量元素内容相加;所述残差块将加和结果直接作为残差块处理结果进行输出;步骤四.选择需要进行围岩分级的图像,作为卷积神经网络的输入,通过步骤三得到的卷积神经网络的迭代,并应用对应围岩分级训练集训练学习得到的网络权重参数,输出围岩对应级别预测;根据所得到的围岩级别预测,返回隧道掌子面对应的围岩分级评定结果。优选的,所述步骤一中还包括对图像进行预处理的步骤;具体操作步骤如下:将图像的r、g、b三个像素通道分解成单通道,对三个通道分别进行直方图均衡化,均衡化处理后的结果再进行合成,得到均衡化后的图像。优选的,所述步骤2中数据增广可以引入imutils图像处理包对图像进行处理,具体步骤为:调用该包的paths.list_images()函数查找从步骤一中得到的样本库的全部图像,并抓取图像路径,罗列所有文件,并将路径保存至变量imagepaths中,抓取图像的路径,将每张图像加载至内存,随后初始化图像处理包中的data和labels数组,循环遍历imagepaths,将原始像素强度调整到范围[0,1]完成图像数据预处理;然后利用图像处理包cv2模块的imread()接口读入图像数据,并利用resize()接口将图像尺寸修改,利用img_to_array()函数将图片转化成数组,将转换后的数组存入data数组中;从图像路径中提取类标签并更新标签列表完成多类标签的解析,将标签名添加至图像处理包的labels数组中,导入机器学习库scikit-learn库,使用labelbinarizer()函数完成labels数组的标签二值化;从sklearn.model_selection函数中导入train_test_split()函数,将数据集data、标签集labels作为参数传入train_test_split()函数;将图像数据划分为训练集和测试集并进行数据增广。优选的,所述步骤三中,当前网络层第l层的输出等于正常网络的输出计算公式如下:a[l]=g(zl+a[l-1])=g(wla[l-1]+b[l]+a[l-1])=g((wl+1)a[l-1]+b[l]);其中zl表示该层的线性运算结果,wl表示第l层的卷积核,g为激活函数;残差神经网络中反向传播的误差传播公式如下:优选的,所述步骤三中,逻辑回归使用的损失函数方程为:损失函数:其中yj为(第j个期望输出),表示第j个原始的实际输出;对应的代价函数方程为:代价函数其中yj为第j个预测值,表示第j个训练样本的输出值,m为输入值的个数,w,b表示不同的卷积核和偏差;逻辑回归梯度下降计算公式为:y为预测值,表示训练样本的输出值。优选的,所述步骤三中,在神经网络中某一隐藏层的中间值实现每一层神经网络的输入保持相同分布的方法具体如下:z(i)为各输入值,m为每个送入批次(batch)中样本的数量;μ为计算出的均值;σ2为计算出的方差;为归一化处理结果;∈是为了防止方差为0的稳定参数;γ为尺度因子,用于调整数值大小;β为平移因子,用于增加偏移。优选的,所述步骤三的训练过程中,通过adam算法降低损失函数值并更新网络权重参数,具体为:adam优化算法初始化参数:vdw=0,sdw=0,vdb=0,sdb=0;第t次迭代时:vdw=β1vdw+(1-β1)dw,vdb=β1vdb+(1-β1)dbsdw=β2sdw+(1-β2)(dw)2,sdb=β2sdb+(1-β2)(db)2;t迭代的次数;α学习率;β1:一阶矩阵估计的指数衰减率;t表示不同迭代次数t下的衰减率;β2:二阶矩阵估计的指数衰减率;t表示不同迭代次数t下的衰减率;∈:为了防止分母为0的稳定参数;w:权重;b:偏置量;dw:权重导数;db:偏置量导数;(dw)2表示是权重w的梯度的平方,也称为微分的平方;vdm、vdb、sdb、sdw是用于保存指数加权平均值(移动平均值)的中间变量。优选的,所述步骤三的训练过程中,考虑偏差修正,得到修正后的参数:vdm、vdb、sdb、sdw增加上标corrected表示修正后的参数。本发明基于数字图像和基于卷积神经网络实现隧道围岩等级的智能评估,不需要进行现场或室内岩土体力学实验即可实现围岩级别判定,能规避因接触式采集围岩数据信息时的危险;本发明能够很好地和各种优化问题相结合,且通用性强,对图像中不确定的信息具有一定适应能力;本发明经济实用,操作简单,适用于各种交通、水利水电等隧道工程围岩等级判定及勘察设计工作。附图说明图1为本发明所述判定方法的一个具体实施方式流程示意图。图2为某个示例隧道掌子面图像处理前及采用本发明进行图像处理后的图像对比示意图;图3为另一示例隧道掌子面图像处理前及采用本发明进行图像处理后的图像对比示意图。图4为本发明所述resnet10网络结构图;图4中,conv表示卷积层,pool池化层,fc表示全连接层,每层的7x7,3x3表示卷积核大小,各个卷积层的数字64,128,256,512分别表示对应卷积层卷积核数量;图4中弧形路径表示跳跃连接。具体实施方式下面结合附图,对本发明的具体实施方式作进一步的详细说明。本发明所述基于残差卷积神经网络的隧道围岩级别智能判定方法,包括如下步骤:步骤一、采集隧道掌子面高分辨率图像数据,构建样本库。所述步骤一中进行图像采集可以根据以下方法进行采集。①根据不同的拍摄内容、拍摄时间、拍摄环境、拍摄模式分别构建数据集,根据以上要素的不同类别对数据进行细分。其中拍摄内容由拍摄时相机到掌子面的距离和显示区域进行划分:在不放大情况下刚好能完整拍摄掌子面全貌的图像数据作为掌子面全貌拍摄类型数据,不放大情况下可体现不同岩性过渡部位、断层破碎带、节理裂隙、出水部位等掌子面部分特征的图像数据为掌子面局部拍摄类型数据。拍摄时间根据爆破后正常通风后时间进行分类,每次拍摄间隔一定时间例如10min;拍摄环境分类为拍摄时的外部环境亮度,光照方向等因素,拍摄模式分类为拍摄器材的工作模式,例如正常模式不打开闪光灯情况下,不同iso值情况下的图像数据。②对按照步骤①构建得到的不同数据集进行卷积神经网络训练,并根据训练结果选取最优训练准确率的数据集组合,进而确定图像采集标准。掌子面全貌拍摄类型数据,部分局部拍摄类型数据中的一项或多项的组合均可以用于进行后续的围岩分类。例如发现白天爆破后20分钟,断层破碎带在iso=200模式下的数据集在训练后得到的训练准确率最佳,则以该数据集的拍摄要素作为图像采集标准。步骤一中可以结合现场数据信息对图像进行图像预处理;可以对图像去烟尘利用基于暗通道处理的去雾算法进行图像去烟尘处理。图像预处理技术还可以基于图像增强方法对图像进行彩色图像直方图均衡化,具体操作步骤如下:将图像的r、g、b三个像素通道分解成单通道,对三个通道分别进行直方图均衡化,均衡化处理后的结果再进行合成,得到均衡化后的图像。这样做的目的是消除拍摄误差,提高样本准确性。图像去烟尘利用基于暗通道处理的去雾算法进行图像去烟尘处理。步骤二、从步骤一得到的样本库中随机选取80%作为训练集,选取剩余的20%作为测试集,并采用数据增广方法进行样本集的扩充,使其满足后续神经网络训练所需要的样本数量;所述数据增广方法包括但不限于随机旋转、偏移、放大和翻转等图像处理方式。所述步骤二中的数据增广可以引入imutils图像处理包对图像进行处理,调用该包的paths.list_images()函数查找从步骤一中得到的样本库的全部图像,并抓取图像路径,罗列所有文件,并将路径保存至变量imagepaths中,抓取图像的路径,将每张图像加载至内存,随后初始化图像处理包中的data和labels数组,循环遍历imagepaths,将原始像素强度调整到范围[0,1]完成图像数据预处理。然后利用图像处理包cv2模块的imread()接口读入图像数据,并利用resize()接口将图像尺寸修改为224*224,利用img_to_array()函数将图片转化成数组,将转换后的数组存入data数组中,便于进行下一步计算。从图像路径中提取类标签并更新标签列表完成多类标签的解析,将标签名添加至图像处理包的labels数组中,导入机器学习库scikit-learn库,使用labelbinarizer()函数完成labels数组的标签二值化。从sklearn.model_selection函数中导入train_test_split()函数,(train_test_split()是处理包中提供的随机划分训练集的函数),将数据集data、标签集labels作为参数传入train_test_split()函数。将数据划分为训练集和测试集,通常设置参数test_size=0.2,即以80%的数据用于训练,其余20%用于测试。从keras.preprocessing.image文件(该文件为keras框架中数据预处理、数据增补模块preprocessing中的image.py文件)中导入图像生成器imagedatagenerator(),该生成器为keras框架中的imagedatagenerator类图像生成器,用于在batch中对数据进行增强,扩充数据集大小,增强模型的泛化能力,如可以进行旋转,变形,归一化等。构造用于数据扩充的图像生成器,具体的参数设置如:可以设置图片随机翻转的角度rotation_range=25,图片随机水平偏移的幅度width_shift_range=0.1,图片随机垂直偏移的幅度height_shift_range=0.1,剪切强度shear_range=0.2,随机放大zoom_range=0.1,打开随机水平翻转值horizontal_flip=true,并设置参数fill_mode='nearest',在imutils图像处理包中,fill_mode可以设置为‘constant’,‘nearest’,‘reflect’或‘wrap’之一,当进行变换时超出边界的点将根据本参数给定的方法进行处理。设置好各项参数后,运行函数对样本库进行数据扩充,使其数量满足神经网络训练所需。步骤三.构建残差(resnet)卷积神经网络,用于学习训练,通过训练不断降低损失函数值并更新网络权重参数,经过多次训练后,得到学习后更新了网络权重参数的神经网络;该卷积神经网络由多个卷积层和池化层交替实现。卷积神经网络最主要的两个部分是卷积层和池化层,卷积层(convolutionallayer,即conv层)的核心是卷积运算。对于图像中所有或大部分像素,以该像素为中心的局部窗口内的像素与卷积核进行内积运算,将计算记过作为该像素的新值。遍历图像中的所有或大部分像素,进行上述内积运算,加上偏差,应用激活函数进行激活,完成一次滤波,得到一个和原图像相同尺寸或比原图像尺寸较小的输出特征。通常情况下,卷积神经网络的当前第l层输入数据为上一层第(l-1)层的输出数据a[l-1],对输入数据执行卷积运算,wk[l]表示第l层的第k个卷积核,第l层共有d1个卷积核,并考虑第l层的对应层偏差b[l],该层的线性运算结果可以表示为:应用激活函数g对线性运算结果进行激活,得到下一层的输入层a[l],第l层输出特征a[l]可以表示为a[l]=g(zl)当前第l层输入数据为上一层第(l-1)层的输出数据a[l-1],第l层的对应层偏差为b[l]resnet残差神经网络架构的特征是引入了残差块中的恒等跳跃式连接,使用来自输入的直接连接将上一层输出作为本层原始输入数据直接添加到此跳跃式连接中,绕过本次卷积处理,对于残差神经网络,当前网络层第l层的输出等于正常网络的输出计算公式如下:a[l]=g(zl+a[l-1])=g(wla[l-1]+b[l]+a[l-1])=g((wl+1)a[l-1]+b[l]);其中zl表示该层的线性运算结果,wl表示第l层的卷积核,g为激活函数;学习过程由信号的正向传播与误差的反向传播两个过程组成。误差正向传播为:输入样本->输入层->各隐藏层(处理)->输出层。误差反向传播为:输出误差(某种形式)->隐藏层(逐层)->输入层,其主要目的是通过将输出误差反传,将误差分摊给各层所有单元,从而获得各层单元的误差信号,进而修正各单元的权值;其过程是一个权值调整的过程。残差神经网络中误差反向传播公式如下:上式中,j表示代价函数,用于衡量预测值与训练样本输出值之间的差异;σ′(zl-1)为激活函数σ对zl-1求导。卷线性整流层(rectifiedlinearunitslayer,relulayer)作为每层线性运算后使用的激活函数,保证卷积层不变的同时增强卷积神经网络的非线性特性,公式为:f(x)=max(0,x);该公式对输入数据进行非线性处理,将输入数据中负值全部用0替换。利用池化层(poolinglayer)对输入特征图的块进行缩小,并组合其特征激活;提高了计算速度,同时提高了所提取特征的鲁棒性,减少了噪音影响。建立resnet10神经网络,resnet10神经网络包含9个卷积层、1个全连接层和2个池化层;如图4所示。图4中,conv表示卷积层,pool池化层,fc表示全连接层,每层的7x7,3x3表示卷积核大小,各个卷积层的数字64,128,256,512分别表示对应卷积层卷积核数量;最大池化层即最大子采样函数取区域内所有神经元的最大值。全局平均池化层为不以窗口的形式取均值,而是以上一层的输入为单位进行均值化的池化层,即每一个特征图(featuremap)输出一个值。图4中的/2表示设置参数stride=2,,使输入尺寸长度会变为原来的一半,例如原输入为224*224,经过对应处理后会变为112*112,目的是调整特征图宽度和高度尺寸。残差块(residual_block)数据处理分为两条路径,直线连接和跳跃连接,直线连接为将上一层输出作为本层原始输入逐步进行卷积、归一化、激活处理;跳跃连接与直线连接的维度不同时,需使用1×1卷积进行调整,跳跃连接将跳过直线连接中的卷积、归一化、激活处理等过程,直接将上一层输出与直线连接输出处进行张量元素内容相加,将加和结果直接作为残差块处理结果进行输出。张量元素内容相加即两张量对应位置元素值相加,加和后,张量尺寸不发生改变。图4为本发明使用的resnet10网络结构图。该神经网络的构建方法规定了图像输入尺寸为224*224的rgb图像,第一层卷积层设置64个卷积核,卷积核尺寸为7*7,卷积层步长(stride)设置为2个像素;第一层卷积层后接一个最大池化层,最大池化的树池尺寸为3*3,步长(stride)设置为2个像素,填充(padding)设置为补零(same);最大池化层后接4个残差块,残差块中卷积核尺寸均为3*3;残差处理后为全局池化层;池化后接全连接层,再使用softmax分类进行分类,逻辑回归使用的损失函数方程(lossfunction)为:其中yj为第j个预测值,表示第j个训练样本的输出值;对应的代价函数方程(costfunction)为:代价函数上式中,m为输入值的个数;w,b表示不同的权重和偏差。逻辑回归梯度下降计算公式为:y为预测值,表示训练样本的输出值;通过使用batchnormalization()函数进行归一化处理,解决样本点变化(covariateshift)问题。位于每个卷积层中的所有隐藏层都使用relu函数作为激活函数,提高决策函数的非线性。隐藏层是除输入层和输出层以外的其他各层;在神经网络中某一隐藏层的中间值实现每一层神经网络的输入保持相同分布(即batchnorm)的方法具体如下:均值方差进行归一化处理得到的结果进行缩放和移位z(i)为各输入值,上述均值和方差计算式中的m为batchsize,即每个送入批次(batch)中样本的数量;μ为计算出的均值;σ2为计算出的方差;为归一化处理结果,归一化目的:把所给出的数据进去去单位化,把同类型的数据除以其所在数据的总和,得到该数据在总和中的比重。∈是为了防止方差为0,保证数值的稳定。γ为尺度因子,用于调整数值大小;β为平移因子,用于增加偏移。由于归一化后的输入基本会被限制在正态分布下,使得网络的表达能力下降,在多指标评价体系中,由于各评价指标的性质不同,通常具有不同的量纲和数量级。当各指标间的水平相差很大时,如果直接用原始指标值进行分析,就会突出数值较高的指标在综合分析中的作用,相对削弱数值水平较低指标的作用。归一化处理在这里会把数变为(0,1)之间的小数,让各个特征对结果做出的贡献相同,使用归一化能提高模型收敛速度、提高模型精度。但在归一化处理后,原数值较高的指标与数值较低的指标范围相同,没有突出各指标区别于其他指标的范围特点。因此为解决表达能力不足的问题,引入尺度因子γ和平移因子β,将各指标还原至原有水平,恢复期表达能力,尺度因子γ和平移因子β是可以在训练中不断更新学习的参数。将准备好的数据集合图像标定类别输入设计好的卷积神经网络中进行训练,并通过adam高效优化算法降低损失函数值并更新网络权重参数,所述adam优化算法是由momentum动量梯度下降算法和rmsprop梯度下降算法结合形成。adam优化算法初始化参数:vdw=0,sdw=0,vdb=0,sdb=0。第t次迭代时:vdw=β1vdw+(1-β1)dw,vdb=β1vdb+(1-β1)dbsdw=β2sdw+(1-β2)(dw)2,sdb=β2sdb+(1-β2)(db)2考虑偏差修正后,最后得到修正后的参数adam算法的偏差修正每个最新数据值,依赖于以前的数据结果,但此时初期的几个计算结果就会与真实的平均值有较大偏差,即迭代初期计算结果与真实值偏差较大,因此可以利用上述公式进行偏差修正,随着迭代次数t的增大,βt会越来越接近0,对前期修正效果较好。式中:t为时间步,也即迭代的次数α:学习率,也称为步长因子,学习率控制了权重的更新比率。学习率取较大的值(如0.3)在学习率更新前会有更快的初始学习,而较小的值(如1.0e-5)会令训练收敛到更好的性能。β1:一阶矩阵估计的指数衰减率;t表示不同迭代次数t下的衰减率;β2:二阶矩阵估计的指数衰减率;t表示不同迭代次数t下的衰减率;∈:为了防止分母为0的稳定参数;w:权重;b:偏置量;dw:权重的导数;db:偏置量的导数;(dw)2表示的是权重w的梯度的平方,也称为微分的平方;vdm、vdb、sdb、sdw是用于保存指数加权平均值(移动平均值)的中间变量,上标corrected表示修正后的参数,为更新权重w和偏置b设置的中间参数。本实施例中,可以使用以下参数设定:α:取0.001;β1:取缺省值0.9;β2:取值0.9999;ε:取10-8;一个具体实施方式为:设置神经网络训练训练100轮(epoch),设置初始学习率α为0.001,利用回调函数监测验证集损失函数值(val_loss)值,设置学习率衰减因子为0.5,设置学习率下降触发器取值为3,当3轮过去后模型性能不提升时触发学习率衰减,学习率下限设置为0.00001,损失函数采用“binary_crossentropy”二分类交叉熵损失函数,设置每个送入批次中样本的数量(batchsize)为4,图像大小为224*224*3,。经过多次训练后,得到学习后的网络权重参数。从图2和图3得到的处理前后的图像可以看出;如果处理前图像采集过程中影响因素过多,如烟尘较浓,闪光灯曝光不足或过曝,拍摄出的图像不能准确反映隧道掌子面特征,而利用本发明采用的图像处理后,能尽可能去除外部环境对图像质量的影响,还原再现掌子面真实图像,提高样本质量。步骤四:选择需要进行围岩分级的图像,作为卷积神经网络的输入,通过步骤三得到的卷积神经网络的迭代,并应用对应围岩分级训练集训练学习得到的网络权重参数,输出围岩对应分级评定。再根据所得到的围岩分级评定,返回隧道掌子面对应的围岩分级评定结果。本发明的有益效果是:(1)采用非接触式的图像数据采集,开展基于残差卷积神经网络的隧道工程围岩分级,实现了围岩分级工作的自动化、智能化,提高了工作的准确率与效率,同时规避了因接触式采集围岩数据信息时的操作危险;(2)本方法不需要进行现场或室内岩土体力学实验,经济实用,操作简单,参数设置较少,收敛速度快,且能够很好的和各种优化问题相结合,且通用性比较强,对问题中不确定的信息具有一定的适应能力。(3)传统神经随着网络深度增加,会出现梯度消失或梯度爆炸,训练误差会维持在一个较高水平,致使网络收敛变慢。残差神经网络利用残差块的两条路径加和处理,增强了梯度传播能力,使得训练误差随着网络深度增加而持续降低。以某高速公路双洞隧道掌子面照片为例,依照图1流程进行图像处理、模型训练及围岩等级预测。共采集图像360张,其中围岩等级为v级的围岩图像125张,iv级围岩图像156张,iii级围岩图像79张,图像大小总计423.36mb,80%的图像用于模型的训练,20%的图像用于模型验证,读取图像的尺寸为224*224并包含r、g、b三个通道,训练共计100轮(epoch),初始学习率设置为0.001,批数量(batchsize)设置为4。训练结果见下表:训练结果见下表:轮次训练集损失函数值训练集准确率验证集损失函数值验证集准确率epoch1/100loss:2.9575acc:0.5567val_loss:2.6173val_acc:0.4676epoch2/100loss:1.2620acc:0.6262val_loss:1.2088val_acc:0.6204epoch3/100loss:1.0698acc:0.6366val_loss:0.9476val_acc:0.6667epoch4/100loss:0.9730acc:0.6458val_loss:0.9446val_acc:0.6574epoch5/100loss:0.9142acc:0.6771val_loss:1.2347val_acc:0.6852...............epoch96/100loss:0.5251acc:0.7928val_loss:0.5961val_acc:0.7315epoch971100loss:0.5181acc:0.8021val_loss:0.6179val_acc:0.7269epoch98/100loss:0.5263acc:0.8090val_loss:0.5961val_acc:0.7407epoch99/100loss:0.4901acc:0.8380val_loss:0.5878val_acc:0.7639epoch100/100loss:0.5185acc:0.7998val_loss:0.5662val_acc:0.7639本实施例中,训练集准确率达79.98%,验证集准确率达76.39%,相较于传统的深度卷积神经网络,残差神经网络缓解了网络深度越深,训练集训练效率减弱的问题,使得准确率有所提高。前文所述的为本发明的各个优选实施例,各个优选实施例中的优选实施方式如果不是明显自相矛盾或以某一优选实施方式为前提,各个优选实施方式都可以任意叠加组合使用,所述实施例以及实施例中的具体参数仅是为了清楚表述发明人的发明验证过程,并非用以限制本发明的专利保护范围,本发明说明书括号中的英文为括号前中文在计算机语言或函数中的英文名称,不在括号中的英文为没有严格中文译文的数学函数或数据库等的命名,本发明的专利保护范围仍然以其权利要求书为准,凡是运用本发明的说明书及附图内容所作的等同结构变化,同理均应包含在本发明的保护范围内。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1