深度相机相对位姿及场景平面高度计算方法及装置与流程

文档序号:15274583发布日期:2018-08-28 22:50阅读:524来源:国知局

本发明涉及深度图像数据处理领域,具体涉及一种深度相机相对位姿及场景平面高度的计算方法及装置。



背景技术:

检测场景平面是计算机视觉中的常见任务。场景平面检测具有许多实际用途,其范围涉及到机器人、自动驾驶、个人娱乐及视频监控等领域。

传统的基于图像的地面检测方法大多数根据地面的先验颜色信息、颜色信息的一致性以及强烈的边缘来进行地面的检测,比如利用公路的深色路面以及路边的白色标线信息等。其工作方式只能够适用于一些比较简单的场景,对于复杂的环境不具有可靠的性能。

由于能够直接获取在一般透视成像变换中丢失的深度信息,深度相机在场景平面检测应用上相比于普通可见光相机有着更加明显的技术优势。这些深度相机包括但不限于基于双目视觉法,飞行时间法以及结构光编码法三种制式的深度相机。

但是在实际应用中,很多时候深度相机是通过斜下视的方式对场景进行观测的,具有一个俯视角度;或者深度相机的位姿会受到系统的影响而发生变化,因而无法随时估计深度相机相对于地面的高度、姿态以及场景中其他场景平面相对于地面的高度。



技术实现要素:

本发明的目的是,提供一种深度相机相对位姿及场景平面高度计算方法及装置,通过该计算方法可以准确、全自动的计算出深度相机相对位姿及场景平面的高度。

在一个实施例中,提供了一种深度相机相对位姿及场景平面高度计算方法,用于处理深度图像数据,包括以下步骤:

计算深度相机输出的深度图像数据中点云数据的坐标a(x,y,z)绕深度相机横轴x旋转多个角度θr后的坐标b(x1,y1,z1);

统计同一旋转角度θr下点云数据的坐标值数据,按y1值的大小进行分类,并划定范围单位h,统计落在每一范围单位h内的点占点云数据的比例,将最大的比例值q列出;

对比全部旋转角度θr的比例值q,将最大比例值qmax所对应的旋转角度θc列出。

作为优选方案,计算得出的旋转角度θc可以用于计算地面与深度相机的垂直距离d,包括以下步骤:

将按旋转角度θc旋转后的点云数据按y1值的大小及范围单位h进行排序;

根据范围单位h、比例值q所落入的范围在大小排序中的位置值k以及点云数据所具有的最大或最小y1值来计算地面与深度相机的垂直距离d。

作为优选方案,当y1值的排序为从大到小时,计算地面与深度相机的垂直距离d的公式为:d=h×k-y1max,其中y1max为按旋转角度θc旋转后的点云数据中所具有的最大y1值;

当y1值从小到大排序时,计算地面与深度相机的垂直距离d的公式为:d=-y1min-h×k,y1min为按旋转角度θc旋转后的点云数据中所具有的最小y1值。

作为优选方案,旋转角度θr的取值范围为0°至80°,并且旋转角度θr以精度单位δ1来取值,精度单位δ1的取值范围为0.1°至10°,范围单位h的取值范围为1mm至500mm。

作为优选方案,得到旋转角度θc后,还包括以下旋转角度θc的精调步骤:

设定旋转角度θr1的范围为旋转角度θc±p,并以精度单位δ2来旋转计算所述点云数据的坐标值,优选的,精度单位δ2小于旋转角度θr的精度单位;

以范围单位h1来计算最大的比例值q1,优选的,范围单位h1小于范围单位h;

利用比例值q1计算所对应的旋转角度θc1;

将旋转角度θc1赋值给旋转角度θc。

作为优选方案,p值的取值范围为1°至20°。

作为优选方案,该方法还包括以下步骤:

列出第一大比例值q及场景中所述场景平面面积的大小关系所对应的比例值qp;

将旋转角度θr的比例值q与比例值qp相加得到f值,对比全部旋转角度θr的所述f值,将最大值fmax所对应的旋转角度θc列出。

作为优选方案,计算步骤还包括:

将按所述旋转角度θc旋转后的点云数据按y1值的大小及范围单位h进行排序;

根据范围单位h、比例值q所落入的范围在大小排序中的位置值k、比例值qp所落入的范围在大小排序中的位置值kp以及点云数据所具有的最大或最小y1值来计算地面与深度相机的垂直距离d、场景平面与深度相机的垂直距离d2及场景平面高度dp。

作为优选方案,当排序为y1值从大到小排序时,计算地面与深度相机的垂直距离d的公式为:d=h×k-y1max,计算场景平面与深度相机的垂直距离d2的公式为:d2=h×kp-y1max,计算场景平面高度dp的公式为:dp=h×k-h×kp,y1max为按旋转角度θc旋转后的点云数据中所具有的最大y1值;;

当y1值从小到大排序时,计算地面与深度相机的垂直距离d的公式为:d=-y1min-h×k,计算场景平面与深度相机的垂直距离d2的公式为:d2=-y1min-h×kp,计算场景平面高度dp的公式为:dp=h×kp-h×k,y1min为按旋转角度θc旋转后的点云数据中所具有的最小y1值。

作为优选方案,旋转角度θc的计算方法还可以是,对比全部旋转角度θr的比例值qp,将最大比例值q2max所对应的旋转角度θc列出。

作为优选方案,比例值qp的统计范围在e‐m至e+m的范围之外,其中所述e值为比例值q落入的范围值。

作为优选方案,m值的取值范围为200mm至1200mm。

在一个实施例中,提供了一种深度相机相对位姿及场景平面高度计算装置,包括:

电源模块,用于为计算装置供电;

信息处理模块,用于根据深度图像数据计算深度相机的相对位姿及场景平面高度。

信息处理模块包括:

存储单元,用于储存旋转角度θr的范围;计算处理单元,用于根据所述存储单元储存的信息对所述深度相机输出的所述深度图像数据做处理。

计算处理单元的计算步骤包括:

计算深度相机输出的深度图像数据中点云数据的坐标a(x,y,z)绕所述深度相机横轴x旋转多个角度θr后的坐标b(x1,y1,z1);

统计同一旋转角度θr点云数据的坐标值数据,按y1值的大小进行分类,并统计落在每一范围单位h内的点占点云数据的比例,将最大的比例值q列出;

对比全部旋转角度θr的比例值q,将最大比例值qmax所对应的旋转角度θc列出。

作为优选方案,计算处理单元还用于运行以下计算步骤,包括:

将按旋转角度θc旋转后的点云数据按y1值的大小及范围单位h进行排序;

根据范围单位h、比例值q所落入的范围在大小排序中的位置值k、比例值qp所落入的范围在大小排序中的位置值kp以及点云数据所具有的最大或最小y1值来计算地面与深度相机的垂直距离d、场景平面与深度相机的垂直距离d2及场景平面高度dp。

作为优选方案,存储单元用于储存旋转角度θr的范围及精度单位δ1,旋转角度θr的范围为0°至80°,精度单位δ1的取值范围为0.1°至10°,范围单位h的取值范围为1mm至500mm。

本发明的有益效果在于,通过提供的深度相机相对位姿及场景平面高度计算方法及装置,可以仅依据深度相机输出的深度图像数据来自动计算出深度相机的俯视角度以及高度,并且还可以计算场景中某些场景平面的高度,为深度相机的后期应用提供了良好的支持。

附图说明

图1是本发明计算方法的一实施例应用场景图;

图2是本发明计算方法一实施例的深度图像数据统计图;

图3是本发明计算方法一实施例流程图;

图4是本发明计算方法一实施例精调旋转角度θc的流程图;

图5是本发明计算方法计算地面与深度相机的垂直距离d的一实施例流程图;

图6是本发明计算方法运用于教室场景下一实施例的一深度图像数据统计图;

图7是本发明计算方法运用于教室场景下一实施例流程图;

图8是本发明计算方法运用于教室场景下一实施例的又一深度图像数据统计图;

图9是本发明计算方法计算地面与深度相机的垂直距离d及课桌与深度相机的垂直距离d1一实施例流程图;

图10是本发明计算装置一实施例的功能模块图。

具体实施方式

为了更好的理解本发明,首先对一些概念进行说明。

深度相机:是指能够得到场景深度信息的相机,目前市面上的深度相机采用了以下的三种技术或这三种技术的融合:结构光编码法、双目视觉法以及飞行时间法。具体的,深度相机除了每次获取单帧深度图像的相机之外,还可以是连续获取多帧深度图像的摄像机。

深度图像数据:是指由深度相机输出并包含场景深度信息的图像数据,与普通图像数据表示场景的灰度或者颜色不同,深度图像数据表示的是场景点与深度相机之间的距离信息。

深度相机输出的深度图像数据由具有三维坐标信息的点组成,这些全部的点构成了点云数据信息,这些点云数据的坐标系是建立深度相机自身的基础之上的,如图1所示的场景中,深度相机获得的点云数据坐标信息是建立在以深度相机位置为原点、由深度相机横轴x、深度相机纵轴y以及距离(深度)轴z组成的坐标系上的,利用这些点云数据的坐标信息可以进行场景建模、场景平面检测等应用。

在实际应用中,深度相机多是以俯视角度安装,与地面为基准的水场景平面有一俯视角度θ,那么由深度相机获得的点云数据的坐标值就会与现实世界中的坐标值不同,具体而言,深度相机坐标系的横轴x与距离轴z组成的场景平面与真实世界水场景平面有一俯视角度θ的差别,因此地面等同一场景平面上的点的y值会随着距离z值的变化而变化。

为了得到真实场景中场景平面的高度以及后期计算和应用的方便,需要把深度相机返回的自身坐标系的数据,转换成以地面为基准的场景平面的坐标系的数据。

在常见的环境因素中,地面通常占有场景中最大的面积,在该场景对应的深度图像数据点云数据中,构成地面的点在点云数据中应当是占比最大的,若点云数据是建立在与地面平行的基准面的坐标系上,表现出来的即为构成地面的点占点云数据的比例最大且y值相同。

由于深度相机得到的原始深度数据与现实世界的不同是来源于深度相机与地面为基准的场景平面有一俯视角度θ,我们将原始深度数据中点云数据的坐标值绕深度相机横轴x旋转一个与俯视角度θ相同的角度,就可以得到建立在与地面平行的基准面坐标系上的点云数据坐标值,根据转换后的点云数据坐标值就可以计算深度相机与地面的垂直距离d。

由于俯视角度θ是未知的,我们可以设定多个旋转角度θr来计算俯视角度θ。针对我们同一旋转角度θr的点云数据,将这些点云数据按y值大小划分范围h,当落在某个范围内的点占全部点的比例最大,就可以认为落在这个范围hr的点是构成地面的点。而针对不同旋转角度θr获得的点云数据,当旋转角度θr越接近实际的俯视角度θ时,构成地面的点占全部点的比例也会越大,因此我们可以通过比对多个旋转角度θr下点云数据中构成地面的点的比例值q,其中具有最大比例值qmax的点云数据所对应的旋转角度θc就可以认为是最接近实际的俯视角度θ。

具体的,如图2所示,该图数据横轴是旋转角度θr的值,纵轴为比例值q的值,统计了不同旋转角度θr下的比例值q,而比例值q的变化还是比较明显的,通过比对我们就可以得到最大比例值qmax以及其所对应的旋转角度θc。

在一个实施例中,提供了一种深度相机相对位姿及场景平面高度计算方法,如图3所示,其步骤如下:

s100,将深度相机输出的深度图像数据中点云数据的坐标a(x,y,z),利用旋转矩阵t计算点的原坐标a绕深度相机横轴x旋转多个角度θr后的坐标b(x1,y1,z1)。

坐标b的计算公式为:

b=a×t,

具体地,旋转角度θr的范围可以设定在0°至80°,以δ1=1°为精度单位来旋转点云数据的坐标值。在其他实施方式中,旋转角度θr以及精度单位δ1的具体取值还可以根据具体的运用环境场景以及所需的运算速度和精度来制定。

s200,统计同一旋转角度θr下点云数据的坐标值数据,将其按y1值的大小进行分类,并划定范围单位h,统计落在每一范围单位h内的点占点云数据的比例,将最大的比例值q列出。

具体地,划定范围单位h=20mm,设定选用点的y1值的最小值ymin及最大值ymax用以去除点云数据中的噪声影响以提升运算速度和精度。

在应用场景中,大部分环境特征包括地面都是处于深度相机之下的,所以获得的点云数据的y1值大部分为负值,而且以构成地面的点的y1值最小,因此ymin要设定小于深度相机的安装高度,即地面与深度相机的距离值,而ymax可以设定为0。s300,对比全部旋转角度θr的比例值q,将最大比例值qmax所对应的旋转角度θc列出。

通过以上步骤,我们就可以得到与真实俯视角度θ误差在δ1=1°之内的旋转角度θc了,在精度要求不高的情况下,可以认为θc就是深度相机的真实俯视角度θ。

s400,根据旋转角度θc计算地面与深度相机的垂直距离d。

进一步的,为了使得到的旋转角度θc更接近俯视角度θ,可以在步骤s300得到的旋转角度θc上做进一步的精调。

以下是对初步得到的旋转角度θc进行精调的步骤,如图4所示,包括:

s301,将深度相机输出的深度图像数据中点云数据的坐标a(x,y,z),利用旋转矩阵t计算点的原坐标a绕深度相机横轴x旋转多个角度θr1后的坐标c(x2,y2,z2),并将旋转角度θr1的范围设定为θc±p,并以δ2=0.1°为精度单位来旋转点云数据的坐标值。

具体的,用于精调而设置的旋转角度θr1的范围以初步获得的旋转角度θc为基础,在此基础上增减一个较小p值以减少运算量,通常较佳的p取值是1°至20°,而精度单位δ2的取值通常要小于精度单位δ1的取值,具体取值与所需精度相关。

s302,统计同一旋转角度θr1下点云数据的坐标值数据,将其按y2值的大小进行分类,并划定范围单位h1=5mm,设定选用点的y2值的最小值ymin及最大值ymax,统计落在每一范围单位内的点占点云数据的比例,将最大的比例值q1列出。

在具体实施时,用于精调而划定的范围单位h1通常都要小于获取初步旋转角度θc时所采用的范围单位h1,以便获得更高的精度值,同时该步骤中选定y2值的最小值ymin及最大值ymax的标准与前述实施步骤中y1值最小值ymin及最大值ymax的选定标准相同。

s303,对比全部旋转角度θr1的比例值q1,将最大比例值q1max所对应的旋转角度θc1列出。

s304,将得到的θc1赋值给最终的旋转角度θc。

最后将旋转角度θc输入步骤s400计算地面与深度相机的垂直距离d。如果还需要更精确的旋转角度θc,那么重复步骤s301~s303,仅仅将θr1的范围、精度单位以及对y2值划定范围的范围单位h1再更进一步的缩小就可以达到更精确的结果。

如图5所示,步骤s400的具体的计算过程包括以下步骤:

s401,将按旋转角度θc旋转后的点云数据按y1值的大小及范围单位h进行排序。

具体的,y1值排列的顺序可以是从小到大排列,也可以是从大到小排列。

s402,根据范围单位h、比例值q所落入的范围在大小排序中的位置值k以及点云数据所具有的最大或最小y1值来计算地面与深度相机的垂直距离d。

具体的,当y1值按从大到小排序时,计算地面与深度相机的垂直距离d的公式为:d=h×k-y1max,y1max为按旋转角度θc旋转后的点云数据中所具有的最大y1值。

当y1值按从小到大排序时,计算地面与深度相机的垂直距离d的公式为:d=-y1min-h×k,y1min为按旋转角度θc旋转后的点云数据中所具有的最小y1值。

在具体的实施方式中,距离d的精度与所选定的范围单位h的值有关,可以根据需要变更。

在其他实施方式中,为了计算的方便,可以根据实际的情况设定选用点y1值的最小值ymin及最大值ymax,此时y1max等于ymax,y1min等于ymin,其设定规范可以参考前述实施例中ymax及ymin中的标准。

本发明方法同样可以运用于具有多个大面积场景平面的其它场景,现以具有多个课桌的教学用教室为实施例进行说明。

在教室场景中,除去地面之外,课桌桌面是场景中占有面积最大的场景平面,在该场景中获得的深度点云数据的构成中,课桌桌面的点在点云数据中应当是占比第二大的,并且课桌桌面与地面平行,就可以通过与前述计算地面与深度相机的垂直距离d的步骤近似步骤来计算课桌与深度相机的垂直距离d1,同时还可以得到课桌的高度dt,dt等于距离d与距离d1之差。

具体请参阅图6,图6的数据由在教室场景下以一俯视角度θ安装的深度相机获得的原始深度数据以及旋转多个角度后的深度数据处理而来,其中所设定的横轴为h=20mm的范围单位,纵轴为点云数据点的个数,从该图中我们可以明显观察到点云数据具有两个峰值,而且其中一个峰值要大于另一个峰值,那么最大的峰值对应的就是地面的点,而第二大峰值对应的就是课桌桌面的点。同时不同旋转角度下的点云数据峰值的差别也比较大。

进一步的,针对教室场景的旋转角度θc计算方法除了采用前述针对普通场景下计算旋转角度θc的所有计算步骤之外,还需要计算与课桌桌面的点对应的占点云数据比例第二大的比例值q2。

具体的,针对教室场景计算地面与深度相机的垂直距离d及课桌与深度相机的垂直距离d1的实施例流程如图7所示,包括:

s710,将深度相机输出的深度图像数据中点云数据的坐标a(x,y,z),利用旋转矩阵t计算点的原坐标a绕深度相机横轴x旋转多个角度θr后的坐标d(x3,y3,z3)。

具体的,旋转矩阵t与步骤s100中的相同,并且该步骤可以参照步骤s100中所选用的旋转角度θr的范围以及精度单位δ1。

s720,统计同一旋转角度θr下点云数据的坐标值数据,将其按y3值的大小进行分类,并划定范围单位h,统计落在每一范围单位h内的点占点云数据的比例,将最大的比例值q及第二大的比例值q2列出。

该步骤同样可以参照步骤s200的具体实施方法。

请参阅图8,图8示出了以范围单位h=5mm为横轴,点云数据中点的个数为纵轴的教室场景下的深度数据统计图,图中点云数据的最高峰值很明显,但是第二峰值则是具有相近的几个值,因此在计算第二比例值q2时,为了防止因为范围单位h的值的大小或是数据获取上引发的误差,可以对统计数据做进一步的划分,具体的,在计算出比例值q后,计算第二比例值q2所选取的数据选定的范围应该落在比例值q所对应的范围之外再扩大一个m值,即当比例值q落入范围e的话,选取第二比例值q2的数据应当在e‐m至e+m之外选取。在计算课桌高度的背景下,m就可以设定为小于课桌高度的600mm。同时,m的值也可以根据所涉及的计算场景信息设定为其它值。

s730,将每个旋转角度θr的比例值q与q2相加得到j值,对比全部旋转角度θr的j值,将最大值jmax所对应的旋转角度θc列出。

具体的,计算旋转角度θc还可以通过比对比例值q,将最大比例值qmax对应的旋转角度θr选定为旋转角度θc,或是比对比例值q2,将最大比例值q2max对应的旋转角度θr选定为旋转角度θc。

同时这里的旋转角度θc也可以依据重复步骤s301~s304来对初步获得的旋转角度θc进一步的精调,区别点仅在于还需要计算第二大的比例值q2。

s740,根据旋转角度θc计算地面与深度相机的垂直距离d及课桌与深度相机的垂直距离d1。

如图9所示,接下来是计算地面与深度相机的垂直距离d及课桌与深度相机的垂直距离d1的具体步骤:

s741,将按旋转角度θc旋转后的点云数据按y3值的大小及范围单位h进行排序。

具体的,y3值排列的顺序可以是从小到大排列,也可以是从大到小排列。

s742,根据范围单位h、比例值q所落入的范围在大小排序中的位置值k、比例值q2所落入的范围在大小排序中的位置值k2以及点云数据所具有的最大或最小y3值来计算地面与深度相机的垂直距离d及课桌与深度相机的垂直距离d1。

具体的,当y3值按从大到小排序时,计算地面与深度相机的垂直距离d的公式为:d=h×k-y3max,计算课桌与深度相机的垂直距离d1的公式为:d1=h×k2-y3max,其中y3max为按旋转角度θc旋转后的点云数据中所具有的最大y3值。

此时课桌高度dt的计算公式为:dt=d-d1=h×k-h×k2。

当y3值按从小到大排序时,计算地面与深度相机的垂直距离d的公式为:d=-y3min-h×k,计算课桌与深度相机的垂直距离d1的公式为:d1=-y3min-h×k2,其中y3min为按旋转角度θc旋转后的点云数据中所具有的最小y3值。

此时课桌高度dt的计算公式为:dt=d-d1=h×k2-h×k。

进一步的,可以设定选用点的坐标y3值的最小值ymin及最大值ymax,此时y3max等于ymax,y3min等于ymin,其设定规范可以参考前述普通场景下步骤s200或s302中针对各自的坐标y值选定ymax及ymin的标准。

特别的,在一些场景中可能会存在课桌或其他场景平面为第一大面积而地面为第二大面积的情况存在,但课桌与地面平行,或是其他场景平面也与地面平行时,同样可以使用上述实施例中的计算方法,只需将最终距离的计算结果进行对比,两者之中较大的距离值为地面与深度相机的垂直距离d,而另一距离值为课桌或所述场景平面与深度相机的垂直距离。

在其他实施例中,当场景中的场景平面的深度信息可以被获取并且该场景平面与地面平行时,同样可以计算该场景平面与深度相机的垂直距离从而获得该场景平面的高度。具体的,根据所求场景平面面积与场景中其余场景平面面积的大小关系,计算出其所对应的比例值qp,如所求场景平面具有第三大的面积,那么其所对应的就是第三大的比例值q3。之后根据上述实施例中所记载的计算方法利用比例值qp计算该场景平面与深度相机的垂直距离d2以及该场景平面的高度dp。

在本发明的其它实施方式中,为了得到更精准的结果,可以在深度相机输出的深度图像数据中取3帧深度图像数据,并将这3帧深度图像数据中的点云数据叠加起来作为一组计算数据,重复同样的操作以获得多组计算数据,基于统计学的角度以多组数据来计算,得到的结果就会更精确。以20组计算数据为例,对这20组点云数据根据本发明提供的方法进行计算,在计算旋转角度θc时,我们就可以将20组数据得到旋转角度θc进行大小排列,并取其中值作为最终确定的旋转角度。在计算地面与深度相机的垂直距离d或课桌与深度相机的垂直距离d1时,也可以将20组数据得到d值或d1值进行统计并取中值作为最终结果。

如图10所示的一实施例,提供了一种深度相机相对位姿及场景平面高度计算装置800,该装置通过深度相机900获取包含有场景深度信息的深度图像数据,包括用于根据上述深度相机相对位姿及场景平面高度计算方法来处理深度图像数据的信息处理模块810及用于为该装置供电的电源模块820,电源模块820可以是电池。

信息处理模块810可以包括以下单元:

存储单元811:用于储存旋转角度θr的范围及精度单位δ1和范围单位h。

计算处理单元812:用于根据存储单元储存的信息对深度相机900输出的深度图像数据做处理,包括以下步骤:

计算深度相机900输出的深度图像数据中点云数据包含的所有点的坐标(x,y,z)绕深度相机900横轴x旋转多个角度θr后的坐标b(x1,y1,z1);

统计同一旋转角度θr点云数据的坐标值数据,按y1值的大小进行分类,并统计落在每一范围单位h内的点占点云数据的比例,将最大的比例值q及场景中所述场景平面面积的大小关系所对应的比例值qp列出;

将每个旋转角度θr的比例值q与qp相加得到f值,对比全部旋转角度θr的f值,将最大值fmax所对应的旋转角度θc列出。

计算处理单元812同样可以根据计算得出的旋转角度θc计算地面与深度相机的垂直距离d、所述场景平面与深度相机的垂直距离d2以及该场景平面的高度dp,其计算步骤包括:

将按旋转角度θc旋转后的点云数据按y1值的大小及范围单位h进行排序;

根据范围单位h、比例值q所落入的范围在大小排序中的位置值k、比例值qp所落入的范围在大小排序中的位置值kp以及点云数据所具有的最大或最小y1值来计算所述地面与深度相机的垂直距离d、所述场景平面与深度相机的垂直距离d2及所述场景平面高度dp。

具体的,深度相机900包括可以获取场景深度信息的深度摄像头,这些深度摄像头所采用的技术包括但不限于结构光编码法、双目视觉法以及飞行时间法这三种技术之一或其融合,信息处理模块810可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,本领域的技术人员可以清楚的了解并以上述两种方式来实现信息处理模块810的相应功能。

应当理解的是,以上优选实施例仅用以说明本发明的技术方案,而非用以限定,对本领域技术人员来说,可以对上述优选实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而所有这些修改和替换,都应属于本发明所附权利要求的保护范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1