基于深度相机和基本姿势的人体行为识别方法及装置与流程

文档序号:14992077发布日期:2018-07-20 22:27阅读:410来源:国知局

本发明涉及人机交互技术领域,特别涉及一种基于深度相机和基本姿势的人体行为识别方法及装置。



背景技术:

随着计算机视觉技术的发展,以及卷积神经网络的出现,计算机对于多类物体静态识别的准确率和速度不断改善,计算机对于自然世界的有了一定的理解能力。同时对于序列任务,包括语音识别技术和语言翻译等一些具有明显时间尺度的识别问题,长短时记忆网络取得了良好的效果,原因就是它能够将历史的信息存入到细胞单元中,随着时间尺度的增长,该网络结构依然保存着相对完整的历史记忆,从而实现良好的识别效果。

然而对于视频的人体行为识别还没有取得良好的效果,目前主要有两种的主流方法,一类是基于rgb图像的,除了利用图片二维信息,加上时间尺度,利用3d卷积神经网络的方法来识别物体,但是该类方法,具有训练速度慢,易受环境背景影响等缺点,效果不是很理想;另外一种方法,主要思想侧重于降维,采用的工具是深度相机,由于深度相机可以捕捉深度信息,可以更好的描述人体的空间运动信息,因为基于视频的人体行为识别,主要的动作部位还是人体,在该类别中,首先将人进行定位,再将人的关键点部分进行提取,人体的关节运动基本是由身体的关键点决定的,这样利用关键点随着时间序列运动的信息能够很理想的将人体的动作描述成序列信息。

然而,对于视频中的人体行为理解仍然有很大的难点,其中之一就是视角可能会跟随拍摄位置活着人体相对于相机的角度发生变化,比如一种走路可能有不同的角度这些对于训练集是必要的,这会带来一个庞大数据库的问题,而且针对于每一个动作,不同的人体会对于完成的时间有着个体的差异。



技术实现要素:

本发明旨在至少在一定程度上解决相关技术中的技术问题之一。

为此,本发明的一个目的在于提出一种基于深度相机和基本姿势的人体行为识别方法,该方法可以减少识别目标动作快慢不同及动作不标准带来的干扰,能够保持识别视角不变,提高人体行为识别的鲁棒性。

本发明的另一个目的在于提出一种基于深度相机和基本姿势的人体行为识别装置。

为达到上述目的,本发明一方面实施例提出了一种基于深度相机和基本姿势的人体行为识别方法,包括:通过深度相机检测人体行为的图像,并提取关键点信息;根据输入的所述图像进行人体三维结构的重建,以保证视角不变性;将重建后的人体三维数据进行关键部位的姿势的识别和相应的特征提取,以得到姿势特征描述集的时间序列;根据所述特征描述集的时间序列与预先训练的特征描述集进行匹配,以得到基本姿势的初始时间描述序列;去除所述初始时间描述序列的重复信息,以得到最终时间描述序列;以及将所述最终时间描述序列输入到预先训练好的长短时记忆网络以进行人体的行为识别,以得到识别结果。

本发明实施例的基于深度相机和基本姿势的人体行为识别方法,在根据人体行为的图像提取得到关键点信息之后,可以进行人体三维结构的重建,从而保证视角不变性,有效减少数据库的构建,并且通过关键部位的姿势的识别和相应的特征提取得到姿势特征描述集的时间序列,以得到最终时间描述序列,进而输入到预先训练好的长短时记忆网络,得到识别结果,有效避免个体完成动作的快慢影响识别结果,提高识别的准确性和可靠性,以及有效去除噪音动作,大大提高了识别结果的鲁棒性。

另外,根据本发明上述实施例的基于深度相机和基本姿势的人体行为识别方法还可以具有以下附加的技术特征:

进一步地,在本发明的一个实施例中,在通过深度相机检测人体行为的图像之前,还包括:从数据库中采集训练集和测试集;将所述训练集的视频数据进行逐帧分解,并且每一帧对人体进行3d位置矫正,使得视角保持不变,获取一个满足预设条件的人体3d模型;对所述人体3d模型进行分割,以将人体的不同部位分割成多个部分,并进行基本姿势的聚类操作和相应的特征提取,并去除动作的冗余信息;通过长短时记忆网络结构对采集到的行为识别数据进行识别,以得到所述训练好的长短时记忆网络。

进一步地,在本发明的一个实施例中,所述每一帧对人体进行3d位置矫正,进一步包括:以髋关节的三个点形成的平面为中心进行计算,根据身体其他的关节点相对于所述髋关节的距离和角度重新校正为躯体正对所述深度相机的摄像头的角度。

可选地,在本发明的一个实施例中,所述多个部分包括头部、双臂、双腿、上半身与下半身所呈的角度以及重心。

进一步地,在本发明的一个实施例中,所述将所述最终时间描述序列输入到预先训练好的长短时记忆网络以进行人体的行为识别,进一步包括:通过所述长短时记忆网络运用不同帧之间的相关顺序信息区分同一种基本姿势在不同动作。

为达到上述目的,本发明另一方面实施例提出了一种基于深度相机和基本姿势的人体行为识别装置,包括:检测模块,用于通过深度相机检测人体行为的图像,并提取关键点信息;重建模块,用于根据输入的所述图像进行人体三维结构的重建,以保证视角不变性;提取模块,用于将重建后的人体三维数据进行关键部位的姿势的识别和相应的特征提取,以得到姿势特征描述集的时间序列;匹配模块,用于根据所述特征描述集的时间序列与预先训练的特征描述集进行匹配,以得到基本姿势的初始时间描述序列;去除模块,用于去除所述初始时间描述序列的重复信息,以得到最终时间描述序列;识别模块,用于将所述最终时间描述序列输入到预先训练好的长短时记忆网络以进行人体的行为识别,以得到识别结果。

本发明实施例的基于深度相机和基本姿势的人体行为识别装置,在根据人体行为的图像提取得到关键点信息之后,可以进行人体三维结构的重建,从而保证视角不变性,有效减少数据库的构建,并且通过关键部位的姿势的识别和相应的特征提取得到姿势特征描述集的时间序列,以得到最终时间描述序列,进而输入到预先训练好的长短时记忆网络,得到识别结果,有效避免个体完成动作的快慢影响识别结果,提高识别的准确性和可靠性,以及有效去除噪音动作,大大提高了识别结果的鲁棒性。

另外,根据本发明上述实施例的基于深度相机和基本姿势的人体行为识别装置还可以具有以下附加的技术特征:

进一步地,在本发明的一个实施例中,在通过深度相机检测人体行为的图像之前,还包括:从数据库中采集训练集和测试集;将所述训练集的视频数据进行逐帧分解,并且每一帧对人体进行3d位置矫正,使得视角保持不变,获取一个满足预设条件的人体3d模型;对所述人体3d模型进行分割,以将人体的不同部位分割成多个部分,并进行基本姿势的聚类操作和相应的特征提取,并去除动作的冗余信息;通过长短时记忆网络结构对采集到的行为识别数据进行识别,以得到所述训练好的长短时记忆网络。

进一步地,在本发明的一个实施例中,所述每一帧对人体进行3d位置矫正,进一步包括:以髋关节的三个点形成的平面为中心进行计算,根据身体其他的关节点相对于所述髋关节的距离和角度重新校正为躯体正对所述深度相机的摄像头的角度。

可选地,在本发明的一个实施例中,所述多个部分包括头部、头部、双臂、双腿、上半身与下半身所呈的角度以及重心。

进一步地,在本发明的一个实施例中,所述将所述最终时间描述序列输入到预先训练好的长短时记忆网络以进行人体的行为识别,进一步包括:通过所述长短时记忆网络运用不同帧之间的相关顺序信息区分同一种基本姿势在不同动作。

本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。

附图说明

本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:

图1是本发明实施例的基于深度相机和基本姿势的人体行为识别方法的流程图;

图2是本发明一个实施例的基于深度相机和基本姿势的人体行为识别方法的流程图;

图3是本发明一个实施例的人体关键点的示意图;

图4是本发明一个实施例中任意关节点与髋关节平面的矫正示意图;

图5是本发明一个实施例中离线训练阶段的人体模型的矫正例子模型示意图;

图6是本发明一个实施例中去除冗余信息的流程图;

图7是本发明一个实施例中腿部基本姿势示意图;

图8是本发明一个实施例中长短时记忆网络的结构示意图;和

图9是本发明实施例的基于深度相机和基本姿势的人体行为识别装置的结构示意图。

具体实施方式

下面详细描述本发明的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。

下面参照附图描述根据本发明实施例提出的基于深度相机和基本姿势的人体行为识别方法及装置,首先将参照附图描述根据本发明实施例提出的基于深度相机和基本姿势的人体行为识别方法。

图1是本发明一个实施例的基于深度相机和基本姿势的人体行为识别方法的流程图。如图1所示,该基于深度相机和基本姿势的人体行为识别方法包括以下步骤:

在步骤s1中,通过深度相机检测人体行为的图像,并提取关键点信息。

可以理解的是,本发明实施例首先可以为识别的数据库进行数据采集,其中,采集数据为本实施例对人力行为信息分类的22个关键点的信息,下面会进行详细解释。

在步骤s2中,根据输入的图像进行人体三维结构的重建,以保证视角不变性。

具体来说,将收集到的数据进行划分为训练集和测试集,并将训练集的视频数据进行逐帧的分解,每一帧对人体进行3d位置的矫正,矫正到正对相机的统一视角,同时做好归一化操作,通过该预处理操作步骤从而实现视角不变的基本目标,得到一个规范的人体3d模型。

需要说明的是,保证视角不变性可以有效减少数据库的构建,更加方便快捷。

在步骤s3中,将重建后的人体三维数据进行关键部位的姿势的识别和相应的特征提取,以得到姿势特征描述集的时间序列。

举例而言,本发明实施例对于得到的3d模型进行分割,其中,将人体的不同部位可以分割成7个部分,并进行基本姿势的聚类操作和相应的特征提取,得到姿势特征描述集的时间序列。

在步骤s4中,根据特征描述集的时间序列与预先训练的特征描述集进行匹配,以得到基本姿势的初始时间描述序列。

可选地,基本姿势的初始时间描述序列可以包括运动对象的种类,基本姿势的数目,各种对象的类内变化等。

在步骤s5中,去除初始时间描述序列的重复信息,以得到最终时间描述序列。

具体来说,对采集到的动作进行冗余信息的去除,从而克服同一个动作时间尺度的影响,减小被识别者动作快慢不一和动作不标准对识别的影响,增加其鲁棒性。

在步骤s6中,将最终时间描述序列输入到预先训练好的长短时记忆网络以进行人体的行为识别,以得到识别结果。

在具体示例中,采集到的行为识别数据进行识别,采用的是长短时记忆网络结构,该网络结构对于时间序列具有良好的效果。

结合图2本发明一个实施例的基于深度相机和基本姿势的人体行为识别方法的算法流程图具体介绍该方法的步骤。如图2所示,该方法可以分为两个阶段:离线训练阶段和在线识别阶段。首先,对在线识别步骤进行详细解释。在本发明的实施例中,在线识别阶段步骤包括:

步骤s201:数据采集和制作。

在具体示例中,利用kinect或者其他深度相机进行数据库的制作,其中在数据库制作的过程中,尽可能包含多个角度,并且对于不同身高的人群,不同性别的人进行等比例的划分,确保样本数据库制作的合理性;并且将数据集和测试集按照一定比例分开,实施例中采取的比例为4:1,如果想丰富训练样本集合比例和相应调高。

步骤s202:关键点的规范化操作。

在具体示例中,由于人体存在身高胖瘦差异以及人体所在视频中的位置存在一定的不确定性,需要对人体首先进行对齐操作,该操作可以采取如下两种方式。

方式一:对于人体在视频序列中出现的3维坐标出现的最小值先进行求值,然后将原关键点坐标减掉最小的关键点坐标,进行规范化,如公式所示其中,xnew表示的新的坐标,y和z依次类推。

方式二:除了进行简单的归一,本发明实施例还可以将人体的大小固定到一个统一的范围,做一次拉伸变换,k表示拉伸系数,如果3个k等于1,则表示x,y,z的范围都是0-1之间,例如还可以规范到100*100*100,则可取所有的k等于100,这样就克服了身高胖瘦所产生的数据大小的不一致性的缺点,一种理想情况可以按照人体的比例来取值,比如x,y,z对应的k分别是50,170,20,这样的比例更加符合人体结构,有利于后期提取更理想的特征。具体公式如下:

xmax=argmax{x1,x2,...},xmin=argmin{x1,x2,...};

ymax=argmax{y1,y2,...},xmin=argmin{y1,y2,...};

zmax=argmax{z1,z2,...},zmin=argmin{z1,z2,...};

xnew=xorig-xmin,ynew=yorig-ymin,znew=zorig-zmin;

步骤s203:特征提取操作。

在具体示例中,本发明需要建立人体行为在每一帧的描述特征集,需要采集与处理后和矫正之后的信息,包含了训练集中每一帧的信息,本发明中将人体的分为7个部分:双手和双脚的空间信息、头部的方向信息、上半身躯干部分下半身的角度信息;和身体的重心位置。

图3为本发明实施例的人体关键点示意图,结合图3介绍图中划分的22个关键点进行说明。

针对于双手和双脚的空间信息的特征可以采取两种方案:

1、直接采用空间曲线聚类的方式进行。本发明实施例可以定义关键点的欧式距离,按照曲线在三维空间的位置进行接下来的聚类操作。

2、手动选取距离(包括点线距,点面距,面面距等),角度(包括面面角,线面角,线线角等)等特征,具体如下:

其中,双手和双脚的空间信息的特征可以取相应的角度特征如图3所示。关键点3和4的角度,关键点4和5的角度和关键点5和6的角度作为特征,关键点5与关键点11的距离,表示右臂的状态,同理,关键点9到关键点11的距离表示另左臂的状态,面面角可以采用关键点3、4、5与髋关节的关键点12、13、14形成平面的角度来表示其中的一种特征。

例如,腿部的特征可以用关键点13,关键点15点的角度,关键点15,关键点16的角度,关键点16,关键点17的角度特征来表示。

又例如,头部的方向信息包括两类,简单的说就是转动头部或者俯仰头部的上下左右角度。其中,本发明实施例可以分别用以下两种方式表示:

1、关键点1与关键点2和关键点11构成线的角度表示左右转动头部的特征。

2、关键点1、21、22构成的平面与髋关节平面(关键点12、13、14构成的角度)面面角表述头部的俯仰信息。

针对于躯干的信息,本发明实施例采用关键点2、11构成的线与髋关节平面构成的角度表示上半身和下半身所构成特征角度,比如鞠躬可以该角度可以0-90°之间。

身体的重心位置可以表述成未归一化之前的髋的部分和身体呈现的角度,计算如下,比如人躺在床上的重心可以用近似0度表示,而站立的过程中重心角度为90度。

具体来说,一般情况下,对同一个动作,由于相机是固定的,个体在做动作的时候,对于人体的平面和相机的相对位置具有一定的差异性,本发明实施例针对这一差异性,首先做了一个矫正工作,如图4所示,在人体所有的关键点中,髋关节构成的平面中,a,b,c为髋关节构成的一个平面,d可以设为任意一点相对于该平面的位置,那么该点相对于平面有个距离,定义为+h或者-h,其中的正负号表示相对于髋关节点构成平面的前和后,比如人在走路时脚踝的位置可能在髋关节的前面或者后面交替出现,在人体的关键点中,人体的行为动作,针对于两个髋关节所形成的平面中差异变化较小,可以选取该部分作为参考点,身体其他部位的参考点,可以根据该位置进行矫正工作,具体就是计算其他肢体关键点的与该平面的距离和角度和方位信息。在本发明的一个具体实施例中,计算过程可以如下:

设点d的坐标为(x0,y0,z0);

设平面方程:

ax+by+cz+d=0;

设平面abc的法向量为v;

计算距离为:

对于面面角公式,设平面dab的法向量为p,则计算公式如下:

同理平面acd和平面abc的面面角也可求,通过距离和两个面面角可唯一确定了点d的空间位置。

进一步地,由于人体相对于相机的运动,特别是当出现侧身等情形时,通过将髋关节矫正为相对于镜头是90°的角度,其他的关键点相对于髋关节构成的平面abc均已知,三个点,三个条件,可以求解其他关键点在矫正之后的位置。

如图5所示,通过矫正后的人体行为会变得标准化。

步骤s204:基本姿势的聚类。

在具体示例中,在该步骤中,将所有的训练的集的视频拆分成时间序列的图片,将上述提取的特征进行聚类操作,在聚类的方法中,一般要考虑到两个因素,第一个是划分成类的数目,第二个就是计算类之间距离的方式,常用的有欧式距离,,如可以采取k-means聚类方法。

对于四肢聚类基本姿势的聚类方法如下:

分解训练集中各类动作中的肢体序列,规定好划分好的k类,指定好参数,选择好k个初始的特征信息,设为c1到ck;

对于其他的数据分别计算距离公式,距离的远近归为第k类;

对于标记为第k类的数据,重新计算在该类中所有数据的中心,选择该中心为数据的聚类中心点,重复以上步骤,知道数据改变的变化小于给定的阈值,聚类后产生的效果如图7所示。

步骤s205:行为时间序列描述集合。

在具体示例中,在上述的步骤中,可以获得的基本姿势的描述袋,其中包括重心位置,四肢的描述,躯干角度,以及头部姿态的7种描述状态;将训练集中的每一类动作可以在该基本的描述带中,获得一个基于时间序列的基本姿势描述集;对于获得的每一类动作的时间序列描述集合存在着重复的序列。图6为本发明实施例中去除冗余信息的示意图,如图6所示,人在走路的过程中,由于时间的快慢会存在一些重复的序列。需要将这些重复的序列进行去除,例如腿部在走路过程中获得的特征描述为1,1,2,3,4,4,5,5,5等,需要将其归一化为1,2,3,4,5。这样就去除了在特征描述中由于个体的差异和时间采样快慢导致的数据集差异问题,从而减少了构建数据库的构建过程。

步骤s206:长短时间记忆网络模型。

图8为本发明实施例中长短时记忆网络的示意图,上述步骤中已经获得了每种动作的时间序列描述集,通过构建lstm网络,利用该网络的记忆效应很好的区分随时间序列变化的信息。最终时间描述序列输入到预先训练好的长短时记忆网络以进行人体的行为识别,进一步包括:通过长短时记忆网络运用不同帧之间的相关顺序信息区分同一种基本姿势在不同动作。

进一步地,接下来对在线识别步骤进行详细解释。在本发明的实施例中,在线识别阶段步骤包括:

步骤s207:实时采集3d关键点,具体方法和离线训练阶段关键点采集方法相同。

步骤s208:关键点预处理和3d矫正。

步骤s209:特征提取。

步骤s210:行为时间描述序列。

步骤s211:识别。利用离线阶段训练完成的网络结构进行直接的行为识别。采用的双网络进行识别过程,第一个网络的目的是识别网络,目标是可以得到一个识别出多种基本姿势的一个序列集合,并且这个序列集合去除了多余的冗余信息,从而有效克服了同一个动作,不同的人完成的时间不同的差异,这样从而减少了数据库的构建,第二个网络就是一个典型的分类器网络,利用离线用训练好的数据进行识别操作。

步骤s212:后处理。对识别结果进行进一步处理。

步骤s213:显示识别结果。将识别结果显示出来,可在显示器中显示。

本发明实施例的基于深度相机和基本姿势的人体行为识别方法,在根据人体行为的图像提取得到关键点信息之后,可以进行人体三维结构的重建,从而保证视角不变性,有效减少数据库的构建,并且通过关键部位的姿势的识别和相应的特征提取得到姿势特征描述集的时间序列,以得到最终时间描述序列,进而输入到预先训练好的长短时记忆网络,得到识别结果,有效避免个体完成动作的快慢影响识别结果,提高识别的准确性和可靠性,以及有效去除噪音动作,大大提高了识别结果的鲁棒性。

其次参照附图描述根据本发明实施例提出的基于深度相机和基本姿势的人体行为识别装置。

图9是本发明实施例的本发明实施例的基于深度相机和基本姿势的人体行为识别装置的结构示意图。

如图9所示,该基于深度相机和基本姿势的人体行为识别装置10,包括:检测模块901、重建模块902、提取模块903、匹配模块904、去除模块905和识别模块906。

其中,检测模块901,用于通过深度相机检测人体行为的图像,并提取关键点信息。

重建模块902,用于根据输入的图像进行人体三维结构的重建,以保证视角不变性;

提取模块903,用于将重建后的人体三维数据进行关键部位的姿势的识别和相应的特征提取,以得到姿势特征描述集的时间序列;

匹配模块904,用于根据特征描述集的时间序列与预先训练的特征描述集进行匹配,以得到基本姿势的初始时间描述序列;

去除模块905,用于去除初始时间描述序列的重复信息,以得到最终时间描述序列;

识别模块906,用于将最终时间描述序列输入到预先训练好的长短时记忆网络以进行人体的行为识别,以得到识别结果。

在具体实施例中,基于深度相机和基本姿势的人体行为识别装置还包括:采集模块,用于从数据库中采集训练集和测试集;分解模块,用于将训练集的视频数据进行逐帧分解,并且每一帧对人体进行3d位置矫正,使得视角保持不变,获取一个满足预设条件的人体3d模型;分割模块,用于对人体3d模型进行分割,以将人体的不同部位分割成多个部分,并进行基本姿势的聚类操作和相应的特征提取,并去除动作的冗余信息,其中,多个部分包括头部、双臂、双腿、上半身与下半身所呈的角度以及重心;训练模块,用于通过长短时记忆网络结构对采集到的行为识别数据进行识别,以得到训练好的长短时记忆网络。

在具体实施例中分,解模块进一步用于:以髋关节的三个点形成的平面为中心进行计算,根据身体其他的关节点相对于髋关节的距离和角度重新校正为躯体正对深度相机的摄像头的角度。

在具体实施例中训练模块进一步用于:通过长短时记忆网络运用不同帧之间的相关顺序信息区分同一种基本姿势在不同动作。

需要说明的是,前述对基于深度相机和基本姿势的人体行为识别方法实施例的解释说明也适用于该实施例基于深度相机和基本姿势的人体行为识别的装置,此处不再赘述。

本发明实施例的基于深度相机和基本姿势的人体行为识别装置,在根据人体行为的图像提取得到关键点信息之后,可以进行人体三维结构的重建,从而保证视角不变性,有效减少数据库的构建,并且通过关键部位的姿势的识别和相应的特征提取得到姿势特征描述集的时间序列,以得到最终时间描述序列,进而输入到预先训练好的长短时记忆网络,得到识别结果,有效避免个体完成动作的快慢影响识别结果,提高识别的准确性和可靠性,以及有效去除噪音动作,大大提高了识别结果的鲁棒性。

在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。

此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。

在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。

在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。

在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。

尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1