一种自下而上改进的视频动作分割网络及其分割方法

文档序号:29473675发布日期:2022-04-02 06:08阅读:401来源:国知局
一种自下而上改进的视频动作分割网络及其分割方法

1.本发明涉及视频动作识别与分析技术领域,更具体的说,特别涉及一种自下而上改进的视频动作分割网络及其分割方法。


背景技术:

2.现有视频动作分割方法大致可以分为两类:基于滑动窗口的方法和基于小视频片段的时间建模方法。虽然这两类方法均取得了不错的效果,但算法效率相对较低,且需要大量的计算资源,尤其是在处理较长时长的视频时。近年来,研究人员提出了时间卷积网络(tcn),该网络不仅效率较高、占用内存较少,而且可以有效地对长视频中的时间依赖关系进行建模。鉴于tcn的优越性,许多基于tcn提出的视频动作分割方法备受关注。多阶段时间卷积网络(ms-tcn)就是一种典型的基于tcn提出的视频动作分割网络,该网络具有非常好的性能,目前已成为视频动作分割领域中一种被广泛使用的骨干网络。
3.ms-tcn网络由一系列空洞一维卷积、残差连接和损失函数组成,该网络可以用少量参数扩展时间感受野,并可以对视频的全时序信息进行建模。ms-tcn以及其他基于tcn提出的视频动作分割方法通常可以获得较满意的结果,但这些方法仍然存在两个问题:分割结果中容易出现过度分割和模糊边界。过度分割是指错误的分割结果出现在某个动作片段内(如图1中(b)所示),其一般是由于某个动作片段内的视觉特征变化与另一个动作片段内的视觉特征变化过于相似,而导致了网络模型对该动作片段内某些帧的类别的错误判断。模糊边界是指错误的分割结果发生在某个动作片段的开始或结束处(如图1(d)所示),这通常是由于两个相邻动作片段之间的动作边界处的视觉特征变化太小引起的(例如,两个动作片段相邻的边界上的帧的标签突然从“加油”变为“加醋”,但这两个动作边界处的帧的视觉特征变化很小,导致动作类别很难判断,如图1中(d)所示)。而过度分割和模糊边界均为视频中难以被正确分类的帧所导致,可以统一称为模糊帧问题。现有技术存在不足。


技术实现要素:

4.本发明的目的在于针对现有技术存在的技术问题,提供一种自下而上改进的视频动作分割网络及其分割方法,能够提高视频中模糊帧的识别准确率。
5.为了解决以上提出的问题,本发明采用的技术方案为:
6.一种自下而上改进的视频动作分割网络,包括多阶段时间卷积网络,其中每个阶段由顺序连接的多层空洞一维卷积、残差连接和损失函数组成;所述空洞一维卷积之前还包括可分离和共享卷积;同时,在第一阶段中,残差连接后还包括自适应时间融合模块;
7.所述自适应时间融合模块由:内核大小为1的一维卷积、修正线性单元激活函数、内核大小为3的一维卷积和s型激活函数顺序连接构成;所述自适应时间融合模块的输出与所述损失函数连接。
8.为了解决以上提出的问题,本发明还提供:
9.一种应用于如上任一项所述视频动作分割网络的视频动作分割方法,包括以下步
骤:
10.s1.将多阶段时间卷积网络中空洞一维卷积前加入可分离和共享卷积;
11.s2.在多阶段时间卷积网络的第一阶段中残差连接后插入一个自适应时间融合模块;
12.s4.将视频输入改进后的多阶段时间卷积网络进行视频动作分割,输出分割结果。
13.与现有技术相比,本发明的有益效果在于:
14.本发明是针对视频动作分割进行了自下而上改进的一种深度学习网络,在多阶段时间卷积网络的基础上,自下而上的先加入可分离和共享卷积改进每一层空洞一维卷积,增加输入单元之间的依赖关系,再在残差连接后加入自适应时间融合模块。通过引入一种注意力机制来自适应加权网络不同层的时间上下文特征,从而减少无效高频信号的传输,提高多尺度时间上下文特征融合的有效性,提高每一帧的可识别性,减少模糊帧的出现。有效的避免空洞卷积和残差连接导致的时间网格伪影问题。使本发明可广泛应用于视频动作的识别与分类任务中,也可以为其他视频处理任务提供借鉴与支持。因此,本发明改进的多阶段时间卷积网络及采用其的视频动作分割方法具有良好的图像动作识别性能,也进一步提高了视频行为识别的有效性和智能化水平。
附图说明
15.图1为现有技术中存在模糊帧问题的示意图。
16.图2为本发明所采用的自下而上改进的多阶段时间卷积网络的结构图。
17.图3为本发明对现有空洞一维卷积进行改进的结构示意图。
18.图4为本发明对现有残差连接进行改进的结构示意图。
19.图5为本发明改进的网络在三个数据集上的视频动作分割结果视图;
20.图6为本发明视频动作分割方法流程框图;
21.图7为可分离卷积与可分离和共享卷积的对比示意图;
22.图8为空洞一维卷积与平滑空洞一维卷积的特征处理过程对比示意图。
具体实施方式
23.为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的较佳实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容的理解更加透彻全面。
24.除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
25.在本发明中,认为多阶段时间卷积网络(ms-tcn)中,从空洞一维卷积的卷积核到网络层,再到损失函数,这是一种自下而上的网络结构顺序,而本发明提出的方法就是从这个自下而上的三个方面分别进行改进去解决模糊帧问题。
26.参阅图2-4所示,本发明提供一种自下而上改进的视频动作分割网络,包括多阶段时间卷积网络,其中每个阶段由顺序连接的多层空洞一维卷积、残差连接和损失函数组成;
空洞一维卷积之前还包括可分离和共享卷积;同时,在第一阶段中,残差连接后还包括自适应时间融合模块。
27.具体的,加入可分离和共享卷积是本技术对现有多阶段时间卷积网络的改进之一,即在原有空洞一维卷积操作前进行“可分离”和“共享”操作来对后续的空洞一维卷积进行平滑,这种改进后的结构构成了平滑空洞一维卷积。加入“可分离”和“共享”操作的有益效果是使得网络可以先增强局部时间特征之间的依赖关系,然后再进行空洞一维卷积操作,从而减轻时间网格伪影问题。
28.进一步的,本发明对现有原有空洞一维卷积的改进如附图7-8所示。附图7示出了可分离和共享的具体操作。(a)部分是可分离卷积;(b)部分是可分离和共享卷积。附图7中,ch_i表示第i个通道(i=1、2、3、4),t=5表示每个通道有5帧图像输入。
29.附图8示出了平滑空洞一维卷积的特征处理过程。(a)部分采用核大小为3,膨胀率为2的空洞一维卷积处理输入特征(5帧,4通道);(b)部分利用平滑空洞一维卷积(平滑空洞一维卷积包含额外的可分离和共享卷积操作)来处理相同的输入特征。ch_i表示第i个通道(i=1、2、3、4),t=5表示每个通道有5帧图像。
30.在具体实施例中,如附图7所示,以4个特征通道的输入和输出为例,可分离卷积操作利用4个不同的一维卷积分别处理每个通道,而可分离和共享卷积操作利用1个一维卷积处理所有通道,即所有通道共享同一个一维卷积。
31.在附图8中,空洞一维卷积中的白色方块表示在卷积滤波器中,该位置的值为0,这意味着在使用空洞一维卷积处理输入特征时,将不计算这些白色方块所覆盖的输入特征。因此,输出特征会丢失一些局部时间信息。
32.例如,如附图8的(a)部分所示,虚线圆圈所标记的输出特征不包含任何来自虚线六边形所标记的那个位置的输入特征的信息。这是因为当使用空洞一维卷积对输入特征进行处理得到虚线圆圈所标记位置的输出特征时,虚线六边形所标记的位置被0覆盖,不参与卷积运算。
33.为了避免丢失局部时间信息,本发明在空洞一维卷积之前增加了可分离和共享的卷积运算,形成了我们提出的平滑空洞一维卷积。如附图8的(b)部分所示,本发明同样以虚线六边形所标记位置的输入特征为例,由于输入特征首先经过卷积核大小为3的可分离和共享卷积处理,因此该位置的特征信息将被平滑地转移到虚线正方形所标记位置的那个中间输出特征上。然后,再利用空洞一维卷积(与附图8的(a)部分中的空洞一维卷积相同)对中间输出特征进行进一步处理,得到最终输出特征。
34.此时,虚线圆圈所标记位置的输出特征包含了虚线六边形所标记位置的特征信息,因为虚线正方形所标记的特征起到了信息传递的作用。即利用平滑空洞一维卷积时,参与卷积运算的非零位置的特征包含了相邻的零位置的局部时间信息,从而有效地避免了特征提取时局部时间信息的丢失。
35.自适应时间融合模块由:内核大小为1的一维卷积、修正线性单元激活函数、内核大小为3的一维卷积和s型激活函数顺序连接构成;自适应时间融合模块的输出与损失函数连接。
36.具体的,网格伪影的存在导致局部时间信息的丢失和远程时间信息缺乏相关性,从而引起模糊帧问题。而现有多阶段时间卷积网络中每一层的空洞一维卷积操作会都产生
时间网格伪影。本技术则以可分离和共享卷积进行的平滑操作来在空洞一维卷积操作之前先处理特征,以保持空洞一维卷积操作的感受野在指数扩展的同时不会损失分辨率或覆盖范围。
37.同时,现有多阶段时间卷积网络中残差连接将前一层的高频信号向后传递,导致时间网格伪影问题更加严重。本技术在残差连接后加入自适应时间融合模块不仅可以自适应地对不同尺度的时间信息加权,来有效地整合多尺度时间上下文信息,也可以减轻残差连接所带来的时间网格伪影问题。
38.在具体实施时,自适应时间融合模块由以下公式表达:
39.on=fn(o
n-1
)
40.h(x)=e(g(o1,o2,...,on),n∈n)
41.其中,x是多阶段时间卷积网络的最初输入信息,o0=x,on表示第n层空洞一维卷积的输出,fn表示第n层的卷积操作;h代表自适应时间融合模块的输出结果,e代表自适应加权融合算子,g代表级联算子,n代表空洞一维卷积层的层数;所有尺度的时间特征(o1,o2,...,on)的大小均为(p
×
q),p表示特征通道数,q表示帧数。
42.具体的,该公式代表的自适应时间融合模块可以自适应加权网络不同层的时间上下文特征,从而减少无效高频信号的传输,提高多尺度时间上下文特征融合的有效性,有效的减少残差连接导致的时间网格伪影问题,提高每一帧的可识别性,减少模糊帧的出现。
43.本技术所提出的多阶段时间卷积网络中利用了上述公式所定义的自适应时间融合模块,该模块可以自适应地对不同尺度的时间信息加权,进而有效地整合多尺度时间上下文信息,籍此有效的减轻残差连接所带来的时间网格伪影问题。
44.进一步的,空洞一维卷积具有大小为k的滤波器w;其在位置i处的输出z定义为:
[0045][0046]
其中,f表示一维输入,r表示膨胀率;当r=1时,空洞一维卷积退化为标准的一维卷积;
[0047]
空洞一维卷积为在w的两个相邻权重之间插入r-1个零;其感受野为r*(k-1)+1;
[0048]
可分离和共享卷积的内核大小为(2r-1)。
[0049]
进一步的,可分离和共享的所有通道的卷积权重是共享的,其参数为与通道数无关的常数参数,大小设置为(2r-1)。
[0050]
由此,通过对空洞一维卷积和残差连接的改进,本发明从网格结构的角度解决模糊帧问题。且可分离和共享卷积所进行的平滑操作(包括“可分离”和“共享”)过程中,只有一个与通道数无关的常数参数,其大小为(2r-1),因此,增加的计算成本可以忽略不计。而自适应时间融合模块是即插即用的,附加参数很少,不会增加太多的计算成本。因此,不会导致网络模型的计算量有显著增加,却可以有效提升多阶段时间卷积网络对视频帧的识别效率,减少模糊帧的出现概率。
[0051]
在具体实施中,长视频中模糊帧(较难分类的样本)的数量通常远小于信息帧(较易分类的样本)的数量。这种样本数量不平衡会导致动作分割网络在训练过程中对模糊帧的学习不够充分,从而降低网络的分割性能。例如,ms-tcn网络的损失函数在网络训练过程中对所有样本一视同仁,其忽略了模糊帧和信息帧样本数量不平衡的问题。因此,ms-tcn是基于大量的信息帧的特征来优化网络参数,即信息帧的特征将主导优化过程中的梯度方
向,导致网络快速收敛到一个局部最优解。而此局部最优解通常能将信息帧正确分类,但其很难将模糊帧正确分类。为了解决这个问题本发明还从样本不平衡角度来解决模糊帧的问题。
[0052]
具体的,损失函数包括交叉熵损失以及平滑损失;损失函数与焦点损失函数融合为新的损失函数,通过重塑标准交叉熵损失来降低信息帧样本的权重,并增大模糊帧样本的权重,以将网络的训练快速聚焦到模糊帧上。
[0053]
进一步的,焦点损失函数形式如下:
[0054]
l
fl
=-α(1-y
t,c
)
γ
log(y
t,c
)
[0055]
其中,y
t,c
表示带有真实标签c的帧在时间t被正确分类的概率,t=1,2,

,t,t表示视频的总长度,c=1,2,

,c,c表示动作类别的总数量;α代表难以分类的模糊帧样本的比例,γ是用来调整样本权重变化的参数;当γ=0时,l
fl
等价于l
cls
;l
cls
为多阶段时间卷积网络中的原有的交叉熵损失;γ设置为2。
[0056]
进一步的,焦点损失函数与原有的交叉熵损失以及平滑损失进行融合得到新的损失函数;形式如下:
[0057]
l=l
cls
+λl
t-mse
+l
fl
[0058]
其中,λ为组合系数,l
cls
代表多阶段时间卷积网络中的交叉熵损失;l
t-mse
代表多阶段时间卷积网络中的平滑损失。
[0059]
具体的,在原始的ms-tcn中采用的是l
cls
和l
t-mse
的组合,而本技术相对于原ms-tcn的改进在于,本技术采用的是l
cls
、l
t-mse
和l
fl
的组合。通过此公式引入焦点损失作为本发明的提出的网络的最终损失函数(新的损失函数),该融合后的新的损失函数可以通过重塑标准交叉熵损失来降低信息帧样本的权重,并增大模糊帧样本的权重,以将网络的训练快速聚焦到模糊帧上。籍此从样本不平衡角度来解决模糊帧的问题。上述表达式中,各个损失的具体计算公式如下:
[0060][0061][0062][0063]
其中,y
t,c
表示带有真实标签c的帧在时间t被正确分类的概率,t=1,2,

,t,t表示视频的总长度,c=1,2,

,c,c表示动作类别的总数量。δ
t,c
=|log(y
t,c
)-log(y
t-1,c
)|,τ代表一个阈值参数。
[0064]
上述技术方案中,本技术在原有的多阶段时间卷积网络中引入了焦点损失函数。焦点损失函数可通过重塑标准交叉熵损失来降低信息帧样本的权重,并增大模糊帧样本的权重。即焦点损失函数可以将网络的训练快速聚焦到模糊帧上,从而解决信息帧和模糊帧的样本数量不平衡的问题,来进一步提高视频动作分割的准确性。
[0065]
进一步的,多阶段时间卷积网络设置为4个阶段;每个阶段设置有十层空洞一维卷积,每一层的膨胀率设置为前一层的两倍;在每层空洞一维卷积之后设随机失活参数的值为0.5,卷积核大小为3;新的损失函数中的参数设置为τ=4,λ=0.15,γ=2,参数α的取值
针对每个数据集进行选择;设置网络学习率为0.0005,不设权重衰减。
[0066]
为了解决以上提出的问题,本发明还提供:
[0067]
一种应用于如上任一项所述视频动作分割网络的视频动作分割方法,如图6所示,包括以下步骤:
[0068]
s1.将多阶段时间卷积网络中空洞一维卷积前加入可分离和共享卷积;
[0069]
s2.在多阶段时间卷积网络的第一阶段中残差连接后插入一个自适应时间融合模块;
[0070]
s4.将视频输入改进后的多阶段时间卷积网络进行视频动作分割,输出分割结果。
[0071]
进一步的,所述步骤s2后还包括以下步骤:
[0072]
s3.将多阶段时间卷积网络的损失函数与焦点损失的融合为新的损失函数。
[0073]
由于该分割方法中采用了前述自下而上改进的多阶段时间卷积网络,其同样具有从网格结构的角度和从样本不平衡角度去解决模糊帧这一问题的技术效果。
[0074]
下面通过实验进一步说明上述记载的视频动作分割网络的内容和有益效果:
[0075]
本技术使用三个具有挑战性的视频动作分割基准数据集(gtea、50salads和breakfast)来测试所提出的自下而上改进的多阶段时间卷积网络(buims-tcn)的性能。以下简称buims-tcn。
[0076]
50salads数据集包含50个视频和17个动作类。每个视频平均包含9000到18000帧,且每个视频包含约20个动作实例片段,每个实例片段长约6.4分钟。该数据集中的视频记录了25个人制作沙拉的行为活动,每个人制作2种不同的沙拉。为了测试本技术提出的buims-tcn网络的性能,本技术在50salads数据集上进行5折交叉验证实验,并计算平均实验结果。
[0077]
gtea数据集包含28个第一视角的视频,即视频是由戴在人头上的摄像机录制的。该数据集中的视频记录了4种主题和7种日常活动,且每个视频平均包含11个动作类(包括背景类)和20个动作实例片段。本技术在gtea数据集上执行4折交叉验证实验,并计算平均实验结果。
[0078]
breakfast数据集包含在18个在不同厨房录制的1712个人做早餐的视频,总时长为66.7小时,共包含48个不同的动作类,每个视频平均包含6个动作实例片段。本技术在breakfast数据集执行4折交叉验证实验,并计算实验的平均结果。
[0079]
上述三个数据集的时间视频分辨率均为15fps,在实验中,本技术提出的buims-tcn网络的输入是视频帧的预先提取的膨胀3维卷积(i3d)特征。
[0080]
本技术使用以下指标来评价、对比本技术所提出的buims-tcn和其他对比方法的性能:帧精度(acc)、分段编辑距离(edit)和分段f1分数(f1@10,f1@25,f1@50)。f1@10,f1@25和f1@50分别表示当时间交并比值(tiou)为10%、25%和50%时得到的视频动作分割结果。在这三个评价指标中,edit、acc和f1这三个指标值越大代表分割结果越好。
[0081]
本技术将提出的buims-tcn网络在gtea、50salads和breakfast三个数据集上的动作分割结果与目前现有的一些性能优越的视频动作分割方法进行了比较,比较结果如表1-3所示。
[0082]
从表1-3中的结果可以看出:1)除了50salads数据集上的edit评价指标,buims-tcn在所有数据集和所有评价指标上都优于其他对比方法。说明本发明提出的buims-tcn的整体性能优于其他对比方法。2)当与ms-tcn网络进行比较时,可以看出本技术针对ms-tcn
网络进行改进后所提出的新的网络buims-tcn的分割结果明显优于ms-tcn网络的分割结果,这证明了本技术所做的改进是合理且有效的。3)gtea、50salads和breakfast数据集所包含的视频数据量逐渐增加,分割难度也逐渐增加。但对比ms-tcn和本技术提出的buims-tcn在这三个数据库上的动作分割结果可以看出,buims-tcn在分割难度较大的数据集breakfast和50salads上获得的结果比ms-tcn的结果具有更明显的提升,这说明本技术提出buims-tcn能更好的处理分割难度较大的数据库。
[0083]
为了便于观察和对比分析,本技术将ms-tcn和buims-tcn网络获得的视频动作分割结果分别进行了可视化,如图5所示。从图5中可以看出,本技术提出的buims-tcn网络所获得的动作分割结果中较少出现模糊边界问题,即动作持续时间相对更为完整,更接近真实的动作标签(gt)。
[0084]
此外,与ms-tcn相比,本技术提出的buims-tcn网络只增加了很小的额外计算负担,因此模型也具有较高的训练和测试效率。例如,buims-tcn网络在50salads数据集上,利用单个gtx titanxp gpu训练50个批次(epoch)只需要花费大约12分钟。总体来说,本技术提出buims-tcn相比于ms-tcn网络仅增加了小幅的计算时间成本,但性能却有了很大的提升。
[0085]
表1 buims-tcn与其他方法在gtea数据库上的动作分割结果对比
[0086][0087]
表2 buims-tcn与其他方法在50salads数据库上的动作分割结果对比
[0088][0089]
表3 buims-tcn与其他方法在breakfast数据库上的动作分割结果对比
[0090][0091]
图5中,三个数据集上的视频动作分割结果的可视化。gt标记的彩色条带代表视频每帧的真实动作类别标签,不同颜色代表不同类别;ms-tcn和buims-tcn所标记的彩色条带分别代表两个网络的动作类别预测结果,其不同颜色的分布与gt越接近说明动作类别预测越准确。
[0092]
消融实验
[0093]
本技术分别测试和分析所提出的buims-tcn网络中的平滑空洞一维卷积(sc)、自适应时间融合模块(atfm)和焦点损失函数(l
fl
)对动作分割结果的影响。
[0094]
由于本技术所提出的buims-tcn网络是基于对ms-tcn网络进行改进而提出的,因此在消融实验中,本技术严格遵循ms-tcn的结构和网络参数设置,并通过逐渐将sc、atfm和l
fl
引入到ms-tcn中来构建不同的网络模型,直到形成buims-tcn网络的最终架构。具体操作过程如下:1)分别将sc引入到ms-tcn网络的1个或多个阶段中,来测试在不同数量的阶段中引入sc时对视频动作分割结果的影响,如表4所示;2)在已经引入sc的ms-tcn网络(记为ms-tcn+sc)的不同数量的阶段中分别嵌入atfm模块来构建不同的网络模型,进而测试atfm对视频动作分割结果的影响,如表5所示;3)在已经引入sc和atfm,且具有最优效果的ms-tcn
网络(记为ms-tcn+sc+atfm)中进一步引入焦点损失函数(l
fl
),来测试焦点损失函数对分割结果的影响,如表6所示。
[0095]
从表4的结果中可以看出,在ms-tcn网络的不同数量的阶段中引入sc时,引入sc的阶段数越多,分割效果越好。当在ms-tcn的所有四个阶段都引入sc时,可获得最佳动作分割性能。因此,在网络所有阶段均引入sc是本技术提出的buims-tcn网络所选择的最终设置。表4的结果也说明了sc是有效的,其可以建立局部时间信息依赖关系来缓解模糊帧问题,从而提高视频动作分割的准确率。
[0096]
从表5中的结果可以看出,在ms-tcn+sc中引入atfm可以进一步缓解模糊帧问题,提高网络的动作分割性能。具体来说,仅在ms-tcn+sc的第一阶段中添加atfm时网络的性能最佳。这是因为只有网络第一阶段输入的特征包含强语义信息,而后续阶段输入的特征是前一阶段中的归一化指数函数(softmax)输出的每个类别的分类概率值,一般不包含语义信息。因此,只有在网络的第一阶段添加atfm时,才能学习更好的语义表示并获得良好的分割性能。如果在网络的后续阶段也嵌入atfm,则无法捕获任何语义信息,甚至可能降低分割性能。
[0097]
为了测试焦点损失函数对动作分割结果的影响,本技术首先将公式(4)中的α设置为0.95,这个值是通过多次实验对比选择出来的最优参数值。接下来,通过在取得最好分割结果的ms-tcn+sc+atfm中引入不同的损失函数来测试不同损失函数对分割结果的影响,结果如表6所示。从表6中可以看出,采用l
cls
+λl
t-mse
+l
fl
损失函数的组合可以获得最好的动作分割结果。因此,本技术的buims-tcn网络的最终架构就是采用的这种组合形式的损失函数。
[0098]
综上可以看出,消融实验验证了本技术提出的buims-tcn网络的最终架构是具有最优视频动作分割性能的一种结构,即buims-tcn网络的最终架构是网络中四个阶段均采用了sc,且只在网络第一阶段嵌入atfm模块,同时采用l
cls
+λl
t-mse
+l
fl
作为损失函数。
[0099]
表4 sc对视频动作分割结果的影响(50salads数据集)
[0100][0101]
表5 atfm对对视频动作分割结果的影响(50salads数据集)
[0102][0103]
表6损失函数对视频动作分割结果的影响(50salads数据集)
[0104]
[0105][0106]
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1