一种基于特征选择耦合相似度的数据异常检测方法

文档序号:25373774发布日期:2021-06-08 16:55阅读:93来源:国知局
一种基于特征选择耦合相似度的数据异常检测方法

1.本发明涉及异常值检测技术领域,尤其涉及一种基于特征选择耦合相似度的数据异常检测方法。


背景技术:

2.适当的相似性度量在数据分析、学习和处理中总是起着至关重要的作用。无监督学习中测量分类数据的内在相似性还没有得到充分解决,根据相似性进行异常检测的工作做的更是非常少。近些年来,相似性分析一直是包括数据挖掘在内的几个领域中具有重要实际意义的问题。通过定义属性值之间的某些相似性度量,它衡量两个数据对象之间关系的强度:两个对象彼此越相似,相似性就越大。
3.同时,随着计算机和数据库技术发展迅速,数据积累的速度是人类数据处理能力无法比拟的。数据挖掘作为数据库、机器学习和统计学的多学科联合努力,正在倡导将堆积如山的数据转化为块状物。研究人员和实践者认识到,为了有效地使用数据挖掘工具,数据预处理对于成功的数据挖掘至关重要。在数据挖掘的数据预处理中,特征选择是一项重要且常用的技术。它减少了特征的数量,删除了不相关的、冗余的或有噪声的数据,并为应用程序带来了立竿见影的效果:加快了数据挖掘算法,提高了挖掘性能,如预测的准确性和结果的可理解性。特征子集的最优性由评估标准来衡量。随着一个域的维数的增加,特征的数量也随之增加。寻找最佳特征子集通常是棘手的,许多与特征选择相关的问题已被证明是np难的,所谓np难就是以多项式的时间运行非确定性的算法,算法要经历推测和验证阶段。典型的特征选择过程包括四个基本步骤,即子集生成、子集评估、停止标准和结果。
4.在以往的相似性度量中,大多数是基于所有特征,并没有减少特征的维数,如cms方法和cos方法。cms方法在全维数上计算非独立同分布数据的耦合相似性,并在实验中采用cms及其他相似性度量方法与谱聚类和k

means结合的方式,从各个维度证实了cms的有效性;cos方法通过对比基于幂集的irsp,基于全集的irsu,基于连接集的irsj以及基于交集的irsi,证实在效率同等的情况下,irsi的时间复杂度是最小的,原因就是基于交集的方法使得对象的数目最少,从而降低了时间复杂度。相似性计算的方式有很多,常见的有余弦相似度计算,基于jaccard系数的相似度计算以及基于皮尔逊系数的相似性计算等,不同的相似度计算方式有各自的优势和缺点。
5.分类数据的相似性学习近年来越来越受到关注。与数值数据相似性学习相比,分类数据相似性学习更为复杂,已有研究成果有限。基于匹配的度量是典型的,如果两个对象的属性值相同,基于匹配的度量简单地将相似性指定为1;否则,它分配0。然而,这种简单的基于匹配的测量方法通常会导致误导性学习结果,并且它们忽略了分类值之间隐藏的相似性。此外,基于反向出现频率的度量考虑了出现频率分布。iof与反向文档频率的概念有关,在更频繁的值上为不匹配分配更低的相似性,反之亦然。对于不匹配,of度量给出的权重与iof度量相反。在监督学习中,一些方法也对学习两个分类值之间的相似性进行了深入研究。监督学习中的一个经典相似性度量是基于类标签的值距离矩阵(vdm)和修正值距离矩
阵(mvdm)。这两种方法都测量多维属性空间中两个数值属性值之间的距离,用于监督学习,并通过加权方案来修改距离。hvdm异构值差异度量方法被提出迎合分类属性。越来越多的研究人员也关注无监督学习的相似性分析。一个关键点是属性值相似性也依赖于其他属性。该领域的典型工作是在数值之间应用皮尔逊和jaccard系数。皮尔逊相关系数仅反映数字数据中线性相关性的强度。jaccard相似性系数在统计上比较样本集的相似性和多样性,并广泛用于数据挖掘任务。已经探索了用于学习分类数据的相似性的各种技术。迭代上下文距离(icd)算法相信属性和对象的相似性是相互依赖的。icd考虑并迭代属性相似性、子关系相似性和行相似性;然而,它面临许多问题,包括起点的选择、数据库扫描时间、迭代和收敛。此工作考虑了数据集中两个属性值的总体分布,以及它们与其他属性值的共现。它们的相似性只考虑值共现,不考虑属性值到对象的层次相似性;此外,计算成本很高。没有提供关于度量属性的理论基础和分析。cos方法已经应用于分类、推荐系统、文本挖掘、关键词查询和视频处理。
6.然而,cos不是基于度量的相似性,并且没有提供理论基础和分析来验证它的度量属性并确定它为什么出于合理的原因而工作。cms也没有考虑到不相关特征只会徒增计算的成本和时间复杂度。


技术实现要素:

7.本发明要解决的技术问题是针对上述现有技术的不足,提供一种基于特征选择耦合相似度的数据异常检测方法,先对高维数据进行特征选择,减少不相关的特征,保留后续有利于分类的特征。在此基础上进行数据的耦合相似性计算,灵活地捕捉值到属性到对象的异构耦合关系。此方法可以灵活地适应各类数据。最后结合特定聚类方法进行分类,并把聚类簇中对象数量异常少的簇视为异常的簇,将此簇中的数据对象视为异常点。
8.为解决上述技术问题,本发明所采取的技术方案是:
9.一种基于特征选择耦合相似度的数据异常检测方法,包括以下步骤:
10.步骤1:特征选择,去除数据中不相关的特征,去掉当前与学习任务无关的特征;
11.采用后向特征子集搜索方法,即从全集开始,每次去掉一个特征,形成多个子集;给定数据集d,u是数据集d中数据对象的集合,c是每个数据对象所包含的属性集合,即u={u1,u2,...,u
m
},c={c1,c2,...,c
n
},u和c非空,m和n根据实际给定的数据集而定,v是所有属性值的集合,对属性子集a,根据其取值将d划分为g个数据子集{d1,d2,...,d
g
},每个子集中的样本在a上的取值相同,根据下式计算属性子集a的信息增益;
[0012][0013]
其中信息熵定义为:
[0014][0015]
其中,p
r
是d中第r类样本所占的比例,r=1,2,...,|y|,表示数据集中共有|y|类样本,y是样本标记信息;
[0016]
把公式(1)作为所选择的特征子集的评估标准,信息增益gain(a)越大,意味着特征子集a包含的有助于分类的信息越多,于是,对每个候选特征子集,基于数据集d来计算其
信息增益,以此作为评价准则;最优特征子集需满足的优化函数是:
[0017]
max gain(a)
ꢀꢀ
(3)
[0018]
随着特征的不断减少,当子集为空或者信息增益不在增加时,选择信息增益最大的属性子集a’作为最优特征子集,最优特征子集包括的特征数为o,o≤n;
[0019]
步骤2:在前面特征选择所选出的最佳特征子集上进行耦合相似性计算;
[0020]
将距离度量转化为相似性度量的方法是:
[0021]
s(u
x
,u
y
)=1/(1+δ(u
x
,u
y
))
ꢀꢀ
(4)
[0022]
其中,δ(u
x
,u
y
)是数据对象u
x
和数据对象u
y
之间的距离,s(u
x
,u
y
)是数据对象u
x
和数据对象u
y
之间的相似性,其中1≤x≤m,1≤y≤m,x=y时,两个数据对象的相似性为1;
[0023]
属性值的条件概率定义:给定属性c
k
的属性值v
k
,c
k
属于c,1≤k≤n,对象u
x
的第j个属性的属性值v
jx
,u
x
属于u,则v
k
关于v
jx
的条件概率p(v
k
|v
jx
)定义为:
[0024]
p(v
k
|v
jx
)=|i(v
jx
,v
k
)|/|i(v
jx
)|
ꢀꢀ
(5)
[0025]
属性内相似性定义:数据对象u
x
和数据对象u
y
在同一个属性c
j
上的两个属性值v
jx
和v
jy
之间的属性内相似性定义如下:
[0026][0027]
其中,log是自然对数,p表示在属性c
j
上属性值为v
jx
的数据对象个数加1,1≤j≤n,q表示在属性c
j
上属性值为v
jy
的数据对象个数加1;公式(6)反映出不同的出现频率表示属性值重要性的不同级别;属性值v
jx
和属性值v
jy
的出现次数均大于等于1,小于等于m,它们之间的相似性取值范围是(0,1];如果属性值v
jx
和属性值v
jy
不相等,则当v
jx
和v
jy
出现次数相同时,它们的相似性达到最大值;
[0028]
属性值共现条件概率的交集定义:属性c
j
的属性值v
jx
和v
jy
与属性c
k
(1≤j≤n,j≠k)的共现值的共现条件概率的交集定义如下:
[0029]
w
k
=v
k(i(vjx))
∩v
k(i(vjy))
ꢀꢀ
(7)
[0030]
其中,v
k(i(vjx))
是所有在i(v
jx
)中的对象在属性k上的属性值集合,w
k
包含着属性c
k
与v
jx
和v
jy
都共现的所有属性值;
[0031]
根据jaccard距离和式(4),基于irsi和w
k
用jaccard相似性定义属性间相似性;
[0032]
jaccard距离如下所示:
[0033]
δ
j
(u
x
,u
y
)=1

j(u
x
,u
y
)
ꢀꢀ
(8)
[0034]
其中,j(u
x
,u
y
)定义为:
[0035]
j(u
x
,u
y
)=∑
f min(u
xf
,u
yf
)/∑
f max(u
xf
,u
yf
)
ꢀꢀ
(9)
[0036]
其中,u
x
=(u
x1
,u
x2
,...,u
xn
)和u
y
=(u
y1
,u
y2
,...,u
yn
)这两个n维向量都是实数向量,1≤f≤n;
[0037]
一个属性关于另一个属性的属性间相似性定义:属性c
j
的两个属性值v
jx
和v
jy
关于另一个属性c
k
的属性间相似性定义如下:
[0038][0039]
其中,e=max(p
xi
,p
yi
),l=min(p
xi
,p
yi
);p
xi
=p(w
ki
|v
jx
),p
yi
=p(w
ki
|v
jy
),它们是
w
ki
关于属性值v
jx
和v
jy
的条件概率,p
xi
和p
yi
由式(5)进行计算,w
ki
是w
k
中的第i个元素,如果w
k
是空集,则s
ie
k|j=a,a是一个趋近于0的正数;
[0040]
属性间相似度定义:属性c
j
的两个属性值v
jx
和v
jy
的属性间相似度为:
[0041][0042]
其中,γ
k|j
表示每个属性c
k
到c
j
的权重,γ
k|j
∈[0,1],γ
k|j
表示的是属性c
j
和属性c
k
之间的关系;
[0043]
属性间的相似性计算出来后,定义耦合度量属性值相似性;
[0044]
耦合度量属性值相似性定义:属性c
j
的属性值v
jx
和v
jy
之间的耦合度量属性值相似性定义为:
[0045]
s
j
(v
jx
,v
jy
)=αs
ia
j+(1

α)s
ie
j
ꢀꢀ
(12)
[0046]
其中,α∈[0,1],不同的α值反映了属性内相似性和属性间相似性在形成整体对象相似性中的不同比例;较大的α表示属性内耦合在对象相似性中起着更重要的作用,较小的α表示属性间耦合在对象相似性中起着更重要的作用,即属性c
j
和其他属性之间的耦合比c
j
中值之间的耦合起着更重要的作用;当α=0.5时,s
j
是s
ia
j和s
ie
j的调和平均;
[0047]
耦合度量相似性定义:两个对象u
x
和u
y
之间的相似性s(u
x
,u
y
)定义为:
[0048][0049]
其中,β
j
表示属性c
j
的耦合度量属性值相似性的权重,β
j
∈[0,1]且
[0050]
步骤3:聚类异常点检测;
[0051]
根据计算出的对象间相似性,结合聚类算法进行训练,得到聚类结果,将聚类得出的小类内的数据点作为异常值。
[0052]
采用上述技术方案所产生的有益效果在于:本发明提供的基于特征选择耦合相似度的数据异常检测方法,采用特征选择耦合相似度方法,可以使得到的对象间的相似性更加准确,对于后续的分类有很大的帮助,减少分类的假阳性率,使分类结果更加的准确,更利于确定被视作异常的小类,使异常检测的结果偏差更小,效率更高。
附图说明
[0053]
图1为本发明实施例提供的基于特征选择耦合相似度的数据异常检测方法流程图;
[0054]
图2为本发明实施例提供的特征选择过程流程图。
具体实施方式
[0055]
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
[0056]
由于现有的各类数据集大部分为高维数据集,在这项工作中,先对高维数据进行
特征选择,减少不相关的特征,保留后续有利于分类的特征。在此基础上进行数据的耦合相似性计算,灵活地捕捉值到属性到对象的异构耦合关系。此方法可以灵活地适应各类数据。最后结合特定聚类方法进行分类,并把聚类簇中对象数量异常少的簇视为异常的簇,将此簇中的数据对象视为异常点。
[0057]
本实施例提供一种基于特征选择耦合相似度的数据异常检测方法,如图1所示,具体方法如下。
[0058]
步骤1:特征选择,去除数据中不相关的特征,去掉当前与学习任务无关的特征。特征选择的过程如图2所示。
[0059]
采用后向特征子集搜索方法,即从全集开始,每次去掉一个特征,形成多个子集;给定数据集d,u是数据集d中数据对象的集合,c是每个数据对象所包含的属性集合,即u={u1,u2,...,u
m
},c={c1,c2,...,c
n
},u和c非空,m和n根据实际给定的数据集而定,v是所有属性值的集合,对属性子集a,根据其取值将d划分为g个数据子集{d1,d2,...,d
g
},每个子集中的样本在a上的取值相同,根据下式计算属性子集a的信息增益;
[0060][0061]
其中信息熵定义为:
[0062][0063]
其中,p
r
是d中第r类样本所占的比例,r=1,2,...,|y|,表示数据集中共有|y|类样本,y是样本标记信息;
[0064]
把公式(1)作为所选择的特征子集的评估标准,信息增益gain(a)越大,意味着特征子集a包含的有助于分类的信息越多,于是,对每个候选特征子集,基于数据集d来计算其信息增益,以此作为评价准则;最优特征子集需满足的优化函数是:
[0065]
max gain(a)
ꢀꢀ
(3)
[0066]
随着特征的不断减少,当子集为空或者信息增益不在增加时,选择信息增益最大的属性子集a’作为最优特征子集,最优特征子集包括的特征数为o,o≤n。
[0067]
后续在此最优的特征子集上进行耦合相似性计算和聚类。特征选择有效的减少了后续属性内和属性间的相似性计算次数,在整体上减少计算的复杂度并提高检测的有效性。
[0068]
步骤2:在前面特征选择所选出的最佳特征子集上进行耦合相似性计算。减少了属性间耦合相似性的计算次数,避免了不必要的数据耦合,节约计算成本,降低时间复杂度。
[0069]
将距离度量转化为相似性度量的方法是:
[0070]
s(u
x
,u
y
)=1/(1+δ(u
x
,u
y
))
ꢀꢀ
(4)
[0071]
其中,δ(u
x
,u
y
)是数据对象u
x
和数据对象u
y
之间的距离,s(u
x
,u
y
)是数据对象u
x
和数据对象u
y
之间的相似性,其中1≤x≤m,1≤y≤m,x=y时,两个数据对象的相似性为1。
[0072]
属性值的条件概率定义:给定属性c
k
的属性值v
k
,c
k
属于c,1≤k≤n,对象u
x
的第j个属性的属性值v
jx
,u
x
属于u,则v
k
关于v
jx
的条件概率p(v
k
|v
jx
)定义为:
[0073]
p(v
k
|v
jx
)=|i(v
jx
,v
k
)|/|i(v
jx
)|
ꢀꢀ
(5)
[0074]
属性内相似性定义:数据对象u
x
和数据对象u
y
在同一个属性c
j
上的两个属性值v
jx
和v
jy
之间的属性内相似性定义如下:
[0075][0076]
其中,log是自然对数,p表示在属性c
j
上属性值为v
jx
的数据对象个数加1,1≤j≤n,q表示在属性c
j
上属性值为v
jy
的数据对象个数加1。之所以采用加1的形式,是要避免当在属性c
j
上属性值为v
jx
的数据对象个数和在属性c
j
上属性值为v
jy
的数据对象个数都为1时,分母为0,并且使用log函数可在数据急剧增长时,控制相似性的增长。公式(6)反映出不同的出现频率表示属性值重要性的不同级别;属性值v
jx
和属性值v
jy
的出现次数均大于等于1,小于等于m,它们之间的相似性取值范围是(0,1];如果属性值v
jx
和属性值v
jy
不相等,则当v
jx
和v
jy
出现次数相同时,它们的相似性达到最大值。
[0077]
属性值共现条件概率的交集定义:属性c
j
的属性值v
jx
和v
jy
与属性c
k
(1≤j≤n,j≠k)的共现值的共现条件概率的交集定义如下:
[0078]
w
k
=v
k(i(vjx))
∩v
k(i(vjy))
ꢀꢀ
(7)
[0079]
其中,v
k(i(vjx))
是所有在i(v
jx
)中的对象在属性k上的属性值集合,w
k
包含着属性c
k
与v
jx
和v
jy
都共现的所有属性值。
[0080]
jaccard相似系数广泛应用于聚类和分类。jaccard距离是一个距离度量,是与jaccard相似系数相关的指标,jaccard距离如下所示:
[0081]
δ
j
(u
x
,u
y
)=1

j(u
x
,u
y
)
ꢀꢀ
(8)
[0082]
其中,j(u
x
,u
y
)定义为:
[0083]
j(u
x
,u
y
)=∑
f min(u
xf
,u
yf
)/∑
f max(u
xf
,u
yf
)
ꢀꢀ
(9)
[0084]
其中,u
x
=(u
x1
,u
x2
,...,u
xn
)和u
y
=(u
y1
,u
y2
,...,u
yn
)这两个n维向量都是实数向量,1≤f≤n。
[0085]
根据jaccard距离和式(4),基于irsi和w
k
用jaccard相似性定义属性间相似性。
[0086]
一个属性关于另一个属性的属性间相似性定义:属性c
j
的两个属性值v
jx
和v
jy
关于另一个属性c
k
的属性间相似性定义如下:
[0087][0088]
其中,e=max(p
xi
,p
yi
),l=min(p
xi
,p
yi
);p
xi
=p(w
ki
|v
jx
),p
yi
=p(w
ki
|v
jy
),它们是w
ki
关于属性值v
jx
和v
jy
的条件概率,p
xi
和p
yi
由式(5)进行计算,w
ki
是w
k
中的第i个元素,如果w
k
是空集,则s
ie
k|j=a,a是一个趋近于0的正数。
[0089]
属性间相似度定义:属性c
j
的两个属性值v
jx
和v
jy
的属性间相似度为:
[0090][0091]
其中,γ
k|j
表示每个属性c
k
到c
j
的权重,γ
k|j
∈[0,1],γ
k|j
表示的是属性c
j
和属性c
k
之间的关系。
[0092]
属性间的相似性计算出来后,定义耦合度量属性值相似性。
[0093]
耦合度量属性值相似性定义:属性c
j
的属性值v
jx
和v
jy
之间的耦合度量属性值相似性定义为:
[0094]
s
j
(v
jx
,v
jy
)=αs
ia
j+(1

α)s
ie
j
ꢀꢀ
(12)
[0095]
其中,α∈[0,1],不同的α值反映了属性内相似性和属性间相似性在形成整体对象相似性中的不同比例。较大的α表示属性内耦合在对象相似性中起着更重要的作用,较小的α表示属性间耦合在对象相似性中起着更重要的作用,即属性c
j
和其他属性之间的耦合比c
j
中值之间的耦合起着更重要的作用;当α=0.5时,s
j
是s
ia
j和s
ie
j的调和平均。
[0096]
耦合度量相似性定义:两个对象u
x
和u
y
之间的相似性s(u
x
,u
y
)定义为:
[0097][0098]
其中,β
j
表示属性c
j
的耦合度量属性值相似性的权重,β
j
∈[0,1]且
[0099]
步骤3:聚类异常点检测;
[0100]
根据计算出的对象间相似性,结合聚类算法进行训练,得到聚类结果,将聚类得出的小类内的数据点作为异常值。
[0101]
数据相似性本质上就是数据点之间的距离。距离越大,相似度就越低,小类里的少数数据点就是和其他的数据点距离较大,相似度较低,将与其他数据点相似度都很低的数据点作为异常。
[0102]
聚类需要根据样本特征的相似度或者距离来作为是否归属于某一类的依据,也就是相似的样本归为一类,不相似的样本不归为一类。聚类方法可采用常见的各种分类方法,本实施例采用k

means方法进行举例。k

means聚类算法首先要选取指定的聚类中心,聚类中心的个数k是自由指定的,假如选择k=3。则先选出三个对象作为聚类中心,然后看各个样本到聚类中心的距离,将样本划分入距离最近的聚类中心的簇,得到3个簇后,重新更新均值向量,不断重复上述的过程,直到得到的新簇与上一轮相同,则算法停止,得到最终的簇的划分。本实施例根据计算出的对象间相似性,结合聚类算法进行训练,得到聚类结果,得出的小类中的对象相对于其它对象与大部分数据对象的相似度较低,所以将其视作异常。
[0103]
在最终得到的簇划分中,找到簇中对象最少的类,将簇中的数据点作为异常点,因为簇中数目最少的点与其它点的相似度都偏低,以此作为数据异常。
[0104]
将本实施例提出的基于特征选择的耦合相似性度量的数据异常检测方法与常见的相似性度量方法进行对比,以下五种最先进的相似性/距离度量与本实施例方法进行了比较:algo距离(简称algo),耦合对象相似性(简称cos),距离度量(简称dm),汉明距离(简称hm),出现频率(简称of)。包括本实施例提出的所有相似性度量被合并到典型的基于距离的算法k

means中。比较了它们在分类数据上的聚类性能,以评估哪种相似性度量获得了更好的结果。
[0105]
8个uci数据集被用于实验。表1描述了这8个不同数据集的详细特征。它们是对象数量,属性数量,所有属性的不同值的数量,分类的数量以及缩写。缩写指数据集名称的缩写形式。移除数据集中的所有数字属性,仅测试分类数据的相似性。
[0106]
对于外部标准,选择一些常用的标准来比较不同相似性度量的聚类结果。在由每个聚类算法分配的每个对象的聚类标签和由源数据中给出的数据标签指示的基本事实之间。标准可以指定为分数。标准越大,聚类获得的性能越好;相应的相似性度量相应地更有效,对异常值的检测也就越有效。f

score定义如下:
[0107]
f1=2*tp/(2*tp+fp+fn)
ꢀꢀ
(14)
[0108]
其中,tp、tn、fp和fn分别代表真阳性、真阴性、假阳性和假阴性。
[0109]
表1数据集特征
[0110]
数据集对象数量属性数量属性的不通值的数量分类数量缩写soybeansmall4735974sozoo10116367zodnapromoter106572282dphayesroth1324153halymphography14818594lyhepatitis15513362hehousevotes23216322hospect26722442sp
[0111]
提出的方法与其它5个计算相似度的方法结合到k

means聚类中进行比较后,得到的结果如表2所示。可以看出,本实施例的方法聚类效果相对于其它的相似性度量方法,效果更佳,分类性能有所提高,更有利于后续的异常值检测。
[0112]
表2几种相似度计算方法f

score结果对比
[0113][0114]
对于本实施例提出的方法,不同的α值可以产生不同的分类效果,对于每个不同的数据集,α的最佳取值也是不一样的。其中不同数据集对于不同α取值的聚类性能如以下表3所示。
[0115]
表3α取值性能对比
[0116][0117]
实验对比显示,不同的数据集所对应的相似度计算的α的最佳取值不同,所以在应用的过程中不能简单片面的为所有数据集取相同的参数值。不过在以前的许多方法中显示,α的理论最优值是取α=0.5,根据上实施例中叙述,α=0.5时,对象的相似度是属性内相似度与属性间相似度的调和平均,理论上α=0.5时,可以取得最好的相似度度量,使后续的分类正确性更高,性能更好。
[0118]
在大部分的异常值检测方法中,都会采用聚类与异常检测结合的方式。在本实施例中,证明采用特征选择耦合相似度方法,可以使得到的对象间的相似性更加准确,对于后续的分类有很大的帮助,减少分类的假阳性率,使分类结果更加的准确,更利于确定被视作异常的小类,使异常检测的结果偏差更小,效率更高。
[0119]
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1