一种基于属性聚类的邻域粗糙集集成学习方法与流程

文档序号:14722445发布日期:2018-06-17 21:24阅读:225来源:国知局
本发明属于数据挖掘,模式识别领域,具体是一种利用属性相关性进行属性聚类后的邻域粗糙集集成学习方法。
背景技术
:现实生活中信息系统的属性不仅多样化,而且属性间往往存在一定的相关性,如果直接用单一的数据挖掘算法进行知识发现,往往效果欠佳。正因如此,诸如属性聚类、集成学习等方法被用到数据挖掘中,这样能有效提升知识发现的效果。属性聚类:聚类算法是非监督模式识别的一种重要方法,它根据某种相似度度量,对样本空间进行分组,使组内数据之间彼此相似,而组间数据相似距离较大,从而实现自动分类。将聚类算法应用到属性空间中,即对属性进行聚类。通过属性聚类把决策表中相关联的条件属性聚到一个属性聚类簇中,使得属性聚类簇内的属性关联性较大,而不同属性聚类簇之间的关联性较小,利用不同属性聚类簇的差异性来训练不同的分类器。集成学习:集成学习是一种机器学习方法,其思想是通过集成多个不同的单个模型来构建一个预测模型,而其最终目的是利用这些单个模型之间的差异性,来改善模型的泛化性能。近些年集成学习因其良好的泛化能力一直是模式识别、机器学习等领域的研究热点。组合分类器作为信息融合技术的代表在日常生活中得到大量的应用,如人脸识别、语音识别、计算机视觉处理、目标识别等。组合分类器性能优于单个分类器必须满足两个条件:1)基分类器之间是相互独立的;2)基分类器应当好于随机猜测分类器。实践上很难保证基分类器之间完全独立,但是在基分类器轻微相关情况下,组合方法仍然可以提高分类的准确率。目前组合分类器方法主要分为3类:1)Averaing,主要针对回归或连续型的决策属性;2)Voting,又分为MajorityVoting和WeightedVoting,主要针对分类或离散型的决策属性。粗糙集:该理论由波兰学者Pawlak教授于1982年提出,是一种能有效处理不精确、不确定和模糊信息的数学理论。目前,粗糙集已成功应用到机器学习、数据挖掘、智能数据分析和控制算法获取等领域。粗糙集理论的主要思想是利用已知的知识库,将不精确或不确定的知识用已知知识库中的知识来(近似)刻画。粗糙集可以不依赖先验知识,根据数据的决策与分布进行知识发现。邻域粗糙集模型是胡清华等人利用邻域模型对经典粗糙集理论的一种拓展模型,解决了传统的粗集模型不能处理离散型数据的问题。邻域粗糙集把那些无法确认的个体都归属于边界区域,而这种边界区域被定义为上近似集和下近似集的差集。由于上近似集与下近似集都可以通过等价关系给出确定的数学公式描述,所以边界域元素可以被计算出来。经过对现有技术的文献检索发现,胡峰,李航的论文Anovelboundaryoversamplingalgorithmbasedonneighborhoodroughsetmodel:NRSBoundary-SMOTE,2013(一种基于邻域粗糙集边界域的过采样算法),通过对邻域粗糙集中边界域的元素进行特殊的处理,使得过采样的效果相比传统的采样算法有所提高。技术实现要素:针对以上现有技术的不足,提出了一种方法。本发明的技术方案如下:一种基于属性聚类的邻域粗糙集集成学习方法,其包括以下步骤:101、从实验数据平台下载数据集,然后对数据集的数据进行预处理,预处理包括归一化步骤和拆分数据集步骤,把数据集拆分成训练集和测试集;102、对经过步骤101预处理的训练集的数据根据属性进行聚类,聚类分为选择主要属性集和划分属性聚类簇两个步骤;103、用经过步骤102的训练集集成训练基分类器进行分类,分为确定边界域和集成训练分类器两个步骤,其中集成训练分类器加入了邻域粗糙集来进行分类;104、最后,利用得到的集成分类器对测试集分类,完成学习。进一步的,所述步骤101中的归一化步骤指对原始数据线性变换,使结果值映射到[0-1]之间;和拆分数据集步骤是通过随机不重复的选择数据集中90%的样本作为训练集,余下的10%作为测试集。进一步的,所述步骤102中选择主要属性集对于条件属性集,形式为{条件属性1,条件属性2……,条件属性n},利用信息熵公式计算每个条件属性的信息增益,取信息增益较大的前k个条件属性组成主要属性集即属性聚类的聚点,形式为{主要属性1,主要属性2,……主要属性k}。进一步的,所述步骤102划分属性聚类簇的步骤为:把得到的主要属性集中的每个属性作为一个聚点,计算其它条件属性与各个聚点的皮尔逊相关系数,把与某聚点的皮尔逊相关系数的绝对值大于阈值的条件属性划分到该聚点的聚类中,如果有不属于任何一个聚点的属性,即与任何一个聚点的皮尔逊相关系数的绝对值都小于阈值,相当于聚类中的离群点,把这样的属性称作离群属性,并将离群属性单独组成一个聚类簇。进一步的,所述步骤103中确定边界域的步骤具体为:决策属性集,形式为{决策属性1,决策属性2,……决策属性p}中的决策属性把数据集分为p个等价类,决策属性关于属性集的边界域用邻域粗糙集计算出来;a.对于训练集中的某个样本xi,计算xi的邻域δB(xi);b.判断δB(xi)中的样本是否与xi属于同一类别,不是则把xi归入边界域;c.重复步骤a、步骤b,直到遍历完整个训练集;最终得到训练集的边界域,形式为{边界域样本1,边界域样本2,…,边界域样本x}。进一步的,步骤103中集成训练分类器的步骤为:根据集成学习的差异性原则选择3个基分类器并初始化每个分类器的权重比例为1,形式为{分类器h1:ω1=1,分类器h2:ω2=1,分类器h3:ω3=1},ωi表示分类器i的权重比例;A1.从每个属性聚类集中选择一个属性组成选择属性集后,得到一个新的子属性集,形式为{主要属性集∪选择属性集},用这个新的子属性集训练每个分类器,得到每个分类器能够正确分类的样本集,形式为{样本集1,样本集2,样本集3};B1.判断{样本集1,样本集2,样本集3}中哪个样本集中的样本在边界域的个数最多,给对应的样本集的分类器的权重比例增加1;C1.重复A1,B1,直到所有的子属性集组合都训练完毕,且a中每次组成的子属性集不能与之前的重复;D1.完成A1,B1,,C1步骤后,得到分类器的权重比例ω1,ω2,ω3,保证其中wi是分类器i的权重,根据分类器的权重比例计算得到分类器的最后权重。进一步的,步骤104中根据得到的集成分类器对测试集分类具体为:每个分类器对一个样本的分类结果是一个l维的向量其中是分类器hi对类别dj的分类结果,1表示分类器认为该样本属于dj类,0则反之,最后集成分类器对样本的分类结果是:H(x)=dargmax(j)Σi=1Twihij(x)]]>其中,wi是分类器hi的权重,T是基分类器的个数。本发明的优点及有益效果如下:在属性聚类阶段利用属性聚类将决策系统中的条件属性分成多个聚类簇。其中,利用信息增益选择主要属性集,信息增益是用来衡量一个条件属性区分数据样本的能力的,用这种方法可以有效的选择出对决策系统样本区分能力更好的属性。利用皮尔逊相关系数来度量条件属性间的相似性,皮尔逊相关系数能有效的度量两个条件属性间的相似性程度,把它作为属性聚类的依据,很好的满足了属性聚类簇内的属性关联性较大,而不同属性聚类簇之间的关联性较小的条件。在集成训练阶段,利用各个聚类簇的差异性来训练集成不同的基分类器,在训练集成基分类器的过程中,加入了邻域粗糙集的指导。根据邻域粗糙集的原理,这里训练集的正域是指能确定属于某一类别的样本,而边界域是指不能确定属于某一类别的样本,如果一个分类器能将不能确定属于某一类的样本及边界域中的样本正确分类,说明该分类器的分类能力较好。本发明结合了邻域粗糙集和集成学习理论,充分利用了决策表中条件属性的相关性和差异性,并使不同基分类器之间取长补短,能够从不同角度有效挖掘决策系统中的知识。附图说明图1是本发明提供优选实施例基于属性聚类的邻域粗糙集集成学习方法流程框图;图2属性聚类阶段的流程框图;图3划分边界域流程框图;图4样本x的邻域分布图;图5集成训练基分类器阶段流程框图。具体实施方式以下结合附图,对本发明作进一步说明:一种基于属性聚类的邻域粗糙集集成学习方法,包括以下步骤:首先,在数据预处理阶段,对数据进行归一化,归一化是指对原始数据线性变换,使结果值映射到[0-1]之间。然后,在属性聚类阶段,通过计算属性的信息增益并选取信息增益较大的属性作为主要属性集,即为属性聚类的中心点,并计算余下条件属性与聚类中心点的相似性,根据相似性值,可以把属性分成几个属性聚类簇。最后,在基分类器集成训练阶段,先利用邻域粗糙集的原理得到训练集的边界域,再迭代地训练由多个基分类器组合成的集成分类器,使得集成后的分类器对训练集有更好的正确率。迭代的过程如下:每次迭代从每个属性聚类簇中选取一个属性组成一个子属性集(第一次迭代时,所有基分类器的权重比例是一样的),根据分类结果,增加对界域中的样本分类效果最好的基分类器的权重。在每次迭代时,选取的子属性集不能重复,迭代结束的条件是迭代次数达到某个阈值或所有子属性集都被训练过。通过上述步骤,最终得到权重各不相同的基分类器组成的集成分类器。具体地,在属性聚类阶段先计算条件属性的信息增益(InformationGain)。信息增益是用来衡量一个条件属性区分数据样本的能力的,某个条件属性的信息增益的计算方式是先计算出数据集包含该条件属性的信息熵和不包含该条件属性时的信息熵,再求得这两个信息熵的差值即为该条件属性的信息增益。信息熵的计算公式是:entropy(p1,p2,…,pn)=-p1log2(p1)-p2log2(p2)-...-pnlog2(pn)(1)其中,pi(i=1,2,......n)表示比例值。计算出信息增益后选出信息增益最大的前k个属性作为主要属性集,主要属性集中的每一个属性将作为属性聚类的聚点且k的值由人为给定。然后,计算主要属性集中这k个属性与其它属性之间的相似性,相似度评价方法主要有距离系数法,夹角余弦法和相关系数法等。本专利选用皮尔逊相关系数计算相似性,它是一种度量两个变量间相关程度的方法,变量X和Y的皮尔逊相关系数的计算方法已被大家熟知,具体公式为:rxy=E(X-X‾)(X-Y‾)E(X-X‾)2E(Y-Y‾)2---(2)]]>其中,符号E表示数学期望,表示变量X所有取值的平均值。通过上述公式可以计算出属性间的相似性,并把与选出的k个属性相似性值的绝对值超过某个阈值的属性划分到对应的属性聚点。更进一步地,在集成训练阶段数据集边界域是由邻域粗糙集的相关知识计算得到的。邻域粗糙集中正域,负域以及边界域的划分为:给定邻域近似空间<U,N>,U是样本集,N是U上的邻域关系,δ(xi)是xi的邻域。对于任意X在邻域关系N上的上,下近似边界域的计算公式为:N‾X={xi|δ(xi)⊆X,xi∈U}]]>BN(X)=N‾X-N‾X---(3)]]>对于一个邻域决策系统,NDT=<U,A,V,f>,其中,A=C∪D,C是条件属性,D是决策属性,D将U划分为p个等价类:X1,X2,......Xp,决策D关于属性集B的上近似,下近似与决策边界的计算公式为:N‾BD=∪i=1NN‾BXi,N‾BD=∪i=1NN‾BXi,BNB(X)=N‾BX-N‾BX---(4)]]>邻域粗糙集中,给定任意xi∈U,xi在属性子集B上的邻域δB(xi)的计算公式为:δB(xi)={xj|xj∈U,ΔB(xi,xj)≤δ}(5)其中ΔB(xi,xj)是xi和xj的欧拉距离,δ是xi的邻域半径。欧拉距离是用来计算空间中两点的距离公式,也是最常用的距离度量公式。考虑x1,x2为两个m维空间样本,A={a1,a2,...,am},f(x,ai)表示样本x在属性ai上的值,则两个样本的欧拉距离的计算公式为:Δ(x1,x2)=(Σi=1m|f(x1,ai)-f(x2,ai)|2)1/2---(6)]]>邻域半径δ的计算公式是:δ=min(Δ(xi,s))+λ×range(Δ(xi,s)),0≤λ≤1(7)其中,min(Δ(xi,s))表示与样本xi最近的样本距离,range(Δ(xi,s))表示其它样本到xi的距离的取值范围。以下结合附图进行描述,如图1所示为本发明流程框图。包括如下步骤:(1)数据预处理阶段。本阶段分为归一化和拆分数据集两个步骤:从UCI实验数据平台(网址:http://archive.ics.uci.edu/ml/)下载数据集,数据集的形式为{条件属性1,条件属性2……,条件属性n,决策属性},其中条件属性集为{条件属性1,条件属性2……,条件属性n},决策属性集为{决策属性1,决策属性2,……决策属性p}。①归一化数据集。由公式(2),(4),(5),(7)可知,在确定数据集的边界域的时候,需要利用欧拉距离来确定每个样本的邻域,而由公式(6)可知在计算欧拉距离的时候需要计算两个样本每个属性值的差值。为了避免样本之间的欧拉距离由取值范围比较大的属性控制而需要归一化。归一化是指对原始数据线性变换,使结果值映射到[0-1]之间。归一化数据集(算法1)的伪代码如下:算法1:归一化数据集输入:数据集X输出:归一化后的数据集X*②拆分数据集。拆分数据集是将数据集拆分成训练集和测试集。具体方式是通过随机不重复的选择数据集中90%的样本作为训练集,余下的10%作为测试集。(2)属性聚类阶段。本阶段分为选择主要属性集和划分属性聚类簇两个步骤:①选择主要属性集。选择主要属性集是为得到数据集中对分类起决定性作用的条件属性集。具体地,对于条件属性集,形式为{条件属性1,条件属性2……,条件属性n},利用公式(1)计算每个条件属性的信息增益,信息增益是用来衡量一个属性区分数据样本的能力,信息增益越大,区分样本的能力就越好。本发明取信息增益较大的前k个条件属性组成主要属性集即属性聚类的聚点,形式为{主要属性1,主要属性2,……主要属性k}。下面举一个简单的例子说明如何计算属性的信息增益。表1天气数据集例子No.OutlookTemperatureHumidityWindyPlay?1sunnyhothighfalseno2sunnyhothightrueno6-->3overcasthothighfalseyes4rainmildhighfalseyes5raincoolnormalfalseyes6raincoolnormaltrueno7overcastcoolnormaltrueyes8sunnymildhighfalseno9sunnycoolnormalfalseyes10rainmildnormalfalseyes11sunnymildnormaltrueyes12overcastmildhightrueyes13overcasthotnormalfalseyes14rainmildhightrueno对于表1中的数据集,属性Outlook对于决策属性Play的信息增益的计算方式为:a.利用公式(1)计算决策属性Play的信息熵:entropy(Play)=-514log(514)-914log(914)]]>b.Outlook有rain,sunny,overcast3种取值,这3种取值把数据集划分为3份,分别计算每一份对于决策属性Play的信息熵。其中,属性Outlook取值为sunny的5个样本中有2个样本的决策属性Play为yes,3个为no。则有:entropy([2,3])=-25log(25)-35log(35)]]>类似的取值为rain和overcast的信息熵分别为:entropy([3,2])=-35log(35)-25log(25)]]>entropy([4,0])=-44log(44)-04log(04)]]>c.天气数据集被Outlook属性划分后的信息熵总量为:entropy([2,3],[3,2],[4,0])=514×entropy([2,3])+514×entropy([3,2])+414×entropy([4,0])]]>d.Outlook属性的信息增益为:gain(Outlook)=entropy(Play)-entropy([2,3],[3,2],[4,0])②划分属性聚类簇划分属性聚类簇是把(2)-①得到的主要属性集中的每个属性作为一个聚点,根据公式(2),计算其它条件属性与各个聚点的皮尔逊相关系数,把与某聚点的皮尔逊相关系数的绝对值大于阈值的条件属性划分到该聚点的聚类中(阈值通常取0.5)。如果有不属于任何一个聚点的属性,即与任何一个聚点的皮尔逊相关系数的绝对值都小于阈值,相当于聚类中的离群点,我们把这样的属性称作离群属性,并将离群属性单独组成一个聚类簇。划分属性聚类簇(算法2)的伪代码如下:算法2:划分属性聚类簇输入:数据集X和主要属性集输出:属性聚类结果EStep1:计算属性之间的皮尔逊相关系数Step2:划分条件属性聚类簇这样就把条件属性集分成了多个属性聚类,形式为{属性聚类1{主要属性1:条件属性集1},……属性聚类k{主要属性k:条件属性集k},{离群属性集}}。(3)集成分类器阶段。本阶段分为确定边界域和集成训练分类器两个步骤。①确定边界域。决策属性集,形式为{决策属性1,决策属性2,……决策属性p}中的决策属性根据公式(4)把数据集分为p个等价类,决策属性关于属性集的边界域可以用邻域粗糙集知识计算出来。b.对于训练集中的某个样本xi,根据公式(5),(6),(7)计算xi的邻域δB(xi)。b.判断δB(xi)中的样本是否与xi属于同一类别,不是则把xi归入边界域。c.重复a,b,直到遍历完整个训练集。最终得到训练集的边界域,形式为{边界域样本1,边界域样本2,…,边界域样本x}。②集成训练分类器,根据集成学习的差异性原则选择3个基分类器并初始化每个分类器的权重比例为1,形式为{分类器h1:ω1=1,分类器h2:ω2=1,分类器h3:ω3=1},ωi表示分类器i的权重比例。a.从每个属性聚类集中选择一个属性组成选择属性集后,得到一个新的子属性集,形式为{主要属性集∪选择属性集},用这个新的子属性集训练每个分类器,得到每个分类器能够正确分类的样本集,形式为{样本集1,样本集2,样本集3}。b.判断{样本集1,样本集2,样本集3}中哪个样本集中的样本在边界域的个数最多,给对应的样本集的分类器的权重比例增加1。c.重复a,b,直到所有的子属性集组合都训练完毕,且a中每次组成的子属性集不能与之前的重复。d.完成a,b,c步骤后,得到分类器的权重比例ω1,ω2,ω3,为了保证其中wi是分类器i的权重,根据分类器的权重比例计算得到分类器的最后权重。(4)对测试集分类阶段每个分类器对一个样本的分类结果是一个l维的向量其中是分类器hi对类别dj的分类结果,1表示分类器认为该样本属于dj类,0则反之。最后集成分类器对样本的分类结果是:H(x)=dargmax(j)Σi=1Twihij(x)]]>其中,wi是分类器hi的权重,T是基分类器的个数。以下举例对本发明的实施作进一步说明。本实例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实例。本实例所用的数据集是在UCI下载的wine数据集。步骤(1)归一化wine数据集,并将其90%作为训练集,10%作为测试集。归一化后的数据集的部分数据如表1所示。wine数据集有178个样本,13个条件属性,且都为连续型属性,1个决策属性,取值有3种,分别为{1,2,3}。表2归一化后的wine数据集(部分)步骤(2)对训练集进行属性聚类,如图2所示。A1A2A3A4A5A6A7A8A9A10A11A12A13CLASS0.8420.1910.5720.2570.6190.6270.5730.2830.5930.3720.4550.9700.56110.5710.2050.4170.0300.3260.5750.5100.2450.2740.2640.4630.7800.55010.5600.3200.7000.4120.3360.6270.6110.3200.7570.3750.4470.6950.64610.8780.2390.6090.3190.4670.9890.6640.2070.5580.5560.3080.7980.85710.3520.0650.3950.4070.1950.8750.7190.2070.4850.2740.4550.5490.27220.3310.4800.4540.3810.1950.6440.5590.6030.7570.0870.7640.5710.09129-->0.2760.2640.1810.3550.2930.4310.3860.2450.3120.1720.6420.6190.30820.4130.1180.2880.4070.1950.1620.2150.3010.2960.0990.4550.5490.20220.3440.3370.5880.5360.3040.5440.3730.3960.2830.1290.2600.7720.11420.8150.6640.7370.7160.2820.3680.0880.8110.2960.6750.1050.1200.20130.5630.3650.5400.4840.5430.2310.0710.7540.3310.6840.0970.1280.40030.5890.6990.4810.4840.5430.2100.0730.5660.2960.7610.0890.1060.3973①计算条件属性信息增益。计算训练集中各个条件属性相对于决策属性的信息增益。针对本数据集,选出信息增益最大的3个属性。通过计算得到wine训练集信息增益最大的3个属性是{A7,A12,A13},这3个属性组成wine的主要属性集,将作为属性聚类的聚点。各属性的信息增益如表2所示。表3各属性的信息增益A1A2A3A4A5A6A7A8A9A10A11A12A130.6650.4730.1730.3280.3650.5900.9650.2940.3450.7560.6290.7680.775②属性聚类。将剩下的条件属性{A1,A2,A3,A4,A5,A6,A8,A9,A10,A11}划分到分别以A7,A12,A13为聚点的聚类中。通过计算剩下的10个条件属性与主要属性集中的3个属性的皮尔逊相关系数,并将与A7,A12,A13的皮尔逊相关系数绝对值大于阈值0.5的条件属性加入到对应的聚类中,A7,A12,A13与其它条件属性的皮尔逊相关系数如表3所示。表4A7,A12,A13与其它条件属性的皮尔逊相关系数A7A12A13A10.2300.0570.641A2-0.409-0.366-0.189A30.1140.0010.222A40.346-0.268-0.436A50.1870.0460.387A60.8460.6990.495A71.0000.7860.491A8-0.536-0.501-0.308A90.6500.5130.325A10-0.174-0.4350.315A110.5430.5670.234A120.7861.0000.306A130.4910.3061.000由表3可知,对于聚点A7,A6,A8,A9,A11与它的相关系数的绝对值都大于0.5,但是A7与A11的相关系数是0.543,小于A12与A11的相关系数0.567,所以A11不能归入A7的聚类。依次类推,得到3个属性聚类{A7:A6,A8,A9},{A12:A11},{A13:A1},最后把不能归入任何聚点即与任何聚点的皮尔逊相关系数的绝对值都小于0.5的属性单独归为一类。综上得到4个属性聚类{A7:A6,A8,A9},{A12:A11},{A13:A1},{A2,A3,A4,A5,A10}。步骤(3)分类器集成。①确定边界域,如图3所示。对wine训练集的一个样本xi,(0.366,0.358,0.487,0.588,0.217,0.241,0.316,1.0,0.316,0.121,0.309,0.746,0.026,2),首先,计算xi与其它所有样本的距离,距离公式使用欧拉距离如公式(6)所示。然后,求得样本xi的邻域半径δ为0.694,其中λ取值为0.15。最后,判断样本xi的邻域δB(xi)中的样本是否都跟xi属于同一类别,若不是,则把xi归入边界域。这里δB(xi)为{2,2,2,2,2,2,2,2,2,2,2,3,2},因此xi样本应归入边界域。如图4中δB(xi)中的样本不全与xi属于同一类别,所以应该把xi归入边界域。这样通过遍历训练集,就能得到训练集的边界域。②集成分类器,如图5所示。a.本例中选择了3个具有代表性的经典分类器:naivebayes,svm,knn。初始化它们的权重比例为1:1:1,{naivebayes:1,svm:1,knn:1}。b.根据步骤(2)-②中得到的属性聚类{A7:A6,A8,A9},{A12:A11},{A13:A1},{A2,A3,A4,A5,A10},从中选择被训练的子属性集。每一次的子属性集都应保留主要属性集{A7,A12,A13},再分别从4个属性聚类中取出一个属性组成选择属性集,将主要属性集和选择属性集合并得到最后的子属性集。例如分别从上述4个聚类中选出属性A6,A11,A1,A2,与主要属性集{A7,A12,A13}合并得到子属性集{A7,A12,A13,A6,A11,A1,A2}。c.最后用naivebayes,svm,knn对b中选择出的子属性集对应的训练集进行分类,得到这3个分类器能正确分类的3个样本集。判断每个基分类器能够正确分类的样本在步骤(3)-①得到的边界域中的个数。其中,能被naivebayes正确分类的样本在边界域的个数为32,能被svm正确分类的样本在边界域的个数为33,能被knn正确分类的样本在边界域的个数为31,所以把svm分类器的权重比例增加1。d.重复a,b,c,直到所有的子属性集都训练完毕,且每次选择的子属性集不能相同。本例中最后得到的权重比例为{naivebayes:12,svm:4,knn:2}。为了保证权重之和为1,所以最终的权重为{naivebayes:0.667,svm:0.222,knn:0.111}。步骤(4)对测试集分类。例如,对测试集中的样本(0.272,0.215,0.359,0.421,0.050,0.239,0.483,0.526,0.651,0.196,0.667,0.823,0.143),类别为2。naivebayes对该样本的分类结果为(0,1,0),svm对它的分类结果为(1,0,0),knn对它的分类结果为(1,0,0),把步骤(3)训练得到的权重乘以分类结果,所以naivebayes,svm,knn对该样本的分类结果分别为(0,0.667,0),(0.222,0,0),(0.111,0,0),分别累加对每一个类别的分类结果得到分类结果为(0.333,0.667,0),取其中最大的值对应的类别作为最后的分类结果,即该样本属于类别2。利用上述步骤所得的集成分类器,对测试数据集中的所有测试样本进行分类,所采用的测试方法为十字交叉验证法。最终对测试集的分类正确率为0.972,高于naivebayes,svm,knn3个基分类器单独的分类正确率。以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。当前第1页1 2 3 
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1