UDN中基于机器学习的切换算法的制作方法

文档序号:17066331发布日期:2019-03-08 22:57阅读:299来源:国知局
UDN中基于机器学习的切换算法的制作方法
本发明属于通信网络
技术领域
,具体涉及udn中基于机器学习的切换算法。
背景技术
:为了应对下一代无线通信网络数据量千倍的增长需求,超密集网络(ultradensenetwork,udn)被认为是最有前途的关键技术之一,是未来移动通信的必然趋势。在udn中移动设备不断的在小区间进行切换导致其切换的时延较大,给系统带来较大负担。对用户切换的预测能够改善切换的性能,然而对于传统的根据线性规划的预测办法,其预测的精度不足,尤其是在面对越来越密集越来越复杂的网络时,较低的精确度已不足以对切换的性能提升做出积极的影响。而对于针对场景分类的预测办法,其适用与特定场景,由于日常生活中场景复杂多变,若对各个场景做出相应的方案工作量较大,导致这一方法对场景的限制较大。对于移动性预测有多种研究方法,有研究者提出了基于线性规划(linearprogramming,lp)的预测模型,通过sdn的控制器收集基站状态以及用户移动性信息,进而对用户的路径机型预测。为了解决异构网络中受信号强度导致的滞后切换、兵乓切换等问题,另有研究者针对用户在不同的场景下,根据用户的移动性规则,选择相应的预测算法,其根据基站之间的距离分为远距离和近距离模型,采用马尔可夫链移动预测算法,对前者根据用户习惯预先设定转移概率矩阵,而后者将用户移动性历史信息作为输入从而获得转移概率矩阵。文中对于使用场景的针对性较强,而实际应用中,用户移动性场景十分复杂,其对于实际应用的限制性较大。另外有研究者提出基于支持向量机(supportvectormachine,svm)的移动预测切换方案,采集用户的id编号、时间、移动环境、终端速度等信息,并将其离散化,将其作为6维特征数据,建立svm的预测模型,对其进行预测。另外单纯的某一机器学习算法如svm这一方案虽然可以实时地相对精确地对终端的移动性进行预测,但通常影响用户移动性的特征往往较多,在多特征情况下svm往往不能得到一个较好的表现。在udn网络中面对密集的基站和频繁的切换往往需要更复杂的用户信息特征,而单一的算法所做出的切换预测不能对。针对以上问题本发明提供一种结合机器学习的算法,并提出与切换策略相适应的结合策略,从而能够充分发挥不同算法对于不同的应用场景的应用,提高整体预测的泛化性能,从而能够提升对用户小区间切换预测的精度,减少系统平均切换时延。技术实现要素:本发明所要解决的技术问题在于针对上述现有技术的不足,提供一种udn中基于机器学习的切换算法。减少了非必要切换,降低在超密集网络中的系统的平均时延。为解决上述技术问题,本发明采用的技术方案是,udn中基于机器学习的切换算法,该切换算法包括以下步骤:步骤a:移动设备每一次需要切换到新的微小区时,均先向宏基站上报移动设备所处位置的特征信息报告,宏基站对特征信息进行离散化;步骤b:分别采用机器学习决策树预测、神经网络预测、svm预测和随机森林预测四种学习器对离散化后的特征信息数据进行训练,得到各个训练模型;将所得模型放置到宏基站,并使用所得的各训练模型分别进行移动设备即将切换到的微小区的预测,得各预测结果;步骤c:将各预测结果进行相对多数投票法进行决策,得决策结果;步骤d:当决策结结果为移动设备需要发生切换,且满足发生预切换条件时,则宏基站向预切换的目标微小区发送预切换请求,目标微小区此时开始为移动设备准备资源,并实施切换;当不满足发生预切换条件时,则返回步骤a,移动设备顺次重复步骤a~d。进一步地,步骤d的具体过程如下:宏基站接受原微小区的原微基站和目标微小区的目标微基站的信干比,将目标微基站的信干比减原微基站的信干比,得差值δ;若差值δ大于切换门限1,判断移动设备需要发生切换,则宏基站向目标微基站发送资源准备信号;当差值δ大于切换门限2,判断移动设备满足发生预切换条件,则宏基站向目标微基站发送切换请求,移动端切换到所述目标微基站;若差值δ小于切换门限1,判断移动设备不需要发生切换,则返回步骤a,移动设备顺次重复步骤a~d。进一步地,该切换门限1的值为1~2db;切换门限2的值为2~3db。本发明udn中基于机器学习的切换算法具有如下优点:使目标微小区提前得知可能的切换请求,可以提前做出相应的资源准备,从而减少了非必要切换,降低在超密集网络中的系统的平均时延。附图说明图1是本发明中的切换算法流程图;图2神经网络预测的神经网络结构图;图3是本发明中的方案与传统方案的乒乓切换方案比较图;图4是本发明中的方案与传统方案的平均服务能力和平均时延的提升对比图。具体实施方式本发明udn中基于机器学习的切换算法,如图1所示,该切换算法包括以下步骤:步骤a:移动设备每一次需要切换到新的微小区时,均先向宏基站上报移动设备所处位置的特征信息报告,宏基站对特征信息进行离散化。步骤b:分别采用机器学习决策树预测、神经网络预测、svm预测和随机森林预测四种学习器对离散化后的特征信息数据进行训练,得到各个训练模型;将所得模型放置到宏基站,并使用所得的各训练模型分别进行移动设备即将切换到的微小区的预测,得各预测结果。运用不同学习器进行集成的结合策略往往能在实际使用中得到较好的效果。使用学习器的好处有一下几个方面:对与单个学习算法,其计算结果可能因为其适应性等原因造成局部最优,从而造成其泛化性能非常糟糕;由于学习任务的假设空间往往较大,若有多个假设在训练集达到同样的效果,则预测结果可能会不佳,此时采用多个学习器结合可以减少这一风险;某些学习器不适合当前所做的预测,即其所有假设都不包含真实假设,这就导致这一单一学习器预测效果肯定无效。多个学习器的结合即可减少这一情况带来的后果。步骤c:将各预测结果进行相对多数投票法进行决策,得决策结果。步骤c的具体过程如下:其中:h(x)代表相对多数投票法的决策结果;x为样本,即移动设备的每次测量特征信息报告;cj为类别标记集合,表示距离源微小区最近的每个相邻微小区集合;代表第i个学习器对第j个目标微小区的预测结果,预测为该目标微小区值为1,不为该目标微小区值为0;j为目标微小区编号,j≥0,且为整数;t代表共用的学习器数量,取值为4;代表使得取最大值所对应的j,即第j个小区所得票数最多。上述四种学习器会得到四种结果,那么运用相对多数的结合策略,将四种结果进行投票,选择概率更高的预测作为结果。步骤d:当决策结果为移动设备需要发生切换,且满足发生预切换条件时,则宏基站向预切换的目标微小区发送预切换请求,目标微小区此时开始为移动设备准备资源,并实施切换;当不满足发生预切换条件时,则返回步骤a,移动设备顺次重复步骤a~d。具体过程如下:宏基站接受原微小区的原微基站和目标微小区的目标微基站的信干比,将目标微基站的信干比减原微基站的信干比,得差值δ;若差值δ大于切换门限1,判断移动设备需要发生切换,则宏基站向目标微基站发送资源准备信号;当差值δ大于切换门限2,判断移动设备满足发生预切换条件,则宏基站向目标微基站发送切换请求,移动端切换到所述目标微基站;若差值δ小于切换门限1,判断移动设备不需要发生切换,则返回步骤a,移动设备顺次重复步骤a~d。其中:切换门限1的值为1~2db;切换门限2的值为2~3db。上述的特征信息报告包括设备id编号,设备行进方向,设备相对于新的微基站方向以及前一个微基站编号上传到宏基站,宏基站接受设备特征信息发送报告,并且在报告中加入天气及时间。由于天气及时间信息宏基站的获取有较高的可靠行,所以不必由移动设备上传。然后,将每个特征值进行有针对行的离散化,例如星期信息可以将工作日作为1,休息日作为0,行进方向作为4维向量输入,即其中一维数据为1,其他为0,为1的方向则为行进的方向。其他特征信息依次类推。该离散化更方便于使用数据对学习器模型进行训练。本实施例中,使用d代表经过量化的特征数据集,那么d(k)则为一个27维的向量。对上述步骤b中的四种学习器具体描述,如下所示:1)决策树预测:决策树是一种常用的分类方法,是监督学习的一种,决策树是基于树结构来进行决策的。通常希望决策树的分支结点所包含的样本尽可能属于同一类别。即“纯度”(purity)越来越高。信息熵(informationentropy)是度量样本集合纯度的一种常用指标。其公式为:其中,d为当前样本集合,d中第k类样本所占的比例为pk(k=1,2,...,y),ent(d)的值越小,那么表明其归类效果越好。根据信息增益(informationgain)的求解公式为:其中a为样本集d中的某一特征,v为所有的可能数量,其中dv表示d中所在属性a上取值为av的样本。那么以a为划分的特征,gain(d,a)即为划分后的信息增益。信息增益越大,意味着使用特征a来划分使得样本的分离程度更“透彻”也即其纯度较高。2)神经网络预测:神经网络是计算智能和机器学习的重要分支,而误差逆传播(errorbackpropagation,bp)算法是多层神经网络杰出代表。如果2所示,图中第j个输出神经元的输入为:第h个隐层神经元的输入为:对训练例(xk,yk),假定神经网络的输出为则网络在(xk,yk)上的均方误差为bp算法基于梯度下降(gradientdescent)策略,以目标的负梯度方向对参考数进行调整。对误差ek,给定学习率η,有w先影响到第j个输出层神经元的输入值β,再影响到其输出值然后影响到ek。经计算整理后得δwhj=ηgjbh(4);其中类似可求得δθhj,δvih,δγh,从而进行数值的更新进行反馈学习。3)svm预测:svm是一种基于统计学习理论的机器学习方法,在样本空间中,划分超平面可以通过如下线性方程:wtx+b=0(5);其中w为法向量,决定了超平面的方向,b为位移项,决定了其与原点的距离。样本空间中任意一点x到超平面(w,b)的距离可以写为:假设超平面能正确的分类,即距离超平面最近的这几个训练样本点被称为“支持向量”(supportvector),两个异类支持向量到超平面的距离之和为:欲找到最好的划分超平面,即找到具有“最大间隔”的划分超平面,找到合适的w和b使得γ最大。显然,为了最大化间隔,仅需最大化||w||-1,这等价于最小化||w||2于是有:4)随机森林预测:随机森林(randomforest,rf)以决策树为基学习器构建集成的基础上,进一步在决策树的训练过程中引入随机属性选择。虽然在基分类器数量少的时候性能往往较差,但是随着学习器数目的增加,随机森林通常收敛到更低的泛化误差,泛化性更好。常见的结合策略有平均法和投票法,平均法又包含简单平均和加权平均,投票法包含绝对投票、相对多数投票和加权投票。针对本发明中提出的提取用户特征进行训练并对其结果进行预测,显然平均法不甚合适。由于绝对投票法有可能面临没有结果的情况,所以在实际应用中鲁棒性较差,而面对多种复杂场景,加权投票法由又很难给出合适的权重。所以在本发明中采用了相对多数投票法,这对于预测即将发生的切换相比与单个学习器在精确度上有一定的提升。将本发明中的方案与单纯根据信噪比进行切换的方案对比,参数条件如表1所示:表1参数条件参数微小区半径25m宏小区半径250mue移动速度0-15km/h仿真时间5000s信道模型瑞利信道条件假设微小区完全覆盖并有6个近邻小区宏基站发射功率43dbm微基站发射功率23dbm训练数据非随机率75%切换门限23db在上述参数条件下,比对乒乓切换率的性能提升,如图3所示,在刚开始的时候本发明中的乒乓切换次数就大幅低于传统方案的切换次数,并且在随着时间的推移切换次数会大幅度降低。图4也是在上述参数条件下得到的,esa对比图为假设所提算法下切换都为成熟的切换。本发明中的方案,非必要切换相比必要切换增加了11.6%的平均时延,而传统切换则增加了40.2%,即采用本申请中的切换方法减少了28.6%的系统平均时延。其中esa表示评价用户服务接入性的指标。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1