基于深度神经网络的小基站开关控制方法与流程

文档序号:14635949发布日期:2018-06-08 19:42阅读:302来源:国知局

本发明属于移动通信中的无线资源管理技术领域,涉及基站开关控制方法,更为具体的说,是涉及基于深度神经网络的小基站开关控制方法。



背景技术:

在宏站覆盖范围内同频密集部署低功率小站的超密集异构网络是一种提升无线网络频谱利用率和网络容量的有效方法。然而,一方面待服务的终端在空间上分布不均,一个地区内的一部分小基站满负荷运转,一部分小基站空载,造成了处理资源的浪费。另一方面,待服务的终端在时间上分布不均,小区中的用户分布存在潮汐效应,同样会造成资源的浪费。



技术实现要素:

为解决上述问题,基于在城市场景中,人群随着已有的道路移动,人群下一时间点的位置可预测这一思路,本发明提供了基于深度神经网络的小基站开关控制方法。

为了达到上述目的,本发明提供如下技术方案:

基于深度神经网络的小基站开关控制方法,包括如下步骤:

步骤一:采集基站中的用户信息

每隔一段时间采样一次,记录接入基站的用户编号、接入时刻、和用户位置信息,放入样本集合L={(ui,ti,pi)},其中ui为接入用户的编号,ti为记录数据的时刻,pi为用户的地理位置,包括经度坐标xi和纬度坐标yi

步骤二:数据整合

将步骤一中基站搜集的用户数据整理、合并成可供模型训练的路径数据,合并所有用户的数据样本,得到最终用于训练的样本集合Ltrain={(p1,i,p2,i,p3,i,p4,i,p5,i,p6,i)};

步骤三:构建神经网络模型

选择全连接神经网络为训练模型,训练误差采用平均平方误差计算,训练时采用常用的正向传播方法得到一次训练的结果,采用逆向传播方法更新神经网络中的参数;

步骤四:输入数据并训练模型

1)选取步骤二得到的集合Ltrain中的一个样本,样本记为dj=(p1,j,p2,j,p3,j,p4,j,p5,j,p6,j),dj中前5个数据(p1,j,p2,j,p3,j,p4,j,p5,j)用于输入,最后1个数据p6,j用于与预测结果比较,计算误差;

2)向神经网络中输入一个样本的前5个数据(p1,j,p2,j,p3,j,p4,j,p5,j),采用神经网络中的正向传播方法得到一次训练的结果,即预测的位置坐标

3)样本中的预测坐标的真实值为利用实际坐标和预测坐标计算误差采用逆向传播方法更新神经网络中的参数,完成一次样本训练;

4)将整个样本集Ltrain代入并训练一次,称为一轮样本集训练,如此进行多轮样本集训练,每轮训练后计算该轮训练误差当|Ei+1-Ei|<ec时,训练停止;此时,模型的参数更新完毕,模型训练完毕;

其中,Ei为第i轮训练的误差,ei,j为第i轮训练的样本集中第j个样本的训练误差,ec为最小误差常量;

步骤五:收集待预测用户数据,预测用户下一时刻位置

1)设待预测时刻为tpredict,按照步骤一采集用户数据,记为L'={(ui',ti',pi')};

2)按照步骤二中的步骤整合数据,记为集合Lpredict={(p1',i,p'2,i,p'3,i,p'4,i,p'5,i)};

3)将集合Lpredict中的样本输入模型,即可得到用户的位置预测结果,预测结果集合记为

步骤六:计算基站未来服务用户的数目,控制基站开关

1)基站的信息记为集合其中,为基站位置的经度坐标,为基站位置的纬度坐标,numi为基站未来服务用户的数目;

2)从步骤五中得到的预测结果集合中,依次选取样本计算其与集合C中各个基站的距离得到与该样本最近的基站的编号在集合C中相应的numi上加1;

3)设控制基站开关的阈值为numc,遍历集合C中所有基站数据,当numi≥numc时,开启对应基站i;当numi≤numc,关闭对应基站i。

进一步的,所述步骤二中整理、合并用户数据的过程具体包括如下步骤:

1)在集合L中,选取一个固定的用户编号c,收集该用户的数据,记为集合

2)将Lc中的样本按时间进行排序;

3)把集合中的样本按时间顺序以六个一组进行分组,每一组为一个新的样本,即每个新的样本为k为分组组号;

4)去除新样本中时间数据只保留位置坐标数据即得到用户(ui=c)用于训练的样本集,记为

5)按照上述步骤整理其他用户的样本,并将所有用户的样本集合并在一起,得到最终用于训练的样本集合,记为Ltrain={(p1,i,p2,i,p3,i,p4,i,p5,i,p6,i)}。

进一步的,所述步骤三中选择的神经网络总共有5层神经元,第一层有10个输入神经元,最后一层有2个输出神经元,用于预测未知的坐标;所述步骤四中向神经网络输入的样本数据中每个数据都包括经纬坐标共有10个数用于输入,与神经网络的输入神经元一一对应。

进一步的,所述步骤五中设置预测时刻与采集样本的时刻在一定时间范围之内。

与现有技术相比,本发明具有如下优点和有益效果:

本发明方法通过预测基站内待服务人数,控制超密集网络中小基站的开关,达到了降低基站功耗,减少基站间的干扰,优化超密集网络中资源分配的目的;在建立数学模型的过程中,本方法结合了数据挖掘和机器学习,提高了预测的准确率和系统的实用性。

具体实施方式

以下将结合具体实施例对本发明提供的技术方案进行详细说明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。

本发明使用深度神经网络模型,建立人群位置的预测模型,预测未来小基站内的待服务人数。具体的说,本发明提供的基于深度神经网络的小基站开关控制方法,包括如下步骤:

第一步:采集基站中的用户信息。每一分钟采样一次,记录接入基站的用户编号、接入时刻、和用户位置信息,放入样本集合L={(ui,ti,pi)},其中ui为接入用户的编号,ti为记录数据的时刻,时刻精确到分钟,pi为用户的地理位置,包括经度坐标xi和纬度坐标yi

第二步:数据整合,将第一步中基站搜集的用户数据整理、合并成可供模型训练的路径数据。

1)在集合L中,选取一个固定的用户编号(ui=c),收集该用户的数据,记为集合

2)将Lc中的样本按时间进行排序。

3)把集合中的样本按时间顺序以六个一组进行分组,每一组为一个新的样本,即每个新的样本为k为分组组号。

4)去除新样本中时间数据只保留位置坐标数据即此时得到用户(ui=c)用于训练的样本集,记为

5)按照上述步骤整理其他用户的样本,并将所有用户的样本集合并在一起,得到最终用于训练的样本集合,记为

第三步:构建神经网络模型。

选择全连接神经网络为训练模型。该模型总共有5层神经元,第一层有10个输入神经元,最后一层有2个输出神经元,来预测未知的坐标,中间三层各有50个隐藏神经元(该值可由运营商根据实际网络复杂程度自行调整)。训练误差采用平均平方误差计算,训练步长设为0.001(该值可由运营商根据实际网络复杂程度自行调整)。训练时采用常用的正向传播方法得到一次训练的结果,采用逆向传播方法更新神经网络中的参数。

第四步:输入数据并训练模型。

1)选取第二步得到的集合Ltrain中的一个样本,样本记为dj=(p1,j,p2,j,p3,j,p4,j,p5,j,p6,j),dj中前5个数据(p1,j,p2,j,p3,j,p4,j,p5,j)用于输入,最后1个数据p6,j用于与预测结果比较,计算误差。

2)向神经网络中输入一个样本的前5个数据(p1,j,p2,j,p3,j,p4,j,p5,j),每个数据都是位置数据,包括经纬坐标两个数,总共有10个数用于输入,与神经网络的输入神经元一一对应,采用神经网络中的正向传播方法得到一次训练的结果,记为即预测的位置坐标。

3)样本中的预测坐标的真实值为利用实际坐标和预测坐标计算误差采用逆向传播方法更新神经网络中的参数,完成一次样本训练。

4)将整个样本集Ltrain代入并训练一次,称为一轮样本集训练。在一轮样本集训练后,计算该轮训练误差(Ei为第i轮训练的误差,ei,j为第i轮训练的样本集中第j个样本的训练误差)。进行多轮样本集训练,当|Ei+1-Ei|<ec(ec为最小误差常量,该值可由运营商根据实际网络运行情况自行调整)时,训练停止。此时,模型的参数更新完毕,模型训练完毕。

第五步:收集待预测用户数据,预测用户下一时刻位置。

1)设待预测时刻为tpredict,按照步骤一采集用户数据,记为L'={(ui',ti',pi')}(1≤tpredict-ti'≤5)表示采集样本的时刻与预测时刻在5分钟之内(该值可由运营商根据实际网络运行情况自行调整)。

2)按照第二步中的步骤整合数据,记为集合Lpredict={(p1',i,p'2,i,p'3,i,p'4,i,p'5,i)},此时的样本集合用于预测,只有输入,没有输出,故每个样本只有5个位置数据。

第六步:计算基站未来服务用户的数目,控制基站开关。

1)基站的信息记为集合其中,为基站位置的经度坐标,yic为基站位置的纬度坐标,numi为基站未来服务用户的数目,初始化为0。

2)从第五步中得到的预测结果集合中,依次选取样本计算其与集合C中各个基站的距离得到与该样本最近的基站的编号在集合C中相应的numi上加1。

3)设控制基站开关的阈值为numc(该值可由运营商根据实际网络运行情况自行确定),遍历集合C中所有基站数据,当numi≥numc时,开启对应基站i;当numi≤numc,关闭对应基站i。

本发明方案所公开的技术手段不仅限于上述实施方式所公开的技术手段,还包括由以上技术特征任意组合所组成的技术方案。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1