MassiveMIMO的优化方法、装置、设备及介质与流程

文档序号:16928719发布日期:2019-02-22 20:05阅读:505来源:国知局
本发明涉及通信
技术领域
:,尤其涉及一种大规模多输入多输出(massivemultipleinputmultipleoutput,massivemimo,mm)的优化方法、装置、设备及介质。
背景技术
::massivemimo技术是第五代移动通信技术5g中提高网络覆盖和系统容量的关键技术。在大规模mimo系统中,基站配置有大量的天线,数目通常有几十、几百甚至几千根,是现有mimo系统天线数目的数倍、数十倍以上。massivemimo充分利用大规模天线阵列和空间自由度,改进了长期演进(longtermevolution,lte)的广播机制,通过波束赋形的机制发射多个波束扇区,提高发射电磁波的功率密度,增强了覆盖范围。但是,massivemimo系统的权值参数,随着波束扇区数目和动态扫描维度的增加,波束扇区天线权值和无线参数的组合数由200多个增加至10000多个,再加上小区重选参数、小区切换参数,使波束扇区天线权值和无线参数的组合数量更多,导致massivemimo系统的优化调整变得异常复杂。已有的针对massivemimo网络扇区的优化方案大致有三种,以下分别做简要介绍:第一种,按照网络规划中的仿真模型进行massivemimo网络扇区优化调整。按照网络规划中使用的地图匹配,利用热点场景模型进行业务预测、覆盖仿真和干扰仿真等处理,模型可输出规划仿真后的波束扇区天线权值。规划仿真的目的是尽量使massivemimo基站的各个扇区的主瓣方向指向用户需求集中的方向,使用户获得尽可能强的信号,同时还可规划仿真同频、邻频扇区的无线参数,使用户在使用业务过程中获得尽可能大的增益。第二种,通过人工调整的方式进行massivemimo网络扇区优化调整。通过massivemimo网络统计得到不同方向的业务分布数据、覆盖数据和干扰数据等,大致判断用户业务的聚集程度,再使用测试仪表,进行实地测试,发现覆盖、干扰较差的区域,然后通过人工调整的方式修改massivemimo网络的天线权值和无线参数,实现对massivemimo网络扇区的权值和无线参数的优化调整。第三种,基于轮询迭代方式进行massivemimo网络扇区优化调整。使massivemimo网络的每个波束扇区对所有天线权值、无线参数进行轮询遍历,对采集到的海量网络数据进行存储、评估和测试,并以massivemimo网络的性能增益为目标,对采集到的样本数据与天线权值以及无线参数的不同组合进行寻优迭代,最终得到massivemimo网络扇区最佳的参数组合,从而可实现massivemimo网络扇区优化调整。虽然上述这些方案能够在一定程度上实施massivemimo网络扇区优化调整,但是,对于快速发展的5g通信技术而言,移动通信基站的建设更新速度很快,已有的方案已远远不能满足实际应用的需求。具体而言,对于第一种,按照网络规划中的仿真模型进行massivemimo网络扇区优化调整的方案,仿真模型中每一批新增入网的massivemimo基站的网络规划都是严格按照规划仿真计算出的天线方位角、下倾角、半功率角、参考信号功率等参数设置。但是,当不断有新增基站入网时,已经入网的相邻massivemimo基站就需要相应地优化调整;且由于新的基站入网后可使无线环境发生变化,这导致按照规划仿真的参数配置缺乏可持续性,后期网络性能下降。对于第二种,通过人工调整的方式进行massivemimo网络扇区优化调整的方案,由于massivemimo网络波束扇区天线权值和无线参数的组合数超过10000,基于人工调整的方案不但严重依赖操作人员的经验,而且需要后台数据分析和实地测试,分问题类型、分时间段、分批次地调整网络参数,每次优化评估均要耗费大量人力成本。特别是在massivemimo网络规模入网后,需要优化调整的参数数量巨大,人工调整方式显然已无法满足应用需求,效率极低。对于第三种,基于轮询迭代方式进行massivemimo网络扇区优化调整,处理时需要对所有天线权值、无线参数进行逐个轮询遍历,采集得到的海量样本数据需要存储和计算,对存储器和计算能力均有很高要求;通过采集到的历史样本数据,再迭代得到最优的权值参数组合是基于旧的优化策略得到的结果,一旦网络环境发生变化,需要采集新的数据才能迭代更新优化策略;并且,由于每个massivemimo网络的扇区的无线环境不同,往往需要逐个轮询迭代进行优化配置,即使应用基于有效样本得出的预测模型进行参数组合配置,仍存在误差,仍需要返回现网继续测试和评估,后期还需要进行多次参数修正,整个过程耗时耗力。技术实现要素:本发明实施例提供了一种massivemimo系统优化方案,使massivemimo系统不仅在优化效率和网络评估能力可以在线同时提升,而且实现优化调整与现网性能评估的在线实时交互,实时采用最优的天线权值和无线参数配置组合,实现网络性能最佳。第一方面,本发明实施例提供了一种massivemimo系统优化方法,方法包括:为用户设备ue配置多个波束扇区,接收ue上报的测量报告mr数据和统计波束扇区性能kpi数据,并根据所述mr数据和所述kpi数据生成波束扇区状态信息矩阵;根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,在线强化学习生成多个马克可夫决策过程mdp训练序列,并将所述mdp训练序列存入每个波束扇区的处理缓存中;根据异步优势加权的行动者-评论家actor-critic深度增强学习网络并行计算所述mdp训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制;根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定massivemimo系统最优的天线权值和无线参数配置组合。在第一方面的一些实施例中,采用波束赋形的方式形成多个所述波束扇区覆盖不同空间区域的ue;根据所述波束扇区的参考信号接收功率强度,确定所述ue接入的波束扇区。在第一方面的一些实施例中,所述波束扇区状态信息矩阵的方程为:xt={x_throughput,x_rsrp,x_ni,x_ta,x_aoa,...}t,其中,x_throughput为波束扇区的吞吐量效率,x_rsrp为波束扇区的覆盖水平,x_ni为波束扇区的干扰水平,x_ta为在该波束扇区下ue用于调整其主小区物理上行链路控制信道pucch/物理上行链路共享信道pusch/探测参考信号srs上行发送的时间,x_aoa为确定ue的波达角度,t为时刻,t=1,2,3…t。在第一方面的一些实施例中,所述根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,包括:根据专家经验模式对所述波束扇区不同状态信息进行识别和判断;从天线权值和无线参数的集合中选取相应的天线权值和无线参数;对选取的所述天线权值和无线参数进行优化;根据贪婪算法进行所述优化,确定优化策略。在第一方面的一些实施例中,所述天线权值和无线参数的集合的方程为:a={ɑ_ss-rsrp/csi-rsrp_power,ɑ_azimuth_angle,ɑ_elevation_angle,ɑ_horizontal_hpbw,ɑ_vertical_hpbw,ɑ_handover_parameter,ɑ_reselection_parameter,…},其中,ɑ_ss-rs/csi_rs_power为同步信号参考信号接收功率ss-rsrp/信道信息状态参考信号接收功率csi_rsrp功率参数优化调整,ɑ_azimuth_angle为波束方位角优化调整,ɑ_elevation_angle为波束俯仰角优化调整,ɑ_horizontal_hpbw为波束水平波瓣宽度优化调整,ɑ_vertical_hpbw为波束垂直波瓣宽度优化调整,ɑ_handover_parameter为massivemimo小区切换参数优化调整,ɑ_reselection_parameter为massivemimo小区重选参数的优化调整;所述优化策略的表达式为:π(ɑt|st),其中,π为优化策略函数,ɑt为天线权值和无线参数优化调整,st为波束扇区的网络状态函数。在第一方面的一些实施例中,所述mdp训练序列的方程为:(s1,ɑ1,s2,r1,…,st,ɑt,st+1,rt,…,st-1,ɑt-1,st,rt),其中,rt为性能回报,ɑt为选取的所述天线权值和无线参数优化调整,st为波束扇区的网络状态函数。在第一方面的一些实施例中,所述性能回报的方程为:rt=η×r_caset+(1-η)×r_ceset,其中,r_caset为小区平均吞吐效率,r_ceset为小区边缘吞吐效率,η为小区平均吞吐效率和小区边缘吞吐量频谱效率的期望平衡的权重系数,且0≤η≤1。在第一方面的一些实施例中,所述根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,包括:根据专家经验模式对有助于优化网络性能的特征进行识别和判断,确定优化策略;其中,所述有助于优化网络性能的特征包括所述波束扇区的弱覆盖特征、波束扇区间干扰特征、波束扇区方向与业务ue分布特征。在第一方面的一些实施例中,所述异步优势加权的行动者-评论家深度增强学习网络并行计算所述mdp训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制,包括:根据深度神经网络,构造基于行动者-评论家actor-critic结构的深度增强学习网络,其中,所述深度增强学习网络包括actor网络模块和critic网络模块,其中,actor网络模块用于优化策略函数和调整天线权值和无线参数,所述critic网络模块用于估计状态值函数;判断各个所述波束扇区的网络性能是否最佳;若各个所述波束扇区的网络性能是最佳,则保持当前的天线权值和无线参数配置;若各个所述波束扇区的网络性能不是最佳,则进入深度增强学习模式。在第一方面的一些实施例中,所述则进入深度增强学习模式,包括:根据所述mdp训练序列,并行计算基于优势加权的k步k-step时序差分误差,通过评估所述状态值函数逼近实际回报的程度来评估所述优化策略函数下的优化程度;所述critic网络模块根据所述状态值函数,确定所述critic网络模块的梯度信息,并将所述critic网络模块的梯度信息反馈至所述massivemimo系统共享的critic网络模块;根据所述critic网络模块的评估标准,累计更新所述actor网络模块的优化策略梯度,并将所述actor网络模块的梯度信息反馈至所述massivemimo系统共享的actor网络模块;所述massivemimo系统共享的actor-critic网络汇总所有所述梯度信息,并异步生成对应的权值参数;将所述权值参数复制到所述波束扇区的actor-critic结构的深度增强学习网络中,直至所有所述波束扇区能够学习到所述massivemimo系统的优化策略函数和评估能力。在第一方面的一些实施例中,所述优化策略函数的表达式为:π(ɑt|st;u),所述状态值函数的表达式为:v(st;v),其中,π为优化策略函数,u和v分别为优化策略函数和状态值函数的深度增强学习网络权值参数。在第一方面的一些实施例中,所述根据所述mdp训练序列,并行计算基于优势加权的k步k-step时序差分误差,通过评估所述状态值函数逼近实际回报的程度来评估所述优化策略函数下的优化程度,还包括:采用基于优势加权的k步k-step时序差分误差作为各个所述波束扇区的优势函数,所述优势函数的方程为:其中,wi为加权函数,γ为性能回报的折扣因子,且γ∈[0,1]。在第一方面的一些实施例中,所述actor网络模块的优化策略的目标函数为:其中,π(ɑt|st;u)为优化策略函数,v(st;v)为状态值函数,为基于优势加权的k-step时序差分误差的目标函数。在第一方面的一些实施例中,所述根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定massivemimo系统最优的天线权值和无线参数配置组合之后,还包括:判断整个massivemimo系统的性能回报是否达到最大;若是,则保持最优的天线权值和无线参数配置组合;若否,则进入深度增强学习模式,直到整个massivemimo系统的性能回报达到最大。第二方面,本发明实施例提供了一种massivemimo系统优化装置,装置包括:矩阵生成模块,用于为用户设备ue配置多个波束扇区,接收ue上报的测量报告mr数据和统计波束扇区性能kpi数据,并根据所述mr数据和所述kpi数据生成波束扇区状态信息矩阵;训练序列生成模块,用于根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,在线强化学习生成多个马克可夫决策过程mdp训练序列,并将所述mdp训练序列存入每个波束扇区的处理缓存中;深度增强学习模块,用于根据异步优势加权的行动者-评论家actor-critic深度增强学习网络并行计算所述mdp训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制;优化模块,用于根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定massivemimo系统最优的天线权值和无线参数配置组合。本发明实施例提供了一种massivemimo系统优化设备,包括:至少一个处理器、至少一个存储器以及存储在存储器中的计算机程序指令,当计算机程序指令被处理器执行时实现如上述实施方式中第一方面的方法。第四方面,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序指令,当计算机程序指令被处理器执行时实现如上述实施方式中第一方面的方法。本发明实施例提供的massivemimo系统优化方法、装置、设备及介质,为用户设备ue配置多个波束扇区,各个波束扇区接收ue上报的测量报告mr数据和统计波束扇区性能kpi数据,并根据所述mr数据和所述kpi数据生成波束扇区状态信息矩阵;根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,在线强化学习生成多个马克可夫决策过程mdp训练序列,并将所述mdp训练序列存入每个波束扇区的处理缓存中;根据异步优势加权的行动者-评论家actor-critic深度增强学习网络并行计算所述mdp训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制;根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定massivemimo系统最优的天线权值和无线参数配置组合,使massivemimo系统不仅在优化效率和网络评估能力可以在线同时提升,而且实现优化调整与现网性能评估的在线实时交互,实时采用最优的天线权值和无线参数配置组合,实现网络性能最佳。附图说明为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1示出了本发明实施例提供的massivemimo的优化方法的示意流程图;图2示出了本发明一个示例中massivemimo系统中天线模块示意图;图3示出了本发明一个示例中massivemimo系统波束扇区示意图;图4示出了本发明实施例提供的行动者-评论家深度增强学习网络的示意流程图;图5示出了本发明一个示例中massivemimo系统波束扇区优化示意图;图6示出了本发明一个示例中massivemimo系统中多个波束扇区优化示意图;图7示出了本发明实施例提供的massivemimo的优化装置的结构示意图;图8示出了本发明实施例提供的massivemimo的优化设备的硬件结构示意图。具体实施方式下面将详细描述本发明的各个方面的特征和示例性实施例,为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细描述。应理解,此处所描述的具体实施例仅被配置为解释本发明,并不被配置为限定本发明。对于本领域技术人员来说,本发明可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本发明的示例来提供对本发明更好的理解。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。下面结合附图,详细描述根据本发明实施例的massivemimo系统优化方法、装置、设备及介质。应注意,这些实施例并不是用来限制本发明公开的范围。图1是示出根据本发明实施例的massivemimo系统优化方法的示意流程图。如图1所示,本发明实施例中的massivemimo系统优化方法包括以下步骤:s110,为用户设备(userequipment,ue)配置多个波束扇区,接收ue上报的测量报告mr数据和统计波束扇区性能kpi数据,并根据所述mr数据和所述kpi数据生成波束扇区状态信息矩阵。s120,根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,在线强化学习生成多个马克可夫决策过程mdp训练序列,并将所述mdp训练序列存入每个波束扇区的处理缓存中。s130,根据异步优势加权的行动者-评论家actor-critic深度增强学习网络并行计算所述mdp训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制。s140,根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定massivemimo系统最优的天线权值和无线参数配置组合。其中,用户设备ue也可以被称为终端,用户设备可以是手机、平板电脑、笔记本电脑等。在s110中,作为一个示例,采用波束赋形的方式为ue配置n个波束扇区(sector_1、sector_2、…sector_i、…sector_n),其中,n为正整数,n个波束扇区覆盖不同空间、不同区域的ue,每个波束扇区都拥有不同的波束索引,覆盖一个ue的多个波束扇区的参考信号接收功率(referencesignalreceivingpower,rsrp)的强度是不同的。ue从多个波束扇区中选择一个波束扇区的rsrp强度最强的接入,其中,rsrp可以是信道信息状态参考信号接收功率(channelstatusinformation_referencesignalreceivingpower,csi_rsrp),也可以是同步信号参考信号接收功率(synchronoussignal_referencesignalreceivingpower,ss_rsrp)。图2示出了本发明一个示例中massivemimo系统中天线模块示意图,如图2所示,massivemimo系统中天线由mg×ng个子天线模块组成,各子天线模块的中心的水平方向间距为dg,h,各子天线模块的中心的垂直方向间距为dg,v,每个子天线模块包括m×n×q个天线阵子,该m×n×q个天线阵子组成一个收发单元(transceiverunit,txru),每个txru对应一个波束扇区(sector),其中,m是每个列中具有相同极化的天线元件的数目,n是列数,q表示极化数量,其中q取1表示单极化,q取2表示双极化。图3示出了本发明一个示例中massivemimo系统波束扇区示意图,如图3所示,massivemimo天线结构实现空间分集、空间复用和波束赋形功能都是以子天线块为单位,每个子天线摸块相当于多天线中的每个子天线;图3中以子天线块为单位实现波束赋形功能,因为每个子天线块实际上是一个阵元数为m×n×q个的阵列模块,由n×m个子天线块组成的多天线是一个二维系统,由m×n×q个阵元组成的阵列是一个三维系统,所以,massivemimo天线中的总阵元数为mg×ng×m×n×q个。在s110中,作为一个示例,mm系统中的每个波束扇区sector_i,可根据波束扇区接收ue上报的测量报告(measurementreport,mr)数据和波束扇区性能(keyperformanceindicators,kpi)数据,生成对应时刻的波束扇区的状态信息矩阵xt。例如,在时刻t,根据massivemimo系统中各个波束扇区sector的吞吐量效率、覆盖水平、干扰水平、ue分布等状态信息,可以用表达式(1)来表示单个波束扇区的状态信息矩阵,如下:xt={x_throughput,x_rsrp,x_ni,x_ta,x_aoa,...}t(1)其中,xt表示时刻t(t=1,2,3,…t)当前波束扇区的状态信息矩阵;x_throughput表示波束扇区的吞吐量效率,这里,波束扇区的吞吐量效率包括小区平均吞吐量效率x_throughput_averager和小区边缘吞吐量效率;x_rsrp表示波束扇区的覆盖水平,其中,x_rsrp_serving_sector表示在该波束扇区下ue上报测量的服务扇区的参考信号接收功率情况,x_rsrp_neighbor_sector_1、x_rsrp_neighbor_sector_2、x_rsrp_neighbor_sector_3、…、x_rsrp_neighbor_sector_n表示在该波束扇区下ue上报测量的所有相邻波束扇区的参考信号接收功率情况,其中,n表示相邻波束扇区的个数,且相邻波束扇区的参考信号接收功率情况按照信号强度由强到弱降序排列;x_ni表示波束扇区的干扰水平,其中,x_ni_ulsinr表示所有ue上报测量的波束扇区的上行信号链路质量,x_ni_dlsinr表示所有ue上报测量波束扇区的下行信号链路质量;x_ta表示在该波束扇区下ue用于调整其主小区物理上行链路控制信道(physicaluplinkcontrolchannel,pucch)/物理上行链路共享信道(physicaluplinksharedchannel,pusch)/探测参考信号(soundingreferencesignal,srs)上行发送的时间,进而确定ue距离massivemimo视频系统的远近;x_aoa表示确定ue的波达角度,其中,在massivemimo系统的立体空间中包括水平波达角度x_horizontal_aoa和垂直波达角度x_vertical_aoa。在本发明的实施例中,每个波束扇区都有对应的状态信息矩阵,其他波束扇区的状态信息矩阵都可以根据上述表达式(1)来确定。在本发明的实施例中,波束扇区的状态信息矩阵不仅仅包括波束扇区的吞吐量效率、覆盖水平、干扰水平、ue分布等状态信息,还可以包括其他对优化网络性能有用的特定的状态信息,其他特定的状态信息可根据实际需求进行设置。在本发明的某些实施例中,可将mr数据和kpi数据进行归一化处理,即将mr数据和kpi数据统一映射到[0,1]的区间上,形成标准化数值,便于进行相关数据处理。举例来说,根据测量报告mr数据和波束扇区性能kpi数据,生成波束扇区的状态信息矩阵,并将涉及到的数据进行归一化处理,每个波束扇区都有对应的状态信息矩阵,便于特征的识别和判断,便于对波束扇区的并行处理,且数据进行归一化处理,能够防止参数异常,计算速度快。在s120中,作为一个示例,根据专家经验模式对massivemimo系统下,各自不同的波束扇区的状态信息矩阵xt的不同网络状态st的特征进行识别和判断,并针对性地从massivemimo系统优化调整所涉及的天线权值和无线参数的集合中,选取相应的天线权值和无线参数,并对选取的天线权值和无线参数进行优化动作ɑ,为了获取该优化策略下的最大性能回报r,采取贪婪算法进行优化调整,进而形成专家经验模式下的特定优化策略π(ɑt|st);根据特定优化策略,在线强化学习生成马克可夫决策过程(markovdecisionprocesses,mdp)训练序列,mdp训练序列为(s1,ɑ1,s2,r1,…,st,ɑt,st+1,rt,…,st-1,ɑt-1,st,rt)。在本发明实施例中,特定优化策略π(ɑt|st)是每个波束扇区(sector_i)不同的网络状态通过专家经验模式对状态信息矩阵xt中的特征进行自动识别和判断,选取相应的天线权值和无线参数组合进行优化动作ɑ,形成的专家经验模式下的特定优化策略π。其中,s表示mm系统下波束扇区的网络环境或网络性能的状态函数,xt为时刻t波束扇区的状态信息矩阵xt,对应的st+1=(st,ɑt,xt+1),对应的st=[xt],即,s1是波束扇区的状态信息矩阵x1的状态函数,st是波束扇区的状态信息矩阵xt的状态函数。a为massivemimo小区优化调整所涉及的天线权值和无线参数的设置的集合,优化动作ɑ∈a,集合a中天线权值和无线参数的所有优化动作ɑ均被专家经验模式下的特定优化策略π所映射。作为一个示例,可以用表达式(2)来表示集合a。a={ɑ_ss-rs/csi-rs_power,ɑ_azimuth_angle,ɑ_elevation_angle,ɑ_horizontal_hpbw,ɑ_vertical_hpbw,ɑ_handover_parameter,ɑ_reselection_parameter,…}(2)其中,ɑ_ss-rs/csi_rs_power为ss-rs/csi_rs功率参数优化调整,ɑ_azimuth_angle为波束方位角优化调整,ɑ_elevation_angle为波束俯仰角优化调整,ɑ_horizontal_hpbw为波束水平波瓣宽度优化调整,ɑ_vertical_hpbw为波束垂直波瓣宽度优化调整,ɑ_handover_parameter为massivemimo小区切换参数优化调整,ɑ_reselection_parameter为massivemimo小区重选参数优化调整,等。在本发明的实施例中,集合a不仅仅包括覆盖功率参数、波束方位角、波束俯仰角、波束垂直波瓣宽度、小区切换参数、小区重选参数等天线权值和无线参数的优化动作,还包括其他优化调整所涉及的天线权值和无线参数的优化动作,其他优化调整所涉及的天线权值和无线参数可根据实际需求进行设置。作为一个示例,为了在执行优化动作后获得波束扇区的最大性能回报奖励,采用贪婪算法调整优化动作,r表示针对st下执行优化动作ɑt后的性能回报,即r(st,ɑt,st+1)为标量函数,即massivemimo系统中波束扇区根据当前的网络状态执行优化动作ɑ之后,波束扇区得到的性能回报,可以通过表达式(3)来计算波束扇区的性能回报:rt=η×r_caset+(1-η)×r_ceset(3)其中,r_caset为小区平均吞吐量效率的性能回报,r_ceset为小区边缘吞吐量效率的性能回报,η为小区平均吞吐量效率和小区边缘吞吐量效率的平衡的权重系数,且,0≤η≤1。例如,ue数量相对较少推荐取值95%,ue数量相对较多推荐取值60%。η的取值可以根据ue数量进行设置。其中,其中r_caset=traffic.throughput.bitrate.为波束扇区业务在统计周期t内统计到业务吞吐率;为波束扇区业务在统计周期进行采样,获取到低信道质量指示(channelqualityindicator,cqi)时的业务吞吐率的平均速率,其中,lowcqi≤7,根据实际支持cqi表格决定,取对应的正交相移键控(quadraturephaseshiftkeying,qpsk)调制的cqi指示。在本发明的实施例中,通过ue反馈的cqi指标反馈无线信道质量,把信道质量量化成0~15的序列(4bit数来承载),并定义为cqi,演进型基站(evolvednodeb,enodeb)根据上报的cqi来决定编码方式。作为一个示例,表1是4-bitcqitable数据信息表,cqiindex等于15,对于cqi指示对应的qpsk的格式,可等效为小区边缘环境。表1作为一个示例,根据专家经验模式对波束扇区的弱覆盖特征进行识别和判断,确定特定优化策略,并生成mdp训练序列过程包括:根据专家经验模式在波束扇区的状态信息矩阵xt中,识别和判断出覆盖特征,在该波束扇区下所有ue上报测量的服务扇区参考信号(ss_rs/csi_rs)的平均接收功率x_rsrp_serving_sector小于一定的门限x_min_rsrp_threshold,即服务扇区参考信号平均接收功率:对选取的覆盖功率参数ss-rs/csi-rs_power进行优化动作ɑ,即ɑ_ss-rs/csi-rs_power,以0.5db为调整步进,为了获取特定优化策略下的最大性能回报r,采用贪婪算法调整覆盖功率,覆盖功率调整范围为[0,p_maxdb],进而形成专家经验模式下的特定优化策略,通过在线强化学习将专家模式下的特定优化策略生成mdp训练序列,mdp训练序列为(s1,ɑ1,s2,r1,…,st,ɑt,st+1,rt,…,st-1,ɑt-1,st,rt)。在本发明实施例中,门限x_min_rsrp_threshold可以根据经验进行设置。作为另一个示例,根据专家经验模式下对波束扇区间的干扰特征进行识别和判断,确定特定优化策略,并生成mdp训练序列过程包括:根据专家经验模式在波束扇区的状态信息矩阵xt中,识别和判断出干扰特征,在该波束扇区下ue上报测量的服务扇区参考信号(ss_rs/csi_rs)平均接收功率x_rsrp_serving_sector与该波束扇区下所有ue上报测量的第n个最强相邻波束参考信号平均接收功率的差值小于一定的门限d_rsrp,且所有ue上报测量波束扇区的下行信号链路质量x_ni_dl_sinr小于一定的门限x_min_dl_sinr,即(x_rsrp_serving_sector-x_rsrp_neighbor_sector_n)<d_rsrp且x_ni_dl_sinr<x_min_dl_sinr。对选取的扇区水平方向半功率波瓣宽度horizontal_hpbw,或,扇区垂直方向半功率波瓣宽度vertical_hpbw进行优化动作ɑ,即ɑ_horizontal_hpbw或ɑ_vertical_hpbw,以1-3度为调整步进,为了获取特定优化策略下的最大性能回报r,采用线性递减的贪婪算法调整波瓣宽度,调整范围为[3,65]度,进而形成专家经验模式下的特定优化策略,通过在线强化学习将专家经验模式下的特定优化策略生成mdp训练序列,mdp训练序列为(s1,ɑ1,s2,r1,…,st,ɑt,st+1,rt,…,st-1,ɑt-1,st,rt)。在本发明实施例中,门限d_rsrp和门限x_min_dl_sinr可以根据经验进行设置,如,d_rsrp为3db,x_min_dl_sinr为-3db。作为另一个示例,根据专家经验模式对波束扇区的方向与业务ue分布偏差特征识别和判断,确定特定优化策略,并生成mdp训练序列过程包括:在波束扇区的状态信息矩阵xt中,根据ue的业务服务质量(qualityofservice,qos)等级和业务量需求标记方式的上行物理信号入射方向、ue上行传输时间提前量(timingadvanced,ta)分布与massivemimo基站天面法线水平(垂直)面夹角取均值计算,即确定标记有业务量ue范围,其中,qos等级包括,11为高优先级有业务量需求的ue,10为低优先级有业务量需求的ue,01为高优先级零业务量需求的ue,00为低优先级零业务量需求的ue。对波束扇区的方位角进行优化动作,即ɑ_azimuth_angle,为了获取特定优化策略下的最大性能回报r,采用贪婪算法调整波束扇区的方位角,调整范围为对波束扇区的俯仰角进行优化动作,即ɑ_elevation_angle,为了获取特定优化策略下的最大性能回报r,采用贪婪算法调整波束扇区的俯仰角,调整范围为[-2×θzoa,2×θzoa],进而形成专家经验模式下的特定优化策略,通过在线强化学习将专家模式下的特定优化策略生成mdp训练序列,mdp训练序列为(s1,ɑ1,s2,r1,…,st,ɑt,st+1,rt,…,st-1,ɑt-1,st,rt)。作为一个示例,根据每个波束扇区的特定优化策略,在线强化学习生成马克可夫决策过程mdp训练序列,并将mdp训练序列存到各自的波束扇区的强化学习网络架构的处理缓存中。在本发明的实施例中,专家经验模式对所述波束扇区的状态信息特征不仅仅包括弱覆盖特征、波束扇区间干扰特征、波束扇区方向与业务ue分布特征,还可以包括其他对有助于优化网络性能的状态信息特征,其他特征同样可以根据实际需求设置特征条件和优化动作,通过专家经验模式进行识别和判断,形成优化策略;在线强化学习生成多个马克可夫决策过程mdp训练序列,并将mdp训练序列存到各自的波束扇区的强化学习网络架构的处理缓存中。在本发明实施例中,根据专家经验模式对massivemimo系统下各自不同的波束扇区的状态信息矩阵xt的不同网络状态的特征进行识别和判断,并针对性地从massivemimo系统优化调整所涉及的天线权值和无线参数的集合中,选取相应的天线权值和无线参数,并对选取的天线权值和无线参数进行优化动作ɑ,为了获取波束扇区的最大性能回报r,采取贪婪算法进行优化调整,进而形成专家经验模式下的特定优化策略π(ɑt|st);根据特定优化策略,在线强化学习生成马克可夫决策过程mdp训练序列,并将mdp训练序列存入各个波束扇区的处理缓存中,既避免了需要大量存储空间来存储历史样本数据,节约了存储空间,可以加速mm系统优化策略的探索和收敛,使massivemimo系统的网络性能快速进入局部最优的状态,调整效率快,减少了人工成本,并能够保证massivemimo系统网络稳定性。图4示出了本发明实施例提供的行动者-评论家深度增强学习网络的示意流程图。如图4所示,行动者-评论家深度增强学习网络,包括如下步骤:s131,根据深度神经网络,构造基于行动者-评论家actor-critic结构的深度增强学习网络,其中,所述深度增强学习网络包括actor网络模块和critic网络模块,其中,actor网络模块用于优化策略函数和调整天线权值和无线参数,所述critic网络模块用于估计状态值函数。s132,判断各个所述波束扇区的网络性能是否最佳。s133,根据所述mdp训练序列,并行计算基于优势加权的k步k-step时序差分误差,通过评估所述状态值函数逼近实际回报的程度来评估所述优化策略函数下的优化程度。s134,所述critic网络模块根据所述状态值函数,确定所述critic网络模块的梯度信息,并将所述critic网络模块的梯度信息反馈至所述massivemimo系统共享的critic网络模块。s135,根据所述critic网络模块的评估标准,累计更新所述actor网络模块的优化策略梯度,并将所述actor网络模块的梯度信息反馈至所述massivemimo系统共享的actor网络模块。s136,所述massivemimo系统共享的actor-critic网络汇总所有所述梯度信息,并异步生成对应的权值参数。s137,将所述权值参数复制到所述波束扇区的actor-critic结构的深度增强学习网络中,直至所有所述波束扇区能够学习到所述massivemimo系统的优化策略函数和评估能力。在s131中,作为一个示例,针对massivemimo系统下每个波束扇区,将深度神经网络作为函数逼近器,构造基于行动者-评论家(actor-critic)结构的深度增强学习网络,其中,深度神经网络由n个卷积层和m个全连接层组成,n和m均为正整数。图5示出了massivemimo系统波束扇区优化示意图,如图5所示,行动者-评论家(actor-critic)结构的深度增强学习网络由actor网络模块和critic网络模块组成,其中,actor网络模块用于优化策略函数π(ɑt|st;u)和相对应的优化动作(调整天线权值和无线参数),critic网络模块用于估计状态值函数v(st;v),其中u和v分别为优化策略函数和状态值函数的深度增强学习网络权值参数。每个波束扇区都独自拥有结构相同的actor网络模块,即拥有深度增强学习优化策略函数π(ɑt|st;u),和critic网络模块,即拥有状态值函数v(st;v),且每个波束扇区都独自拥有基于行动者-评论家(actor-critic)结构的深度增强学习网络权值参数u,v。每个波束扇区根据深度增强学习优化策略函数π(ɑt|st;u),执行优化动作a来调整天线权值和无线参数,为了得到最大的性能回报r,状态值函数v(st;v)根据mm网络给出的真实回报与自己的评估差异来调整自动的评估标准,使得评估更加精确;actor网络模块的优化策略函数π(ɑt|st;u)根据状态价值函数v(st;v)的评估,调整mm网路优化策略,选择更优的天线权值和无线参数组合,执行优化动作a,获得更多的mm网路性能回报。在本发明实施例中,借助于专家经验模式下在线强化学习获得个马尔可夫决策过程(mdp)训练序列,每个波束扇区(sector_i)进行深度增强学习时,避免随机优化动作导致massivemimo网络性能的下降,同时减少不必要的天线权值和参数组合,加快了优化策略和网络评估的训练,更快地获得最佳网络性能。在s132中,作为一个示例,对于mdp训练序列的每一个时刻(st,ɑt),其目标都是获得波束扇区最大化的性能回报r,即,使波束扇区的网络性能达到最佳。判断在时刻t,波束扇区的网络性能是否最佳,若是,则后续的优化动作的累计回报gt:t=0,则保持最优的天线权值和无线参数配置。如果在时刻t,波束扇区的网络性能仍没有达到最佳状态,则进入深度增强学习模式。若后续的优化动作的累计性能回报约等于状态值函数的评估值时,即gt:t≈v(st;v),表示从状态st开始,波束扇区在优化策略函数下执行优化动作ɑ,直到网络性能最佳时的得到的累计性能回报。在s133中,作为一个示例,深度增强学习模式包括,采用基于优势加权的k-step时序差分误差,作为评估每个波束扇区(sector_i)的天线权值和无线参数所进行优化动作a的优势函数at。具体地,通过状态值函数v(st;v)去逼近实际性能回报程度来评估优化动作的好坏,根据贝尔曼方程获得优化动作的累计性能回报,可以根据下面的表达式(4)来计算:其中,γ为性能回报的折扣因子,且,γ∈[0,1],当γ接近于0时着重瞬时回报,当γ接近于1时着重长期回报。后续k-step的上界为tmax,k=t(tmax)-t;r是波束扇区的对应的即时奖励,rt=η×r_caset+(1-η)×r_ceset,其中r_caset为小区平均吞吐效率,r_ceset为小区边缘吞吐效率,η为为小区平均吞吐效率和小区边缘吞吐量频谱效率的期望平衡的权重系数,且0≤η≤1。其中,其中r_caset=traffic.throughput.bitrate.为波束扇区业务在统计周期t内统计到业务吞吐率;为波束扇区业务在统计周期进行采样,获取到低cqi时的业务吞吐率的平均速率,其中,低cqi≤7,根据实际支持cqi表格决定,取对应的qpsk调制的cqi指示。为了加速深度增强学习效率,对k-step性能回报的状态值评估进行优势加权,其加权函数为表达式(5):基于优势加权的k-step时序差分误差的目标函数td-target为表达式(6):因此,基于优势加权的k-step时序差分误差作为波束扇区(sector_i)评估调整天线权值和无线参数所进行优化动作a的优势函数at为:对应的st+k是mdp训练序列中(st,at)的评估,对k步中的每一个时刻进行迭代以及对应的状态值,遇到最后小于长度为k的步长,进行降级处理。在本发明实施例中,k-step时序差分误差评估方法没有立即对下一个时刻的状态st+1进行误差评估,一方面,充分考虑massivemimo系统的无线网络的连续性和稳定性;另一方面,利用已经执行k-step的mdp训练序列,计算多步的回报在最优天线权值和无线参数附近快速迭代寻优,更逼近完成所有优化调整步骤的状态值评估,迭代计算量小,使对优化策略调整和状态价值评估的学习效率更高。在s134中,作为一个示例,对于每个波束扇区(sector_i)通过并行计算出的基于优势加权的k-step时序差分误差at,迭代k-step时序差分误差评估,对应的st+k时刻是mdp中(st,at)的评估,对k步中的每个时刻进行迭代,并代入critic网络模块中的状态值函数v的损失函数,损失函数为:其中,i∈(t,t+k),通过梯度下降算法计算,使得critic网络模块的权值参数的梯度值最小化,并通过累计更新的方式将每个波束扇区(sector_i)中critic网络模块累计梯度去更新存储的所有mm系统共享的critic网络梯度信息dvs,即在s135中,作为一个示例,将基于优势加权的k-step时序差分误差对每个波束扇区(sector_i)评估优化动作ɑ的优势函数at作为基函数,来累计更新每个波束扇区(sector_i)的actor网络模块中优化策略函数梯度。在每个波束扇区(sector_i)的actor网络模块中优化策略函数梯度的寻优过程中,选取优化调整的参数集合a中天线权值和无线参数的最优设置或最优组合。优化策略的目标函数为:通过i∈(t,t+k)对梯度上升方式计算使actor网络模块的权值梯度值最大化,并通过累计梯度更新,将各个波束扇区(sector_i)中actor网络模块的累计梯度去更新所有massivemimo系统共享的actor网络梯度信息dus,即:在s136中,作为一个示例,图6示出了massivemimo系统中多个波束扇区优化示意图,如图6所示,所有massivemimo系统共享的actor-critic网络汇总到来自不同波束扇区(sector_i)的actor-critic网络权值梯度dvs和dus,通过深度actor-critic网络异步生成所有massivemimo系统共享的深度actor-critic网络的权值参数us和vs。在s137中,作为一个示例,将所有massivemimo系统共享的权值参数us和vs信息,复制到各个波束扇区(sector_i)的actor-critic网络中,重复s133至s136,使得各个波束扇区(sector_i)能够学习到所有的所有massivemimo系统共享的权值参数us和vs信息系统的优化策略函数和评估能力。在本发明实施例中,利用基于优势加权的k-step时序差分误差估计快速迭代寻优,通过深度网络优化函数的权值信息共享模式,每个波束扇区优化策略函数和评估能力可以不用本地样本也能学习,入网的massivemimo系统越多,寻找最优天线权值和无线参数配置速度越快。基于优势加权的k-step优化方案与基于轮询迭代方式的优化方案的效果对比如表2所示:表2轮询迭代k-stepmassivemimo天线权值和参数10000+5000+n个波束扇区n*10000+5000+/nm个massivemimo系统m*n*10000+5000+/(m*n)例如,对于一个200个波束扇区的massivemimo系统规模性部署区域来说,每个参数(或组合)样本100个,完成所有参数迭代至少需要16亿次的迭代,而在本发明实施例中,由于对每个波束扇区进行分布式处理,专家经验模式下参数组合迭代可减少50%,采用k-step回报寻优学习3-4次完成所有参数寻优,天线权值和无线参数配置寻优速度明显提升。在s140中,作为一个示例,massivemimo系统中的每个波束扇区(sector_i)通过深度增强学习到的优化策略函数和评估能力,针对各自不同的网络状态,相应地采取最优的天线权值参数和网络参数配置组合,如果整个massivemimo系统达到最佳状态则保持参数设置,否则继续进入深度增强学习模式,继续寻求最优的天线权值参数和网络参数配置组合,使网络性能回报达到最大。在本发明实施中,massivemimo系统基于优势加权的k-step时序差分误差估计和深度网络优化策略和状态值函数权值共享和复制的方式,使massivemimo系统不仅在优化效率和网络评估能力可以在线同时提升,而且实现优化调整与现网性能评估的在线实时交互,实时采用最优的天线权值和无线参数配置组合,实现网络性能最佳。基于同样的发明构思,本发明实施例还提供了一种massivemimo的优化装置。如图7所示,本发明实施例提供的massivemimo的优化装置,包括:矩阵生成模块701,用于矩阵生成模块,用于为用户设备ue配置多个波束扇区,接收ue上报的测量报告mr数据和统计波束扇区性能kpi数据,并根据所述mr数据和所述kpi数据生成波束扇区状态信息矩阵;训练序列生成模块702,用于根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,在线强化学习生成多个马克可夫决策过程mdp训练序列,并将所述mdp训练序列存入每个波束扇区的处理缓存中;深度增强学习模块703,用于根据异步优势加权的行动者-评论家actor-critic深度增强学习网络并行计算所述mdp训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制;优化模块704,用于根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定massivemimo系统最优的天线权值和无线参数配置组合。在一个实施方式中,矩阵生成模块701具体用于:采用波束赋形的方式形成多个所述波束扇区覆盖不同空间区域的ue;根据所述波束扇区的参考信号接收功率强度,确定所述ue接入的波束扇区。在一个实施方式中,矩阵生成模块701具体用于:所述波束扇区状态信息矩阵的方程为:xt={x_throughput,x_rsrp,x_ni,x_ta,x_aoa,...}t,其中,x_throughput为波束扇区的吞吐量效率,x_rsrp为波束扇区的覆盖水平,x_ni为波束扇区的干扰水平,x_ta为在该波束扇区下ue用于调整其主小区物理上行链路控制信道pucch/物理上行链路共享信道pusch/探测参考信号srs上行发送的时间,x_aoa为确定ue的波达角度,t为时刻,t=1,2,3…t。在一个实施方式中,训练序列生成模块702具体用于:根据专家经验模式对所述波束扇区不同状态信息进行识别和判断;从天线权值和无线参数的集合中选取相应的天线权值和无线参数;对选取的所述天线权值和无线参数进行优化;根据贪婪算法进行所述优化,确定优化策略。在一个实施方式中,训练序列生成模块702具体用于:所述天线权值和无线参数的集合的方程为:a={ɑ_ss-rsrp/csi-rsrp_power,ɑ_azimuth_angle,ɑ_elevation_angle,ɑ_horizontal_hpbw,ɑ_vertical_hpbw,ɑ_handover_parameter,ɑ_reselection_parameter,…},其中,ɑ_ss-rs/csi_rs_power为同步信号参考信号接收功率ss-rsrp/信道信息状态参考信号接收功率csi_rsrp功率参数优化调整,ɑ_azimuth_angle为波束方位角优化调整,ɑ_elevation_angle为波束俯仰角优化调整,ɑ_horizontal_hpbw为波束水平波瓣宽度优化调整,ɑ_vertical_hpbw为波束垂直波瓣宽度优化调整,ɑ_handover_parameter为massivemimo小区切换参数优化调整,ɑ_reselection_parameter为massivemimo小区重选参数的优化调整;所述优化策略的表达式为:π(ɑt|st),其中,π为优化策略函数,ɑt为天线权值和无线参数优化调整,st为波束扇区的网络状态函数。在一个实施方式中,训练序列生成模块702具体用于:mdp训练序列的方程为:(s1,ɑ1,s2,r1,…,st,ɑt,st+1,rt,…,st-1,ɑt-1,st,rt),其中,rt为性能回报,ɑt为选取的所述天线权值和无线参数优化调整,st为波束扇区的网络状态函数。在一个实施方式中,训练序列生成模块702具体用于:性能回报的方程为:rt=η×r_caset+(1-η)×r_ceset,其中,r_caset为小区平均吞吐效率,r_ceset为小区边缘吞吐效率,η为小区平均吞吐效率和小区边缘吞吐量频谱效率的期望平衡的权重系数,且0≤η≤1。在一个实施方式中,训练序列生成模块702具体用于:根据专家经验模式对有助于优化网络性能的特征进行识别和判断,确定优化策略;其中,所述有助于优化网络性能的特征包括所述波束扇区的弱覆盖特征、波束扇区间干扰特征、波束扇区方向与业务ue分布特征。在一个实施方式中,深度增强学习模块703具体用于:根据深度神经网络,构造基于行动者-评论家actor-critic结构的深度增强学习网络,其中,所述深度增强学习网络包括actor网络模块和critic网络模块,其中,actor网络模块用于优化策略函数和调整天线权值和无线参数,所述critic网络模块用于估计状态值函数;判断各个所述波束扇区的网络性能是否最佳;若各个所述波束扇区的网络性能是最佳,则保持当前的天线权值和无线参数配置;若各个所述波束扇区的网络性能不是最佳,则进入深度增强学习模式。在一个实施方式中,深度增强学习模块703具体用于:根据所述mdp训练序列,并行计算基于优势加权的k步k-step时序差分误差,通过评估所述状态值函数逼近实际回报的程度来评估所述优化策略函数下的优化程度;所述critic网络模块根据所述状态值函数,确定所述critic网络模块的梯度信息,并将所述critic网络模块的梯度信息反馈至所述massivemimo系统共享的critic网络模块;根据所述critic网络模块的评估标准,累计更新所述actor网络模块的优化策略梯度,并将所述actor网络模块的梯度信息反馈至所述massivemimo系统共享的actor网络模块;所述massivemimo系统共享的actor-critic网络汇总所有所述梯度信息,并异步生成对应的权值参数;将所述权值参数复制到所述波束扇区的actor-critic结构的深度增强学习网络中,直至所有所述波束扇区能够学习到所述massivemimo系统的优化策略函数和评估能力。在一个实施方式中,深度增强学习模块703具体用于:优化策略函数的表达式为:π(ɑt|st;u),所述状态值函数的表达式为:v(st;v),其中,π为优化策略函数,u和v分别为优化策略函数和状态值函数的深度增强学习网络权值参数。在一个实施方式中,深度增强学习模块703具体用于:采用基于优势加权的k步k-step时序差分误差作为各个所述波束扇区的优势函数,所述优势函数的方程为:其中,wi为加权函数,γ为性能回报的折扣因子,且γ∈[0,1]。在一个实施方式中,深度增强学习模块703具体用于:actor网络模块的优化策略的目标函数为:其中,π(ɑt|st;u)为优化策略函数,v(st;v)为状态值函数,为基于优势加权的k-step时序差分误差的目标函数。在一个实施方式中,优化模块704具体用于:判断整个massivemimo系统的性能回报是否达到最大;若是,则保持最优的天线权值和无线参数配置组合;若否,则进入深度增强学习模式,直到整个massivemimo系统的性能回报达到最大。另外,结合图1至图7述的本发明实施例的massivemimo系统优化方法和massivemimo系统优化装置可以由massivemimo系统设备来实现。图8示出了本发明实施例提供的massivemimo系统设备的硬件结构示意图。massivemimo系统设备可以包括处理器801以及存储有计算机程序指令的存储器802。图8是示出能够实现根据本发明实施例的通信方法和网络服务器的计算设备的示例性硬件架构的结构图。如图8所示,计算设备800包括输入设备801、输入接口802、处理器803、存储器804、输出接口805、以及输出设备806。其中,输入接口802、处理器803、存储器804、以及输出接口805通过总线810相互连接,输入设备801和输出设备806分别通过输入接口802和输出接口805与总线810连接,进而与计算设备800的其他组件连接。具体地,输入设备801接收来自外部的输入信息,并通过输入接口802将输入信息传送到处理器803;处理器803基于存储器804中存储的计算机可执行指令对输入信息进行处理以生成输出信息,将输出信息临时或者永久地存储在存储器804中,然后通过输出接口805将输出信息传送到输出设备806;输出设备806将输出信息输出到计算设备800的外部供用户使用。计算设备800可以执行本申请上述的通信方法中的各步骤。处理器803可以是一个或多个中央处理器(英文:centralprocessingunit,cpu)。在处理器801或处理器701是一个cpu的情况下,该cpu可以是单核cpu,也可以是多核cpu。存储器804可以是但不限于随机存储存储器(ram)、只读存储器(rom),可擦除可编程只读存储器(eprom)、光盘只读存储器(cd-rom)、硬盘等中的一种或多种。存储器804用于存储程序代码。可以理解的是,在本申请实施例中,图7提供的任一模块或全部模块的功能可以用图8所示的中央处理器803实现。在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用全部或部分地以计算机程序产品的形式实现,所述计算机程序产品包括一个或多个计算机指令。在计算机上加载或执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(dsl)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输)。所述计算机可读取存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,dvd)、或者半导体介质(例如固态硬盘solidstatedisk(ssd))等。本说明书的各个部分均采用递进的方式进行描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点介绍的都是与其他实施例不同之处。尤其,对于装置和系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例部分的说明即可。当前第1页12当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1