一种用于移动边缘计算的管理方法及边缘服务器与流程

文档序号:19815129发布日期:2020-01-31 19:00阅读:367来源:国知局
一种用于移动边缘计算的管理方法及边缘服务器与流程

本发明涉及无线通信领域,具体来说涉及移动边缘计算中计算卸载与资源分配的联合优化,更具体地说,涉及一种用于移动边缘计算的管理方法及边缘服务器。



背景技术:

随着移动通信的高速发展以及智能移动终端快速的普及,许多新型应用如:虚拟现实、增强现实以及自动驾驶等随之产生。而这类具有低时延高可靠通信需求的应用对移动终端的计算能力提出较高要求。由于计算能力有限的移动终端在处理这类应用时将产生较高的应用处理时延并影响终端用户的服务体验,因此如何降低应用处理时延,提升终端用户的服务体验是目前亟需解决的关键问题之一。

针对以上问题,移动云计算(mobilecloudcomputing,mcc)技术被提出。mcc的目标是将云端丰富的计算资源扩展至资源受限的移动终端,从而增强移动终端潜在的计算能力,降低应用处理时延。为达到该目标,移动终端需要将计算密集的任务通过无线接入的方式迁移到云服务器。尽管这种方式可以降低移动终端的负载但也存在明显的缺陷,即移动终端与云服务器较远的距离以及大量的终端业务请求都将导致网络时延的增加,从而降低终端用户服务体验。

欧洲电信标准协会(etsi)提出一种新的技术:移动边缘计算(mobileedgecomputing(mec)),在新提出的技术架构中,将位置固定且具有强大计算能力的服务器布置在网络边缘(如基站),以降低其覆盖范围内用户的通信负载与网络时延。然而,由于成本的限制,与云服务器相比,通常边缘服务器的计算资源相对有限。因此,对于边缘服务器,过多的任务可能为服务节点带来额外的负载从而影响网络时延。

目前主要有三类方法来降低mec网络中移动终端任务时延:

第一类方法是设计并优化移动用户的卸载方案。这类方法假设基站可以获知用户的基本信息,如传输距离、请求的任务类型、当前小区用户数以及蜂窝网中用户在小区中位置信息、边缘服务器的计算能力等。移动用户通过比较任务在边缘服务器的执行时延以及在本地的执行时延,进行卸载选择,从而完成卸载策略的优化同时使终端用户获得最低的时延。在这类方法中,边缘服务器最大的计算能力是根据小区用户总数动态变化的且资源是平均分配给每一个请求用户的,且忽略了下行链路带宽资源的分配。因此,该方法存在至少两个缺陷,一个是不能根据用户任务的大小不同有差别地为用户分配适配的计算资源,导致计算资源不能被充分利用或者不满足需求;另一个是忽略了下行传输时延,当用户中有涉及到例如ar、vr等应用场景的用户时,其计算结果的数据的大小无法忽略,下行传输时延可能较大,极大地影响用户体验。

第二类方法是设计卸载策略与资源分配联合优化方案。这类方法相对于第一类方法,更近一步限定了边缘服务器的计算能力以及系统通信资源,当有用户任务请求时,边缘服务器将通过获得的任务请求,为用户进行上行链路资源以及计算资源的优化分配,使其时延最低。随后根据优化分配得到的时延与本地计算时延进行比较,进而得到优化卸载策略以及最低时延。该方法中计算资源分配是按照按需分配的,也就是说用户的任务请求需要的计算资源多就多分点,需要的计算资源少就少分点,最后是在总计算资源约束条件下,以所有用户总时延最低为目标,按需进行资源优化分配。虽然第二类方法在多用户发起任务请求时,通过优化分配算法对通信资源、计算资源以及卸载策略进行联合优化进而最小化用户任务的执行时延,但是,第二类方法依然没有考虑下行链路资源有限的情形对任务总时延的影响。

第三类方法是通过加入云服务器,云服务器被假定为具有无限资源的服务器,用户可以在本地、边缘服务器、云服务器三者中进行执行任务,以最小化应用处理时延为目标完成计算卸载。但是,第三类方法的缺点是距离远,增加了用户的通信时延,且多个用户进行业务请求时,容易导致网络阻塞,进一步增加应用处理时延,而且,第三类方法也没有考虑下行传输时延对任务总时延的影响。

由此可见,现有计算卸载与资源优化方案是在忽略下行链路资源影响的条件下对移动终端的任务时延进行优化的。由于任务由输入数据、输出数据以及输入数据所需的cpu循环(受计算资源影响)三部分组成,因此移动终端的任务时延将受以下几个方面影响:第一是上行链路的传输时延,当用户输入数据后,如何为用户分配最优的带宽资源满足用户需求是十分重要;第二是任务时延,如何为一个任务分配最优的计算资源以满足用户的时延需求也是十分重要的,第三是下行链路的传输时延,输入数据计算完成后,输出数据到用户时,如何为用户分配最优的带宽资源满足输出数据的传输需求是十分影响用户体验的。

除了以上三类主要方法,还有一些其他方法,未能穷举。比如,随机卸载算法(roc),在用户有任务请求时为各用户随机分配卸载决策,从而随机地让部分用户的任务在本地执行,另外一部分用户的任务卸载到边缘服务器上执行。

以上所有方法中都假设输出数据较小,从而忽略了下行链路的传输时延。但是,在实际缓存通信应用场景中,一些情形下的下行数据较大,比如ar、vr以及远程监控等情况下,下行数据将严重影响用户时延,因此无法忽略,尤其在一些特殊应用场景中,对低用户时延有着极大的需求。例如:在无人驾驶技术中,用户需要通过移动终端对车辆进行实时监控,然而在此过程中车辆的监控信息将经过边缘服务器计算处理并通过下行链路将计算结果返回给用户的移动终端,因此在该应用场景中,下行链路资源的优化对降低任务时延是十分重要地。

综上所述,现有方案适用的场景有限,在目前因技术发展导致一些场景的下行数据的大小较大无法忽略的情形下,无法高效地满足不同场景下用户低时延的需求。因此,有必要对现有技术进行改进。



技术实现要素:

因此,本发明的目的在于克服上述现有技术的缺陷,提供一种综合考虑执行用户任务的上行传输时延、计算时延、下行传输时延对任务总时延影响的用于移动边缘计算的管理方法及边缘服务器。

根据本发明的一方面,本发明提供一种用于移动边缘计算的管理方法,用于基站和基站覆盖范围内的移动终端、边缘服务器组成的系统的边缘辅助计算及辅助计算前的系统资源优化分配,针对每一个基站覆盖区域,执行如下步骤:

s1、响应当前时刻所有移动终端的任务请求,初始化每个移动终端的卸载决策,将每个移动终端的初始卸载决策随机设置为第一决策或第二决策;

s2、基于移动终端信息、系统当前的资源和步骤s1中所设置的初始卸载决策,计算所有移动终端的任务根据初始决策执行时对应的包含上行传输时延、计算时延、下行传输时延在内的总时延;

s3、依次计算每个移动终端的卸载决策调整为与当前卸载决策相反的决策时的总时延,其中,若某个移动终端调整当前卸载决策后会使得总时延减小,则调整该移动终端的卸载决策,反之则不调整;

s4、对于每个移动终端计算一轮后确定没有任何一个移动终端在该轮调整过程中调整其卸载决策,结束调整过程,得到每个移动终端的最终的卸载决策及最终的系统资源分配方案;

s5、为最终的卸载决策为第一决策的移动终端根据系统资源分配方案独立地分配本次的上行、下行通信资源和本次用于辅助计算其任务所需的边缘服务器的计算资源;

s6、按照每个移动终端的最终的卸载决策执行其任务请求;和/或

s7、在完成当前时刻所有移动终端的任务请求后进入下一个任务周期,重新执行步骤s1-s7;

其中,第一决策表示该移动终端将其任务请求对应的任务卸载至边缘服务器上计算,第二决策表示该移动终端将其任务请求对应的任务放置在本地计算,上行或者下行通信资源是按照将带宽资源以百分比形式分配给最终的卸载决策为第一决策的移动终端,边缘服务器的计算资源是按照将边缘服务器的计算资源以百分比形式分配给最终的卸载决策为第一决策的移动终端,每一个最终的卸载决策为第一决策的移动终端所占资源百分比是其任务请求需求在最终卸载决策为第一决策的所有移动终端对应的任务请求总需求中的百分比占比。

其中,所述步骤s3包括:

s31、依次计算每个移动终端的卸载决策调整为与当前卸载决策相反的决策时的总时延,该总时延每次是基于当前移动终端调整后与所有移动终端的卸载决策相适配的系统资源分配方案计算得出;和/或

s32、若某个移动终端调整当前卸载决策后会使得总时延减小,则调整该移动终端的卸载决策和资源分配方案,反之则不调整。

优选的,下行传输时延为计算结果数据的大小与下行传输速率之比。在计算下行传输时延时,可以根据以下方式中的其中一种提供对应的计算结果数据的大小:在边缘服务器前期计算过相同的任务的情况下,根据边缘服务器的历史数据提供前期得出的计算结果数据的大小作为对应任务的计算结果数据的大小;在边缘服务器前期没有计算过相同但计算过同类型的任务的情况下,根据边缘服务器的历史数据形成参考范围且在该参考范围内随机提供第一随机值作为对应任务的计算结果的大小;和在边缘服务器前期既没有计算过相同且也没有计算过同类型的任务的情况下,由边缘服务器随机提供一个小于等于该任务的大小的第二随机值作为对应的计算结果的大小。

根据本发明的另一方面,本发明提供一种边缘服务器,用于为与其相关的基站覆盖的区域中的移动终端提供至少包括辅助计算的服务,所述边缘服务器包括:一个或多个处理器;以及存储器,其中存储器用于存储可执行指令;所述一个或多个处理器被配置为经由执行所述可执行指令以执行前述方法。

与现有技术相比,本发明的优点在于:本发明充分考虑执行所有用户任务的上行传输时延、计算时延、下行传输时延对任务总时延影响,在边缘服务器提供辅助计算前,综合考虑上行传输时延、计算时延和下行传输时延对总时延的影响,为各移动终端对系统当前有限的资源进行优化分配,以降低执行所有用户任务的总时延。特别是在目前因技术发展导致一些场景的下行数据的大小较大无法忽略的情形下,本发明能让执行任务请求对应的所有任务的总时延最小,而对于下行数据的大小较小的情形,本发明也能够让执行任务请求对应的所有任务的总时延最小,能够高效地满足不同场景下用户低时延的需求,从而提高用户体验。

附图说明

以下参照附图对本发明实施例作进一步说明,其中:

图1为根据本发明实施例的基站系统常规架构的示意图;

图2为根据本发明实施例的用于移动边缘计算的管理方法以及三个现有方法在不同移动终端数量下各自对应的总时延比较示意图;

图3为根据本发明实施例的用于移动边缘计算的管理方法以及三个现有方法在不同输入数据大小下各自对应的总时延比较示意图;

图4为根据本发明实施例的用于移动边缘计算的管理方法以及三个现有方法在不同计算结果数据大小下各自对应的总时延比较示意图。

具体实施方式

为了使本发明的目的,技术方案及优点更加清楚明白,以下结合附图通过具体实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。

首先,介绍一下本发明的背景。

发明人在进行降低用户时延的研究时,通过研究现有移动边缘计算网络中影响移动用户时延的因素以及相关解决方案,发现影响移动用户的时延因子中,下行数据的传输时延是十分重要且无法忽略的。因此在考虑下行数据传输的基础上综合上行数据传输和计算资源对移动终端任务时延进行优化是十分必要的。在优化过程中,由于单基站覆盖的区域中不同用户的计算能力不同,另外不同用户执行任务也具有不同特点,即:输入数据大小、输出数据大小以及任务所需的cpu循环数不同,也就是不同用户任务请求所需的上行网络带宽资源、下行网络带宽资源、边缘服务器计算资源都不同。此外在单基站多用户的场景中,边缘服务器的计算能力与基站的频谱资源有限。因此如何在多用户请求下,使得所有用户对应的移动终端获取最低的总时延是一个重要的问题。本申请提出的方案在考虑上、下行通信资源的场景中可以显著降低移动用户的任务时延,进而提高用户服务体验。

其次,对本发明中所使用的部分术语作如下定义:

边缘服务器是指部署于网络边缘如基站附近为相应的用户提供服务的服务器。在本申请中,服务至少包括辅助计算服务,用户可以是指移动终端。

cpu循环是指每秒执行指令的次数,对应的英文名称为cpucycles。

图1示出了根据本发明一个实施例的基站系统常规架构的示意图,系统包括基站、边缘服务器以及基站覆盖范围内的移动终端。该边缘服务器部署于处于网络边缘的基站处,为该基站覆盖区域内的移动终端提供服务。在本申请中,每个移动终端即对应于基站的一个用户。基站负责为移动终端提供通信服务,边缘服务器负责为移动终端提供计算服务。移动终端会发出任务请求,以寻求边缘服务器提供辅助计算服务。但是,在由基站、边缘服务器和移动终端组成的系统中,系统当前的资源是受限的,不可能满足每个移动终端的任务请求。因此,在边缘服务器提供辅助计算前,如何为各移动终端对系统资源进行优化分配,需要综合考虑上行传输时延、计算时延和下行传输时延。在目前因技术发展导致一些场景的下行数据的大小较大无法忽略的情形下,让执行任务请求对应的所有任务的总时延最小,能够高效地满足不同场景下用户低时延的需求,从而提高用户体验。

根据本发明一个实施例,本发明提供一种用于移动边缘计算的管理方法,用于基站和基站覆盖范围内的移动终端、边缘服务器组成的系统的边缘辅助计算及辅助计算前的系统资源优化分配,针对每一个基站覆盖区域,执行如下主要步骤:

s1、响应当前时刻所有移动终端的任务请求,初始化每个移动终端的卸载决策,将每个移动终端的初始卸载决策随机设置为第一决策或第二决策;

s2、基于移动终端信息、系统当前的资源和步骤s1中所设置的初始卸载决策,计算所有移动终端的任务根据初始决策执行时对应的包含上行传输时延、计算时延、下行传输时延在内的总时延;

s3、依次计算每个移动终端的卸载决策调整为与当前卸载决策相反的决策时的总时延,其中,若某个移动终端调整当前卸载决策后会使得总时延减小,则调整该移动终端的卸载决策,反之则不调整;

s4、对于每个移动终端计算一轮后确定没有任何一个移动终端在该轮调整过程中调整其卸载决策,结束调整过程,得到每个移动终端的最终的卸载决策及最终的系统资源分配方案;

s5、为最终的卸载决策为第一决策的移动终端根据系统资源分配方案独立地分配本次的上行、下行通信资源和本次用于辅助计算其任务所需的边缘服务器的计算资源;

s6、按照每个移动终端的最终的卸载决策执行其任务请求;和/或

s7、在完成当前时刻所有移动终端的任务请求后进入下一个任务周期,重新执行步骤s1-s7;

其中,第一决策表示该移动终端将其任务请求对应的任务卸载至边缘服务器上计算,第二决策表示该移动终端将其任务请求对应的任务放置在本地计算,上行或者下行通信资源是按照将带宽资源以百分比形式分配给最终的卸载决策为第一决策的移动终端,边缘服务器的计算资源是按照将边缘服务器的计算资源以百分比形式分配给最终的卸载决策为第一决策的移动终端,每一个最终的卸载决策为第一决策的移动终端所占资源百分比是其任务请求需求在最终卸载决策为第一决策的所有移动终端对应的任务请求总需求中的百分比占比。

优选的,该方法还可以包括:每次在执行步骤s1之前,获取基站覆盖区域中所有移动终端的移动终端信息并刷新记载移动终端信息的用户信息表,以每次基于用户信息表中更新的移动终端信息计算本次的总时延。移动终端信息包括该移动终端的位置信息、计算能力和请求的具体的任务信息。移动终端信息还可以包括该移动终端的发送功率。

优选的,针对步骤s1,边缘服务器可以是完成覆盖范围内的用户的一轮的任务请求并对接收到的移动终端卸载的任务进行辅助计算出的计算结果发送给相应的移动终端后,再开始响应新一轮的当前时刻所有移动终端的任务请求。

为了更好的理解本发明,下面结合具体的实施例针对每一个步骤分别进行详细说明。

s1、响应当前时刻所有移动终端的任务请求,初始化每个移动终端的卸载决策,将每个移动终端的初始卸载决策随机设置为第一决策或第二决策。比如,假设当前基站覆盖区域内有三个用户的移动终端发出了任务请求,这时,当前时刻所有移动终端的任务请求即为这三个用户发出的任务请求,边缘服务器响应当前时刻所有移动终端的任务请求,将这三个用户对应的初始卸载决策随机设置为0或1,比如,三个用户对应的初始卸载决策分别被随机设置为0、1、1,其中,1代表第一决策,0代表第二决策。

s2、基于移动终端信息、系统当前的资源和步骤s1中所设置的初始卸载决策,计算所有移动终端的任务根据初始决策执行时对应的包含上行传输时延、计算时延、下行传输时延在内的总时延。随机设置各用户的初始卸载决策后,会根据用户的初始卸载决策对系统资源进行对应的分配,形成一个对应于初始卸载决策的初始的系统资源分配方案,从而据此计算出根据初始卸载决策的初始的系统资源分配方案得出的对应的总时延。根据本发明的一个实施例,假设每个移动终端只请求执行一个任务wi={si,di,ci},其中si表示任务对应的输入数据的大小,di表示计算结果数据的大小,ci表示一个任务所需cpu循环总量。所有移动终端的卸载决策的集合为卸载策略。

由此,上行传输时延可以表示为其中,表示上行传输数据的速率,可以表示为:

其中,ki表示移动终端i上传其任务所占上行带宽百分比,pi,s表示移动终端i的发送功率,hi,b表示从移动终端i到基站的信道衰落系数,d表示移动终端i与基站的距离,r表示路径损耗,σ2表示信道的噪声功率。

下行传输时延可以表示为其中,表示下行传输数据的速率,可以表示为:

其中,ξi表示移动终端i接收下行数据时所占的带宽百分比,hb,i表示从基站到移动终端i的信道衰落系数,pb表示基站的发射功率。

计算时延分为两种,一种是任务在边缘服务器上执行时的计算时延,另一种是任务在本地执行时的计算时延。

任务在边缘服务器上执行的计算时延可以表示为:fi,m表示边缘服务器为移动终端i分配的计算资源。

任务在本地执行的计算时延可以表示为:fi,l表示移动终端i本地的计算能力。

因此,移动终端i的任务卸载至边缘服务器执行产生的时延可以表示为:ui,m=ti,u+ti,d+ti,m。移动终端i的任务在本地执行产生的时延可以表示为:ui,l=ti,l。可见,由移动终端卸载至边缘服务器上执行任务的时延包括上行传输时延、计算时延和下行传输时延。移动终端在本地执行任务的时延包括计算时延,由于没有上传任务和接收计算结果数据的过程,因此移动终端在本地执行任务的时延没有上行传输时延和下行传输时延。

优选的,针对步骤s2,可以通过建立时延问题基本模型的方式将影响总时延的因子进行形式化表述,限定总时延的计算方式。换言之,时延问题基本模型可以用于基于系统当前的资源和移动终端信息对影响总时延的因素进行形式化表述。本发明实施例提出的时延问题模型是在单基站覆盖的区域中多用户任务请求时的模型。在时延问题基本模型中,每个移动终端的计算能力可以不同、每个任务可以不同,此外带宽资源可以按照百分比进行设计;该时延问题基本模型中每个移动终端每次可以请求一个或者多个任务。边缘服务器具有并发的处理能力,即:可以同时处理多个任务。因此,在初始阶段,基站需要收集系统中用户的移动终端信息。移动终端信息可以包括各移动终端的计算能力、相对于基站的位置信息和/或移动终端的发射功率。这些移动终端信息可以记录在用户信息表中并进行周期性地刷新。

优选的,时延问题基本模型可以表示为:

其中,a表示卸载策略,a={ai}i∈l,ai表示移动终端i的卸载决策,ai∈{0,1},当ai=1时,表示移动终端i的卸载决策为第一决策,移动终端i将其任务请求对应的任务卸载至边缘服务器上计算;当ai=0时,则表示移动终端i的卸载决策为第二决策,移动终端i将其任务请求对应的任务放置在本地计算,l表示所有移动终端的集合,l={i:i=1,2,...n},fi,m表示边缘服务器为移动终端i分配的计算资源,fm表示边缘服务器可提供的总的计算能力,ki表示移动终端i上传其任务所占上行带宽百分比,ξi表示移动终端i接收下行数据时所占的带宽百分比,a表示具体的一组卸载决策,a={a1,a2,...an},an中的n是当前实际的用户总数,即实际的移动终端的总个数,ui,m表示移动终端i将其任务卸载至边缘服务器计算产生的总时延,ui,l表示移动终端i将任务放置在本地计算产生的计算时延,限制条件c1表示分配给至少两个移动终端的计算资源的和要小于等于服务器的计算能力,限制条件c2表示为分配给至少两个移动终端的上行频谱资源总和要小于等于系统的总上行带宽,限制条件c3表示为分配给至少两个移动终端的下行频谱资源总和要小于等于系统的总下行带宽,限制条件c4表示移动终端i的本地计算资源是非负的,限制条件c5表示为移动终端i的卸载决策是第一决策或者第二决策。

s3、依次计算每个移动终端的卸载决策调整为与当前卸载决策相反的决策时的总时延,其中,若某个移动终端调整当前卸载决策后会使得总时延减小,则调整该移动终端的卸载决策,反之则不调整;

s4、对于每个移动终端计算一轮后确定没有任何一个移动终端在该轮调整过程中调整其卸载决策,结束调整过程,得到每个移动终端的最终的卸载决策及最终的系统资源分配方案。。

根据本发明一个实施例,步骤s3中,依次计算每个移动终端的卸载决策调整为与当前卸载决策相反的决策时的总时延的调整过程中,每次调整的卸载决策的个数可以是一个或者多个。比如,依次计算每个移动终端的卸载决策调整为与当前卸载决策相反的决策时的总时延时,可以是每次仅调整其中单个移动终端的卸载决策而其他移动终端的卸载决策本次不调整,以此来计算该移动终端的卸载决策调整为与当前卸载决策相反的决策时的总时延。具体来说,若当前调整到某个移动终端,该移动终端的当前的卸载决策是1,则调整0,其余移动终端的卸载决策本次不调整,以此计算调整后的总时延。又或者,依次计算每个移动终端的卸载决策调整为与当前卸载决策相反的决策时的总时延时,可以是每次调整其中两个移动终端的卸载决策而其他移动终端的卸载决策本次不调整,以此来计算这两个移动终端的卸载决策调整为与当前卸载决策相反的决策时的总时延。具体来说,若当前调整到某两个移动终端,这两个移动终端的当前的卸载决策分别是1、0,则分别调整为0、1,其余移动终端的卸载决策本次不调整,以此计算调整后的总时延。

根据本发明一个实施例,针对步骤s3~s4,可以通过构建时延问题解决模型的方式来分析和确定最终的卸载决策及系统资源分配方案,本实施例提出的时延问题解决模型采用博弈模型,但解决该问题不仅限于博弈模型。构建时延问题解决模型的原因在于,上述时延问题基本模型求解的计算时间可能较长或者难于求得直解,因此在构建的时延问题基本模型的基础上基于博弈论重新建模,以构建时延问题解决模型,从而缩短求解时间。时延问题解决模型可以用于分析得到能使得完成所有任务请求对应的任务所需的总时延最小化的最终的卸载策略和最终的资源分配方案。应当理解的是,最终的卸载策略即是每个移动终端的最终的卸载决策的集合。

优选的,时延问题解决模型可以表示为:

g={l,(ai)i∈l,ui};

其中,l表示所有移动终端的集合,ai表示移动终端i的卸载策略,ui表示移动终端i的时延效用函数,移动终端i的时延表示为表示至少两个移动终端中除了移动终端i以外的其他移动终端j的卸载决策。

根据本发明一个实施例,本申请的方法可以通过时延问题解决模型让各移动终端经过博弈得到最终的包含最优解的资源分配方案,表示为:

边缘服务器为移动终端i分配的计算资源的最优解

移动终端i上传其任务所占上行带宽百分比的最优解

移动终端i接收下行数据时所占的带宽百分比的最优解

其中,b表示总频谱带宽,hi,b表示从移动终端i到基站的信道衰落系数,pi,s表示为移动终端i的发送功率,d表示移动终端i与基站的距离,r表示路径损耗,σ2表示信道的噪声功率,hb,i表示从基站到移动终端i的信道衰落系数,pb表示基站的发射功率,μ、λ和θ分别为第一、第二和第三优化因子。第一优化因子μ、第二优化因子λ和第三优化因子θ在迭代调整的过程中每次相应移动终端的卸载决策发生调整时则对应地进行优化更新,优化更新所采用的公式分别为:

其中,为迭代步长,迭代步长的取值范围可以为10-5~10-7,t为迭代次数且t≥0,μ(t+1)、λ(t+1)和θ(t+1)分别为μ、λ和θ在本次调整后的数值,μ(t)、λ(t)和λ(t)分别为μ、λ和θ在本次调整前的数值。在一种情况下,虽然μ(t)-μ(t+1)≤10-6、λ(t)-λ(t+1)≤10-6和θ(t)-θ(t+1)≤10-6的情况并未完全满足,但是在调整过程中,在从某一个移动终端开始经历一轮调整过程再次回到该移动终端的整个过程中,均没有任何一个移动终端在该轮调整过程中调整其卸载决策,则结束调整过程,得到最小化总时延对应的每个移动终端的最终的卸载决策及最终的系统资源分配方案。在另一种情况下,某次相应移动终端的卸载决策发生调整且在本次调整后μ(t)-μ(t+1)≤10-6、λ(t)-λ(t+1)≤10-6和θ(t)-θ(t+1)≤10-6的情况下确认得到最优解。优选的,迭代次数可以是预设的。比如,迭代次数可以是由人为设定的或者由边缘服务器根据经验设定和调整的。迭代次数比如可以设定为10000次~20000次中的某个值。迭代次数是指迭代的最大次数。实际情况下,可能还未达到最大次数已经得到了最终的卸载决策及最终的系统资源分配方案。比如,迭代次数设置为15000次,实际调整过程中,可能8000次时已经出现了上述两种情况之一,则调整过程结束。

从上可以看出,系统资源分配方案包括第一、第二和第三最优解。第一最优解是为相应的移动终端分配的计算资源。第二最优解是为相应的移动终端分配的上传其任务所占上行带宽百分比。第三最优解是为相应的移动终端分配的接收下行数据时所占的带宽百分比。第一、第二和第三最优解分别对应于第一、第二和第三优化因子。优选的,为了防止迭代时间过长,根据本发明的一个实施例,该方法还包括:在执行步骤s3~s4的过程中,若出现以下情况之一,则结束调整过程:t1、用于优化系统资源分配方案的第一、第二和第三优化因子的减小值均小于设定的阈值;和t2、实际迭代调整的次数达到设定的最大的迭代次数。在这种情况下,本次结束调整过程后,以结束调整过程时每个移动终端的卸载决策及系统资源分配方案作为每个移动终端的最终的卸载决策及最终的系统资源分配方案。第一、第二和第三优化因子的减小值即是指通过μ(t)-μ(t+1)、λ(t)-λ(t+1)和θ(t)-θ(t+1)得出的计算值。在得到最终的卸载策略后,最终的卸载策略可以写入用户信息表中。此种情况下,虽未得到最优的卸载决策及系统资源分配方案,但是避免了长时间的求解导致求解时间过长而影响用户体验。

根据上述分析获得最终的系统资源分配方案为各移动终端分配系统资源,即,上行通信资源、计算资源和下行通信资源。随后,基站和边缘服务器在本次分配的上行通信资源条件下接收最终的卸载决策为第一决策的移动终端卸载的任务且完成对接收的任务的辅助计算后,在本次分配的下行通信资源条件下将该任务对应的计算结果传输给对应的移动终端。由此,通过该方式最小化执行所有任务的总时延,提高用户体验。

优选的,在步骤s4中,结束调整过程的要求是:在从某一个移动终端开始经历一轮调整过程中,所有移动终端中没有任何一个移动终端在该轮调整过程中调整其卸载决策。比如,假设共有5个移动终端发出了任务请求,将五个移动终端的初始卸载决策随机设置为第一决策或第二决策时,五个移动终端的初始卸载决策分别为1、0、1、0、0,经历多次调整之后五个移动终端的卸载决策分别变为0、0、1、1、0,经历前期调整后,在下一轮,从第一个移动终端开始到第五个移动终端结束,都没有调整其卸载决策,在该轮调整结束后,五个移动终端的卸载决策仍然为0、0、1、1、0,则结束调整过程。

在实际场景下,任务经过计算得到计算结果数据之前,结果数据的大小是难于预知的。因此,优选的,根据本发明的一个实施例,本发明方法还可以包括:对于计算过的任务,关联地保留该任务的信息及其对应的计算结果数据的大小,以便基于历史数据为相应任务的计算结果数据的大小提供参考。

根据本发明一个实施例,为了利用计算结果数据的大小提前进行下行通信资源分配,可以根据以下方式中的其中一种提供对应的计算结果数据的大小:

第一种方式:在边缘服务器前期计算过相同的任务的情况下,根据边缘服务器的历史数据提供前期得出的计算结果数据的大小作为对应任务的计算结果数据的大小;比如,某个任务边缘服务器前期是计算过的,边缘服务器保留了历史数据,历史数据中记录了该任务的信息及其对应的计算结果数据的大小,从而可以基于前期得出的计算结果数据的大小作为对应任务的计算结果数据的大小。相同的任务可以是指具体的计算任务相同,相应地,其对应的计算结果数据也相同。

第二种方式:在边缘服务器前期没有计算过相同但计算过同类型的任务的情况下,根据边缘服务器的历史数据形成参考范围且在该参考范围内随机提供第一随机值作为对应任务的计算结果的大小;比如,对于一个任务,其是ar领域的某种数据格式,该边缘服务器前期没有计算过相同的任务,但是,前期计算过一次同类型的数据格式的任务,历史数据表明该数据格式的计算结果数据的大小与任务的大小之比为20%,则用任务的大小乘以10%~30%形成一个参考范围,如果前期计算过两次,历史数据表明前期两次计算中,该数据格式的计算结果数据的大小与任务的大小之比分别为20%、40%,则用任务的大小乘以20%~40%形成一个参考范围,如果前期计算过三次,历史数据表明前期三次计算中,该数据格式的计算结果数据的大小与任务的大小之比分别为10%、20%、40%,则用任务的大小乘以10%~40%形成一个参考范围,然后在该参考范围内随机取值作为对应任务的计算结果的大小。同类型的任务可以是指具有相同数据格式的任务。

第三种方式:在边缘服务器前期既没有计算过相同且也没有计算过同类型的任务的情况下,由边缘服务器随机提供一个小于等于该任务的大小的第二随机值作为对应的计算结果的大小。

优选的,移动终端可以包括手机、平板电脑、笔记本电脑、车载电脑、vr眼镜、ar眼镜和智能手表中的至少一种。优选的,车载电脑例如可以是汽车的行车电脑。

根据本发明一个示例,通过以下仿真参数对本发明的所提出的方法进行仿真验证。表1中给出了在仿真验证过程中所使用的仿真参数。

表1仿真参数

图2、3和4中,corag曲线对应于本申请采用的方法,其是基于博弈论的计算卸载与资源分配算法(computationoffloadingandresourceallocationgame,corag)的简称。loc曲线对应于本地卸载算法(localoffloadingcompletely,loc),该算法中,所有的任务均不卸载到边缘服务器执行,都在各移动终端本地执行。roc曲线对应于随机卸载算法(randomoffloadingcompletely,roc)。courg曲线对应于计算卸载与上行频谱资源分配(computationoffloadinganduplinkresourcegame,courg),背景技术的第二类方法即采用了该算法。

图2示出了根据本发明一个实施例的用于辅助边缘计算的方法以及三个现有方法在不同移动终端数量下各自对应的总时延比较示意图。从图2可以看出,本发明提出的方法的性能优于loc、roc以及courg算法。随着移动终端数量增加corag算法优势更加明显。这是因为在计算与通信资源有限的条件下,corag算法可以更好地为不同的移动终端分配最优的计算与通信资源,因此所有移动终端的总时延最低。图2的输入参数采用表1中所列的参数,其中,部分的输入参数是变化的。比如,表1中的最后四项参数是由计算机在上述正态分布范围内随机给出的随机值。

图3示出了根据本发明实施例的用于移动边缘计算的管理方法以及三个现有方法在不同输入数据大小下各自对应的总时延比较示意图。从图3可以看出,随着上行输入数据的增大,corag算法总时延低于loc、roc、以及courg算法。这是因为随着输入数据的增大,corag算法可以根据输入数据的大小分配最优的上、下行带宽资源以及计算资源,进而使得所有终端设备的总时延最低。

图4示出了根据本发明实施例的用于移动边缘计算的管理方法以及三个现有方法在不同计算结果数据大小下各自对应的总时延比较示意图。从图4可以看出,随着计算结果数据的逐渐增大,corag算法的总时延低于loc、roc以及courg三种算法。corag算法性能明显优于其他三种算法且随着计算结果数据的逐渐增大,corag算法性能优势更加明显。

在本发明的又一个实施例中,还提供了一种边缘服务器,可以用于为与其相关的基站覆盖的区域中的移动终端提供至少包括辅助计算的服务。该边缘服务器包括:一个或多个处理器;以及存储器,其中存储器用于存储可执行指令;所述一个或多个处理器被配置为经由执行所述可执行指令以执行前述任一实施例中介绍的技术方案和/或本申请的方法。

在本发明的又一个实施例中,还提供了一种电子设备,更具体地,可以称为一种通信设备,包括彼此通信连接的边缘服务器和基站。该边缘服务器能为该基站覆盖的区域中的移动终端提供至少包括辅助计算的服务。边缘服务器包括:一个或多个处理器;以及存储器,其中存储器用于存储可执行指令;一个或多个处理器被配置为经由执行所述可执行指令以执行前述任一实施例中介绍的技术方案和/或本申请的方法。

需要说明的是,虽然上文按照特定顺序描述了各个步骤,但是并不意味着必须按照上述特定顺序来执行各个步骤,实际上,这些步骤中的一些可以并发执行,甚至改变顺序,只要能够实现所需要的功能即可。

本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。

计算机可读存储介质可以是保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以包括但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、静态随机存取存储器(sram)、便携式压缩盘只读存储器(cd-rom)、数字多功能盘(dvd)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。

以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1