一种基于时延预估的计算任务卸载方法与流程

文档序号:17988498发布日期:2019-06-22 00:35阅读:424来源:国知局
一种基于时延预估的计算任务卸载方法与流程

本发明属于移动通信网络技术领域,具体涉及一种基于时延预估的计算任务卸载方法。



背景技术:

移动互联网和物联网业务已发展逐渐成为未来5g发展的主要驱动力,未来的5g将服务于人们日常学习工作生活的方方面面,如:无线支付、移动办公、智能家居、位置服务、远程医疗等等。同时,也将与电网、交通、医疗、家居等传统行业深度融合,衍生出大量以物为主体的终端。这些都对未来的5g的性能指标提出了更多,更高的要求,与4g相比,除了速率、时延等传统的空口性能指标需要进一步提升外,还需要考虑用户体验速率、连接数密度、频谱效率、能效以及成本等进一步体现5g系统的先进性的指标。

在未来的5g网络中,业务种类和负载数量的急剧增长对移动终端和网络都是一种挑战,移动云计算(mobilecloudcomputing,mcc)是解决移动终端资源有限这一挑战普遍认同的一种技术,mcc的基本实现形式就是任务卸载,通过任务卸载,使用户拥有了更多的计算能力和存储能力。同时,任务卸载还会让移动终端减少复杂的、耗能的计算任务。任务卸载的机制是终端将所需要执行的任务通过信道上传到为其提供服务的云进行处理,处理完成后,将处理结果回传。从任务卸载的机制可以发现,任务卸载终端与云端的交互过程实质上是资源置换的过程。终端通过相应的网络通信资源,来置换云端的计算和存储资源。因此任务卸载的资源优化可分为通信资源优化和计算资源资源优化两大部分。

当前已有的相关研究,在这两方面均有涉及,但是大部分只简单考虑了任务卸载到“远端云”,而不是其他形式的云。虽然考虑到了能量消耗和延迟以及计算任务在蜂窝基站间进行任务卸载的影响,但是没有考虑到现实设备中,某些移动设备具有自身供电源,不需要考虑能量消耗问题,而且也没有考虑到移动设备的发送功率及能耗。



技术实现要素:

为了解决现有技术中存在的上述问题,本发明提供了一种基于时延预估的计算任务卸载方法。本发明要解决的技术问题通过以下技术方案实现:

本发明实施例提供了一种基于时延预估的计算任务卸载方法,包括:

建立计算任务的时延模型和能耗模型;

根据所述时延模型和所述能耗模型建立所述计算任务的卸载模型;

根据所述卸载模型卸载所述计算任务。

在本发明的一个实施例中,所述时延模型的表达式为:

tall=tup+tlocal=tqueue+tupload+tdeal+tlocal

其中,tall为总时延,tup为上传任务量的总时延,tlocal为本地任务量的总时延tqueue为排队时延,tupload为上传时延,tdeal为处理时延。

在本发明的一个实施例中,所述排队时延表达式为:

tqueue=tqueue=vup/sup

其中,tqueue为排队时延,tqueue为上传任务量排队等待处理的时间,vup为处理上传任务量需要的mec服务器cpu周期数,sup为mec服务器的处理速度。

在本发明的一个实施例中,所述上传时延的表达式为:

tupload=bup/rup

其中,tupload为上传时延,bup为上传任务量,rup为上传任务量的上传速率。

在本发明的一个实施例中,所述处理时延的表达式为:

tdeal=calup/sup

其中,tdeal为处理时延,calup为完成上传任务量所需要mec服务器的cpu周期数,sup为mec服务器的处理速度。

在本发明的一个实施例中,所述本地时延表达式为:

tlocal=callocal/slocal

其中,tlocal为本地时延,callocal为完成本地任务量所需要的本地cpu周期数,slocal为本地的处理速度。

在本发明的一个实施例中,所述能耗模型表达式为:

其中,eall为总能耗,eup为上传能耗,elocal为本地能耗,pup为上传任务量与mec服务器之间的功率,bup为上传任务量,rup为上传速率,eloacl为本地运算一次的能耗,callocal为完成本地任务量所需要的cpu周期数。

在本发明的一个实施例中,根据所述时延模型和所述能耗模型建立所述计算任务的卸载模型,包括:

根据所述时延模型和所述能耗模型建立无电源用户计算任务的第一卸载模型或有电源用户计算任务的第二卸载模型中的一种。

在本发明的一个实施例中,所述第一卸载模型为:

其中,min{}为取最小,为总能耗,max{}为取最大,为电池用户上传任务量的总时延,为电池用户本地任务量的总时延;

所述第二卸载模型表达式为:

其中,min{}为取最小,为电源用户上传任务量的总时延,为电源用户本地任务量的总时延。

在本发明的一个实施例中,根据所述卸载模型卸载所述计算任务,包括:

根据第一卸载模型卸载电池用户的计算任务或根据第二卸载模型卸载电源用户的计算任务中的一种。

与现有技术相比,本发明的有益效果:

本发明提出的方法,通过建立计算任务的卸载模型,将计算任务进行合理化分配,把传统的数据中心切割成各种小型数据中心后放置到网络的边缘,以期更靠近用户,为用户提供更快的服务和达到更好的网络性能,能够为移动边缘计算实现更低的时延,为用户提供更优质的网络;同时能够系统评估计算任务的处理时延,降低网络拥塞的概率,降低边缘计算的系统整体时延为用户提供更好的网络体验。

附图说明

图1为本发明实施例提供的一种基于时延预估的计算任务卸载方法的流程示意图。

具体实施方式

下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。

实施例一

请参见图1,图1为本发明实施例提供的一种基于时延预估的计算任务卸载方法的流程示意图。

本发明实施例提供的一种基于时延预估的计算任务卸载方法,包括:

建立计算任务的时延模型和能耗模型;

根据时延模型和能耗模型建立计算任务的卸载模型;

根据卸载模型卸载计算任务。

具体地,终端分为两种,一种是有能量限制用户,即电池用户,另一种是无能量限制用户,即电源用户。电池用户受限于电池续航的问题,需要联合考虑能耗和时延的影响,因此要将计算任务全部发送至mec服务器进行处理,在能耗最小化的前提下实现时延最大化;电源用户则不用考虑能耗,只需考虑时延的影响,可以将处理时间短的轻量级计算任务在终端自身进行处理,将处理时间长的重量级计算任务发送至mec服务器进行处理,从而实现时延的最小化。

本发明提出的方法中,定义终端的计算任务由上传任务量bup和本地任务量blocal两部分组成,定义calup为完成上传任务量所需要的mec服务器cpu周期数,callocal为完成本地任务量所需要的本地cpu周期数。

特别地,本发明具体实施例中,时延模型的表达式为:

tall=tup+tlocal=tqueue+tupload+tdeal+tlocal

其中,tall为总时延,tup为上传任务量的总时延,tlocal为本地任务量的总时延tqueue为排队时延,tupload为上传时延,tdeal为处理时延。

具体地,总时延tall可以分为上传任务量的总时延tup和本地任务量的总时延tlocal,而上传任务量的总时延包括:排队延时tqueue、上传延时tupload、传播时延ttrans、处理时延tdeal,由于mec服务器处理计算任务时会以接近光速的速度传播,传播时间充分小故不考虑传播时延ttrans在上传任务量的总时延内。

特别地,本发明具体实施例中,排队时延表达式为:

tqueue=tqueue=vup/sup

其中,tqueue为排队时延,tqueue为上传任务量排队等待处理的时间,vup为处理上传任务量需要的mec服务器cpu周期数,sup为mec服务器的处理速度。

具体地,本发明提出的方法采用分优先级策略对终端的上传任务量进行处理,时延要求高的上传任务量应用优先级高,所以终端的上传任务量需要排队,此时延就是排队时延,终端能够实时了解所有mec服务器内的排队情况。这里定义处理上传任务量需要的mec服务器cpu周期数为vup,所有mec服务器cpu的处理速度相同,均为sup,则单个mec服务器中正在排队等待的上传任务量所需要排队的时间为:

tqueue=vup/sup

根据贪婪策略,终端会选择所有mec服务器中排队时间最少的mec服务器,进行上传任务量的卸载。

特别地,本发明具体实施例中,上传时延的表达式为:

tupload=bup/rup

其中,tupload为上传时延,bup为上传任务量,rup为上传任务量的上传速率。

具体地,上传任务量的上传速率可表示为:

其中,w表示信道带宽,pup表示上传任务量与mec服务器之间的功率,gup表示上传任务量与mec服务器之间的增益,i表示上传任务量与其他上传任务量之间的干扰功率,n0表示背景噪声功率。

则上传时延可表示为:

tupload=bup/rup

其中,tupload为上传时延,bup为上传任务量,rup为上传任务量的上传速率。

特别地,本发明具体实施例中,处理时延的表达式为:

tdeal=calup/sup

其中,tdeal为处理时延,calup为完成上传任务量所需要的mec服务器cpu周期数,sup为mec服务器的处理速度。

具体地,处理时延为上传任务量在mec服务器中进行处理的时间,calup为完成上传任务量所需要的mec服务器cpu周期数,sup为mec服务器的处理速度,则处理时延可以表示为:

tdeal=calup/sup

其中,tdeal为处理时延,calup为完成上传任务量所需要的mec服务器cpu周期数,sup为mec服务器的处理速度。

特别地,本发明具体实施例中,本地时延表达式为:

tlocal=callocal/slocal

其中,tlocal为本地时延,callocal为完成本地任务量所需要的本地cpu周期数,slocal为本地的处理速度。

特别地,本发明具体实施例中,能耗模型表达式为:

其中,eall为总能耗,eup为上传能耗,elocal为本地能耗,pup为上传任务量与mec服务器之间的功率,bup为上传任务量,rup为上传速率,eloacl为本地运算一次的能耗,callocal为完成本地任务量所需要的cpu周期数。

具体地,终端发送上传任务量会消耗一定的能量,则终端发送上传任务量到mec服务器的能耗为:

其中,eup为上传能耗,pup为上传任务量与mec服务器之间的功率,bup为上传任务量,rup为上传速率。

设本地任务量在本地cpu运算一次的能耗为elocal,则本地能耗为:

elocal=eloacl·calloacl

其中,eloacl为本地运算一次的能耗,callocal计算任务在本地处理所需的周期数。

则总能耗eall为:

其中,eall为总能耗,eup为上传能耗,elocal为本地能耗,pup为上传任务量与mec服务器之间的功率,bup为上传任务量,rup为上传速率,eloacl为本地运算一次的能耗,callocal为完成本地任务量所需要的cpu周期数。

特别地,本发明具体实施例中,根据时延模型和能耗模型建立计算任务的卸载模型,包括:

根据时延模型和能耗模型建立无电源用户计算任务的第一卸载模型或有电源用户计算任务的第二卸载模型中的一种。

对于电池用户而言,如果计算任务在本地处理,则会消耗大量电量,使电池用户的使用时间减少,并且在5g网络中,信号的频率更高,一次性发送的内容更多,更加省电,故将电池用户的所有计算任务卸载到mec服务器消耗的能量更小,故电池用户将所述计算任务卸载到mec服务器中进行处理,要综合考虑能耗和时延,在能耗最小化的前提下实现时延最小化。

对于电源用户而言,则可以根据时延比较,来决定计算任务在本地处理量和卸载到mec服务器中处理量的比例,从而实现时延最小化。下面对计算任务进行计算比较时间长短。

特别地,本发明具体实施例中,第一卸载模型为:

其中,min{}为取最小,为电池用户的总能耗,max{}为取最大,为电池用户上传任务量的总时延,为电池用户本地任务量的总时延;

第二卸载模型表达式为:

其中,min{}为取最小,为电源用户上传任务量的总时延,为电源用户本地任务量的总时延。

具体地,对于任意一个电池用户计算任务,上传任务量在mec服务器中处理所需要的时间为:

本地任务量在mec服务器中处理所需要的时间为:

电池用户上传任务量卸载到mec服务器,这个过程总共的时间为:

其中,为电池用户上传任务量的最小排队时延,取电池用户所有上传任务量中排队时延最小的一个。

对于电池用户而言,要求在能耗最小化的前提下提供过程的总时间,因此可得到电池用户计算任务的第一卸载模型为:

s.t.

其中,min{}为取最小,为总能耗,max{}为取最大,为电池用户上传任务量总时延,为电池用户本地任务量的总时延,s.t.为受约束于,b1为电池用户总的计算任务,为电池用户的上传任务量,为电池用户的本地任务量,为电池用户上传任务量的最小排队时延,tqueue为排队时延,tupload为上传时延,为处理时延,tlocal为本地时延。

对于电池用户而言,首先要求能耗最低,在能耗最低的前提下,考虑时间最大,通过贪婪策略,使第一卸载模型中的能耗值接近最小,从而获得最低能耗的计算卸载方案,增强移动设备的使用时间。

对于任意一个电源用户的而言,完成上传任务量所需要的cpu周期数为calup,完成本地任务量所需要的cpu周期数为callocal,设本地cpu和mec服务器cpu的执行速度分别为slocal和sup,则对于任意一个电源用户计算任务,上传任务量在mec服务器中处理所需要的时间为:

本地任务量在mec服务器中处理所需要的时间为:

电源用户上传任务量卸载到mec服务器,这个过程总共的时间为:

对于电源用户而言,要求最小化时延,因此可得到电源用户计算任务的第二卸载模型为:

s.t.

其中,min{}为取最小,为电源用户上传任务量总时延,为电源用户本地任务量的总时延,s.t.表示受约束于,b1为电池用户总的计算任务,为电池用户的上传任务量,为电池用户的本地任务量,为电池用户上传任务量的最小排队时延,tqueue为排队时延,tupload为上传时延,为处理时延,tlocal为本地时延。

特别地,本发明具体实施例中,根据卸载模型卸载计算任务,包括:

根据第一卸载模型卸载电池用户的计算任务或根据第二卸载模型卸载电源用户的计算任务中的一种。

本发明提出的方法,通过建立计算任务的卸载模型,将计算任务进行合理化分配,把传统的数据中心切割成各种小型数据中心后放置到网络的边缘,以期更靠近用户,为用户提供更快的服务和达到更好的网络性能,能够为移动边缘计算实现更低的时延,为用户提供更优质的网络;同时能够系统评估计算任务的处理时延,降低网络拥塞的概率,降低边缘计算的系统整体时延为用户提供更好的网络体验。

以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1