资源分配方法、装置及系统与流程

文档序号:15517589发布日期:2018-09-25 18:43阅读:247来源:国知局

本发明涉及资源分配技术领域,具体而言,涉及一种资源分配方法、装置及系统。



背景技术:

大型企业每天都会产生大量的处理任务。分析和处理这些数据需要在数据中心内进行。随着设备性能的爆炸式的增长,以及虚拟化技术的逐渐普及,如何实现对处理任务进行动态分配、灵活调度至cpu,以提高cpu资源利用率,以满足用户在日常工作中需求迫在眉睫。

在现有技术中,为各处理任务进行资源分配的方式分为手动分配和动态实时分配两种,手动分配是技术人员根据自己的经验对cpu资源进行分配,而动态实时分配选用fifo(firstinputfirstoutput,先入先出队列)调度、最短作业优先调度、优先权调度、多级队列等等调度方法对cpu资源进行分配。

发明人经研究发现,现有技术至少存在如下问题:手动分配会存在和自动分配都存在分配不合理,进而会导致cpu资源的有效利用率低的问题。



技术实现要素:

有鉴于此,本发明的目的在于提供一种资源分配方法、装置及系统,以有效避免应进行性任务分配时分配不合理,进而会导致cpu资源的有效利用率低的问题。

为了达到上述目的,本发明较佳实施例提供一种资源分配方法,应用于资源分配系统中的主服务器,所述主服务器关联有多个从服务器,所述方法包括:

获得各所述从服务器的cpu的类型、可用资源量以及计划关闭时间,以及获得一预设时长,并开始计时,其中,所述预设时长为进行资源分配的时长;

获取向各所述从服务器发送的多个处理任务中各所述处理任务的请求资源消耗量、任务类型以及预期截止时间;

根据各所述处理任务的请求资源消耗量、任务类型和预期截止时间,以及各所述从服务器的cpu的类型、可用资源量、计划关闭时间和预设时长采用预设算法进行计算以得到可分配的处理任务及对应的可分配的从服务器并进行分配。

可选的,在上述资源分配方法中,所述根据各所述处理任务的请求资源消耗量、任务类型和预期截止时间,以及各所述从服务器的cpu的类型、可用资源量、计划关闭时间和预设时长采用预设算法进行计算以得到可分配的处理任务及对应的可分配的从服务器并进行分配的步骤包括:

按照第一预设公式得到各cpu的可用资源量随时间的变化得到可用资源序列;

按照第二预设公式得到各所述处理任务的请求资源消耗量随时间的变化得到请求资源序列;

根据所述可用资源序列和所述请求资源序列构建完全二分图;

根据各所述从服务器的cpu的类型和计划关闭时间,以及各处理任务的任务类型及预期时间将所述完全二分图中的可用资源序列与各请求资源序列按照km算法进行匹配,并将与可用资源序列匹配的请求资源序列对应的处理任务发送至与该可用资源序列对应的从服务器中。

可选的,在上述资源分配方法中,所述按照第一预设公式得到各cpu的可用资源量随时间的变化得到可用资源序列的步骤包括:

按照公式得到可用资源量随时间的变化得到可用资源序列,其中,k'是实常数,取值范围为[0,1],t是计时时长,β∈r+为可用资源函数的曲率,τ是预设时长,rt(t)为当前计时时长到预设时长之间的时长,为最大可用资源量,为最小可用资源量;

所述按照第二预设公式得到各所述处理任务的请求资源消耗量随时间的变化得到请求资源序列的步骤包括:

按照公式得到请求资源消耗量随时间的变化得到请求资源消耗量序列,其中,k'是实常数,取值范围为[0,1],t是计时时长,δ∈r+为请求资源消耗量函数的曲率,τ是预设时长,rt(t)为当前计时时长到预设时长之间的时长,为最大请求资源消耗量,为最小请求资源消耗量。

可选的,在上述资源分配方法中,在执行根据各所述从服务器的cpu的类型和计划关闭时间,以及各处理任务的任务类型及预期时间将所述完全二分图中的可用资源序列与各请求资源序列按照km算法进行匹配,并将与可用资源序列匹配的请求资源序列对应的处理任务发送至与该可用资源序列对应的从服务器中的步骤之后,所述方法还包括:

根据各所述cpu的类型和计划关闭时间得到可用资源矩阵,根据各所述处理任务的任务类型和预期截止时间得到请求资源矩阵,并将所述可用资源矩阵和请求资源矩阵发送至各所述从服务器;

接收各所述从服务器根据所述可用资源矩阵、请求资源矩、请求资源序列以及可用资源序列按照公式pj[i]=(asking[i]-bidding[j]*δij)/2进行计算得到的一收益矩阵,及所述收益矩阵中每一列的最大值对应的处理任务及cpu,其中,asking[i]为请求资源矩阵,bidding[j]为可用资源矩阵,δij为取值[0,1]之间的常数;

依据所述收益矩阵中每一列的最大值对应的处理任务及cpu以将该处理任务分配至该cpu。

本发明还提供一种资源分配装置,应用于资源分配系统中的主服务器,所述主服务器关联有多个从服务器,所述装置包括:

第一获得模块,用于获得各所述从服务器的cpu的类型、可用资源量以及计划关闭时间,以及获得一预设时长,并开始计时,其中,所述预设时长为进行资源分配的时长;

第二获得模块,用于获取向各所述从服务器发送的多个处理任务中各所述处理任务的请求资源消耗量、任务类型以及预期截止时间;

任务分配模块,用于根据各所述处理任务的请求资源消耗量、任务类型和预期截止时间,以及各所述从服务器的cpu的类型、可用资源量、计划关闭时间和预设时长采用预设算法进行计算以得到可分配的处理任务及对应的可分配的从服务器并进行分配。

可选的,在上述资源分配装置中,所述任务分配模块包括:

第一获得子模块,用于按照第一预设公式得到各cpu的可用资源量随时间的变化得到可用资源序列;

第二获得子模块,用于按照第二预设公式得到各所述处理任务的请求资源消耗量随时间的变化得到请求资源序列;

完全二分图构建子模块,用于根据所述可用资源序列和所述请求资源序列构建完全二分图;

第一分配子模块,用于根据各所述从服务器的cpu的类型和计划关闭时间,以及各处理任务的任务类型及预期时间将所述完全二分图中的可用资源序列与各请求资源序列按照km算法进行匹配,并将与可用资源序列匹配的请求资源序列对应的处理任务发送至与该可用资源序列对应的从服务器中。

可选的,在上述资源分配装置中,所述第一获得子模块,还用于按照公式得到可用资源量随时间的变化得到可用资源序列,其中,k'是实常数,取值范围为[0,1],t是计时时长,β∈r+为请求价格函数的曲率,τ是预设时长,rt(t)为当前计时时长到预设时长之间的时长,为最大可用资源量,为最小可用资源量;

所述第二获得子模块,还用于按照公式得到请求资源消耗量随时间的变化得到请求资源消耗量序列,其中,k'是实常数,取值范围为[0,1],t是计时时长,δ∈r+为可用资源函数的曲率,τ是预设时长,rt(t)为当前计时时长到预设时长之间的时长,为最大请求资源消耗量,为最小请求资源消耗量。

可选的,在上述资源分配装置中,所述任务分配模块包括:

第三获得模块,用于根据各所述cpu的类型和计划关闭时间得到可用资源矩阵,根据各所述处理任务的任务类型和预期截止时间得到请求资源矩阵,并将所述可用资源矩阵和请求资源矩阵发送至各所述从服务器;

接收模块,用于接收各所述从服务器根据所述可用资源矩阵、请求资源矩、请求资源序列以及可用资源序列按照公式pj[i]=(asking[i]-bidding[j]*δij)/2进行计算得到的一收益矩阵,及所述收益矩阵中每一列的最大值对应的处理任务及cpu,其中,asking[i]为请求资源矩阵,bidding[j]为可用资源矩阵,δij为取值[0,1]之间的常数;

所述任务分配模块,还用于依据所述收益矩阵中每一列的最大值对应的处理任务及cpu以将该处理任务分配至该cpu。

本发明还提供一种资源分配系统,包括主服务器和多个从服务器,所述主服务器与各所述从服务器分别连接;

各所述从服务器,用于将对应的cpu的类型、可用资源量和计划关闭时间发送至所述主服务器;

所述主服务器,用于在接收到各所述从服务器发送的cpu的类型、可用资源量以及计划关闭时间时,开始计时,并获得一预设时长,其中,所述预设时长为进行资源分配的时长;

所述主服务器,还用于获取向各所述从服务器发送的多个处理任务中各所述处理任务的请求资源消耗量、任务类型以及预期截止时间;

所述主服务器,还用于根据各所述处理任务的请求资源消耗量、任务类型和预期截止时间,以及各所述从服务器的cpu的类型、可用资源量、计划关闭时间和预设时长采用预设算法进行计算以得到可分配的处理任务及对应的可分配的从服务器并进行分配;

各所述可分配的从服务器的cpu用于在接收到对应的可分配的处理任务时,根据计划关闭时间及预期截止时间对该处理任务进行处理。

可选的,在上述资源分配系统中,所述主服务器还用于按照第一预设公式得到各cpu的可用资源量随时间的变化得到可用资源序列,以及按照第二预设公式得到各所述处理任务的请求资源消耗量随时间的变化得到请求资源序列;

所述主服务器还用于根据所述可用资源序列和所述请求资源序列构建完全二分图,以及根据各所述从服务器的cpu的类型和计划关闭时间,以及各处理任务的任务类型及预期时间将所述完全二分图中的可用资源序列与各请求资源序列按照km算法进行匹配,并将与可用资源序列匹配的请求资源序列对应的处理任务发送至与该可用资源序列对应的从服务器中。

本发明实施例提供的一种资源分配方法、装置及系统,通过根据获取到的资源分配系统中各从服务器的cpu的类型、可用资源量、计划关闭时间以及一预设时长,以及获取到的向各从服务器发送的多个处理任务中各所述处理任务的请求资源消耗量、任务类型以及预期截止时间,按照一预设算法对各处理任务进行分配,以在存在多个任务需要进行同时处理时,实现对多个任务进行合理分配,以有效节约资源。

附图说明

为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。

图1为本发明实施例提供的一种资源分配系统的连接框图。

图2为本发明实施例提供的一种主服务器的连接框图。

图3为本发明实施例提供的一种资源分配方法的流程示意图。

图4为图3中步骤s130的流程示意图。

图5为本发明实施例提供的一种资源分配方法的另一流程示意图。

图6为本发明实施例提供的一种资源分配装置的模块框图。

图7为本发明实施例提供的一种任务分配模块的连接框图。

图8为本发明实施例提供的一种资源分配装置的另一连接框图。

图标:10-主服务器;12-存储器;14-处理器;20-从服务器;100-资源分配装置;110-第一获得模块;120-第二获得模块;130-任务分配模块;131-第一获得子模块;132-第二获得子模块;133-完全二分图构建子模块;134-第一分配子模块;140-第三获得模块;150-接收模块。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。

因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。

如图1所示,是本发明较佳实施例提供的一种资源分配系统,并示意性图示了本申请的实施例的应用场景。所述资源分配系统包括主服务器10和与所述主服务器10关联的多个从服务器20,各且所述主服务器10和从服务器20的结构相同,可以包括处理器、硬盘、内存、系统总线等,且并不特别限定其种类。其中,主服务器10可以用于接收发送至各从服务器20的处理任务并根据各从服务器20的处理能力和各处理任务的信息进行资源的预估值,和自动分配,从而使得每个从服务器20都得到充分的利用。

请结合图2,图2是本发明提供的一种主服务器10的连接框图,包括处理器14和存储器12,所述存储器12与处理器14相互之间直接或间接地电性连接,以实现数据的传输或交互。存储器12中存储有以软件或固件(firmware)的形式存储于所述存储器12中的软件功能模块,所述处理器14通过运行存储在存储器12内的软件程序以及模块,如本发明实施例中的资源分配装置100,从而执行各种功能应用以及数据处理,即实现本发明实施例中的资源分配方法。

具体的,所述资源分配系统在进行资源分配时,各所述从服务器20将对应的cpu的类型、可用资源量和计划关闭时间发送至所述主服务器10,所述主服务器10在接收到各所述从服务器20发送的cpu的类型、可用资源量以及计划关闭时间时,开始计时,并获得一预设时长,其中,所述预设时长为进行资源分配的时长,所述主服务器10获取向各所述从服务器20发送的多个处理任务中各所述处理任务的请求资源消耗量、任务类型以及预期截止时间。

所述主服务器10根据各所述处理任务的请求资源消耗量、任务类型和预期截止时间,以及各所述从服务器20的cpu的类型、可用资源量、计划关闭时间和预设时长采用预设算法进行计算以得到可分配的处理任务及对应的可分配的从服务器20并进行分配,各所述可分配的从服务器20的cpu在接收到对应的可分配的处理任务时,根据计划关闭时间及预期截止时间对该处理任务进行处理。

通过上述设置以有效避免在对处理任务进行分配时存在分配不合理的情况。

其中,所述主服务器10根据各所述处理任务的请求资源消耗量、任务类型和预期截止时间,以及各所述从服务器20的cpu的类型、可用资源量、计划关闭时间和预设时长采用预设算法进行计算以得到可分配的处理任务及对应的可分配的从服务器20并进行分配的具体方式为:所述主服务器10按照第一预设公式得到各cpu的可用资源量随时间的变化得到可用资源序列,以及按照第二预设公式得到各所述处理任务的请求资源消耗量随时间的变化得到请求资源序列,所述主服务器10还用于根据所述可用资源序列和所述请求资源序列构建完全二分图,以及根据各所述从服务器20的cpu的类型和计划关闭时间,以及各处理任务的任务类型及预期时间将所述完全二分图中的可用资源序列与各请求资源序列按照km算法进行匹配,并将与可用资源序列匹配的请求资源序列对应的处理任务发送至与该可用资源序列对应的从服务器20中。

由于不需要工作人员根据经验手动调整将每个任务项分配到哪个从服务器20,所以这种方式尤其适合集群规模较大时,达到对集群资源的最优化利用。

请结合图3,本发明提供一种可应用于上述资源分配系统的资源分配方法,所述方法包括步骤s110-s130三个步骤。

步骤s110:获得各所述从服务器20的cpu的类型、可用资源量以及计划关闭时间,以及获得一预设时长,并开始计时,其中,所述预设时长为进行资源分配的时长。

其中cpu的类型可以是但不限于高i/o类,高计算能力类,或高i/o类和高计算能力类集成于一体。可选的,在本实施例中,所述cpu的类型包括高i/o类和高计算能力类。每个从服务器20中包括的cpu的数量可以是一个,也可以是多个,在此不作具体限定,根据实际需求进行设置即可。

所述预设时长可以是但不限于几毫秒、几十毫秒或者几秒钟,在此不作具体限定,根据实际需求进行设置即可。

步骤s120:获取向各所述从服务器20发送的多个处理任务中各所述处理任务的请求资源消耗量、任务类型以及预期截止时间。

其中,所述处理任务为与所述主服务器10关联的终端设备,如电脑、手机等发送的。所述处理任务的请求资源消耗量为cpu在处理所述处理任务时需要消耗的资源。所述处理任务的任务类型为处理类或传输类。

需要说明的是,当所述处理任务的任务类型为处理类,如所述任务类型为图像处理或数据分析时,则对应分配至高计算能力类的cpu,当所述任务类型为音频或视频传输时,则对应分配至高i/o类的cpu。

步骤s130:根据各所述处理任务的请求资源消耗量、任务类型和预期截止时间,以及各所述从服务器20的cpu的类型、可用资源量、计划关闭时间和预设时长采用预设算法进行计算以得到可分配的处理任务及对应的可分配的从服务器20并进行分配。通过上述设置,以使可分配的从服务器20的cpu在接收到对应的可分配的处理任务时,根据计划关闭时间及预期截止时间对该处理任务进行处理,以在存在多个任务需要进行同时处理时,实现对多个任务进行合理分配至cpu进行处理,进而有效节约资源。

请结合图4,可选地,在本实施例中,根据各所述处理任务的请求资源消耗量、任务类型和预期截止时间,以及各所述从服务器20的cpu的类型、可用资源量、计划关闭时间和预设时长采用预设算法进行计算以得到可分配的处理任务及对应的可分配的从服务器20并进行分配的步骤可以包括以下步骤:

步骤s131:按照第一预设公式得到各cpu的可用资源量随时间的变化得到可用资源序列。

其中,按照第一预设公式得到各cpu的可用资源量随时间的变化得到可用资源序列的方式可以是,按照第一预设公式,且每间隔一设定时长得到各cpu的可用资源量。其中,该设定时长可以是但不限于几微秒、几毫秒或几秒钟,在此不作具体限定,根据实际需求进行选取即可。

一般来说,处理任务想要获得预期的资源,在进行分配过程中给出的请求资源消耗量要高于其它的实际消耗量。类似的,一个cpu想要获得处理任务来获得收益,在进行获得处理任务中给出的可用资源量要低于其它cpu。因此,在资源分配开始时,cpu给出的可用资源量要高,但临近资源分配结束时,cpu给出的可用资源量要变低。

因此,在本实施例中,所述按照第一预设公式得到各cpu的可用资源量随时间的变化得到可用资源序列的步骤包括:

按照公式得到可用资源量随时间的变化得到可用资源序列,其中,k'是实常数,取值范围为[0,1],t是计时时长,β∈r+为可用资源函数的曲率,τ是预设时长,rt(t)为当前计时时长到预设时长之间的时长,为最大可用资源量,为最小可用资源量。

步骤s132:按照第二预设公式得到各所述处理任务的请求资源消耗量随时间的变化得到请求资源序列。

其中,按照第二预设公式得到各所述处理任务的请求资源消耗量随时间的变化得到请求资源序列的方式可以是,按照第二预设公式,且每间隔一设定时长得到各所述处理任务的请求资源消耗量。其中,该设定时长可以是但不限于几微秒、几毫秒或几秒钟,在此不作具体限定,根据实际需求进行选取即可。

基于与cpu在资源分配开始时,cpu给出的可用资源量要高,但临近资源分配结束时,cpu给出的可用资源量要变低相同的理由。可选的,在本实施例中,所述按照第二预设公式得到各所述处理任务的请求资源消耗量随时间的变化得到请求资源序列的步骤包括:

按照公式得到请求资源消耗量随时间的变化得到请求资源消耗量序列,其中,k'是实常数,取值范围为[0,1],t是计时时长,δ∈r+为请求资源消耗量函数的曲率,τ是预设时长,rt(t)为当前计时时长到预设时长之间的时长,为最大请求资源消耗量,为最小请求资源消耗量。

步骤s133:根据所述可用资源序列和所述请求资源序列构建完全二分图。

步骤s134:根据各所述从服务器20的cpu的类型和计划关闭时间,以及各处理任务的任务类型及预期时间将所述完全二分图中的可用资源序列与各请求资源序列按照km算法进行匹配,并将与可用资源序列匹配的请求资源序列对应的处理任务发送至与该可用资源序列对应的从服务器20中。

具体的,请求资源序列和可用资源序列构建完全二分图g=(v,e),v={xi∪yj|xi∈x,yj∈y},其中,x是请求资源序列,y是可用资源序列。标定xi,yj,xi∈x,yj∈y的顶标值l(xi)和l(yj),使其满足条件l(xi)+l(yj)≥w(xi,yj),给定顶标值为:l(xi)=maxw(xi,yj),l(yj)=0,形成新的完全二分图g’。其中,w(x,y)是假设处理任务yj和cpuxi相匹配,则在进行资源分配过程中可以获得的收益设置为权重值。xi的权重是w(xi),其值为xi当前的请求资源消耗量。yj的权重是w(yj),其值为当前可用资源量与δij的乘积,δij为处理任务在基准节点a上运行需要ri单位资源,但在b上运行需要rj单位资源进行归一化值计算得到,即δji=rj/ri,且w(x,y)=w(xi)-w(yj)。

具体的,在所有的yj范围内,尽可能地找到xi的可行匹配(xi,yj),(xi,yj)是指(1):xi与yj有maxw(xi,yj),且xi未与其它的yk建立匹配,yk∈y-{yj};(2)wij>wil(j≠l),且xi与yl已经建立了匹配。如果找到(xi,yj),则加入到初始匹配m中。

对于每个xi∈x,如果km改进算法终止。如果则取节点u,满足u∈g'且初始化s={u},

如果转向(6)。如果t=ng'(s),ng'(s)是s的每个元素的邻居节点组成的集合。计算αl,计算

选择(1)如果yi∈m且(yi,z)∈m,则s←s∪{z}与t←t∪{yj},转到(5);(2)获取m的增广路径p(u,yj),计算并返回对于每个xi∈x,如果km改进算法终止。如果则取节点u,满足u∈g'且初始化s={u},直至计时时长到达预设时长或将各处理任务分配完成。

需要说明的是,在km算法执行完毕后,一些处理任务已经被分配到cpu上,这些处理任务能否被cpu接受需要进一步判别。

因此,可选的,在本实施例中,请结合图5,在执行根据各所述从服务器20的cpu的类型和计划关闭时间,以及各处理任务的任务类型及预期时间将所述完全二分图中的可用资源序列与各请求资源序列按照km算法进行匹配,并将与可用资源序列匹配的请求资源序列对应的处理任务发送至与该可用资源序列对应的从服务器20中的步骤之后,所述方法还包括:

步骤s140:根据各所述cpu的类型和计划关闭时间得到可用资源矩阵,根据各所述处理任务的任务类型和预期截止时间得到请求资源矩阵,并将所述可用资源矩阵和请求资源矩阵发送至各所述从服务器20。

步骤s150:接收各所述从服务器20根据所述可用资源矩阵、请求资源矩、请求资源序列以及可用资源序列按照公式pj[i]=(asking[i]-bidding[j]*δij)/2进行计算得到的一收益矩阵,及所述收益矩阵中每一列的最大值对应的处理任务及cpu,其中,asking[i]为请求资源矩阵,bidding[j]为可用资源矩阵,δij为取值[0,1]之间的常数。

步骤s160:依据所述收益矩阵中每一列的最大值对应的处理任务及cpu以将该处理任务分配至该cpu。

具体的方式可以是,主服务器10建立请求资源消耗量矩阵requestj并发送至各所述从服务器20,requestj={r1[j],r2[j],…,rk[j],dl[j]}。k是处理任务j需求的资源类型,rk[j]是需求该类型的数量。dl[j]是处理任务的预期截止时间。建立资源域i的可用资源量availablei和最大资源数矩阵maximumi并发送至各从服务器20,availablei={a1[i],a2[i],…,ak[i],pt[i]},maximumi={m1[i],m2[i],…,mk[i],pt[i]}。ak[i]是可用资源量i提供的资源类型k的可用数量。mk[i]为可用资源量i提供的资源类型k的最大数量。pt[i]是i的计划关闭时间,即企业级网络中i将在pt[i]时刻或之后关闭。

各所述从服务器20根据所述可用资源矩阵、请求资源矩、请求资源序列以及可用资源序列按照公式pj[i]=(asking[i]-bidding[j]*δij)/2进行计算以得到一收益矩阵,得到所述收益矩阵中每一列的最大值对应的处理任务及cpu,并将该处理任务分配至该cpu,其中,asking[i]为请求资源矩阵,bidding[j]为可用资源矩阵,δij为取值[0,1]之间的常数,选取矩阵profit中,选择收益最大值对应的处理任务j,pj[i]的运行截止时间,其等于开始时间与预期执行时间之和,将j放置到i的可接受处理任务序列,并进行分配。

通过上述方法,以进一步使得在对各所述处理任务进行分配时,有效保证分配任务的合理性并有效保证分配的任务能够被执行,以进一步有效避免浪费资源的问题。

请结合图6,在上述基础上,本发明还提供一种可应用于上述资源分配系统的资源分配装置100,所述资源分配装置100包括:第一获得模块110、第二获得模块120以及任务分配模块130。

所述第一获得模块110用于获得各所述从服务器20的cpu的类型、可用资源量以及计划关闭时间,以及获得一预设时长,并开始计时,其中,所述预设时长为进行资源分配的时长。在本实施例中,所述第一获得模块110可用于执行图3所示的步骤s110,关于所述第一获得模块110的具体描述可以参照前文对步骤s110的描述。

所述第二获得模块120用于获取向各所述从服务器20发送的多个处理任务中各所述处理任务的请求资源消耗量、任务类型以及预期截止时间。在本实施例中,所述第二获得模块120可用于执行图3所示的步骤s120,关于所述第二获得模块120的具体描述可以参照前文对步骤s120的描述。

所述任务分配模块130用于根据各所述处理任务的请求资源消耗量、任务类型和预期截止时间,以及各所述从服务器20的cpu的类型、可用资源量、计划关闭时间和预设时长采用预设算法进行计算以得到可分配的处理任务及对应的可分配的从服务器20并进行分配。在本实施例中,所述任务分配模块130可用于执行图3所示的步骤s130,关于所述任务分配模块130的具体描述可以参照前文对步骤s130的描述。

请结合图7,所述任务分配模块130包括:第一获得子模块131、第二获得子模块132、完全二分图构建子模块133以及第一分配子模块134。

所述第一获得子模块131用于按照第一预设公式得到各cpu的可用资源量随时间的变化得到可用资源序列。在本实施例中,所述第一获得子模块131可用于执行图4所示的步骤s131,关于所述第一获得子模块131的具体描述可以参照前文对步骤s131的描述。

所述第二获得子模块132用于按照第二预设公式得到各所述处理任务的请求资源消耗量随时间的变化得到请求资源序列。在本实施例中,所述第二获得子模块132可用于执行图4所示的步骤s132,关于所述第二获得子模块132的具体描述可以参照前文对步骤s132的描述。

所述完全二分图构建子模块133用于根据所述可用资源序列和所述请求资源序列构建完全二分图。在本实施例中,所述完全二分图构建子模块133可用于执行图4所示的步骤s133,关于所述完全二分图构建子模块133的具体描述可以参照前文对步骤s133的描述。

所述第一分配子模块134用于根据各所述从服务器20的cpu的类型和计划关闭时间,以及各处理任务的任务类型及预期时间将所述完全二分图中的可用资源序列与各请求资源序列按照km算法进行匹配,并将与可用资源序列匹配的请求资源序列对应的处理任务发送至与该可用资源序列对应的从服务器20中。在本实施例中,所述第一分配子模块134可用于执行图4所示的步骤s134,关于所述第一分配子模块134的具体描述可以参照前文对步骤s134的描述。

可选的,在本实施例中,所述第一获得子模块131,还用于按照公式得到可用资源量随时间的变化得到可用资源序列,其中,k'是实常数,取值范围为[0,1],t是计时时长,β∈r+为请求价格函数的曲率,τ是预设时长,rt(t)为当前计时时长到预设时长之间的时长,为最大可用资源量,为最小可用资源量。

所述第二获得子模块132,还用于按照公式得到请求资源消耗量随时间的变化得到请求资源消耗量序列,其中,k'是实常数,取值范围为[0,1],t是计时时长,δ∈r+为可用资源函数的曲率,τ是预设时长,rt(t)为当前计时时长到预设时长之间的时长,为最大请求资源消耗量,为最小请求资源消耗量。

请结合图8,在本实施例中,所述资源分配装置100还包括:第三获得模块140和接收模块150。

所述第三获得模块140用于根据各所述cpu的类型和计划关闭时间得到可用资源矩阵,根据各所述处理任务的任务类型和预期截止时间得到请求资源矩阵,并将所述可用资源矩阵和请求资源矩阵发送至各所述从服务器20。在本实施例中,所述第三获得模块140可用于执行图5所示的步骤s140,关于所述第三获得模块140的具体描述可以参照前文对步骤s140的描述。

所述接收模块150用于接收各所述从服务器20根据所述可用资源矩阵、请求资源矩、请求资源序列以及可用资源序列按照公式pj[i]=(asking[i]-bidding[j]*δij)/2进行计算得到的一收益矩阵,及所述收益矩阵中每一列的最大值对应的处理任务及cpu,其中,asking[i]为请求资源矩阵,bidding[j]为可用资源矩阵,δij为取值[0,1]之间的常数。在本实施例中,所述接收模块150可用于执行图5所示的步骤s150,关于所述接收模块150的具体描述可以参照前文对步骤s150的描述。

所述任务分配模块130还用于依据所述收益矩阵中每一列的最大值对应的处理任务及cpu以将该处理任务分配至该cpu。在本实施例中,所述任务分配模块130还可以用于执行图5所示的步骤s160,关于所述任务分配模块130的具体描述还可以参照前文对步骤s160的描述。

综上,本发明提供的一种资源分配方法、装置及系统,通过根据获取到的资源分配系统中各从服务器20的cpu的类型、可用资源量、计划关闭时间以及一预设时长,以及获取到的向各所述从服务器20发送的多个处理任务中各所述处理任务的请求资源消耗量、任务类型以及预期截止时间,按照一预设算法对各处理任务进行分配,以在存在多个任务需要进行同时处理时,实现对多个任务进行合理分配,以有效节约资源。

在本发明实施例所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置和方法实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的装置来实现,或者可以用专用硬件与计算机指令的组合来实现。另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。

所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,电子设备,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1