服务器容量调整方法、装置及电子设备与流程

文档序号:20510943发布日期:2020-04-24 18:31阅读:234来源:国知局
服务器容量调整方法、装置及电子设备与流程

本发明涉及数据处理技术领域,具体而言,涉及一种服务器容量调整方法、装置及电子设备。



背景技术:

企业的数据中心运维部门经常需要根据企业最近的业务需求,对服务器容量进行调整。例如,当某天业务需求增加时,中央处理器(centralprocessingunit,cpu)消耗量会随之增加,为保证业务正常运行,需要对服务器进行扩容。

目前,对服务器进行扩容的方法一般为:数据中心的运维人员根据当前cpu消耗量、并结合自身经验判断是否应该扩容,然后当判断需要扩容时,通过人工手动方式进行服务器扩容。例如,运维人员可以根据当前cpu的消耗量并结合自身经验,预估当天cpu消耗量会在何时达到峰值以及cpu消耗量峰值的大小,并根据预估结果判断是否需要在达到及cpu消耗量峰值前进行服务器扩容,然后,当判断需要进行服务器扩容时,可以预先手动增加服务器容量(如:增加服务器),实现服务器扩容。

但是,上述现有技术中,通过人为判断进行服务器扩容的方式,常常会由于人为判断的结果并不准确,而导致无法对业务需求的变化作出及时地响应。



技术实现要素:

本发明提供一种服务器容量调整方法、装置及电子设备,可以根据任意当前时刻的cpu消耗量,对服务器容量进行自动调整,从而能够对业务需求的变化作出及时地响应。

第一方面,本发明实施例提供一种服务器容量调整方法,该方法包括:

获取当前时刻的cpu消耗量;根据预设模型、当前时刻的cpu消耗量,确定目标容量调整策略;其中,预设模型通过采用样本集合对神经网络进行训练所获取,样本集合包括:历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略,容量调整策略包括:扩容、减容或无操作;根据目标容量调整策略,对服务器容量进行调整。

可选地,所述根据预设模型、当前时刻的cpu消耗量,确定目标容量调整策略之前,所述方法还包括:

获取历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略;根据历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略对神经网络进行训练,获取预设模型。

可选地,所述根据历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略对神经网络进行训练,获取预设模型,包括:

采用q学习算法,并将历史时刻的cpu消耗量作为输入,扩容、减容、以及无操作三种容量调整策略分别对应的q值作为输出,对神经网络进行训练,得到初步模型;将初步模型输出的三种容量调整策略中,最大q值对应的容量策略为目标容量调整策略,得到预设模型。

可选地,所述q学习算法的奖励机制为:当容量调整策略为扩容时,预设时长后cpu消耗量降低的比例;以及,当容量调整策略为减容时,预设时长后cpu消耗量升高的比例。

可选地,所述根据目标容量调整策略,对服务器容量进行调整,包括:

若目标容量调整策略为扩容,则将服务器容量增加预设容量;若目标容量调整策略为减容,则将服务器容量减少预设容量;若目标容量调整策略为无操作,则保持服务器容量不变。

可选地,所述根据历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略对神经网络进行训练,获取所述预设模型之前,所述方法还包括:

采用数据清洗算法对历史时刻的cpu消耗量进行数据清洗。

可选地,数据清洗算法包括下述任一种:时序数据指数平滑化算法、自回归移动平均模型算法、以及卡尔曼滤波算法。

可选地,样本集合还包括:历史时刻的交易码数据和历史时刻的交易码数据对应的容量调整策略,或者,历史时刻的交易量数据和历史时刻的交易量数据对应的容量调整策略。

相应地,获取当前时刻的cpu消耗量,包括:获取当前时刻的交易码数据或交易量数据。

第二方面,本发明实施例提供一种服务器容量调整装置,所述装置包括:

获取模块,用于获取当前时刻的cpu消耗量;确定模块,用于根据预设模型、当前时刻的cpu消耗量,确定目标容量调整策略;其中,预设模型通过采用样本集合对神经网络进行训练所获取,样本集合包括:历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略,容量调整策略包括:扩容、减容或无操作;调整模块,用于根据目标容量调整策略,对服务器容量进行调整。

可选地,所述装置还包括:训练模块,用于在确定模块根据预设模型、当前时刻的cpu消耗量,确定目标容量调整策略之前,获取历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略,并根据历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略对神经网络进行训练,获取预设模型。

可选地,训练模块,具体用于采用q学习算法,并将历史时刻的cpu消耗量作为输入,扩容、减容、以及无操作三种容量调整策略分别对应的q值作为输出,对神经网络进行训练,得到初步模型;将初步模型输出的三种容量调整策略中,最大q值对应的容量策略为目标容量调整策略,得到预设模型。

可选地,q学习算法的奖励机制为:当容量调整策略为扩容时,预设时长后cpu消耗量降低的比例;以及,当容量调整策略为减容时,预设时长后cpu消耗量升高的比例。

可选地,调整模块,具体用于若目标容量调整策略为扩容,则将服务器容量增加预设容量;若目标容量调整策略为减容,则将服务器容量减少预设容量;若目标容量调整策略为无操作,则保持服务器容量不变。

可选地,所述装置还包括:数据清洗模块,用于在训练模块根据历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略对神经网络进行训练,获取预设模型之前,采用数据清洗算法对历史时刻的cpu消耗量进行数据清洗。

可选地,数据清洗算法包括下述任一种:时序数据指数平滑化算法、自回归移动平均模型算法、以及卡尔曼滤波算法。

可选地,样本集合还包括:历史时刻的交易码数据和历史时刻的交易码数据对应的容量调整策略,或者,历史时刻的交易量数据和历史时刻的交易量数据对应的容量调整策略;相应地,获取模块,具体用于获取当前时刻的交易码数据或交易量数据。

第三方面,本发明实施例提供一种电子设备,包括:处理器、存储介质和总线,存储介质存储有处理器可执行的机器可读指令,当电子设备运行时,处理器与存储介质之间通过总线通信,处理器执行机器可读指令,以执行如第一方面所述的服务器容量调整方法。

第四方面,本发明实施例还提供一种存储介质,存储介质上存储有计算机程序,计算机程序被处理器运行时执行如第一方面所述的服务器容量调整方法。

本发明的有益效果是:

本发明实施例通过采用样本集合对神经网络进行训练,样本集合包括:历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略,容量调整策略包括:扩容、减容或无操作,可以使神经网络学习cpu消耗量与容量调整策略之间的映射关系,从而得到预设模型。通过获取当前时刻的cpu消耗量,并根据预设模型、当前时刻的cpu消耗量,确定目标容量调整策略,然后,根据目标容量调整策略,对服务器容量进行调整,从而可以实现根据任意当前时刻的cpu消耗量,对服务器容量进行自动调整,进而能够对业务需求的变化及时地作出响应。

附图说明

为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。

图1示出了本发明实施例提供的服务器容量调整方法的流程示意图;

图2示出了本发明实施例提供的服务器容量调整方法的另一流程示意图;

图3示出了本发明实施例提供的服务器容量调整方法的又一流程示意图;

图4示出了本发明实施例提供的服务器容量调整方法的又一流程示意图;

图5示出了本发明实施例提供的服务器容量调整装置的结构示意图;

图6示出了本发明实施例提供的服务器容量调整装置的另一结构示意图;

图7示出了本发明实施例提供的服务器容量调整装置的又一结构示意图;

图8示出了本发明实施例提供的电子设备的结构示意图。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。

应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。

本发明实施例提供一种服务器容量调整方法,可以根据任意当前时刻的cpu消耗量,对服务器容量进行自动调整,以对业务需求的变化及时地作出响应。该服务器容量调整方法的执行主体可以是服务器或计算机,例如,可以是数据运维中心的运维服务器;或者也可以是单独设置、且与数据运维中心对接的其他数据服务器、计算机等设备;又或者,还可以是服务器或计算机中的某一个或多个处理器,本发明对此不作限制。

图1示出了本发明实施例提供的服务器容量调整方法的流程示意图。

如图1所示,该服务器容量调整方法,可以包括:

s101、获取当前时刻的cpu消耗量。

其中,cpu消耗量可以是指cpu中消耗的计算资源。以用于提供业务功能的服务器为例,当服务器提供业务功能时,需要基于服务器的cpu对数据进行处理,该过程会消耗cpu中的计算资源。可选地,前述业务功能可以是指一些金融中心提供的交易业务、股票业务、证券业务等,本发明在此不作限制。

可选地,当前时刻可以是指某一天当中的任意某个时刻。例如,当前时刻可以是“7时00分”、“8时00分”、“8时30分”等精确度为分的时刻,也可以是“7时00分41秒”、“8时30分05秒”等精确度为秒的时刻,或者,还可以是“7时”、“8时”等精确到小时的时刻,本发明在此亦不作限制。

可选地,本发明中,cpu消耗量可以用cpu消耗资源的大小(如:字节数)进行表示,也可以用cpu占有率(如:百分比)进行表示。

s102、根据预设模型、当前时刻的cpu消耗量,确定目标容量调整策略。

其中,预设模型可以通过采用样本集合对神经网络进行训练所获取,样本集合包括:历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略,容量调整策略包括:扩容、减容或无操作。

例如,容量调整策略中,扩容可以是指将服务器容量增加预设容量;减容可以是指将服务器容量减小预设容量;无操作可以是指保持当前服务器容量不变。其中,预设容量可以是一个固定配置的服务器的容量大小,例如,若一个固定配置的服务器的容量大小为50g,则扩容可以是指增加一个服务器,从而实现将服务器容量增加50g。需要说明的是,前述预设容量的大小仅仅为示例性的说明,本领域技术人员可以根据实际需求对预设容量的大小进行设定,如:也可以是2个固定配置的服务器的容量大小、3个固定配置的服务器的容量大小等,本发明对预设容量的具体数值不作限定。

可以理解的,前述步骤s102需要基于预设模型确定目标容量调整策略,所以,在前述步骤s102之前,该服务器容量调整方法还可以包括训练获取前述预设模型的步骤。

图2示出了本发明实施例提供的服务器容量调整方法的另一流程示意图。

如图2所示,上述根据预设模型、当前时刻的cpu消耗量,确定目标容量调整策略之前,该服务器容量调整方法,还可以包括:

s201、获取历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略。

可选地,历史时刻对应的cpu消耗量可以是过去某一天内每个时刻对应的cpu消耗量,也可以是过去某一天业务高峰期内的每个时刻对应的cpu消耗量,在此不作限制。

历史时刻的cpu消耗量对应的容量调整策略可以是指在历史时刻时,需要对服务器容量所进行的扩容、减容、无操作等容量调整策略。例如,历史时刻可以为过去某一天内的“11时00分”,“11时00分”对应的容量调整策略可以是“扩容”。

可选地,在获取到历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略后,可以将历史时刻的cpu消耗量作为输入、历史时刻的cpu消耗量对应的容量调整策略作为输出,通过下述步骤s202对神经网络进行训练,使神经网络学习cpu消耗量与容量调整策略之间的映射关系。

s202、根据历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略对神经网络进行训练,获取预设模型。

通过根据历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略对神经网络进行训练,使神经网络学习cpu消耗量与容量调整策略之间的映射关系,得到上述预设模型后,该预设模型即可用于前述步骤s102中实现根据当前时刻的cpu消耗量,确定目标容量调整策略。

例如,当前时刻为“11时00分”,则将当前“11时00分”的cpu消耗量输入预设模型后,预设模型可以输出的目标容量调整策略可以为“扩容”。

然后,可以通过下述步骤s103根据目标容量调整策略对服务器容量进行调整。

s103、根据目标容量调整策略,对服务器容量进行调整。

例如,若目标容量调整策略为扩容,则可以将服务器容量增加预设容量;若目标容量调整策略为减容,则可以将服务器容量减少预设容量;若目标容量调整策略为无操作,则可以保持服务器容量不变。

一些实施方式中,步骤s103实现的具体方式可以为:先判断目标容量调整策略是否为扩容,若是,则将服务器容量增加预设容量;若否,则判断目标容量调整策略是否为减容,若是,则将服务器容量减少预设容量;若否,则保持服务器容量不变。需要说明的是,对扩容、减容或无操作三种容量调整策略的判断顺序,本发明不作限制,只需保证判断逻辑上可以确定出具体目标容量调整策略的类型即可。

由上所述,本发明实施例通过采用样本集合对神经网络进行训练,样本集合包括:历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略,容量调整策略包括:扩容、减容或无操作,可以使神经网络学习cpu消耗量与容量调整策略之间的映射关系,从而得到预设模型。通过获取当前时刻的cpu消耗量,并根据预设模型、当前时刻的cpu消耗量,确定目标容量调整策略,然后,根据目标容量调整策略,对服务器容量进行调整,从而可以实现根据任意当前时刻的cpu消耗量,对服务器容量进行自动调整,进而能够对业务需求的变化及时地作出响应。

另外,由于本发明实施例可以根据任意当前时刻的cpu消耗量,对服务器容量进行自动调整,不需要人为干预,所以,在提升响应速度的同时,还可以有效降低人工手动扩容所占用的人工成本。

图3示出了本发明实施例提供的服务器容量调整方法的又一流程示意图。

可选地,如图3所示,上述根据历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略对神经网络进行训练,获取预设模型的步骤,具体可以包括:

s301、采用q学习算法,并将历史时刻的cpu消耗量作为输入,扩容、减容、以及无操作三种容量调整策略分别对应的q值作为输出,对神经网络进行训练,得到初步模型。

s302、将初步模型输出的三种容量调整策略中,最大q值对应的容量策略为目标容量调整策略,得到预设模型。

可选地,q学习算法的奖励机制可以为:当容量调整策略为扩容时,预设时长后cpu消耗量降低的比例;以及,当容量调整策略为减容时,预设时长后cpu消耗量升高的比例。例如,预设时长可以是5分钟、8分钟、10分钟等,本发明对此不作限制。

现对q学习算法作举例说明:

q学习算法的输入可以为历史时刻的cpu消耗量,如:可以是cpu消耗量时序数据;q学习算法决策空间可以为前述三种容量调整策略:扩容、减容、以及无操作;q学习算法的奖励(reward)机制可以为:当输出为扩容时,预设时长(如:五分钟)后cpu消耗量降低的比例,反方向相同的是,当输出为减容时,预设时长后cpu消耗量升高的比例。

q学习算法的q表可以如下表1所示:

表1

表1(q表)中,第一列为状态,即不同历史时刻的cpu消耗量;第二列为容量调整策略为扩容(动作1)时每种状态对应的reward值;第三列为容量调整策略为减容(动作2)时每种状态对应的reward值;第四列为容量调整策略为无操作(动作3)时每种状态对应的reward值。通过不断地模拟或者采用实际数据填充此表,并且更新迭代,可以得到训练神经网络的数据。

q学习算法也即为如何更新前述q表的方法,以下述表2为例,q表更新过程可以如下:

表2

当q学习算法处于s0的状态时,如果刚好选择的动作为减容(a2),则下一个状态就是s1。执行动作a2后,需要更新q(s0,a2)数值,具体为:

q′(s0,a2)=q(s0,a2)+α*[r(s1)+γ*maxaq(s1,a)-q(s0,a2)]

其中,r(s1)表示q学习算法在s1状态时的奖励(reward);γ表示衰减值;a表示s1状态下对应的q值最大的一个;maxaq(s1,a)表示s1状态下对应的q值最大的一个,即最大q值,如表2中所示,s1状态下对应的最大q值为2;α表示学习速率(learningrate);r(s1)+γ*maxaq(s1,a)-q(s0,a2)表示q(s0,a2)的目标数值;q(s0,a2)表示当前s0状态下对应的执行动作a2时的q值;q′(s0,a2)则表示更新后的s0状态下对应的执行动作a2时的q值。

也即,若将r(s1)+γ*maxaq(s1,a)-q(s0,a2)表示为:

q目标(s0,a2)

q′(s0,a2)=q(s0,a2)+α*[q目标(s0,a2)-q(s0,a2)]。

可选地,q学习算法中,学习速率α可以是0.001、0.01、0.1等值,可以根据实际需求对α的大小进行调整;衰减值γ可以是0.8、0.9等,例如,当γ为0.9时,则会有10%的概率会选择其他的动作,而到达其他的状态。

基于前述q学习算法,对神经网络进行训练,即可使得神经网络学习到cpu消耗量与扩容、减容、以及无操作三种容量调整策略之间的映射关系,得到初步模型。例如,将当前时刻的cpu消耗量输入初步模型后,初步模型可以根据当前时刻的cpu消耗量,输出扩容、减容、以及无操作三种容量调整策略分别对应的q值。然后,再通过在初步模型中增加限定规则:将最大q值对应的容量策略作为目标容量调整策略,即可预设模型。

因此,将当前时刻的cpu消耗量输入预设模型后,预设模型可以根据当前时刻的cpu消耗量输出扩容、减容、以及无操作三种容量调整策略分别对应的q值,并从中确定最大q值对应的容量调整策略为目标容量调整策略。例如,若预设模型输出扩容对应的q值为3,减容对应的q值为1,无操作对应的q值为-1,则可以确定扩容为目标容量调整策略。

可选地,本发明中,神经网络可以由门循环控制单元(gatedrecurrentunit,gru)、全连接层和输出层构成,对于神经网络的具体结构,本发明不作限制。

下面以一种具体实施方式对本发明提供的服务器容量调整方法作以说明:

图4示出了本发明实施例提供的服务器容量调整方法的又一流程示意图。

如图4所示,该服务器容量调整方法,可以包括:

s401、获取当前时刻的cpu消耗量并输入预设模型。

s402、将当前时刻的cpu消耗量输入预设模型,得到扩容、减容或无操作三种容量调整策略各自对应的q值。

s403、判断最大q值对应的容量调整策略是否为扩容。

若是,则执行步骤s404;若否,则执行步骤s405。

s404、将服务器容量增加预设容量。

s405、判断最大q值对应的容量调整策略是否为减容。

若是,则执行步骤s406;若否,则执行步骤s407。

s406、将服务器容量减少预设容量。

s407、保持服务器容量不变。

可选地,上述根据历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略对神经网络进行训练,获取所述预设模型之前,所述方法还可以包括:采用数据清洗算法对历史时刻的cpu消耗量进行数据清洗。例如,数据清洗算法可以包括下述任一种:时序数据指数平滑化算法、自回归移动平均模型算法、卡尔曼滤波算法。

如上所述,cpu消耗量属于典型的时间序列数据,并且在时间分布上有很多噪点,可以根据时序数据指数平滑化算法、自回归移动平均模型算法、卡尔曼滤波算法等经典时序数据预处理方法对其进行清洗。需要说明的是,数据清洗时,可以结合需要的精度和时间周期进行数据清洗。

其中,时序数据指数平滑化算法、自回归移动平均模型算法、卡尔曼滤波算法均为较为成熟的时序数据预处理方法,在此不再赘述。

可选地,样本集合还包括:历史时刻的交易码数据和历史时刻的交易码数据对应的容量调整策略,或者,历史时刻的交易量数据和历史时刻的交易量数据对应的容量调整策略。

相应地,获取当前时刻的cpu消耗量,可以包括:获取当前时刻的交易码数据或交易量数据。

其中,历史时刻的交易码数据包括:某交易码是否在运行、以及同时运行的某交易码的数量等;历史时刻的交易量数据包括:运行的交易码对应的业务量(需要说明的是:某一时刻交易量由不同的交易码代表的业务量组成)。也可以根据历史时刻对应的交易码数据和/或交易量数据,建立预设模型,模型训练方式与前述实施例相同,在此不再赘述。其不同之处在于,此时预设模型的输入为当前时刻的交易码数据和/或交易量数据,预设模型可以根据当前时刻的交易码数据和/或交易量数据,得到目标容量调整策略。

也即,一些实施方式中,可以根据当前时刻的cpu消耗量对服务器容量进行调整。另外一些实施方式中,也可以根据当前时刻的交易码数据和/或交易量数据,对服务器容量进行调整,其原理与cpu消耗量相同,在此不再赘述。

基于前述方法实施例中所述的服务器容量调整方法,本发明实施例还对应提供一种服务器容量调整装置,图5示出了本发明实施例提供的服务器容量调整装置的结构示意图。

如图5所示,该服务器容量调整装置可以包括:获取模块10,可以用于获取当前时刻的cpu消耗量。确定模块20,可以用于根据预设模型、当前时刻的cpu消耗量,确定目标容量调整策略;其中,预设模型通过采用样本集合对神经网络进行训练所获取,样本集合包括:历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略,容量调整策略包括:扩容、减容或无操作。调整模块30,可以用于根据目标容量调整策略,对服务器容量进行调整。

图6示出了本发明实施例提供的服务器容量调整装置的另一结构示意图。

可选地,如图6所示,该服务器容量调整装置还可以包括:训练模块40,可以用于在确定模块20根据预设模型、当前时刻的cpu消耗量,确定目标容量调整策略之前,获取历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略,并根据历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略对神经网络进行训练,获取预设模型。

可选地,训练模块40具体可以用于采用q学习算法,并将历史时刻的cpu消耗量作为输入,扩容、减容、以及无操作三种容量调整策略分别对应的q值作为输出,对神经网络进行训练,得到初步模型;将初步模型输出的三种容量调整策略中,最大q值对应的容量策略为目标容量调整策略,得到预设模型。

可选地,q学习算法的奖励机制可以为:当容量调整策略为扩容时,预设时长后cpu消耗量降低的比例;以及,当容量调整策略为减容时,预设时长后cpu消耗量升高的比例。

可选地,调整模块30具体可以用于若目标容量调整策略为扩容,则将服务器容量增加预设容量;若目标容量调整策略为减容,则将服务器容量减少预设容量;若目标容量调整策略为无操作,则保持服务器容量不变。

图7示出了本发明实施例提供的服务器容量调整装置的又一结构示意图。

可选地,如图7所示,该服务器容量调整装置还可以包括:数据清洗模块50,可以用于在训练模块根据历史时刻的cpu消耗量、以及历史时刻的cpu消耗量对应的容量调整策略对神经网络进行训练,获取预设模型之前,采用数据清洗算法对历史时刻的cpu消耗量进行数据清洗。

可选地,数据清洗算法包括下述任一种:时序数据指数平滑化算法、自回归移动平均模型算法、以及卡尔曼滤波算法。

可选地,样本集合还可以包括:历史时刻的交易码数据和历史时刻的交易码数据对应的容量调整策略,或者,历史时刻的交易量数据和历史时刻的交易量数据对应的容量调整策略。相应地,获取模块10具体可以用于获取当前时刻的交易码数据或交易量数据。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置的具体工作过程,可以参考前述方法实施例中方法的对应过程,本发明中不再赘述。

本发明实施例提供的服务器容量调整装置对应于前述方法实施例中所述的服务器容量调整方法,因此,装置实施例中所述的服务器容量调整装置,具有前述实施例中所述的服务器容量调整方法具备的全部有益效果,在此亦不再赘述。

本发明实施例还提供一种电子设备,该设备可以是前述计算机或服务器,例如,可以是数据运维中心的运维服务器,或者也可以是单独设置、且与数据运维中心对接的其他数据服务器,本发明对此不作限制。

图8示出了本发明实施例提供的电子设备的结构示意图。

如图8所示,该电子设备可以包括:处理器100、存储介质200和总线(图中未标出),存储介质200存储有处理器100可执行的机器可读指令,当电子设备运行时,处理器100与存储介质200之间通过总线通信,处理器100执行机器可读指令,以执行如前述方法实施例中所述的服务器容量调整方法。具体实现方式和技术效果类似,在此不再赘述。

为了便于说明,在上述电子设备中仅描述了一个处理器。然而,应当注意,本发明中的电子设备还可以包括多个处理器,因此本发明中描述的一个处理器执行的步骤也可以由多个处理器联合执行或单独执行。例如,电子设备的处理器执行步骤a和步骤b,则应该理解,步骤a和步骤b也可以由两个不同的处理器共同执行或者在一个处理器中单独执行。例如,第一处理器执行步骤a,第二处理器执行步骤b,或者第一处理器和第二处理器共同执行步骤a和b等。

在一些实施例中,处理器可以包括一个或多个处理核(例如,单核处理器(s)或多核处理器(s))。仅作为举例,处理器可以包括中央处理单元(centralprocessingunit,cpu)、专用集成电路(applicationspecificintegratedcircuit,asic)、专用指令集处理器(applicationspecificinstruction-setprocessor,asip)、图形处理单元(graphicsprocessingunit,gpu)、物理处理单元(physicsprocessingunit,ppu)、数字信号处理器(digitalsignalprocessor,dsp)、现场可编程门阵列(fieldprogrammablegatearray,fpga)、可编程逻辑器件(programmablelogicdevice,pld)、控制器、微控制器单元、简化指令集计算机(reducedinstructionsetcomputing,risc)、或微处理器等,或其任意组合。

本发明实施例还提供一种存储介质,存储介质上存储有计算机程序,计算机程序被处理器运行时执行如前述方法实施例中所述的服务器容量调整方法。具体实现方式和技术效果类似,在此同样不再赘述。

可选地,该存储介质可以是u盘、移动硬盘、rom、ram、磁碟或者光盘等。

以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1