自适应的分布式计算方法

文档序号:6638753阅读:413来源:国知局
自适应的分布式计算方法
【专利摘要】本发明提供了一种自适应的分布式计算方法,该方法包括:云平台和虚拟机接入访问请求协调器,虚拟机上传的数据存储至云平台的多个节点中,计算虚拟机在各个节点所需要分配的资源量,并将数据库访问请求映射至不同的节点。本发明根据虚拟机的数据库访问特性,提高数据库访问资源利用率;对访问请求进行合理的资源分配。
【专利说明】自适应的分布式计算方法

【技术领域】
[0001 ] 本发明涉及云计算,特别涉及一种自适应的分布式计算方法。

【背景技术】
[0002]在云计算应用中,用户所购买的虚拟机建立在云服务供应商提供的主机上,服务提供商的每一台主机可以运行多个虚拟机供一个或多个用户使用。为了便于数据的管理与交换,这些主机通常共享一个集中化的存储资源池,这为数据库访问资源调度带来了一些全新的挑战。首先,虽然虚拟化保证了每个虚拟机都假想自身获取独立的专有资源,但实际上每个分布式存储节点的数据库访问性能是有限的,不同虚拟机间的数据库访问资源竞争导致每个虚拟机实际数据库访问性能受限。不同于CPU和内存分配,数据库访问资源难以应对负载波动,遇到数据库访问突发访问时服务质量容易受到影响甚至使服务停滞。数据库访问工作负载的突发性和不可确定性要求数据库访问资源调度方法必须满足两个特性,其一是健壮性,即能为共享资源的虚拟机提供完善的隔离措施;其二是高效性,即能有效地利用数据库访问资源,尽量减少响应时间。
[0003]现有技术有如下缺点:1)服务提供商需要分析或者预估该用户的数据库访问特性;2)资源调度不灵活,当用户在某些时刻集中访问某些节点时不能得到及时的响应;3)不利于实时管理,局部目标服务级别设置需要经常更改。因此需要采用更加灵活的方式分配全局目标服务级别,实现资源的按需分配。
[0004]因此,针对相关技术中所存在的上述问题,目前尚未提出有效的解决方案。


【发明内容】

[0005]为解决上述现有技术所存在的问题,本发明提出了一种自适应的分布式计算方法,包括:
[0006]云平台和虚拟机接入访问请求协调器,虚拟机上传的数据存储至云平台的多个节点中,计算虚拟机在各个节点所需要分配的资源量,并将数据库访问请求映射至不同的节点。
[0007]优选地,所述云平台中对等的各个存储节点由管理节点服务统一分配令牌号,云平台管理节点计算得到各节点的存储范围,并且,在数据上传过程中:
[0008](I)虚拟机通过主动轮询或事件触发方式获取当前数据,经压缩过滤后发往访问请求协调器;
[0009](2)访问请求协调器通过用户配置的存储节点配置将数据上传至云平台;
[0010](3)云平台的管理节点将数据中的存储节点名转换为存储节点ID,并建立存储节点ID与物理服务器的映射,从而将数据发送至指定的存储节点中;
[0011](4)将存储节点进行分组,并按组名建立与物理服务器的映射,,虚拟机在向云平台管理节点进行存储定位后,直接连至指定的物理服务器;
[0012](5)虚拟机在数据写入第一个物理服务器的内存缓存后由该存储节点执行后继的备份流程。
[0013]优选地,所述虚拟机上传的数据存储至云平台的多个节点,进一步包括:
[0014]对历史数据存储进行备份,备份数据与主备份数据存储在不同的物理服务器,存储规则由主备份所在存储节点所加载的脚本实现,将备份数据依次存储在管理节点指定的前向两个节点上;
[0015]数据在主备份所在存储节点的内存缓存期间不进行备份操作,当记录容量达到缓存页面大小后,或者超过最大缓存时间后,存储归档服务在执行本地数据持久化的同时,将缓存数据发送至指定的备份节点;
[0016]通过存储数据时附加的管理信息,周期性触发数据一致性的判定和缺失数据的定位,通过追加缺失的数据来完成修复,并且通过使用追加操作来实现正常、异常情况下的数据存储,并通过版本号区分正常数据和异常数据,避免在存储异常时磁盘中的数据发生改写或迀移,也便于失效节点恢复后的数据同步。
[0017]优选地,当用户在配置中添加节点时,云平台管理节点计算得到该新增节点的数据存储范围,随后该新增节点向原主备份所在存储节点请求存储范围内的所有数据记录页;当无法访问某一节点时,其原有存储功能将由云平台管理节点确定的前向节点进行代理,此时,所有数据由代理节点进行存储,保证备份节点中的数据完整性;当该节点恢复访问时,将按照数据一致性维护机制与代理节点进行数据同步,从而获取异常期间缺失的数据内容,数据同步完成后,代理节点停止代理功能,当前节点恢复原有存储功能;
[0018]将查询过程中的磁盘I/O操作均匀地分配给各备份节点,由云平台管理节点在处理查询请求时进行负载均衡,云平台管理节点确定查询目标服务器后,由查询虚拟机直接向对应的服务器进行本地查询;
[0019]进入本地数据查询流程后,通过相互链接的索引信息页中记录的时标索引,快速定位到指定时间范围内的数据存储位置,通过版本信息页进行时序数据的版本控制,在版本发生变化的区间使用最新版本的数据进行拟合。
[0020]本发明相比现有技术,具有以下优点:
[0021]动态分析虚拟机的数据库访问特性,优先调度对响应时间要求更严格的数据库访问请求,在保证服务级别的前提下提高数据库访问资源利用率;在高负载时,估算出在各节点所需要分配的资源量,对访问请求进行合理的资源分配。

【专利附图】

【附图说明】
[0022]图1是根据本发明实施例的自适应的分布式计算方法的流程图。

【具体实施方式】
[0023]下文与图示本发明原理的附图一起提供对本发明一个或者多个实施例的详细描述。结合这样的实施例描述本发明,但是本发明不限于任何实施例。本发明的范围仅由权利要求书限定,并且本发明涵盖诸多替代、修改和等同物。在下文描述中阐述诸多具体细节以便提供对本发明的透彻理解。出于示例的目的而提供这些细节,并且无这些具体细节中的一些或者所有细节也可以根据权利要求书实现本发明。
[0024]总的来说,一个全局目标服务级别是由存储各节点的数据库访问访问综合而成,关键在于如何将全局目标服务级别分解为合适的局部目标服务级别,从而在各节点进行高效的调度。
[0025]本发明的一方面提供了一种自适应的分布式计算方法。图1是根据本发明实施例的自适应的分布式计算方法流程图。
[0026]实施本发明的具体步骤如下:对虚拟机发出的数据库访问请求进行整流,形成访问请求队列;当访问请求队列未满时,利用集中式调度来优先调度高实时性的数据库访问请求;当访问请求队列阻塞时,计算虚拟机在各个节点所需要分配的资源量,通过分布式调度来处理高负载请求。
[0027]为虚拟机发出的数据库访问请求进行整流,每个虚拟机的数据库访问流由最大突发负载σ、平均吞吐率P和最大响应时间δ控制。当数据库访问负载较轻时,方法利用集中式调度来优先调度实时性要求高的数据库访问请求。当系统面临高数据库访问负载时,该方法分析每个请求的预期贡献值,通过分布式调度来优先调度贡献值高的请求。另一方面,为了保证每个虚拟机的全局目标服务级别能够完成,各分布式存储节点需要实时设置合适的局部目标服务级别。本发明实时分析虚拟机的数据库访问特性,将全局目标服务级别分解成局部目标服务级别,根据局部目标服务级别为虚拟机在每个分布式存储节点提供合适的服务。
[0028]本发明在宿主机上运行多台虚拟机,其底层为访问请求协调器。主机的访问请求协调器分析虚拟机发出的数据库访问请求,将数据库访问请求映射至不同的分布式存储节点。在处理过程中,每个数据库访问请求后都会附加上一部分附加信息,分布式存储节点提取这些信息后对虚拟机进行数据库访问特性建模,并分配合适的局部目标服务级别。数据库访问模式建模确定以下两点:虚拟机的历史数据库访问特性和近期数据库访问特性。根据这些特性,数据库访问模式模型将全局目标服务级别分解成该节点所需要的局部目标服务级别,然后经过时间戳处理模块为各数据库访问请求加上时间戳,最后经由调度器调度。
[0029]分布式存储节点为每个虚拟机建立一个请求队列,类似地,每个虚拟机发出的请求可能在多个节点中形成队列。各分布式存储节点调度数据库访问请求时,总是从当前节点的所有数据库访问队列中选择某个队列的第I个请求进行调度,否则相应虚拟机的请求顺序会被破坏,不利于主机中的工作负载整合。
[0030]本发明用一个三元组(σ,P,δ)来表示目标服务级别,其中σ代表最大突发负载量,P为平均吞吐率,δ为最大响应时间。在任意时间段(T1, T2)内,一个虚拟机最多发出σ+p (T2-T1)个请求。虚拟机初始时有ο个令牌,每发出一个请求令牌数量减I ;每经过At时间,令牌数量便增加1,令牌数量以σ为上限,以确保虚拟机最大突发负载不会超过σ。若令牌已用尽,则将请求的到达时间向后推迟1/Ρ的整数倍,使得调整后的到达时间仍满足目标服务级别的整流限制,避免该虚拟机占用过多资源。经过整流后,数据库访问请求形成队列,等待调度。
[0031]将数据库访问请求队列的状态分为空闲、正常和阻塞3种。当队列长度为零时该队列为空闲状态。当队列长度为非零,且队列中的请求尚未超出允许的最大响应时间时队列处于正常状态。当队列中至少有一个请求已经超出允许的最大响应时间时称其为阻塞状态。调度过程中可以通过查看队列的状态推断出数据库访问资源供应水平,从而采用合适的调度策略。
[0032]每个虚拟机都有一个全局目标服务级别,该虚拟机第I次访问某个节点时会将全局目标服务级别配置附加在数据库访问请求后面。分布式存储节点提取出虚拟机的全局目标服务级别后便需要计算出合适的局部目标服务级别。该局部目标服务级别首先要反映出当前分布式存储节点在这个虚拟机访问的所有节点中所占的比重,其次需要实时更新,适应工作负载的变化性。以虚拟机爾$例,记i,Pi, Si)为全局目标服务级别,
(σ L P δ Ji)为VMi在分布式存储节点η」的局部目标服务级别。其中取I彡i彡VN,VN为虚拟机的个数。NNi,剛力第i个虚拟机中分布式存储节点的个数。δ ,为虚拟机VMi的最大响应时间,σ $虚拟机VMi的最大突发负载量,σ \为虚拟机VM^节点的n j的最大突发负载量,δ \为虚拟机VM节点的η」的最大响应时间。首先,虚拟机VM』勺最大响应时间不变,所以与δ i相等。其次,期望的σ \与σ i也相等,这样分布式存储节点能更好应对突发的工作负载。因此本发明的主要目标在于将全局平均吞吐率Pi分配到各个节点。定义如下:
[0033]Oji= σ i;(l)
[0034]P Ji= μ JiP i;(2)
[0035]δ Ji= δ i;(3)
[0036]这里Vi表示局部目标服务级别P \在全局目标服务级别P 所占的比例。
[0037]将Vi进一步分解为两部分:历史访问比例和近期访问比例。令Mi表示历史访问比例,表示近期访问比例,a i表示历史访问比例的贡献因子。将μ \表示为和Rji的线性组合,如式(4):
[0038]μ、= a j.Hji+(1- a j).Rji (4)
[0039]当能精确计算出tf jP R \时,即满足:
[0040]XjHji= 1(5)
[0041]XjRji= 1(6)
[0042]可以得出:Σ」μΣ Ja i.Η\+(1-α D.Rji]=
[0043]a j.XjHji+(1-a J.XjRji= a 土.1+(1-a J.I = I (7)
[0044]也就是说,任意虚拟机VMi在所有分布式存储节点中获得的目标服务级别份额之和为I,即其全局目标服务级别被分解为合适的局部目标服务级别。
[0045]为了使各节点能计算出虚拟机在当前节点应该分配到的局部目标服务级别,令主机中的访问请求协调器为虚拟机乂1^记录2个数据:C \和D \,其中Cti表示到时刻t为止虚拟机VMi已完成的数据库访问请求数;D \表示截止到时刻t虚拟机VM i总共发出的数据库访问请求数。每当访问请求协调器分发一个数据库访问请求,便会将相对应的2个数据添加到该请求的结尾处供分布式存储节点的调度方法分析。在分布式存储节点1^_中,调度器一边维护虚拟机VMi最近数据库访问访问请求的C \和D \,一边记录本节点为虚拟机Wi^成的请求总数S\。历史访问比例的和近期访问比例可以根据式⑶(9)得出:
[0046]Hji= S ^/Cti (8)
[0047]Rji= 1/(D VDt^1i) (9)
[0048]式⑶表明,截至时刻t在虚拟机VMi已经完成的Cti个数据库访问请求中,有个是由分布式存储节点n 成的。式(9)表明,从分布式存储节点n j:—次接收到虚拟机VMi的请求至今,虚拟机VM i向所有的分布式存储节点共发出D t^Dt'个请求,其中只有I个请求到达VMi,在这段时间内分布式存储节点n/斤承受的负载量占全部负载的I/(Dt1-Dt')。
[0049]由式(I)?(9)最终推导得到:
[0050]P jJ= μ Jj P J= [ a j.Hji+ (1- a J.Rji].Pi= [ α j.SjiZCti+(1-α J.I/Dt1-Dt'].P1 (10)
[0051]在实际过程中,由于历史访问比例tfjP近期访问比例都与小于I的因子相乘,其中任意一个值较小时均可能导致最终分配的P \过小,同时也使得虚拟机即使某一段时间内集中访问单一节点也无法获得全局目标服务级别服务量。为了避免这些不合理分配,为制订了上、下两个阈值。当μ \小于下阈值时,令μ \等于下阈值,相当于为虚拟机在任意分布式存储节点制订了最小服务保障。
[0052]当μ'大于上阈值时,假定虚拟机在集中访问当前分布式存储节点,因此令μ ' =1,从而让该虚拟机的请求能在当前节点尽快完成。与此相对应,式(3)中令局部最大突发负载量与全局突发负载量δ \相等,也可以为模型建立提供更平滑的缓冲机制。另外,随着工作负载的运行,已完成的请求数Cti和已发出的请求数Dti逐渐增大,其差值可以忽略不计,只需记录已完成的请求数CV
[0053]为了更好地衡量请求的优先级,根据请求所需要的目标服务级别计算请求对资源的消耗量,将其与虚拟机的收费标准即贡献值相比较,得到每个提供服务的资源的单位贡献值,以此作为标准化贡献值。假使全局目标服务级别为(σ” Pi, Si),在请求所要求的完成时间(t,t+δ,)内,记单位时间内虚拟机的最大吞吐率为该虚拟机所需要的全局服务成本GC,即
[0054]GC= ( σ j+p j.δ j)/ δ J= σ j/ δ j+p j (11)
[0055]不同分布式存储节点共同分担了对虚拟机VMi负载的服务,故虚拟机在分布式存储节点n/斤消耗的局部服务成本相当于:
[0056]LC =.GC = μ\(σ ^ δ。(12)
[0057]其标准化贡献值NR为(t,t+ δ J内获得的贡献值与局部服务成本的比,即NR =(P.δ j)/LC = p.δ 2J μ ji.( σ j+ρ j.δ J,(13)
[0058]其中,ρ为用户为单位时间服务支付的成本。由式(13)可以看出标准化贡献值的特点:更宽松的响应时间要求、更低的平均吞吐率需求和更低的突发负载量意味着更低的资源占用和更高的贡献率。
[0059]本发明进一步在数据库检索方面,在保证数据访问实时性的基础上实现备份同步、一致性修复,从而有效提高数据库的数据存储与处理能力,适应当前对于数据高可用性、高可靠性的应用需求。
[0060]虚拟机上传的数据存储至云平台的多个节点中,当某个节点无法正常工作而造成该节点数据备份失效时,其他备份所在存储的节点仍能够正常存储、检索,提供与失效节点完全一致的数据访问。通过在多个物理服务器间实现不同数量的备份,能够区别对待核心数据与普通数据,兼顾系统的存储成本与可靠性。
[0061]由云平台和虚拟机接入到访问请求协调器,云平台中对等的各个存储节点由管理节点服务统一分配令牌号,系统的数据存储流程可分为以下步骤:
[0062](I)虚拟机通过主动轮询或事件触发方式获取当前数据,经压缩过滤后发往访问请求协调器。
[0063](2)访问请求协调器通过用户配置的存储节点配置将数据上传至某个云平台。
[0064](3)云平台的管理节点将数据中的存储节点名转换为存储节点ID,并建立存储节点ID与物理服务器的映射,从而将数据发送至指定的存储节点中。
[0065](4)将存储节点进行分组,并按组名建立与物理服务器的映射,防止数据存储过于分散。虚拟机在向云平台管理节点进行存储定位后,直接连至指定的物理服务器,从而尽量减少不必要的数据转发。
[0066](5)虚拟机在数据写入第一个物理服务器的内存缓存后即认为写入成功,由该存储节点执行后继的备份流程,从而减少了数据发送时的阻塞等待时间,在满足高可用性的前提下提升了系统吞吐率。数据发送的可靠性由访问请求协调器保证。
[0067]为保障数据访问的可用性,需要对历史数据存储进行备份。系统默认的备份数量为1,可在配置过程中按可靠性要求对备份数量进行配置。备份数据与主备份数据存储在不同的物理服务器,存储规则由主备份所在存储节点所加载的脚本实现,默认为依次存储在管理节点指定的前向两个节点上。
[0068]由于系统实时性限制,数据在主备份所在存储节点的内存缓存期间不进行备份操作。当记录容量达到缓存页面大小后,或者超过最大缓存时间后,存储归档服务在执行本地数据持久化的同时,将缓存数据发送至指定的备份节点。由于节点失效、网络异常等原因,可能造成多个服务器间的数据备份差异。通过存储数据时附加的管理信息可进行数据一致性的快速判定和缺失数据的准确定位。备份的一致性判定和修复工作一般为周期性触发,通过追加缺失的数据来完成修复。
[0069]通过使用追加操作来实现正常、异常情况下的数据存储,并通过版本号进行正常、异常数据的区分,从而尽可能避免在存储异常时磁盘中的数据发生改写或迀移,同时也便于失效节点恢复后的数据同步。为高效存储时间回跳状态下同一时间段的不同版本数据,在追加记录新版本数据的同时,通过维护数据管理信息中的版本标识与原有数据形成区分,保证了异常情况下数据不发生丢失和乱序。
[0070]以固定长度的页面为最小单元进行数据管理,页面类型包括数据记录页、索引信息页和版本信息页。数据记录页记录了该存储节点在某段时间的实时值、质量码与时间戳,当该页记录过程发生异常时不会切换页面,而是使用累加的版本号和异常发生时的页面记录偏移量进行标识;索引信息页记录了数据记录页的简要信息,如数据记录页的版本变化标识、页面编号和时标索引等;版本信息页记录了各版本号对应的起止时间、所关联的数据记录页起始编号及其页面记录偏移量等信息。各页面间以链表方式进行关联,便于指定时间段存储数据的快速定位。
[0071]由主备份所在存储节点在数据页写入磁盘的同时将其发送至指定的单个或多个备份节点,从而实现多个备份的写入操作。各备份节点对接收到的数据记录页的处理流程与主备份完全相同,并在页面成功写入磁盘后通过特定消息通知主备份所在存储节点。同时,在各备份节点定期进行自检操作,通过检测指定存储节点所有版本编号的连续性,以及各版本中所有数据记录页编号的连续性,可以快速确认是否存在数据缺失。如果数据是完整的,则在结果文件中记录当前的检测位置,防止已检测的数据内容被重复检测,否则将发起修复操作。
[0072](I)与主备份所在存储节点进行协商,确定缺失的数据记录页对应的编号范围。
[0073](2)向主备份所在存储节点请求缺失的数据记录页,在获取到所有页面后追加写入当前归档文件,并修改索引信息页中维护的时标索引信息。
[0074](3)如果存在版本号变化,则对应的版本信息页也将进行同步,以保证所有版本编号的连续性。
[0075]当用户在配置中添加节点时,云平台管理节点计算得到该新增节点的数据存储范围。随后该新增节点向原主备份所在存储节点请求存储范围内的所有数据记录页,而获取到数据记录页之后的处理流程与主备份完全相同。当节点失效或网络故障导致无法访问某一节点时,其原有存储功能将由云平台管理节点确定的前向节点进行代理。此时,所有数据由代理节点进行存储,保证备份节点中的数据完整性。当该节点恢复访问时,将按照数据一致性维护机制与代理节点进行数据同步,从而获取异常期间缺失的数据内容。数据同步完成后,代理节点停止代理功能,当前节点恢复原有存储功能。
[0076]为提升查询效率吞吐率,必须充分利用多个备份存储的优势,将查询过程中的磁盘I/o操作尽可能均匀地分配给各备份节点。由于查询请求首先到达云平台管理节点,需要由云平台管理节点在处理查询请求时进行负载均衡,防止某一存储服务器负荷过重,而对应的备份节点却处于空闲状态的现象发生。云平台管理节点确定查询目标服务器后,由查询虚拟机直接向对应的服务器进行本地查询。
[0077]进入本地数据查询流程后,通过相互链接的索引信息页中记录的时标索引,可以快速定位到指定时间范围内的数据存储位置。如果页面的版本变化标识被设置,说明该页面中混合存放有正常数据和异常数据,如果不加以区分而直接按时间顺序进行拟合,将产生错误的拟合结果。
[0078]通过版本信息页进行时序数据的版本控制,在版本发生变化的区间使用最新版本的数据进行拟合,从而避免正常数据与异常数据混合交错导致错误的查询拟合结果。
[0079]来自查询虚拟机的查询请求经访问请求协调器路由后,首先提交给云平台管理节点,由云平台管理节点依据查询时间长度决定是否将查询请求进行分解。如果查询时间跨度大于预设值,则将原始查询请求按时间范围分解为多个子查询请求,并指派给多个存储存储节点。查询虚拟机获取到应答信息后,与每个存储存储节点建立直连,分别完成各自的本地数据查询流程。如果不需要进行查询请求分解,则按负载均衡方法在主从备份节点中选择合适的单个存储服务器进行后继查询。
[0080]各数据存储服务器在接收到本地查询请求后,将依据版本信息页中的内容判断查询时间范围内是否存在版本更新。如果该时间段内的过程数据属于同一版本,则直接由索引信息页定位到实际存储位置进行数据读取,否则将按各版本更替时间点进行查询范围分害J,各分割区间内使用最新版本的数据进行拟合,从而完成本地数据查询流程。
[0081]为进一步提升查询效率,在各存储存储节点进行查询结果缓存。处理本地查询请求时优先在查询结果缓存中查找是否有对应记录,一旦查找成功则直接返回缓存结果,从而减少了磁盘I/o次数。
[0082]综上所述,本发明提出了云存储环境中数据库访问资源调度方法,动态分析虚拟机的数据库访问特性,优先调度对响应时间要求更严格的数据库访问请求,在保证服务级别的前提下提高数据库访问资源利用率;在高负载时,估算出在各节点所需要分配的资源量,对访问请求进行合理的资源分配。
[0083]显然,本领域的技术人员应该理解,上述的本发明的各模块或各步骤可以用通用的计算系统来实现,它们可以集中在单个的计算系统上,或者分布在多个计算系统所组成的网络上,可选地,它们可以用计算系统可执行的程序代码来实现,从而,可以将它们存储在存储系统中由计算系统来执行。这样,本发明不限制于任何特定的硬件和软件结合。
[0084]应当理解的是,本发明的上述【具体实施方式】仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。
【权利要求】
1.一种自适应的分布式计算方法,其特征在于,包括: 云平台和虚拟机接入访问请求协调器,虚拟机上传的数据存储至云平台的多个节点中,计算虚拟机在各个节点所需要分配的资源量,并将数据库访问请求映射至不同的节点。
2.根据权利要求1所述的方法,其特征在于,所述云平台中对等的各个存储节点由管理节点服务统一分配令牌号,云平台管理节点计算得到各节点的存储范围,并且,在数据上传过程中: (1)虚拟机通过主动轮询或事件触发方式获取当前数据,经压缩过滤后发往访问请求协调器; (2)访问请求协调器通过用户配置的存储节点配置将数据上传至云平台; (3)云平台的管理节点将数据中的存储节点名转换为存储节点10,并建立存储节点10与物理服务器的映射,从而将数据发送至指定的存储节点中; (4)将存储节点进行分组,并按组名建立与物理服务器的映射,,虚拟机在向云平台管理节点进行存储定位后,直接连至指定的物理服务器; (5)虚拟机在数据写入第一个物理服务器的内存缓存后由该存储节点执行后继的备份流程。
3.根据权利要求2所述的方法,其特征在于,所述虚拟机上传的数据存储至云平台的多个节点,进一步包括: 对历史数据存储进行备份,备份数据与主备份数据存储在不同的物理服务器,存储规则由主备份所在存储节点所加载的脚本实现,将备份数据依次存储在管理节点指定的前向两个节点上; 数据在主备份所在存储节点的内存缓存期间不进行备份操作,当记录容量达到缓存页面大小后,或者超过最大缓存时间后,存储归档服务在执行本地数据持久化的同时,将缓存数据发送至指定的备份节点; 通过存储数据时附加的管理信息,周期性触发数据一致性的判定和缺失数据的定位,通过追加缺失的数据来完成修复,并且通过使用追加操作来实现正常、异常情况下的数据存储,并通过版本号区分正常数据和异常数据,避免在存储异常时磁盘中的数据发生改写或迀移,也便于失效节点恢复后的数据同步。
4.根据权利要求4所述的方法,其特征在于,还包括: 当用户在配置中添加节点时,云平台管理节点计算得到该新增节点的数据存储范围,随后该新增节点向原主备份所在存储节点请求存储范围内的所有数据记录页;当无法访问某一节点时,其原有存储功能将由云平台管理节点确定的前向节点进行代理,此时,所有数据由代理节点进行存储,保证备份节点中的数据完整性;当该节点恢复访问时,将按照数据一致性维护机制与代理节点进行数据同步,从而获取异常期间缺失的数据内容,数据同步完成后,代理节点停止代理功能,当前节点恢复原有存储功能; 将查询过程中的磁盘1/0操作均匀地分配给各备份节点,由云平台管理节点在处理查询请求时进行负载均衡,云平台管理节点确定查询目标服务器后,由查询虚拟机直接向对应的服务器进行本地查询; 进入本地数据查询流程后,通过相互链接的索引信息页中记录的时标索引,快速定位到指定时间范围内的数据存储位置,通过版本信息页进行时序数据的版本控制,在版本发生变化的区间使用最新版本的数据进行拟合。
【文档编号】G06F11/14GK104462432SQ201410775670
【公开日】2015年3月25日 申请日期:2014年12月15日 优先权日:2014年12月15日
【发明者】田野, 夏梅宸, 刘志才, 祝昌宇, 卢力君 申请人:成都英力拓信息技术有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1