用于应用迁移的方法、电子设备与流程

文档序号:17548147发布日期:2019-04-30 17:59阅读:154来源:国知局
用于应用迁移的方法、电子设备与流程

本公开涉及应用迁移。更具体地,本公开涉及用于跨机器的应用迁移的方法、电子设备和计算机程序产品。



背景技术:

机器学习、云计算等新兴技术需要以图形处理单元(gpu)集群系统作为基础架构。该gpu集群系统通常包括多个服务器节点,每个服务器节点包括一个或多个gpu。这样的gpu集群系统中在一些情况下需要将正在运行在某一服务器上的应用迁移到另一台服务器上。这些情况例如是运行应用的服务器发生故障等情形。传统的迁移过程会对所迁移应用的正常运行带来不利影响,甚至将导致应用无法在目标机器上正确运行。



技术实现要素:

本公开提供一种用于应用迁移的方法和系统,能够实现将正运行的应用从一台机器迁移到另一台机器上。

根据本公开的第一方面,提供了一种用于应用迁移的方法。该方法包括:响应于把源机器上的源处理单元处运行的应用从源机器迁移到目标机器的迁移请求,建立源机器与目标机器的连接,请求指示要迁移的应用、目标机器以及目标机器上将要运行应用的目标处理单元;对源处理单元上运行的、与应用相关的多个线程进行同步;确定源处理单元处与应用相关的资源描述符以及存储器的分配和使用情况;将所确定的资源描述符以及存储器的分配和使用情况经由连接发送给目标机器,以用于目标机器进行迁移准备;基于存储器的分配和使用情况,确定待迁移数据以便以用于经由连接向目标机器迁移。

根据本发明的第二方面,还提供一种电子设备。该系统包括:存储器,被配置为存储一个或多个程序;处理单元,耦合至存储器并且被配置为执行一个或多个程序使系统执行本公开的第一方面的方法。

根据本公开的第三方面,提供了一种用于应用迁移的目标机器的方法。该方法包括:响应于从源机器接收到连接请求,建立目标机器与源机器的连接;经由连接接收在源机器上与待迁移的应用相关的资源描述符以及存储器的分配和使用情况;基于所接受的资源描述符以及存储器的分配和使用情况执行迁移准备,包括创建在目标机器的处理单元处运行应用所需的资源描述符;经由连接从源机器接收应用的迁移数据;基于所创建的资源描述符配置处理单元,以便存储/处理迁移数据。

根据本发明的第四方面,还提供一种电子设备。该目标机器包括:存储器,被配置为存储一个或多个程序;处理单元,耦合至存储器并且被配置为执行一个或多个程序使目标机器执行本公开的第三方面的方法。

根据本公开的第五方面,提供了一种用于应用迁移的客户端的方法。该方法包括:将在客户端处产生的关于应用的请求发送至运行应用的源机器;响应于来自源机器的应用已迁移至目标机器上的寻址信息,将针对应用的请求重新定向到目标机器,以便请求在目的机器上被处理。

根据本发明的第六方面,还提供一种电子设备。该客户端包括:存储器,被配置为存储一个或多个程序;处理单元,耦合至存储器并且被配置为执行一个或多个程序使目标机器执行本公开的第五方面的方法。

根据本公开的第七方面,提供了一种计算机程序产品。该计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,机器可执行指令在被执行时使机器执行第一方面、第三方面或第五方面的方法。

提供发明内容部分是为了简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或主要特征,也无意限制本公开的范围。

附图说明

通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。

图1示出了基于云的系统100的示意图;

图2示出了根据本公开的实施例的用于应用迁移的系统200的架构图;

图3示出了根据本公开的实施例的用于应用迁移的方法300的流程图;

图4示出了根据本公开的实施例的应用迁移的目标机器的方法400的流程图;

图5示出了根据本公开的实施例的用于应用迁移的客户端的方法500的流程图;

图6示意性示出了适于用来实现本公开实施例的电子设备600的框图。

在各个附图中,相同或对应的标号表示相同或对应的部分。

具体实施方式

传统的应用迁移的方法为了降低迁移过程的风险点,一般选择停止运行的应用,并且明显中断来自客户端关于该应用的请求,甚至使得系统停机一段时间,以便完成应用的迁移工作。这对运行中的应用带来明显的影响。因此,传统的应用迁移方法无法解决将正运行的应用从源机器迁移到将要继续运行该应用的另一机器上的技术问题。主要的技术难点在于:一是,确保迁移前后数据的正确性和完整性;二是,避免应用迁移影响系统的性能。经研究发现,通过以下主要手段解决上述技术难点:关于数据的正确性和完整性,运行应用的gpu通常存在非常多的线程,通常的gpu有五千多个核,每个核都在并发地运行,因此有必要通过在迁移请求将对源处理单元上运行的、与应用相关的多个线程进行同步,避免迁移前后数据之间的依赖和修改,进而保证与应用相关的状态和数据被安全迁移。此外,通过确定源处理单元处与应用相关的资源描述符用于发送给目标机器进行迁移准备,便于目标机器配置将要运行应用的处理单元和分配存储器。再用,通过基于源处理单元上运行的、与应用相关的存储器的分配和使用情况来确定待迁移数据,避免向目标机器发送无关的数据,提高迁移速度,减少对系统的性能的影响。

另外,本公开为了进一步加速数据迁移,优化系统性能,通过采用基于待迁移数据的规模分别采用在异步批量发送方式和异步按需发送方式,即目标机器在收到源机器优先发送数据之后快速恢复应用的运行,之后再接收其余待迁移数据或待迁移数据中的所需数据。藉此使得应用能够迅速运行在新的机器上,提高系统性能。此外,本公开还通过客户端、源机器和目标机器之间的协调配合,使得客户端所产生的迁移前后的应用请求被不间断地发送相应的机器进行处理。进而保证了请求被完整而连续地执行和应用被平滑地迁移。

下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。在此使用的术语“处理单元”可以是能够根据程序代码指令执行各种处理的任意适当物理或虚拟的处理器。处理单元可以包括一个或多个核。在包括多个核的情况下,多个核可以并行地操作,从而提高处理单元的处理效率。在本公开的上下文中,处理单元可以包括专用处理单元和通用处理单元。专用处理单元例如包括图形处理单元(gpu)、现场可编程门阵列(fpga)、专用集成电路(asic)等等。通用处理单元例如包括中央处理单元(cpu)。为讨论方便,在某些实施例中将以gpu作为专用处理单元的示例进行描述。

在此使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”。其他术语的相关定义将在下文描述中给出。

图1示出了本公开的实施例可以在其中被实现的采用了上述解决方案的示例系统100的示意图。在该系统100中部署了用于应用运行的多个机器110-1、110-2和110-3等(以下统称或单独称为机器110)。机器110可以是物理的或虚拟的机器。例如,机器110可以是部署于数据中心或者私有或公共云中的逻辑、容器或虚拟机,或者物理的服务器或计算设备等等。每个机器110上可以具有一个或多个处理单元,包括诸如gpu、fpga和asic等的专用处理单元以及诸如cpu的通用处理单元。

在图1的示例中,机器110-1具有两个专用处理单元112-1和112-2,机器110-2具有两个专用处理单元112-3和112-4,并且机器110-3具有三个专用处理单元112-5、112-6和112-7。这些专用处理单元在以下统称或单独称为专用处理单元112。除了专用处理单元112之外,机器110还可以包括一个或多个通用处理单元(未示出)。

图1还示出了三个客户端120-1、120-2和120-3(以下统称或单独称为客户端120),分别具有要运行的应用122-1、122-2和122-3(以下统称或单独称为应用122)。客户端120可以是任何终端设备、计算机或服务器。应用122可以是处理单元上可运行的任何应用,该应用可以被设计为执行相应数据处理或分析等任务。作为示例,应用122可以执行与高性能计算(hpc)、机器学习(ml)或深度学习(dl)以及人工智能(ai)等相关的数据处理或分析任务。

为了能够快速高效运行这些应用和/或为了保留本地处理资源,客户端120可以请求机器110的专用处理单元112来运行这些应用122。在这样的实现中,客户端120可以通过互连网络130连接到一个或多个机器110,并且将应用122交由机器110的一个或多个专用处理单元112运行。取决于客户端120、机器110和/或专用处理单元112所支持的接口,互连网络130可以支持基于诸如远程直接内存访问(rdma)和传输控制协议(tcp)等各种网络传输技术的不同类型的有线或者无线连接。

在系统100中,多个专用处理单元112可以被池化或虚拟化,以供多个客户端120或其中的多个应用122使用。在客户端120中,可以呈现虚拟处理单元用于运行该客户端110的应用122,而该应用122实际由机器110侧的一个或多个专用处理单元112运行。客户端120可以根据需要请求专用处理单元112的使用。系统100中还包括调度器140,用于将客户端120的多个应用122调度到一个或多个机器110的一个或多个专用处理单元112上运行。而且,调度器140还可以将来自相同或不同客户端120的多个应用122调度到同一专用处理单元112上运行。

应当理解,图1示出的设备和/或布置仅是一个示例。在其他示例中,该系统100可以包括任意适当数目的机器110和客户端120。每个机器110可以安装有任意适当数目的专用处理单元112,并且每个客户端120可以具有待运行的多个应用122。此外,尽管被单独示出,调度器140在实际应用中可以由独立于机器110的其他设备实现,或者可以被部分或全部实现在一个或多个机器110上。

在系统100中,调度器140可以跨多个专用处理单元112对应用122进行调度,以实现专用处理单元112的动态负载平衡,从而提高系统的整体性能。调度器140还可以将多个应用110动态地整合到单个专用处理单元112中,以提高专用处理单元112的利用率,从而降低系统成本。而且,调度器140还可以为应用122提供基于qos需求的调度,从而可以减小例如根据服务级别协议(sla)具有较低级别的应用对其他较高级别应用的影响。

图2示出了根据本公开的实施例的用于应用的迁移系统200的架构图。应当理解,如图2所示的系统200的结构和功能仅用于示例的目的,而不暗示对于本公开的范围的任何限制。本公开的实施例可以被体现在不同的结构和/或功能中。

如图2所示,系统200包括客户端210和多个机器220和242。其中,机器220接到来自调度器(在图2中未示出)的迁移请求260,实现把机器220上运行的应用从机器220迁移到机器240上。

该迁移请求260由系统200的调度器(未示出)基于预定的迁移策略而生成,例如如果源机器的处理单元使用率过高,或者应用无法满足,系统可以自动触发迁移该迁移请求260被发送至源机器220,以用于触发应用迁移。该迁移请求260通常指示要迁移的应用、目标机器以及将要运行应用的目标处理单元。

客户端210包括应用212和客户端驱动器214,正如前文,该应用212实际由机器侧的物理处理单元运行,例如由机器220的处理单元234运行。客户端驱动器214用于拦截客户端处针对应用212的请求,然后将所拦截的请求发送给实际运行该应用的机器220。并且客户端驱动器214在收到关于应用212已经被迁移到新的机器(例如机器240)的寻址信息时,能够重新定向到新的机器,即目标机器240,以便将针对应用212的请求发送到目标机器240继续运行。

机器220例如是正在运行要迁移应用的源机器220。源机器220例如包括服务器驱动器222、硬件驱动器232和多个处理单元234、236。其中,处理单元234例如是源机器220中正在运行要迁移应用的源处理单元。服务器驱动器222用于负责针对机器220上所有处理单元(例如gpu)的请求处理、设备管理和数据管理。其设置在系统200的每个节点上,即每个机器上,在一些实施例中,服务器驱动器222例如设置在每个处理单元234、236上,例如设置在每个gpu上。服务器驱动器222进一步包括请求队列224、迁移模块226、重新映射模块228和连接管理模块230。其中请求队列224用于以先进先出的方式接收、存储和管理来自客户端的针对应用的请求。迁移模块226用于支持支持可配置迁移策略,根据所接收的迁移请求260,确定从源处理单元向目标处理单元迁移与需迁移应用相关的待迁移数据。重新映射模块228用于连续跟踪源处理单元处与要转移的应用相关的资源描述符、存储器分配和使用情况,以便用于目标机器迁移数据后重新映射,以确保指针能够在目标处理单元上有效。连接管理模块230用于建立源机器与目标机器的网络连接,以便经由该连接进行数据的发送与接收。硬件驱动器230是与源机器200所包括的硬件设备相关的驱动程序,例如是nvidiacuda驱动程序等,这些驱动程序例如是由操作系统或硬件供应商所提供的。

机器240例如是将要运行要迁移应用的目标机器240。目标机器240例如包括服务器驱动器242、硬件驱动器252和多个处理单元254、256。例如处理单元254是将要运行要迁移应用的目标处理单元。服务器驱动器242用于负责针对机器240上所有gpu的请求处理、设备管理和数据管理。由于目标机器240在完成本次应用迁移并运行应用之后,也需要对请求进行处理,并且也可能响应来自调度器的新的迁移请求,将机器240上运行的应用迁移到另一个机器上。因此,机器240在架构上与机器220类似,同样也包括类似的请求队列244、迁移模块246、重新映射模块248、连接管理模块240。

图3示出了根据本公开的实施例的用于应用迁移的方法300的流程图。以下结合图2中系统200具体描述图3中的迁移的方法300。为了方便讨论,不失一般性地,以如图2所示的客户端210、源机器220和目标机器240为例来描述方法300。在图3中,各个动作例如由源机器220执行。方法300还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。

在框302,响应于把源机器上的源处理单元处运行的应用从源机器迁移到目标机器的迁移请求,建立源机器与目标机器的连接,请求指示要迁移的应用、目标机器以及目标机器上将要运行应用的目标处理单元。在一些实施例中,例如基于tcp/ip或远程直接内存访问(rdma)等方式建立源机器220与目标机器240的网络连接。在一些实施例中,迁移请求260是基于可配置的迁移策略而被触发的。其中可配置的迁移策略,例如是而不限于是:动态负载平衡,应用运行质量,资源压缩等。在一些实施例中,源处理单元234和目标处理单元254例如是gpu或fpga。

在框304,对源处理单元上运行的、与应用相关的多个线程进行同步。可以将整个运行的应用程序作为单个部分,强制同步应用程序。例如,创建一个明确的“同步点”,使得涉及诸多线程的应用被运行到该“同步点”,以便应用的所有状态和数据都同步到处理单元的存储器。在一些实施例中,该同步需要调用显卡、gpu的驱动器所提供的api,例如cusyncthread()或cusyncctx()等,使得已经提供到源处理单元、但是还没有被执行完毕的请求执行到结束或者执行到统一的状态。通过进行同步,避免迁移一部分数据时,之后的数据对已迁移的部分数据有依赖或者需要对已经迁移数据进行修改。在一些实施例中,同步通常需要花费一些时间,该时间的数量级通常是小于秒。

在框306,确定源处理单元处与应用相关的资源描述符以及存储器的分配和使用情况。在处理单元上运行应用程序需要有一些重要的资源和状态需要仔细处理,以便可以一致地进行迁移,然后在目标机器上平滑地恢复(假设原机器和目标机器的查理单元不存在架构差异。这些重要的资源包括:运行上下文和相关句柄等,为了在目标机器中创建新的上下文和句柄,重新映射源机器的上下文等。需要确定源处理单元处与应用相关的资源描述符以及存储器的分配和使用情况。在一些实施例中,源机器220以持续跟踪源处理单元处的与应用相关的存储器分配信息和使用信息,并且基于所持续跟踪而获得数据确定源处理单元处与应用相关的资源描述符以及存储器的分配和使用情况。其中,该存储器的分配和使用情况包括分配给应用的存储器的起始地址、长度、类型和使用状态。在一些实施例中,基于存储器分配和使用情况生成元数据,元数据指示已分配存储器的起始地址、分配的长度、存储器的类型(例如是所在位置在gpu还是在cpu)和被使用状态(例如是是否被访问或使用)。

在框308,将所确定的资源描述符以及存储器的分配和使用情况经由连接发送给目标机器,以用于目标机器进行迁移准备。其中,资源描述符例如是源处理单元220处与应用212相关的上下文,句柄符。通常,上下文指示一般的运行环境,其必须在应用的代码运行之前对相应的处理单元进行初始化。句柄是客户端对于与应用相关的api操作可见的参考对象,例如流、cublas、cudnn等。将源处理单元处与应用相关的资源描述符发送给目标机器240,以便其在待迁移数据的实际发送与接收之前,能够预先创建在目标机器的处理单元处运行应用所需的资源描述符和分配存储器等迁移准备。

在框310,基于存储器的分配和使用情况,确定待迁移数据以便以用于经由连接向目标机器迁移。当待迁移数据的量比较大时,数据迁移比较慢,会严重影响系统性能。因此,有必要进一步加速数据在源机器与目标机器之间迁移的速度。在一些实施例中,源机器220基于存储器分配和使用情况,将已分配并被使用的存储器数据确定为与应用相关的迁移数据。对于虽然被分配,但是从未使用过的存储器数据则不需要迁移。藉此,可以缩小待迁移数据的范围,利于加速数据迁移。在一些情况下,即使仅将已分配并被使用的存储器数据确定为待迁移数据,待迁移数据依然很大。则可以通过启动异步批量发送的方式进一步优化数据迁移。在一些实施例中,响应于确定待迁移数据的量超过预定阈值,将待迁移数据中最近被使用的第一部分数据发送给所述目标机器;响应于接收到应用在目标机器240上已运行的指示,源机器220将待迁移数据中除第一部分数据之外的第二部分数据发送给目标机器。也就是说,响应于待迁移数据的量超过例如1g或者2g,该预定阈值可根据需求预先设定,将迁移数据中最近时间访问的数据优先向目标机器240发送,以便应用能够快速在目标机器上运行;之后,响应于接收到应用212在目标机器252上已运行的指示(来自于目标机器240),批量发送待中除了优先发送数据(即第一部分数据)之外的数据(即第二部分数据)。该批量发送例如经由后台发送。在一些实施例中,为了进一步优化数据迁移,响应于确定待迁移数据的量超过预定阈值,将待迁移数据中最近被使用的第一部分数据发送给所述目标机器;响应于从目标机器接收到待迁移数据中除第一部分数据之外的第三部分数据的请求,向目标机器发送第三部分数据。也就是说,在将最近访问访问的数据优先向目标机器发送,使得应用在目标机器上运行起来之后,响应于接收到目标机器的进一步的数据请求,发送迁移数据中的其他数据中与该数据请求相关的数据。例如,客户端访问目标机器的过程中,或者在目标机器处响应于请求运行应用时,发现缺少一些数据,会在目标机器中标记“数据不存在”的状态,同时触发“按需发送数据”。例如,目标机器240生成相应的数据请求直接或经由客户端210发送给源机器220,源机器220响应于从目标机器240接收到该数据的请求,向目标机器发送待迁移数据中除了优先发送数据(即第一部分数据)之外的数据中与该数据请求相关的那部分数据(即第三部分数据)。通过采用上述异步批量发送待迁移数据的方式,或者异步按需发送待迁移数据的方式,一方面能够使得目标机器基于优先发送的数据快速地在目标机器上恢复和运行被迁移的应用,进而使得客户端能够迅速地与目标机器建立连接;另一方面通过后续批量发送的剩余的待迁移数据或者按需发送所需的待迁移数据,保证在目标机器上持续运行应用所需的数据的完整性。因而使得应用迁移的数据移动过程得以进一步优化。

在一些实施例中,方法300还包括:响应于待迁移数据被迁移完毕,将在接收到迁移请求之后所接收到的、针对应用的请求经由先入先出(fifo)队列发送给目标机器。该先入先出(fifo)队列例如由源机器220的服务器驱动器222中的请求队列224实现。具体而言,请求队列224将迁移请求之后从客户端所接收到的应用请求存储在请求队列224中,不再发送给处理单元234进行处理;在从目标机器接收到待迁移数据已被迁移完毕的指示后,将所存储的未经处理的请求按照先入先出(fifo)队列的方式发给目标机器240的请求队列242,以便目标机器240依次对这些请求进行处理。通过上述手段,能够使得目标机器在迁移完毕之后,能够顺序处理在迁移期间接到的、未被处理的应用请求,从而保证客户端针对应用的所有请求被完整和连续地执行,进而利于应用被平滑地切换到目标机器上。

在一些实施例中,方法300还包括:响应于从目标机器接收到应用已在所述目标机器上运行的指示,向客户端发送目标机器的寻址信息,以便客户端将针对应用的请求重新定向到目标机器。例如,当应用212已在目标机器240的处理单元254上运行之后,目标机器240将相应指示发送给源机器220,源机器220在收到该指示后,发送消息给客户端210,以便指示应用212已被迁移的状态以及目标机器240的寻址信息,以便客户端210发送与目标机器240建立连接的请求,将针对所述应用的请求重新定向到目标机器240。源机器通过内部事件的方式发送消息给客户端,使客户端正常重新连接到目标机器,使对客户端应用的影响最小。

在一些实施例中,方法300的例程被分为“迁移前”,“迁移”和“迁移后”。在“迁移前”阶段,主要进行迁移前的准备工作。例如暂定应用请求的处理、同步和确定待迁移数据。在“迁移”阶段,主要进行待迁移数据的发送。在“迁移前”阶段,主要进行应用在目标机器上运行之后,源机器发送未处理的请求或者发送待迁移数据中的第二数据或第三数据等。

以下结合图4具体描述用于应用迁移的目标机器的方法400的流程图。图4示出了根据本公开的实施例的用于应用迁移的目标计机器的管理方法400的流程。为了方便讨论,不失一般性地,以如图2所示的客户端210、源机器220和目标机器240为例来描述方法400。在图4中,各个动作例如由目标机器240执行。方法400还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。

在框402,响应于从源机器接收到连接请求,建立目标机器与源机器的连接。例如,响应于运行要迁移的应用212的源机器220的连接请求,建立目标机器240与源机器220的连接;连接请求例如包括:目标机器240上将要运行应用212的目标处理单元,例如是处理单元254。

在框404,经由连接接收在源机器上与待迁移的应用相关的资源描述符以及存储器的分配和使用情况。在一些实施例中,源机器220处持续追踪与应用相关的资源描述符,然后将其发送给目标机器240,以便目标机器240进行迁移数据之前的准备工作。

在框406,基于所接受的资源描述符以及存储器的分配和使用情况执行迁移准备,包括创建在目标机器的处理单元处运行应用所需的资源描述符。在一些实施方式中,目标机器240基于所接收的、在源机器220处的资源描述符来创建在目标处理单元240处运行应用212所需的相应资源描述。此外,迁移准备还包括,基于所接收的、源处理单元处与应用相关的存储器的分配和使用情况,特别是基于其中的存储器的分配长度,目标机器240预先分配具有相同长度的存储器用于存储所接收的待迁移数据,然后重新映射指针(整个存储块和给定的偏移量)。通过采用在目标机器上基于源机器处理单元的相关存储器分配和使用情况,透明地重新映射目标机器的现有存储器,解决了指针冲突的问题。

在框408,经由连接从源机器接收应用的迁移数据。所接收的迁移数据因不同发送方式而不同。在同步发送的实施例中,所接收的迁移数据是与应用相关的所有待迁移数据。在异步批量发送方式的实施例中,目标机器240首先接收的是被源机器优先发送的第一数据。目标机器240在收到第一数据之后就开始进行配置处理单元、运行应用等动作。在应用已在目标处理单元254上成功运行之后,目标机器240会经由后台批量接收到待迁移数据中除优先迁移数据之外的其余数据,即第二数据。在异步按需发送方式的实施例中,目标机器240首先接收的是被源机器220优先发送的第一数据。目标机器240在收到第一数据之后,配置处理单元并恢复应用的运行。在应用212已在处理单元254上运行完毕之后,目标机器240在发现缺少某些影响应用持续运行的数据时,生成相应的数据请求直接地或经由客户端发送给源机器220,然后接收从源机器220发送的待迁移数据中除了优先发送数据(即第一部分数据)之外的数据中与该数据请求相关的那部分数据(即第三部分数据),以用于应用的持续运行。

在框410,基于所创建的资源描述符配置处理单元,以便存储/处理迁移数据。基于之前所创建的资源描述符配置处理单元,例如配置处理单元254,使得处理单元254能够基于所存储的迁移数据、依据应用请求进行相应处理。

以下结合图5具体描述用于应用迁移的客户端的方法500的流程图。图5示出了根据本公开的实施例的用于应用迁移的客户端的方法500的流程。为了方便讨论,不失一般性地,以如图2所示的客户端210、源机器220和目标机器240为例来描述方法500。在图5中,各个动作例如由客户端210执行。方法500还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。

在框502,将在客户端处产生的关于应用的请求发送至运行应用的源机器。在一些实施例中,客户端210呈现虚拟处理单元用于运行该客户端210的应用212,而该应用212实际是由例如由源机器220的物理处理单元234运行。客户端210可以拦截在客户端处产生的应用212的请求,并将其发送至实际运行该应用212的机器,例如发送至源机器220,以便源机器220在其上的处理单元234上针对该请求处理数据。

在框504,响应于来自源机器的应用已迁移至目标机器上的寻址信息,将针对应用的请求重新定向到目标机器,以便请求在目的机器上被处理。例如,当系统200的调度器(未示出)基于预定的迁移策略,例如基于动态平衡的需要发送将应用212从源机器220迁移到目标机器240的处理单元254上的迁移请求给源机器220。源机器220响应于该迁移请求与目标机器240建立连接并进行应用迁移。源机器220在收到应用212已在目标机器240上运行的指示之后,发送应用212已被迁移以及目标机器240的寻址信息,客户端210响应于该寻址信息与目标机器240建立连接,并将在客户端210处产生的关于应用212的新的请求,转发至目标机器240,以便应请求处理数据。通过上述手段,客户端所产生的迁移前后的应用请求被不间断地发至相应的机器进行处理。保证了请求被完整而连续地执行和应用平滑地迁移。

通过本公开所提供的方法300、400和500,能够实现将正运行的应用从源机器迁移到将要继续运行该应用的另一机器上,并且在确保迁移前后数据的正确性和完整性的前提下,降低应用迁移对系统的性能的影响。通过加速数据迁移的优化方法,使得被迁移的应用快速运行在新的机器上,并通过客户端、源机器和目标机器之间的协调配合,使得迁移前后的应用请求被不间断地发送相应的机器进行处理,进而提升了应用迁移的平滑性。通过运行本公开所提供的方法300、400和500,能够使得机器学习、云系统被配置为支持动态负载平衡,qos重新调度等灵活策略,进而覆盖更为复杂的应用。图6示意性示出了适于用来实现本公开实施例的电子设备600的框图。设备600可以用于实现图2的客户端210、机器220和机器240的一个或多个主机。如图所示,设备600包括中央处理单元(cpu)601,其可以根据存储在只读存储器(rom)602中的计算机程序指令或者从存储单元608加载到随机访问存储器(ram)603中的计算机程序指令,来执行各种适当的动作和处理。在ram603中,还可存储设备600操作所需的各种程序和数据。cpu601、rom602以及ram603通过总线604彼此相连。输入/输出(i/o)接口605也连接至总线604。

设备600中的多个部件连接至i/o接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。

处理单元601执行上文所描述的各个方法和处理,例如执行用于应用迁移的方法300、用于应用迁移的目标机器的方法400、和用于应用迁移的客户端的方法500。例如,在一些实施例中,方法300、400、500可被实现为计算机软件程序,其被存储于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由rom602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到ram603并由cpu601执行时,可以执行上文描述的方法300、400、500的一个或多个操作。备选地,在其他实施例中,cpu601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法300、400、500的一个或多个动作。

本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。

计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、静态随机存取存储器(sram)、便携式压缩盘只读存储器(cd-rom)、数字多功能盘(dvd)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。

这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。

用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(isa)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,编程语言包括面向对象的编程语言—诸如smalltalk、c++等,以及常规的过程式编程语言—诸如“c”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(fpga)或可编程逻辑阵列(pla),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。

这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。

这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。

也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。

附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

以上仅为本公开的可选实施例,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等效替换、改进等,均应包含在本公开的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1