一种图形处理器分布式虚拟化的实现方法及分布式系统与流程

文档序号:20599306发布日期:2020-05-01 21:29阅读:207来源:国知局
一种图形处理器分布式虚拟化的实现方法及分布式系统与流程

本发明涉及计算机技术领域,特别是涉及一种图形处理器分布式虚拟化的实现方法及分布式系统。



背景技术:

随着ai(artificialintelligence,人工智能)和大数据的兴起,gpu(graphicsprocessingunit,图形处理器)再次受到人们的关注。并且,随着虚拟化技术和云计算技术的发展,越来越多的数据中心和物理机被虚拟化,越来越多的业务被迁移到客户虚拟机上,希望在客户虚拟机上也能像物理机上一样使用gpu来支持各种gpu应用(包括图形应用和通用计算应用)。

在当前的gpu虚拟化场景下,都是在单一的物理机内部署客户虚拟机,客户虚拟机与该物理机中的gpu域建立前后端服务通道,基于gpu域与客户虚拟机之间建立的前后端服务通道,客户虚拟机将待处理数据发送给对应的gpu域,再由gpu域利用该gpu域直通的gpu对待处理数据进行处理,得到数据处理结果。

可以看出,客户虚拟机与gpu在同一个物理机内,即一个物理机上的gpu只能给该物理机上的客户虚拟机使用,无法给其它物理机的客户虚拟机使用,gpu虚拟化的应用受限,无法实现gpu分布式虚拟化。



技术实现要素:

本发明实施例的目的在于提供一种图形处理器分布式虚拟化的实现方法及分布式系统,以实现gpu分布式虚拟化。具体技术方案如下:

第一方面,本发明实施例提供了一种图形处理器分布式虚拟化的实现方法,应用于分布式系统,所述分布式系统包括主物理机和从物理机,所述主物理机包括图形处理器gpu、主内存、主内存管理器以及与所述gpu直通的gpu域,所述从物理机包括从内存、从内存管理器以及客户虚拟机,所述主内存与所述从内存为分布式共享内存,所述方法包括:

所述从物理机的客户虚拟机将待处理数据发送至所述从物理机的从内存;

所述从物理机的从内存管理器从所述从内存中提取所述待处理数据,并根据预先配置的从内存与主内存的对应关系,将所述待处理数据写入所述从内存对应的主内存;

所述主内存管理器从所述主内存中提取所述待处理数据,并根据预先配置的主内存与gpu域的对应关系,将所述待处理数据发送至所述主内存对应的gpu域;

所述gpu域调用直通的gpu对所述待处理数据进行处理,得到数据处理结果。

可选的,在所述gpu域调用直通的gpu对所述待处理数据进行处理,得到数据处理结果之后,所述方法还包括:

所述gpu域将所述数据处理结果发送至所述主内存;

所述主内存管理器从所述主内存中提取所述数据处理结果,并根据所述预先配置的从内存与主内存的对应关系,将所述数据处理结果写入所述主内存对应的从内存;

所述从内存所属从物理机的从内存管理器从所述从内存中提取所述数据处理结果,并根据预先配置的从内存与客户虚拟机的对应关系,将所述数据处理结果发送至所述从内存对应的客户虚拟机。

可选的,所述从物理机的从内存管理器从所述从内存中提取所述待处理数据,并根据预先配置的从内存与主内存的对应关系,将所述待处理数据写入所述从内存对应的主内存,包括:

所述从物理机的从内存管理器从所述从内存提取所述待处理数据,并根据预先配置的从内存与主内存的对应关系,通过远程直接内存访问中单边访问的方式,将所述待处理数据写入所述从内存对应的主内存。

可选的,所述主物理机还包括宿主机操作系统,所述方法还包括:

所述宿主机操作系统在获取到创建gpu的客户虚拟机或者客户虚拟机挂载gpu的请求时,根据所述请求,向所述客户虚拟机分配gpu;

所述宿主机操作系统获取所述客户虚拟机所属从物理机为所述客户虚拟机分配的从内存以及所述主物理机为已分配的gpu分配的主内存;

所述宿主机操作系统建立所述从内存与所述主内存的对应关系,并将所述对应关系发送至所述主内存管理器及所述从物理机的从内存管理器;

所述从内存管理器将所述从内存以外设组件互联标准pci设备的形式挂到所述客户虚拟机上。

可选的,所述方法还包括:

所述宿主机操作系统在获取到删除gpu的客户虚拟机或者客户虚拟机卸载gpu的请求时,根据所述请求,删除所述客户虚拟机对应的从内存与主内存的对应关系,并向所述主内存管理器和所述客户虚拟机所属从物理机的从内存管理器发送删除指令;

所述主内存管理器和所述从内存管理器根据所述删除指令,删除所述对应关系。

第二方面,本发明实施例提供了一种分布式系统,所述系统包括:主物理机和从物理机;所述主物理机包括gpu、主内存、主内存管理器以及与所述gpu直通的gpu域,所述从物理机包括从内存、从内存管理器以及客户虚拟机,所述主内存与所述从内存为分布式共享内存;

所述从物理机的客户虚拟机,用于将待处理数据发送至所述从物理机的从内存;

所述从物理机的从内存管理器,用于从所述从内存中提取所述待处理数据,并根据预先配置的从内存与主内存的对应关系,将所述待处理数据写入所述从内存对应的主内存;

所述主内存管理器,用于从所述主内存中提取所述待处理数据,并根据预先配置的主内存与gpu域的对应关系,将所述待处理数据发送至所述主内存对应的gpu域;

所述gpu域,用于调用直通的gpu对所述待处理数据进行处理,得到数据处理结果。

可选的,所述主物理机与所述从物理机配置有支持远程直接内存访问的无限带宽网卡或者具有允许通过以太网使用远程直接内存访问功能的网卡。

可选的,所述gpu域,还用于将所述数据处理结果发送至所述主内存;

所述主内存管理器,还用于从所述主内存中提取所述数据处理结果,并根据所述预先配置的从内存与主内存的对应关系,将所述数据处理结果写入所述主内存对应的从内存;

所述从内存所属从物理机的从内存管理器,还用于从所述从内存中提取所述数据处理结果,并根据预先配置的从内存与客户虚拟机的对应关系,将所述数据处理结果发送至所述从内存对应的客户虚拟机。

可选的,所述从物理机的从内存管理器,具体用于:

从所述从内存提取所述待处理数据,并根据预先配置的从内存与主内存的对应关系,通过远程直接内存访问rdma单边访问的方式,将所述待处理数据写入所述从内存对应的主内存。

可选的,所述主物理机还包括宿主机操作系统;

所述宿主机操作系统,用于在获取到创建gpu的客户虚拟机或者客户虚拟机挂载gpu的请求时,根据所述请求,向所述客户虚拟机分配gpu;获取所述客户虚拟机所属从物理机为所述客户虚拟机分配的从内存以及所述主物理机为已分配的gpu分配的主内存;建立所述从内存与所述主内存的对应关系,并将所述对应关系发送至所述主内存管理器及所述从物理机的从内存管理器;

所述从内存管理器,还用于将所述从内存以pci设备的形式挂到所述客户虚拟机上。

可选的,所述宿主机操作系统,还用于在获取到删除gpu的客户虚拟机或者客户虚拟机卸载gpu的请求时,根据所述请求,删除所述客户虚拟机对应的从内存与主内存的对应关系,并向所述主内存管理器和所述客户虚拟机所属从物理机的从内存管理器发送删除指令;

所述主内存管理器和所述从内存管理器,还用于根据所述删除指令,删除所述对应关系。

本发明实施例提供的一种图形处理器分布式虚拟化的实现方法及分布式系统,分布式系统包括主物理机和从物理机,主物理机包括gpu、主内存、主内存管理器以及与gpu直通的gpu域,从物理机包括从内存、从内存管理器以及客户虚拟机,主内存与从内存为分布式共享内存。从物理机的客户虚拟机将待处理数据发送至从物理机的从内存;从物理机的从内存管理器到从内存中提取待处理数据,并根据预先配置的从内存与主内存的对应关系,将待处理数据写入从内存对应的主内存;主内存管理器从主内存中提取待处理数据,并根据预先配置的主内存与gpu域的对应关系,将待处理数据发送至主内存对应的gpu域;gpu域调用直通的gpu对待处理数据进行处理,得到数据处理结果。通过设置分布式共享内存,从物理机的客户虚拟机向本地的从内存写入待处理数据,从内存管理器直接向从内存对应的主内存写入该待处理数据,由于主内存是gpu的实际物理内存,主内存中的待处理数据可以发送给gpu域,由gpu域调用直通的gpu对其进行处理,使得主物理机上的gpu可以给其他从物理机上的客户虚拟机使用,实现了gpu分布式虚拟化。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明一实施例的分布式系统的结构示意图;

图2为本发明另一实施例的分布式系统的结构示意图;

图3为本发明再一实施例的分布式系统的结构示意图;

图4为本发明再一实施例的分布式系统的结构示意图;

图5为本发明再一实施例的分布式系统的结构示意图;

图6为本发明实施例的图形处理器分布式虚拟化的实现方法的流程示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

为了方便理解本发明实施例,首先在此介绍本发明实施例描述中引入的几个要素。

虚拟机:通过虚拟机软件可以在一台物理计算机上模拟出一台或者多台虚拟的计算机,而这些虚拟机就像真正的计算机那样进行工作,虚拟机上可以安装操作系统和应用程序,虚拟机还可访问网络资源。对于在虚拟机中运行的应用程序而言,虚拟机就像是在真正的计算机中进行工作。

dsm(distributedsharedmemory,分布式共享内存):使得不同机器上的进程不用通过共享物理内存就可以使用共享数据。进行访问dsm中的数据就如同访问本机的内存一样。dsm运行系统还可以保证在不同机器上执行的程序可以观察到别的机器对dsm的修改。

rdma(remotedirectmemoryaccess,远程直接内存访问):可以简单理解为利用相关的硬件和网络技术,一个物理机的网卡可以直接读写另一个物理机的内存,最终达到高带宽、低延迟和低资源利用率的效果。

硬件层:虚拟化环境运行的硬件平台。其中,硬件层可以包括多种硬件,例如处理器、内存、网卡、存储器等。

宿主机:作为管理层,用以完成硬件资源的管理、分配;为虚拟机呈现虚拟硬件平台;实现虚拟机的调度和隔离。其中,宿主机可能是vmm(virtualmachinemonitor,虚拟机监控器);此外,有时vmm和1个特权虚拟机配合,两者结合组成宿主机。其中,虚拟硬件平台对其上运行的各个虚拟机提供各种硬件资源,如提供虚拟处理器、虚拟内存、虚拟磁盘、虚拟网卡等等。虚拟机则运行在宿主机为其准备的虚拟硬件平台上,宿主机上运行一个或多个虚拟机。

为了实现gpu分布式虚拟化,本发明实施例提供了一种图形处理器分布式虚拟化的实现方法及分布式系统。下面,首先对本发明实施例所提供的分布式系统进行介绍。

本发明实施例所提供的一种分布式系统如图1所示,该分布式系统包括主物理机110和从物理机120;主物理机110包括gpu111、主内存112、主内存管理器113以及与gpu111直通的gpu域114,从物理机120包括从内存121、从内存管理器122以及客户虚拟机123,主内存112与从内存121为分布式共享内存。

在一个分布式系统中,一般只有一个主物理机,会有至少一个从物理机。一个从物理机包括至少一个客户虚拟机,每一个客户虚拟机对应从内存的一个区域(即对应不同的从内存地址);主物理机包括至少一个gpu域,每一个gpu域对应主内存的一个区域(即对应不同的主内存地址),主物理机包括至少一个gpu,gpu与gpu域之间直通,一个gpu域可以直通一个或者多个gpu。

主内存和从内存为dsm,主内存和从内存一般具有一一对应的关系,即主内存的一块区域对应从内存的一块区域,也可以是一个从内存对应一个主内存,当然,也可能是多个从内存对应一个主内存,或者从内存的多块区域对应主内存的一块区域。主内存和从内存的对应关系可以通过地址映射或者标识映射的方式进行记录。

在一种实施方式中,如图2所示,主物理机包括硬件层、vmm和gpu域,vmm运行于硬件层之上,gpu域运行于vmm之上;硬件层包括gpu、主内存和i/o(input/output,输入/输出)接口,vmm包括主内存管理器,gpu域可以是运行在包括gpu的硬件层之上的应用层管理软件,也可以为硬件层上层的硬件模块,用于管理、调控gpu的运行。从物理机包括硬件层、vmm和客户虚拟机,vmm运行于硬件层之上,客户虚拟机运行于vmm之上;硬件层包括从内存和i/o接口,vmm包括从内存管理器。

在另一种实施方式中,如图3所示,主物理机包括硬件层、vmm和gpu域,vmm运行于硬件层之上,gpu域运行于vmm之上;硬件层包括gpu和i/o接口,vmm包括主内存和主内存管理器。从物理机包括硬件层、vmm和客户虚拟机,vmm运行于硬件层之上,客户虚拟机运行于vmm之上;硬件层包括i/o接口,vmm包括从内存和从内存管理器。

下面对主物理机和从物理机中各部件的功能进行介绍。

从物理机120的客户虚拟机123,用于将待处理数据发送至从物理机120的从内存121;

从物理机120的从内存管理器122,用于到从内存121中提取待处理数据,并根据预先配置的从内存与主内存的对应关系,将待处理数据写入从内存121对应的主内存112;

主内存管理器113,用于从主内存112中提取待处理数据,并根据预先配置的主内存与gpu域的对应关系,将待处理数据发送至主内存112对应的gpu域114;

gpu域114,用于调用直通的gpu111对待处理数据进行处理,得到数据处理结果。

客户虚拟机使用gpu的请求一般是客户虚拟机内的app(application,应用程序)调用gpu的相关api(applicationprogramminginterface,应用程序编程接口)发起的,api经gpu基本库解析后,解析出待处理数据,并将待处理数据发送到dsm(实际发送到本地的从内存),从内存管理器具有内存管理功能,预先维护有从内存与主内存的对应关系,在到从内存中读取出待处理数据后,根据该对应关系,可以确定从内存对应的主内存,然后将待处理数据写入从内存对应的主内存。具体的,从内存与主内存的对应关系可以以内存映射表的方式进行记录。如果从内存和主内存的对应关系为多对一,在进行传递的过程中会记录下数据流向的标签,以便于后续在反馈数据时,按照该标签向对应的从内存反馈数据。

主内存管理器也具有内存管理功能,预先维护有主内存与gpu域的对应关系,在主内存112中写入待处理数据后,主内存管理器113从主内存112中提取待处理数据,并根据该对应关系,确定主内存对应的gpu域,将待处理数据发送至主内存112对应的gpu域114。

gpu域114在收到待处理数据后调用直通的gpu111对待处理数据进行处理,得到数据处理结果。具体的,gpu域收到待处理数据后,首先对待处理数据进行处理,将待处理数据处理为gpu可识别的数据,然后将gpu可识别的数据发送给直通的一个或者多个gpu,由gpu进行数据处理,得到数据处理结果。

可选的,主物理机110与从物理机120配置有支持rmda的ib(infiniband,无限带宽)网卡或者具有roce(rdmaoverconvergedethernet,允许通过以太网使用远程直接内存访问)功能的网卡。也就是说,在图2和图3所示的网络结构中,i/o接口为ib或roce接口。

可选的,从物理机120的从内存管理器122,具体可以用于:到从内存121提取待处理数据,并根据预先配置的从内存与主内存的对应关系,通过rdma单边访问的方式,将待处理数据写入从内存121对应的主内存112。从内存管理器在向主内存写待处理数据时,可以采用rdma单边访问的方式,保证数据的单向写入,实现数据的共享。

可选的,gpu域114,还可以用于将数据处理结果发送至主内存112。

相应的,主内存管理器113,还可以用于从主内存112中提取数据处理结果,并根据预先配置的从内存与主内存的对应关系,将数据处理结果写入主内存112对应的从内存121;

从内存121所属从物理机120的从内存管理器122,还可以用于到从内存121中提取数据处理结果,并根据预先配置的从内存与客户虚拟机的对应关系,将数据处理结果发送至从内存121对应的客户虚拟机123。

在主物理机得到数据处理结果后,gpu域可以将数据处理结果首先发送至主内存,主内存管理器具有内存管理功能,预先维护有从内存与主内存的对应关系,在到主内存中读取出待处理数据后,根据该对应关系,可以确定主内存对应的从内存,然后将数据处理结果写入主内存对应的从内存。最终,由从内存管理器将从内存中的数据处理结果发送至对应的客户虚拟机。

本发明实施例中,主物理机还可以包括多个客户虚拟机,主物理机本地的gpu虚拟化可以采用传统的本地客户虚拟机使用gpu的方案,这里不再赘述。

应用本发明实施例,分布式系统包括主物理机和从物理机,主物理机包括gpu、主内存、主内存管理器以及与gpu直通的gpu域,从物理机包括从内存、从内存管理器以及客户虚拟机,主内存与从内存为分布式共享内存。从物理机的客户虚拟机将待处理数据发送至从物理机的从内存;从物理机的从内存管理器到从内存中提取待处理数据,并根据预先配置的从内存与主内存的对应关系,将待处理数据写入从内存对应的主内存;主内存管理器从主内存中提取待处理数据,并根据预先配置的主内存与gpu域的对应关系,将待处理数据发送至主内存对应的gpu域;gpu域调用直通的gpu对待处理数据进行处理,得到数据处理结果。通过设置分布式共享内存,从物理机的客户虚拟机向本地的从内存写入待处理数据,从内存管理器直接向从内存对应的主内存写入该待处理数据,由于主内存是gpu的实际物理内存,主内存中的待处理数据可以发送给gpu域,由gpu域调用直通的gpu对其进行处理,使得主物理机上的gpu可以给其他从物理机上的客户虚拟机使用,实现了gpu分布式虚拟化。

基于图1所示实施例,本发明实施例还提供了一种分布式系统,如图4所示,该分布式系统包括主物理机110和从物理机120;主物理机110包括gpu111、主内存112、主内存管理器113、与gpu111直通的gpu域114以及宿主机操作系统115,从物理机120包括从内存121、从内存管理器122以及客户虚拟机123,主内存112与从内存121为分布式共享内存。

gpu111、主内存112、主内存管理器113、gpu域114、从内存121、从内存管理器122以及客户虚拟机123的功能与图1所示实施例中相同,实现gpu分布式虚拟化的过程相同,这里不再赘述。下面,重点对宿主机操作系统115进行介绍。

宿主机操作系统运行于vmm之上,主要用于进行gpu和gpu域管理,包括gpu域管理模块和gpu源管理模块。宿主机操作系统主要提供gpu的发现、上报、调度、分配、释放等功能。在分布式系统中,宿主机操作系统是分布式的,能够提供gpu资源共享,因此,不仅仅主物理机上部署有宿主机操作系统,在从物理机上也可以部署有宿主机操作系统,这里不做限定。另外,由于宿主机操作系统实现分布式功能,因此,也常将其称为云操作系统。

对于gpu的发现功能而言,与传统的物理主机相同,主要是通过定时lspci(一种用来显示系统中所有总线设备或连接到该总线上的所有设备的工具)扫描的方式,获取物理主机上的gpu信息。

对于gpu的上报功能而言,扫描到的gpu信息上报到宿主机操作系统中的gpu源管理模块,并通知gpu域管理模块创建gpu域,并将gpu直通给gpu域。

对于gpu的调度、分配功能,宿主机操作系统115,用于在获取到创建gpu的客户虚拟机或者客户虚拟机挂载gpu的请求时,根据该请求,向客户虚拟机分配gpu,获取客户虚拟机123所属从物理机120为客户虚拟机123分配的从内存121以及主物理机110为已分配的gpu111分配的主内存112,建立从内存121与主内存112的对应关系,并将对应关系发送至主内存管理器113及从物理机120的从内存管理器122。

从内存管理器122,用于将从内存121以pci(peripheralcomponentinterconnect,外设组件互联标准)设备的形式挂到客户虚拟机123上。

在创建gpu客户虚拟机或客户虚拟机挂载gpu时,向gpu源管理模块发送请求,gpu源管理模块根据客户虚拟机调度的节点,就近分配gpu;获取到gpu信息之后,建立两个物理机间内存的对应关系,并将从内存以pci设备的形式挂到客户虚拟机上。

对于gpu的释放功能,宿主机操作系统115,还可以用于在获取到删除gpu的客户虚拟机或者客户虚拟机卸载gpu的请求时,根据该请求,删除客户虚拟机123对应的从内存121与主内存112的对应关系,并向主内存管理器113和客户虚拟机123所属从物理机120的从内存管理器122发送删除指令;

主内存管理器113和从内存管理器122,还可以用于根据删除指令,删除对应关系。

gpu客户虚拟机删除或客户虚拟机卸载gpu时,删除对应的从内存与主内存的对应关系,一般在宿主机操作系统上还可以维护有gpu信息的数据库,相应的对该数据库进行更新。

通过gpu分布式同一调度,给gpu云计算领域的分布式使用提供了资源管理方案,更好地管理gpu的资源。

在本发明实施例的一种实现方式中,如图5所示,主物理机包括硬件层、vmm、宿主机操作系统和gpu域,vmm运行于硬件层之上,gpu域和宿主机操作系统运行于vmm之上;硬件层包括gpu和ib/roce接口,vmm包括主内存和主内存管理器,宿主机操作系统包括gpu域管理模块和gpu源管理模块,gpu域包括驱动模块、虚拟gpu服务模块、gpu库和gpu驱动模块。从物理机包括硬件层、vmm和客户虚拟机,vmm运行于硬件层之上,客户虚拟机运行于vmm之上;硬件层包括ib/roce接口,vmm包括从内存和从内存管理器,客户虚拟机包括app、gpu通用模块和驱动模块。

数据流的处理过程为:客户虚拟机内的app调用gpu通用模块,生成待处理数据,通过驱动模块将待处理数据发送至从内存,从内存管理器到从内存中提取待处理数据,并根据预先配置的从内存与主内存的对应关系,将待处理数据通过从物理机和主物理机的ib/roce接口写入主内存,主内存管理器从主内存中提取待处理数据,并根据预先配置的主内存与gpu域的对应关系,将待处理数据发送至对应的gpu域,经gpu域中的驱动模块、虚拟gpu服务模块、gpu库和gpu驱动模块,将待处理数据发送至直通的gpu,由gpu对待处理数据进行处理,得到数据处理结果,并将数据处理结果通过相同的方式返回给客户虚拟机。宿主机操作系统中的gpu域管理模块对gpu域进行管理,gpu源管理模块对gpu的发现、上报、调度、分配、释放等进行管理。

本发明实施例还提供了一种图形处理器分布式虚拟化的实现方法,如图6所示,该方法应用于图1所示的分布式系统,该方法可以包括如下步骤。

s601,从物理机的客户虚拟机将待处理数据发送至该从物理机的从内存。

s602,该从物理机的从内存管理器到从内存中提取待处理数据,并根据预先配置的从内存与主内存的对应关系,将待处理数据写入从内存对应的主内存。

s603,主内存管理器从主内存中提取待处理数据,并根据预先配置的主内存与gpu域的对应关系,将待处理数据发送至主内存对应的gpu域。

s604,gpu域调用直通的gpu对待处理数据进行处理,得到数据处理结果。

客户虚拟机使用gpu的请求一般是客户虚拟机内的app调用gpu的相关api发起的,api经gpu基本库解析后,解析出待处理数据,并将待处理数据发送到dsm(实际发送到本地的从内存),从内存管理器具有内存管理功能,预先维护有从内存与主内存的对应关系,在到从内存中读取出待处理数据后,根据该对应关系,可以确定从内存对应的主内存,然后将待处理数据写入从内存对应的主内存。具体的,从内存与主内存的对应关系可以以内存映射表的方式进行记录。如果从内存和主内存的对应关系为多对一,在进行传递的过程中会记录下数据流向的标签,以便于后续在反馈数据时,按照该标签向对应的从内存反馈数据。

主内存管理器也具有内存管理功能,预先维护有主内存与gpu域的对应关系,在主内存中写入待处理数据后,主内存管理器从主内存中提取待处理数据,并根据该对应关系,确定主内存对应的gpu域,将待处理数据发送至主内存对应的gpu域。

gpu域在收到待处理数据后调用直通的gpu对待处理数据进行处理,得到数据处理结果。具体的,gpu域收到待处理数据后,首先对待处理数据进行处理,将待处理数据处理为gpu可识别的数据,然后将gpu可识别的数据发送给直通的一个或者多个gpu,由gpu进行数据处理,得到数据处理结果。

应用本发明实施例,通过设置分布式共享内存,从物理机的客户虚拟机向本地的从内存写入待处理数据,从内存管理器直接向从内存对应的主内存写入该待处理数据,由于主内存是gpu的实际物理内存,主内存中的待处理数据可以发送给gpu域,由gpu域调用直通的gpu对其进行处理,使得主物理机上的gpu可以给其他从物理机上的客户虚拟机使用,实现了gpu分布式虚拟化。

可选的,在s604之后,该方法还可以包括如下步骤:

gpu域将数据处理结果发送至主内存;

主内存管理器从主内存中提取数据处理结果,并根据预先配置的从内存与主内存的对应关系,将数据处理结果写入主内存对应的从内存;

从内存所属从物理机的从内存管理器从从内存中提取数据处理结果,并根据预先配置的从内存与客户虚拟机的对应关系,将数据处理结果发送至从内存对应的客户虚拟机。

可选的,s602,具体可以为:从物理机的从内存管理器到从内存提取待处理数据,并根据预先配置的从内存与主内存的对应关系,通过rmda单边访问的方式,将待处理数据写入从内存对应的主内存。

可选的,主物理机还可以包括宿主机操作系统,该方法还可以包括如下步骤:

宿主机操作系统在获取到创建gpu的客户虚拟机或者客户虚拟机挂载gpu的请求时,根据该请求,向客户虚拟机分配gpu;

宿主机操作系统获取客户虚拟机所属从物理机为客户虚拟机分配的从内存以及主物理机为已分配的gpu分配的主内存;

宿主机操作系统建立从内存与主内存的对应关系,并将该对应关系发送至主内存管理器及从物理机的从内存管理器;

从内存管理器将从内存以pci设备的形式挂到客户虚拟机上。

可选的,该方法还可以包括:

宿主机操作系统在获取到删除gpu的客户虚拟机或者客户虚拟机卸载gpu的请求时,根据该请求,删除客户虚拟机对应的从内存与主内存的对应关系,并向主内存管理器和客户虚拟机所属从物理机的从内存管理器发送删除指令;

主内存管理器和从内存管理器根据删除指令,删除该对应关系。

需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于方法实施例而言,由于其基本相似于系统实施例,所以描述的比较简单,相关之处参见系统实施例的部分说明即可。

以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1