一种MCU云平台资源池化系统的制作方法

文档序号:22469965发布日期:2020-10-09 21:59阅读:206来源:国知局
一种MCU云平台资源池化系统的制作方法

本发明涉及mcu板卡通信设计领域,尤其是涉及一种mcu云平台资源池化系统。



背景技术:

mcu异构加速卡是指利用mcu(微控制器,microcontroller)板卡的高速计算能力,对cpu所发送的源操作数进行加速计算,并将计算后的结果返回给cpu,从而实现高性能的计算能力,完成诸如视频编解码、深度学习、科学计算以及图形处理等对计算能力要求较高的功能。

随着mcu异构加速卡在云数据中心应用的展开,mcu加速卡开始大规模进行部署,现有的部署方式一般采用机卡绑定的方式,即每张mcu加速卡都通过sgpio插槽(serialgeneralpurposeinputoutputserial,通用的输入输出接口)直接插接到服务器的标准总线接口上,用户在申请使用mcu时,服务器一般会为用户分配一套虚拟机的环境,用户在虚拟机下对mcu板卡进行访问和使用。

目前mcu云服务一般是采用的单机单卡、单机多卡的绑定模式,即一台服务器上插一张mcu板卡,或者一台服务器上插多张mcu板卡。

在单机单卡、单机多卡的绑定模式下,mcu板卡与cpu紧耦合,用户只能通过主机端的cpu对mcu卡进行访问使用,无法在脱离cpu的情景下,单独调度mcu板卡,并且每个用户可划分到的mcu板卡受所绑定板卡个数的限制,mcu板卡与mcu板卡间没有直接的数据通信链路,板卡间若有通信的需求,数据须经过cpu进行转发,将占用大量cpu资源,部分抵消mcu加速带来的效率增加就无法满足业务弹性部署需求,更无法形成有效的分布式加速架构,本质上是mcu板卡之间相互分立,谈不上mcu的资源池化。



技术实现要素:

本发明为了解决现有技术中存在的问题,创新提出了一种mcu云平台资源池化系统,有效解决由于单机单卡、单机多卡的绑定模式造成mcu板卡相互独立、无法直接通信的问题,使得mcu板卡资源不在受主机的限制,分配、部署更加灵活。

本发明第一方面提供了一种mcu云平台资源池化系统,包括:本地服务器以及第一mcu板卡,其中,第一mcu板卡位于本地服务器内部,与本地服务器中的cpu通信,还包括:以太网交换机、mcu盘柜,所述mcu盘柜包括若干个第二mcu板卡,所述第一mcu板卡与mcu盘柜中的若干个第二mcu板卡组成mcu云平台资源池,若干个第二mcu板卡通过以太网交换机与第一mcu板卡通信连接,其中第一mcu板卡、第二mcu板卡均为mcu异构加速卡。

可选地,mcu云平台资源池中若干个第二mcu板卡之间通过mac接口互联通信,若干个第二mcu板卡还通过mac接口与第一mcu板卡通信。

进一步地,还包括远端服务器,所述远端服务器中包括第三mcu板卡,所述第一mcu板卡通过mac接口与第三mcu板卡或远端服务器的cpu通信。

进一步地,远端服务器通过sgpio接口使用第三mcu板卡进行加速或通过mac接口使用第一mcu板卡进行加速。

进一步地,第一mcu板卡通过sgpio接口与本地服务器的cpu通信,第三mcu板卡通过sgpio接口与远端地服务器的cpu通信。

可选地,当第一mcu板卡通过mac接口获取待加速数据时,通过第一mcu板卡以及mcu盘柜中的若干个第二mcu板卡共同进行加速。

可选地,当第一mcu板卡通过sgpio接口获取待加速数据时,通过第一mcu板卡进行加速。

可选地,当本地服务器通过第一mcu板卡进行数据转发时,本地服务器的cpu通过sgpio接口发送至第一mcu板卡,第一mcu板卡将接收的数据通过mac接口发送至若干个第二mcu板卡。

可选地,当远端服务器通过第一mcu板卡进行数据转发时,远端服务器的cpu通过mac接口发送至第一mcu板卡,第一mcu板卡将接收的数据通过mac接口发送至若干个第二mcu板卡。

本发明采用的技术方案包括以下技术效果:

1、本发明有效解决由于单机单卡、单机多卡的绑定模式造成mcu板卡相互独立、无法直接通信的问题,使得mcu板卡资源不在受主机(本地服务器)的限制,分配、部署更加灵活。

2、本发明技术方案一方面保留了单机单卡、单机多卡的绑定模式的形式,另一方面引入了boxofmcu(mcu盘柜)模式,在boxofmcu里各类型的mcu板卡(包括intel厂商芯片和mcu厂商芯片)通过mac接口进行数据交互,以此解耦mcu与cpu的紧耦合,并且boxofmcu里的mcu板卡与本服务器的mcu板卡也通过mac接口进行互联,在上述架构下,需要进行加速的数据可通过sgpio接口或者mac接口两种方式,传输给mcu板卡进行加速,并且用户可划分的mcu板卡资源不在受主机的限制,使mcu资源能够更加灵活分配、部署,并无缝对接现有的服务器云生态环境。

3、本发明技术方案中还包括远端设备,远端设备也可以通过mac接口使用本地mcu板卡进行加速或转发数据,便于多个服务器之间mcu板卡资源的灵活分配或部署,提高mcu板卡资源的利用率。

应当理解的是以上的一般描述以及后文的细节描述仅是示例性和解释性的,并不能限制本发明。

附图说明

为了更清楚说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单介绍,显而易见的,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明方案中实施例一系统的结构示意图;

图2为本发明方案中实施例二系统的结构示意图。

具体实施方式

为能清楚说明本方案的技术特点,下面通过具体实施方式,并结合其附图,对本发明进行详细阐述。下文的公开提供了许多不同的实施例或例子用来实现本发明的不同结构。为了简化本发明的公开,下文中对特定例子的部件和设置进行描述。此外,本发明可以在不同例子中重复参考数字和/或字母。这种重复是为了简化和清楚的目的,其本身不指示所讨论各种实施例和/或设置之间的关系。应当注意,在附图中所图示的部件不一定按比例绘制。本发明省略了对公知组件和处理技术及工艺的描述以避免不必要地限制本发明。

实施例一

如图1所示,本发明提供了一种mcu云平台资源池化系统,包括:本地服务器1以及第一mcu板卡11,其中,第一mcu板卡11位于本地服务器1内部,与本地服务器1中的cpu12通信,还包括:以太网交换机2、mcu盘柜3,mcu盘柜3包括若干个第二mcu板卡31,第一mcu板卡11与mcu盘柜3中的若干个第二mcu板卡32组成mcu云平台资源池,若干个第二mcu板卡31通过以太网交换机2与第一mcu板卡11通信连接,其中第一mcu板卡11、第二mcu板卡31均为mcu异构加速卡,既可以进行数据加速处理,也可以进行数据转发传输。

其中,mcu云平台资源池中若干个第二mcu板卡31之间通过mac接口(以太网接口)互联通信,若干个第二mcu板卡31还通过mac接口与第一mcu板卡11通信,即若干个第二mcu板卡31的mac接口通过以太网交换机2与第一mcu板卡11的mac接口通信。在mcu盘柜3中各类型的第二mcu板卡31(包括intel厂商芯片和mcu厂商芯片)通过mac接口进行数据交互,以此解耦mcu板卡与cpu的紧耦合,并且mcu盘柜3中的第二mcu板卡31与第一mcu板卡11也通过mac接口进行互联,在上述架构下,需要进行加速的数据可通过sgpio接口或者mac接口两种方式,传输给第一mcu板卡11或第二mcu板卡31进行加速。

第一mcu板卡11通过sgpio接口与本地服务器1的cpu12通信。本地服务器1中的多个第一mcu板卡11之间也可以通过mac接口互联通信。

当第一mcu板卡11通过mac接口获取待加速数据时,通过第一mcu板卡11以及mcu盘柜3中的若干个第二mcu板卡31共同进行加速。

第一mcu板卡11通过mac接口收发数据的payload(有效载荷,除去协议首部之外实际传输的数据)为自有协议的帧格式,其根据协议内容对数据包进行处理或转发。

当第一mcu板卡11通过sgpio接口获取待加速数据时,不携带自定义协议,通过配置寄存器的方式,进行使用,通过第一mcu板卡11单独进行加速。

当本地服务器1通过第一mcu板卡11进行数据转发时,本地服务器1的cpu12通过sgpio接口发送至第一mcu板卡11,第一mcu板卡11将接收的数据通过mac接口发送至若干个第二mcu板卡31,第一mcu板卡11将采用如下方式:一种是在本地服务器1端进行寄存器配置,第一mcu板卡11进行封装数据包转发;另一种是第一mcu板卡11提供mac接口或者sgpio接口,使用rtl(编程语言)编写kernel(操作系统内核)时,利用mac接口或者sgpio接口,直接实现数据在mcu板卡间的传输。

数据传输形式可分为:

由本地服务器中的sgpio接口传输至第一mcu板卡的sgpio接口,即本地服务器或通过虚拟机passthrough(可以将pci/pcie设备绕过虚拟机平台直接分配给虚拟机使用)的方式使用第一mcu板卡11,其接口形式为sgpio到sgpio,需要本地服务器1中的软件驱动识别第一mcu板卡11,并以配置寄存器的方式使用第一mcu板卡11,数据直接进行传输。

由本地服务器中的sgpio接口传输至第一mcu板卡的sgpio接口,再由第一mcu板卡的mac接口传输至第二mcu板卡的mac接口,本地服务器或通过虚拟机passthrough的方式使用第一mcu板卡11进行数据转发,其接口形式为sgpio到mac再到mac,需要本地服务器的软件驱动识别第一mcu板卡11,以配置寄存器的方式控制第一mcu板卡11进行数据转发,且第一mcu板卡11需要按规定格式进行封装数据包转发至第二mcu板卡31中。

由第一mcu板卡11的sgpio接口传输至本地服务器中的sgpio接口,即第一mcu板卡11向本地服务器返回运算结果,其接口形式为sgpio到sgpio,需要第一mcu板卡11将运算结果直接返回本地服务器,本地服务器中的软件驱动直接接收数据。

由第一mcu板卡11的mac接口传输至第二mcu板卡31的mac接口,第一mcu板卡11将运算结果发送给第二mcu板卡31,其接口形式为mac到mac,需要第一mcu板卡11进行封装数据包发送,第二mcu板卡31接收并解析数据包。

本发明有效解决由于单机单卡、单机多卡的绑定模式造成mcu板卡相互独立、无法直接通信的问题,使得mcu板卡资源不在受主机的限制,分配、部署更加灵活。

本发明技术方案一方面保留了单机单卡、单机多卡的绑定模式的形式,另一方面引入了boxofmcu(mcu盘柜)模式,在boxofmcu里各类型的mcu板卡(包括intel厂商芯片和mcu厂商芯片)通过mac接口进行数据交互,以此解耦mcu与cpu的紧耦合,并且boxofmcu里的mcu板卡与本服务器的mcu板卡也通过mac接口进行互联,在上述架构下,需要进行加速的数据可通过sgpio接口或者mac接口两种方式,传输给mcu板卡进行加速,并且用户可划分的mcu板卡资源不在受主机的限制,使mcu资源能够更加灵活分配、部署,并无缝对接现有的服务器云生态环境。

实施例二

如图2所示,本发明技术方案还提供了一种mcu云平台资源池化系统,与实施例一不同的是,本实施例还包括远端服务器4,远端服务器4中包括第三mcu板卡41,第一mcu板卡11通过mac接口与第三mcu板卡41或远端服务器4的cpu42通信。同理,第三mcu板卡41也可以通过mac接口与本地服务器1的cpu12通信。

第三mcu板卡41通过sgpio接口与远端地服务器4的cpu42通信。远端服务器4通过sgpio接口使用第三mcu板卡41进行加速或通过mac接口使用第一mcu板卡11进行加速。同理,本地服务器1通过sgpio接口使用第一mcu板卡11进行加速或通过mac接口使用第三mcu板卡41进行加速。当第一mcu板卡11通过mac接口获取远端服务器4发送的待加速数据时,通过第一mcu板卡11以及mcu盘柜2中的若干个第二mcu板卡21共同进行加速。

当远端服务器4通过第一mcu板卡11进行数据转发时,远端服务器4的cpu42通过mac接口发送至第一mcu板卡11,第一mcu板卡11将接收的数据通过mac接口发送至若干个第二mcu板卡31。

数据传输形式可分为:

由远端服务器4中cpu42的mac接口传输至第一mcu板卡11的mac接口,即远端服务器4通过以太网交换机(phy芯片)的方式使用第一mcu板卡11,其接口形式为mac到mac,需要远端服务器4中的软件驱动进行封装数据包,第一mcu板卡进行解析数据包。

由远端服务器4中cpu42的mac接口传输至第一mcu板卡11的mac接口,第一mcu板卡11的mac接口传输至第二mcu板卡31的mac接口,即远端服务器4通过以太网交换机(phy芯片)的方式使用第一mcu板卡11,其接口形式为mac到mac到mac,需要远端服务器4中的软件驱动进行封装数据包,第一mcu板卡11进行解析数据包并重新进行封装数据包并转发至第二mcu板卡31。

由第一mcu板卡11的mac接口传输至远端服务器4中cpu42的mac接口,即第一mcu板卡11通过以太网交换机(phy芯片)的方式将运算结果发送至远端服务器4,其接口形式为mac到mac,需要第一mcu板卡11进行封装数据包,远端服务器的软件驱动进行解析数据包。

本发明技术方案中还包括远端设备,远端设备也可以通过mac接口使用本地mcu板卡进行加速或转发数据,便于多个服务器之间mcu板卡资源的灵活分配或部署,提高mcu板卡资源的利用率。

上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1