本发明涉及一种基于多核异构cpu-gpu-fpga的大数据引擎架构
背景技术:
随着云计算及虚拟化,呈现出“大规模”、“高密度”、“高能耗”、“复杂化”等特点,建设与发展新一代数据中心,提升数据中心基础设施管理将变得日趋重要,数据中心的基础架构融合管理与智能将成为数据中心发展的新趋势。
超大型数据中心提供了从基础设施到后面的数据分析、筛选、应用的整个应用服务。不仅是数据分析,还包括与公有云提供的通用化服务不同的专门服务于智能制造的云计算,以及超级运算,这就对大数据的处理能力提出了更高要求。
异构计算是指使用不同类型指令集和体系架构的计算单元组成系统的计算方式。常见的计算单元类别包括:cup(中央处理器)、gpu(图形处理器)、fpga(现场可编程门阵列)等。cpu与gpu的高度融合已是大势所趋,但这不只是硬件层面的变更,更多的是计算理念的变革。如何将不同的计算任务自动分配给最适宜于处理该任务的芯片,借此实现最高的能效比以及最高的晶体管利用率,成为探索新的编程模式或者计算模式要面临的重大问题。
当越来越多的专用硬核被集成到fpga中以后,fpga的设计方法需要发生根本性的变化。在ic设计领域已经逐步得到认同的soc设计方法同样被引入到fpga设计领域,这一方法的核心在于围绕cpu内核展开设计,以cpu引出的系统总线为主干,其他模块都挂在这一总线上,比如,在fpga上开发基于cpu的系统,当fpga上电后,硬件逻辑通过芯片配置成功后,读取软件文件并转到sdram(同步动态随机存储器)中,软件在sdram中运行。
gpu等专用计算单元虽然工作频率较低,具有更多的内核数和并行计算能力,总体性能/芯片面积的比和性能/功耗比都很高,却远远没有得到充分利用。特别是gpu的通用计算被导入高并行计算领域,对处理包括视觉传感器在内的融合多传感器信息,起到新核心的作用。
智能闪存缓存是一个只读缓存。当未修改的数据块由于空间的压力被清除出缓存区高速缓存,这些数据块就被移入到闪存缓存中;如果又需要这些数据,数据库将会再把这些数据块从闪存缓存移回。闪存缓存利用闪存设备的i/o速度,比基于磁盘的存储性能要高得多;具有足够的cpu,可使用闪存缓存。
磁性随机存储器(magneticrandomaccessmemory,简称mram)拥有静态随机存储器(sram)的高速读取写入能力,以及动态随机存储器(dram)的高集成度,而且基本上可以无限次地重复写入。
本发明提供了一种基于多核异构cpu-gpu-fpga的大数据引擎架构。架构的特征为具有独立的并行cpu和并行gpu,有各自的磁性随机存储子系统,均可访问对方的磁性随机存储器,并处于fpga结构之外;gpu通过i/o总线连接到芯片组,然后再通过i/o桥与cpu相连;cpu由alu、寄存器文件和智能闪存缓存以及总线接口组成。
技术实现要素:
本发明的目的在于提供一种基于多核异构cpu-gpu-fpga的大数据引擎架构。本发明包括以下特征:
发明技术方案
1.一种基于多核异构cpu-gpu-fpga的大数据引擎架构,架构的特征:
1)具有独立的并行cpu和并行gpu,有各自的磁性随机存储子系统,均可访问对方的磁性随机存储器,并处于fpga结构之外;
2)gpu通过i/o总线连接到芯片组,然后再通过i/o桥与cpu相连;
3)cpu由alu、寄存器文件和智能闪存缓存以及总线接口组成。
附图说明
附图1是基于多核异构cpu-gpu-fpga的大数据引擎架构图。
具体实施方式
这种基于多核异构cpu-gpu-fpga的大数据引擎架构,包括如下步骤特征:
1)具有独立的并行cpu和并行gpu,有各自的磁性随机存储子系统,均可访问对方的磁性随机存储器,并处于fpga结构之外;
2)gpu通过i/o总线连接到芯片组,然后再通过i/o桥与cpu相连;
3)cpu由alu、寄存器文件和智能闪存缓存以及总线接口组成。