用于数据中心冷却系统的智能制冷剂分配单元的制作方法

文档序号:32205847发布日期:2022-11-16 04:37阅读:48来源:国知局
用于数据中心冷却系统的智能制冷剂分配单元的制作方法

1.至少一个实施例涉及冷却系统,包括用于操作这些冷却系统的系统和方法。在至少一个实施例中,可以在包含一个或更多个机架或计算服务器的数据中心中利用这样的冷却系统。


背景技术:

2.数据中心冷却系统使用风扇使空气循环通过服务器组件。某些超级计算机或其他高容量计算机可以使用水或其他冷却系统代替空气冷却系统来将热量从数据中心的服务器组件或机架抽离到数据中心外部的区域。冷却系统可以包括数据中心区域内的冷却器,其可以包括数据中心本身外部的区域。进一步,数据中心外部的区域可以包括冷却塔或其他外部热交换器,该冷却塔或其他外部热交换器从数据中心接收经加热的冷却剂并且通过强制空气或其他手段将热量散发到环境(或外部冷却介质)。经冷却的冷却剂再循环回到数据中心。冷却器和冷却塔一起形成冷却设施。
附图说明
3.图1示出了经受了在至少一个实施例中描述的改进的示例性数据中心冷却系统;
4.图2示出了根据至少一个实施例的与用于数据中心冷却系统的智能制冷剂分配单元相关联的服务器级特征;
5.图3示出了根据至少一个实施例的与用于数据中心冷却系统的智能制冷剂分配单元相关联的机架级特征;
6.图4示出了根据至少一个实施例的与用于数据中心冷却系统的智能制冷剂分配单元相关联的数据中心级特征;
7.图5示出了根据至少一个实施例的与图2-4的数据中心冷却系统相关联的方法;
8.图6示出了根据至少一个实施例的分布式系统;
9.图7示出了根据至少一个实施例的示例性数据中心;
10.图8示出了根据至少一个实施例的客户端-服务器网络;
11.图9示出了根据至少一个实施例的计算机网络;
12.图10a示出了根据至少一个实施例的联网计算机系统;
13.图10b示出了根据至少一个实施例的联网计算机系统;
14.图10c示出了根据至少一个实施例的联网计算机系统;
15.图11示出了根据至少一个实施例的系统环境的一个或更多个组件,在该系统环境中,服务可被提供为第三方网络服务;
16.图12示出了根据至少一个实施例的云计算环境;
17.图13示出了根据至少一个实施例的由云计算环境提供的一组功能抽象层;
18.图14示出了根据至少一个实施例的在芯片级的超级计算机;
19.图15示出了根据至少一个实施例的在机架模块级处的超级计算机;
20.图16示出了根据至少一个实施例的在机架级处的超级计算机;
21.图17示出了根据至少一个实施例的在整个系统级的超级计算机;
22.图18a示出了根据至少一个实施例的推理和/或训练逻辑;
23.图18b示出了根据至少一个实施例的推理和/或训练逻辑;
24.图19示出了根据至少一个实施例的神经网络的训练和部署;
25.图20示出了根据至少一个实施例的网络系统的架构;
26.图21示出了根据至少一个实施例的网络系统的架构;
27.图22示出了根据至少一个实施例的控制平面协议栈;
28.图23示出了根据至少一个实施例的用户平面协议栈;
29.图24示出了根据至少一个实施例的核心网的组件;
30.图25示出了根据至少一个实施例的支持网络功能虚拟化(nfv)的系统的组件;
31.图26示出了根据至少一个实施例的处理系统;
32.图27示出了根据至少一个实施例的计算机系统;
33.图28示出了根据至少一个实施例的系统;
34.图29示出了根据至少一个实施例的示例性集成电路;
35.图30示出了根据至少一个实施例的计算系统;
36.图31示出了根据至少一个实施例的apu;
37.图32示出了根据至少一个实施例的cpu;
38.图33示出了根据至少一个实施例的示例性加速器集成切片;
39.图34a-34b示出了根据至少一个实施例的示例性图形处理器;
40.图35a示出了根据至少一个实施例的图形核心;
41.图35b示出了根据至少一个实施例的gpgpu;
42.图36a示出了根据至少一个实施例的并行处理器;
43.图36b示出了根据至少一个实施例的处理集群;
44.图36c示出了根据至少一个实施例的图形多处理器;
45.图37示出了根据至少一个实施例的编程平台的软件栈;
46.图38示出了根据至少一个实施例的图37的软件栈的cuda实现;
47.图39示出了根据至少一个实施例的图37的软件栈的rocm实现;
48.图40示出了根据至少一个实施例的图37的软件栈的opencl实现方式;
49.图41示出了根据至少一个实施例的由编程平台支持的软件;以及
50.图42示出了根据至少一个实施例的用于在图37-40的编程平台上执行的编译代码。
具体实施方式
51.在至少一个实施例中,可以利用如图1所示的示例性数据中心100,所述数据中心具有经受本文描述的改进的冷却系统。在至少一个实施例中,阐述了许多具体细节以提供透彻理解,但是本文的概念可以在没有这些具体细节中的一个或更多个的情况下实践。在至少一个实施例中,数据中心冷却系统可以响应于由改变现今计算组件中的计算负载所引起的突然的高热需求。在至少一个实施例中,由于这些需求经历不同冷却需求的最小值到
最大值的变化或趋于从最小值到最大值的范围,所以必须使用适当的冷却系统以经济的方式满足这些需求。在至少一个实施例中,为了中等至高的冷却需求,可以使用液体冷却系统。在至少一个实施例中,通过局部浸没冷却经济地满足高冷却需求。在至少一个实施例中,这些不同的冷却需求还反映数据中心的不同热特征。在至少一个实施例中,从这些组件、服务器和机架产生的热量被统称为热特征或冷却需求,因为冷却需求必须完全解决热特征。
52.在至少一个实施例中,公开了一种数据中心液体冷却系统。在至少一个实施例中,该数据中心冷却系统解决了相关联的计算或数据中心设备中的热特征,诸如在图形处理单元(gpu)中、在交换机中、在双列直插存储器模块(dimm)中或中央处理单元(cpu)中。在至少一个实施例中,这些组件在本文中可以被称为高热密度计算组件。此外,在至少一个实施例中,相关联的计算或数据中心设备可以是在其上具有一个或更多个gpu、交换机或cpu的处理卡。在至少一个实施例中,gpu、交换机和cpu中的每一个可以是计算设备的发热特征。在至少一个实施例中,gpu、cpu或交换机可以具有一个或更多个核心,并且每个核心可以是发热特征。
53.在至少一个实施例中,公开了一种智能制冷剂分配单元(rdu),该智能制冷剂分配单元具有流量控制器,用于分配来自与主制冷剂冷却回路接口的辅助制冷剂冷却回路的制冷剂。在至少一个实施例中,辅助制冷剂冷却回路循环通过冷板以从至少一个计算设备提取热量。在至少一个实施例中,智能rdu使得制冷剂至制冷剂热交换器(r2rhx)能够将吸收到辅助制冷剂冷却回路中的辅助制冷剂的热量的至少一部分交换到主制冷剂冷却回路。在至少一个实施例中,主制冷剂冷却回路通过耦接到可在数据中心外部的冷却塔或空冷设施的主冷凝器单元散发这种热量的至少部分。在至少一个实施例中,压缩机可以与冷凝器单元一起使用,或者泵可以足以引起来自第二制冷剂冷却回路的第二制冷剂的热量循环和散发。
54.在至少一个实施例中,用于数据中心冷却系统的r2rhx在第一制冷剂冷却回路与第二制冷剂冷却回路之间接口,以便使得能够从至少一个计算设备的冷板移除热量,并且使得能够将这种热量传递至第二制冷剂冷却回路的第二制冷剂以从冷凝器单元散发。在至少一个实施例中,制冷剂冷却回路之间的这种接口可以通过第一制冷剂冷却回路的冷凝器单元接近或接触第二制冷剂冷却回路的蒸发器区段(第二蒸发器区段)来实现,该蒸发器区段与冷板的蒸发器区段(其可以是第一蒸发器区段)不同。
55.在至少一个实施例中,由这样的特征解决的问题是使得先前被限制为使冷却剂在其中流动的冷板(作为主冷却回路和辅助冷却回路的一部分)能够使用制冷剂以高效的方式去除更高密度的热量。在至少一个实施例中,可能需要更高速率的冷却剂来从高热密度计算设备移除高热。在至少一个实施例中,这种较高速率的冷却剂可侵蚀冷板的材料或引起冷板内的腐蚀。
56.在至少一个实施例中,本文的特征实现一种解决方案,该解决方案使用rdu在制冷剂冷却回路之间接口,而不是冷却剂分配单元(cdu)在冷却剂回路之间接口。在至少一个实施例中,一个或更多个r2rhx可以与rdu内的制冷剂储存器相关联,以便在第一制冷剂冷却回路与第二制冷剂冷却回路之间接口,这样使得制冷剂可以用于所有管道线路中来去除大量的热量,同时比另外所要求的冷却剂的更高流速具有更少的腐蚀性或引起更少的侵蚀。
57.在至少一个实施例中,第一制冷剂冷却回路或第二制冷剂冷却回路可以包括泵送的制冷剂冷却系统,该泵送的制冷剂冷却系统用于将至少一个冷板中的热量移除至r2rhx,而不是使用冷却剂的辅助冷却回路。在至少一个实施例中,这种系统可包括制冷剂分配单元(rdu),该制冷剂分配单元可以是机架安装或行安装的分配单元。在至少一个实施例中,rdu可以包括一个或更多个制冷剂泵、一个或更多个冷凝器单元、一个或更多个制冷剂储存器和其他制冷系统,诸如过滤器、粗滤器以及加料端口。在至少一个实施例中,r2rhx包括板型或垫圈型热交换器,这些热交换器在其一些板内充当冷凝器单元并且在其一些板内充当蒸发器单元。在至少一个实施例中,此类特征允许在数据中心中的2相蒸发器中有效利用蒸汽压缩制冷,而不需要基于主侧冷却器的冷却系统。在至少一个实施例中,此类特征还允许从数据中心进行更高效且低功率的热量移除,允许没有数据中心基础设施的边缘位置处的制冷,并且使得能够以比可基于冷却剂流的空气或液体冷却系统高得多的密度移除热量。
58.在至少一个实施例中,过冷却器为rdu提供过冷状态。在至少一个实施例中,可以将过冷却器添加到rdu内或液体管线中,该液体管线将第一制冷剂运送到冷板,以防止所提供的管线或rdu内的此类第一制冷剂由于数据中心的区域内的更高的环境热量或压力变化而相变成蒸气状态。在至少一个实施例中,过冷却器提供过冷却,该过冷却可以是第一制冷剂的进一步冷却。在至少一个实施例中,这可以通过在rdu的过冷却器中使第二制冷剂的流动延伸穿过其中以进一步冷却指定用于冷板的第一制冷剂来提供。在至少一个实施例中,这能够将作为饱和液体的第一制冷剂温度降低到进一步更低的温度。在至少一个实施例中,过冷可以通过关闭出口流量控制器和入口流量控制器以将第一制冷剂保持在rdu的过冷却器内持续延长的时间段来提供。
59.在至少一个实施例中,用于冷却第一制冷剂冷却回路的第一制冷剂的第二制冷剂可以具有与第二制冷剂冷却回路的第二制冷剂相同或相似的化学性质。在至少一个实施例中,第一制冷剂可以在rdu的管线或区域内运载,但是在第一制冷剂的这种移动过程中经受环境热量或压降。在至少一个实施例中,这些问题可以通过经由过冷却器内的过冷特征进行补充冷却来解决。在至少一个实施例中,第二制冷剂回路的第二冷凝器单元可以放置在服务器机架或托盘上并且使用一个或更多个流量控制器(诸如制冷剂泵)来使得第二制冷剂能够移动到第二冷凝器单元,以便从冷板散热。在至少一个实施例中,过冷条件可以通过有待被第二制冷剂冷却的第一制冷剂的附加循环来实现。
60.在至少一个实施例中,此类特征通过制冷剂(如在rdu中使用的)的蒸发来降低工作流体温度。在至少一个实施例中,此类特征允许从液体冷却的冷板移除较高量的热量,而无需将流体速率增加到此类冷板所指定的界限以上,因为此类流速的增加可侵蚀或腐蚀冷板。在至少一个实施例中,ocu(架顶冷凝器单元)允许去除数据中心的热量,而不需要具有主冷却回路、辅助冷却回路和一个或更多个冷却剂分配单元(cdu)的中央冷却器系统。在至少一个实施例中,此类特征允许在边缘数据中心内利用制冷剂冷却回路,其中可能不存在可用的基于冷却剂的数据中心冷却系统。
61.在至少一个实施例中,智能制冷剂分配单元使用制冷剂或工程流体,例如7000、或的工程流体中的一些与冷板和冷凝器单元一起,用于从至少一个计算设备去除热量。在至少一个实施例中,这种冷板适于在其中支持蒸发器区段。在至少一个实施例中,可通过用于控制制冷剂的泵或其他流量控制器来
实现流动稳定,所述制冷剂能够在冷板外部的这种冷凝器单元与冷板的蒸发器区段之间以确定的流速流动。
62.在至少一个实施例中,智能制冷剂分配单元允许制冷剂直接流动到冷板,该冷板被适配成用于制冷剂并且在其中具有至少一个蒸发器。在至少一个实施例中,与至少一个冷板或r2rhx相关联的膨胀阀使得制冷剂能够通过冷板以引起制冷剂的相变并且引起从至少一个计算设备吸收热量。
63.在至少一个实施例中,来自至少一个计算设备的热量被吸收到第一制冷剂冷却回路的第一制冷剂中,该第一制冷剂然后使用制冷剂泵被传送到第一冷凝器单元,并且该第一制冷剂与不同于冷板的蒸发器区段的第二蒸发器区段接口。在至少一个实施例中,这样的第二蒸发器区段能够将热量传递到第二制冷剂冷却回路的第二制冷剂。在至少一个实施例中,这样的第二制冷剂冷却回路的第二冷凝器单元使得所吸收的热量的至少部分释放到数据中心外部的周围环境中。在至少一个实施例中,传感器(例如温度、流量、湿度、泄漏、压力、以及流体或冷却剂化学物)允许智能制冷剂分配单元在辅助或主冷却回路中存在任何问题的情况下的智能操作。
64.在至少一个实施例中,智能制冷剂分配单元能够解决冷板中的问题,这些冷板主要能够支持用于冷却目的的冷却剂。在至少一个实施例中,制冷剂在冷板的蒸发器区段内处于液到气相变。在至少一个实施例中,第一制冷剂或第二制冷剂在进入第一冷凝器单元或第二冷凝器单元时呈气相,但在被泵送至冷板的相应蒸发器区段或r2rhx时呈流体状态。在至少一个实施例中,在具有制冷剂适配的冷板和r2rhx的制冷剂冷却回路的这种封闭冷却回路内可以产生变化的压力。在至少一个实施例中,制冷剂泵可以是可用的流体管道或蒸汽的排量管道。
65.在至少一个实施例中,可以利用如图1所示的示例性数据中心100,所述数据中心具有经受本文所描述的改进的冷却系统。在至少一个实施例中,数据中心100可以是具有机架110和附属设备的一个或更多个室(room)102,以在一个或更多个服务器托盘上容纳一个或更多个服务器。在至少一个实施例中,数据中心100由位于数据中心100外部的冷却塔104支持。在至少一个实施例中,冷却塔104通过作用于主冷却回路106而从数据中心100内散热。在至少一个实施例中,在主冷却回路106与第二或辅助冷却回路108之间使用冷却分配单元(cdu)112,以使得能够从第二或辅助冷却回路108向主冷却回路106吸收热量。在至少一个实施例中,在一个方面,根据需要,辅助冷却回路108可以接入进入服务器托盘的各个管道。在至少一个实施例中,回路106、108被示出为线图,但是普通技术人员将认识到,可以使用一个或更多个管道特征。在至少一个实施例中,柔性聚氯乙烯(pvc)管可以与相关联的管道一起使用以使流体沿着每个提供的回路106;108移动。在至少一个实施例中,一个或更多个冷却剂泵可以用于维持冷却剂回路106、108内的压力差,以使得冷却剂能够根据各个位置(包括在室中、在一个或更多个机架110中和/或在一个或更多个机架110内的服务器箱或服务器托盘中)中的温度传感器移动。
66.在至少一个实施例中,主冷却回路106和辅助冷却回路108中的冷却剂可以至少是水和添加剂。在至少一个实施例中,添加剂可以是乙二醇或丙二醇。在操作中,在至少一个实施例中,主冷却回路和辅助冷却回路中的每个冷却回路可以具有它们自己的冷却剂。在至少一个实施例中,辅助冷却回路中的冷却剂可以专用于服务器托盘或相关联的机架110
中的部件的要求。在至少一个实施例中,cdu 112能够独立地或同时地对所提供的冷却剂回路106、108内的冷却剂进行复杂的控制。在至少一个实施例中,cdu可适于控制冷却剂的流速,使得冷却剂被适当地分配以吸收相关联的机架110内产生的热量。在至少一个实施例中,从辅助冷却回路108提供更柔性的管道114以进入每个服务器托盘,以向其中的电气和/或计算组件提供冷却剂。
67.在至少一个实施例中,形成辅助冷却回路108的一部分的管道118可以被称为室歧管。单独地,在至少一个实施例中,另外的管道116可以从行歧管管道118延伸并且也可以是辅助冷却回路108的一部分,但可以被称为行歧管。在至少一个实施例中,冷却剂管道114作为辅助冷却回路108的一部分进入机架,但可以被称为一个或更多个机架内的机架冷却歧管。在至少一个实施例中,行歧管116沿着数据中心100中的行延伸到所有机架。在至少一个实施例中,包括冷却剂歧管118、116和114的辅助冷却回路108的管道可以通过本文的至少一个实施例来改进。在至少一个实施例中,可以在数据中心102内的主冷却回路中提供冷却器120,以在冷却塔之前支持冷却。在至少一个实施例中,对于本公开,可存在于主控制回路中并且在机架外部和在辅助冷却回路外部提供冷却的附加冷却回路可与主冷却回路一起并且与辅助冷却回路不同。
68.在至少一个实施例中,在操作中,在所提供的机架110的服务器托盘内产生的热量可以经由第二冷却回路108的行歧管114的柔性管道转移至离开一个或更多个机架110的冷却剂。在至少一个实施例中,来自cdu 112的用于冷却所提供的机架110的第二冷却剂(在辅助冷却回路108中)经由所提供的管道朝向一个或更多个机架110移动。在至少一个实施例中,来自cdu 112的第二冷却剂从具有管道118的室歧管的一侧经由行歧管116传递到机架110的一侧,并且经由不同的管道114穿过服务器托盘的一侧。在至少一个实施例中,用过的或返回的第二冷却剂(或从计算组件离开的运载热量的第二冷却剂)离开服务器托盘的另一侧(诸如进入机架的左侧并在循环通过服务器托盘或通过服务器托盘上的组件之后离开用于服务器托盘的机架的右侧)。在至少一个实施例中,离开服务器托盘或机架110的用过的第二冷却剂从管道114的不同侧(诸如离开侧)出来并且移动到行歧管116的平行的但也是离开侧。在至少一个实施例中,来自行歧管116的用过的第二冷却剂在室歧管118的平行部分中移动,并沿与进入的第二冷却剂(其也可以是经更新的第二冷却剂)相反的方向朝向cdu 112行进。
69.在至少一个实施例中,用过的第二冷却剂经由cdu 112与主冷却回路106中的主冷却剂交换其热量。在至少一个实施例中,用过的第二冷却剂可以被更新(诸如当与用过的第二冷却剂阶段的温度相比较时相对冷却)并且准备好通过第二冷却回路108循环回到一个或更多个计算组件。在至少一个实施例中,cdu 112中的各种流动和温度控制特征能够控制从用过的第二冷却剂交换的热量或进出cdu 112的第二冷却剂流动。在至少一个实施例中,cdu 112还能够控制主冷却回路106中的主冷却剂的流动。
70.在至少一个实施例中,如图2所示的服务器级特征200可以与用于数据中心冷却系统的智能制冷剂分配单元(r2rhx)相关联。在至少一个实施例中,服务器级特征200包括服务器托盘或箱202。在至少一个实施例中,服务器托盘或箱202包括在服务器托盘或箱202的所提供的冷板210a-d与托管服务器托盘或箱202的机架的机架歧管之间中间耦接的服务器歧管204。在至少一个实施例中,服务器托盘或箱202包括与一个或更多个计算或数据中心
组件或设备220a-d相关联的一个或更多个冷板210a-d。
71.在至少一个实施例中,可在服务器歧管204与一个或更多个冷板210a-d之间提供一个或更多个服务器级冷却回路214a、214b。在至少一个实施例中,每个服务器级冷却回路214a、214b包括入口管线210和出口管线212。在至少一个实施例中,当存在串联配置的冷板210a、210b时,可提供中间管线216。在至少一个实施例中,一个或更多个冷板210a-d可支持用于从预加载的r2rhx循环的辅助冷却回路的辅助冷却剂或不同的流体(诸如制冷剂)的不同端口和通道。在至少一个实施例中,用于冷却相关联的计算设备的辅助冷却剂可以经由所提供的入口和出口206a、206b提供给服务器歧管204。在至少一个实施例中,用于冷却的制冷剂可经由所提供的入口和出口208a、208b提供给服务器歧管204。
72.在至少一个实施例中,服务器托盘202是可被流体淹没的浸入式冷却的服务器托盘。在至少一个实施例中,用于浸入式冷却的服务器托盘的流体可以是能够在浸入式冷却的服务器中使用的介电工程流体。在至少一个实施例中,辅助冷却剂或制冷剂可以用于冷却工程流体。在至少一个实施例中,当与循环辅助冷却剂的辅助冷却回路相关联的主冷却回路已失效或者正在失效时,制冷剂可以用于冷却工程流体。在至少一个实施例中,至少一个冷板因此具有用于辅助冷却回路和用于制冷剂冷却回路的端口,并且能够支持制冷剂冷却回路,该制冷剂冷却回路在主冷却回路发生故障的情况下被激活。在至少一个实施例中,可使用智能制冷剂分配单元而无需辅助冷却回路。
73.在至少一个实施例中,至少一个双冷却冷板210b;250可以被配置成在常规冷板210a、c、d旁边工作。在至少一个实施例中,三维(3d)爆炸图(冷板250)提供了可包括在双冷却冷板210b中的至少一些特征的内部细节。在至少一个实施例中,其中具有微通道270(也是270a)的冷板250的第一区段250b的撕开图示出了具有不同微通道264的不同的第二区段250a。在至少一个实施例中,常规冷板可具有一组微通道264;270而不是所示的两组。在至少一个实施例中,双冷却冷板250具有用于辅助冷却回路的辅助冷却剂和用于制冷剂冷却回路的制冷剂的不同路径264、270(每个路径也称为微通道)。在至少一个实施例中,辅助冷却剂或制冷剂在性质上可以不是介电的。在至少一个实施例中,在浸入式冷却的服务器的使用情况下,可以是介电工程流体的制冷剂可以适用于冷板应用和浸入式冷却的服务器托盘应用两者。
74.在至少一个实施例中,一些微通道270是由翅片270a或其他此类方面提供的路径,这些翅片或其他此类方面在内部并且垂直于冷板区段250b的基座隆起,这样使得在其间存在用于流体或冷却剂流动的间隙。在至少一个实施例中,一些微通道264是在冷板250的不同冷板区段250a中的流体通路。在至少一个实施例中,用于制冷剂的一些微通道264表示用于冷板250的蒸发(或蒸发器)区段。在至少一个实施例中,位于冷板250的入口侧上的流量控制器280可充当膨胀阀;并且这使得制冷剂能够进入冷板250并在较低压力下膨胀,以及在从至少一个计算设备吸收热量期间在离开冷板250之前发生相变。在至少一个实施例中,对冷板的引用及其双冷却特征可暗示对可支持至少两种类型的冷却回路的冷板的引用,除非另有说明。在至少一个实施例中,两种类型的冷板均接收用于冷却的制冷剂,但一种类型可支持辅助冷却回路和制冷剂冷却回路(也称为制冷剂回路)两者。在至少一个实施例中,标准冷却剂(诸如设施水)可用于辅助冷却回路中。
75.在至少一个实施例中,制冷剂可以仅支持冷板使用并且可以不可用于浸入式冷
却。在至少一个实施例中,每种类型的冷板从相应的制冷剂冷却回路、或与主冷却回路相接口的辅助冷却回路或其他冷却回路接收不同的制冷剂和辅助冷却剂。在至少一个实施例中,在不同流体(诸如冷却剂)与不同辅助回路的不同冷却剂分配单元(cdu)一起使用的情况下,则不同的冷却回路可与制冷剂冷却回路一起适用于双冷却冷板,使得不同的通道可用于制冷剂中的每一者和用于不同的辅助冷却剂。在至少一个实施例中,本文提及的任何冷板能够在露点以上工作以防止水分形成,诸如在20华氏度以上,或在确定的环境露点以上。
76.在至少一个实施例中,双冷却冷板250被适配成接收两种类型的流体(诸如辅助冷却剂和制冷剂)并且经由其不同的端口252、272;268、262以及它们的不同的路径264、270保持两种类型的流体彼此不同,例如通过由垫圈和板(例如在垫圈型冷板中)分开的不同的区段。在至少一个实施例中,每个不同的路径是流体路径。在至少一个实施例中,可以同时提供来自制冷剂源的流体(例如制冷剂)和辅助冷却剂以解决附加的冷却需求。
77.在至少一个实施例中,双冷却冷板250包括端口252、272,用于将制冷剂接收到冷板250中并且将制冷剂从冷板250中传递出。在至少一个实施例中,双冷却冷板250包括端口268、262,用于将辅助冷却剂接收到冷板250中并将辅助冷却剂从冷板250中传递出。在至少一个实施例中,端口252、272可以具有阀盖254、260(或膨胀阀的特征),该阀盖可以是方向性的,且是压力控制的,以使得制冷剂能够膨胀通过冷板250。在至少一个实施例中,阀盖可以与所有提供的端口相关联,但是膨胀阀可以专用于制冷剂入口。在至少一个实施例中,所提供的阀盖254、260为相关流量控制器的机械特征,所述相关流量控制器的机械特征还具有对应的电子特征(例如,用于执行存储在相关存储器中的指令且控制用于相关流量控制器的机械特征的至少一个处理器)。
78.在至少一个实施例中,每个阀可以由相关联的流量控制器的电子特征来致动。在至少一个实施例中,集成所提供的流量控制器的电子和机械特征。在至少一个实施例中,所提供的流量控制器的电子和机械特征在物理上是不同的。在至少一个实施例中,对流量控制器的参考可以是针对所提供的电子和机械特征中的一个或更多个或其联合的,但是至少参考使得能够控制通过每个冷板或浸入式冷却的服务器托盘或箱的冷却剂或制冷剂的流动的特征。
79.在至少一个实施例中,所提供的流量控制器的电子特征接收控制信号并断言对机械特征的控制。在至少一个实施例中,所提供的流量控制器的电子特征可以是致动器或其他类似机电特征的其他电子部件。在至少一个实施例中,流量泵可用作流量控制器。在至少一个实施例中,叶轮、活塞或波纹管可以是机械特征,并且电动机和电路形成所提供的流量控制器的电子特征。
80.在至少一个实施例中,所提供的流量控制器的电路可以包括处理器、存储器、交换机、传感器和其他组件,它们共同形成所提供的流量控制器的电子特征。在至少一个实施例中,所提供的流量控制器的所提供的端口252、262、272、268适于允许浸入式流体进入或允许浸入式流体流出。在至少一个实施例中,流量控制器280(能够充当膨胀阀)可以与流体管线276(也是256、274)相关联,流体管线276使得制冷剂能够进入冷板210b和从冷板210b流出。在至少一个实施例中,其他流量控制器可类似地与冷却剂管线210、216、212(亦为266、258)相关联,以使得辅助冷却剂能够进入及流出至冷板210b。
81.在至少一个实施例中,更高的冷却需求可以要求更高的制冷剂流速或流量。在至少一个实施例中,此类冷却需求可通过泵或其他流量控制器来解决以防止智能制冷剂分配单元中的过多热量积聚,但可从冷板210b与冷板210b外部的冷凝器单元之间的其他串联泵来解决。在至少一个实施例中,泵或其他流量控制器的大小可以由所使用的制冷剂的类型和其热特性(例如,其流体相中的最小温度与其气相中的最大温度,以及与这样的系统相关联的所有计算设备的最大温度)决定。在至少一个实施例中,该信息可以用于由泵或其他流量控制器在使得制冷剂对于从相关联的计算设备220b移除热量无效的环境热量之前确定该制冷剂在特定区域中的容量。
82.在至少一个实施例中,制冷剂经由专用流体入口管线208a和出口管线208b进入所提供的流体管线276。在至少一个实施例中,服务器歧管204适配于其中具有通道(由虚线示出),以支持到不同流体管线276(也是256、274)的不同路径以及到与辅助冷却剂入口和出口管线206a、b相关联的任何剩余回路214a、b的不同路径。在至少一个实施例中,可以有多个歧管来不同地支持制冷剂和辅助冷却剂。在至少一个实施例中,可以有多个歧管来不同地支持制冷剂和辅助冷却剂中的每一个的入口和出口。在至少一个实施例中,如果在没有辅助冷却回路的情况下单独地使用制冷剂,则经由所提供的流体路径之一(至少在冷板或服务器托盘内)的流体流可以被允许到制冷剂源或流体管线(诸如不同于图3中的辅助冷却剂行歧管350的管线370a、b)。
83.在至少一个实施例中,第一流可以使得辅助冷却剂能够流过一个或更多个所提供的端口252、272和相关联的路径270。在至少一个实施例中,双冷却冷板250可以具有隔离的板部分250a、250b,所述板部分250a、250b充满制冷剂和/或辅助冷却剂,同时通过垫圈或密封件保持彼此不同。在至少一个实施例中,第二流可以使得制冷剂能够流动通过所提供的端口268、262,以及通过翅片或微通道270a的相关联的路径264,翅片或微通道270a遍及冷板部分250b的基部。
84.在至少一个实施例中,流量控制器278可以与服务器歧管204处的流体入口276和出口部分相关联,而不是与相应的冷板处提供的流量控制器280相关联。在至少一个实施例中,第一流仅使用制冷剂,并且当在辅助冷却回路或主冷却回路中确定故障,使得辅助冷却剂不能有效地从至少一个计算设备吸收热量时,第一流可被启用。在至少一个实施例中,故障可能是辅助冷却剂没有通过cdu被充分冷却,并且因此其可能不能通过其相关联的冷板吸收至少一个计算设备的足够的热量。
85.在至少一个实施例中,如图3中所示出的机架级特征300可以与数据中心冷却系统的智能制冷剂分配单元相关联。在至少一个实施例中,机架级特征300包括具有支架304、306的机架302,用于悬挂冷却歧管314a、314b。在至少一个实施例中,虽然机架330与机架302分开示出,但该机架330可示出机架302的后透视图。在至少一个实施例中,同样地,设置在机架330上的支架334、336是设置在机架302上的支架304、306的透视图。在至少一个实施例中,为机架提供的支架304、306是抵靠机架的内壁的平坦结构。在至少一个实施例中,为机架提供的支架304、306从机架的内壁延伸。在至少一个实施例中,为机架提供的支架304、306附接到机架的内壁并且具有面向一个或更多个方向(包括在机架的内部或朝向机架的后部)的多个安装点。
86.在至少一个实施例中,可提供冷却歧管314a、314b以在数据中心冷却系统的辅助
冷却回路的服务器级特征200(并且在图3中示出为服务器托盘或箱308)与cdu(如图4的cdu 406)之间传递辅助冷却剂。在至少一个实施例中,不同的cdu可以服务于不同的机架。在至少一个实施例中,不同的机架冷却歧管可以不同地是辅助冷却回路和制冷剂冷却回路的一部分。
87.在至少一个实施例中,行歧管350可以是辅助冷却回路的一部分,用于经由提供的管线310a、310向入口机架歧管314a馈送。在至少一个实施例中,辅助冷却剂经由提供的管线316行进到冷板326以从服务器308内的相关联的计算设备324提取或吸收热量;并且经由所提供的管线318行进到出口机架歧管314b并且通过所提供的管线312、312a,并且返回到相同或不同的行歧管350中。
88.在至少一个实施例中,智能制冷剂分配单元可以独立于辅助冷却回路工作,并且可以经由针对制冷剂冷却回路所提供的管线312b、310b连同与至少部分在rdu(如图4的rdu 424)内的r2rhx 360相关联的制冷剂冷却管线370a、b来冷却与启用制冷剂(双冷却或单冷却)的冷板326相关联的至少一个计算设备。在至少一个实施例中,即使示出为机架上方的独立单元,但是这仅是说明性的,并且这种r2rhx 360基本上在rdu内。在至少一个实施例中,与r2rhx 360相关联的至少第二冷凝器单元可以在rdu外部以将热量散发至周围环境。在至少一个实施例中,提供的用于制冷剂的管线312b、310b经由直接管线320、354、322以及经由一个或更多个流量控制器368耦合到独立的冷板。在至少一个实施例中,用于控制制冷剂流动的泵或其他流量控制器可以设置在冷板326的入口侧上。在至少一个实施例中,这样的泵或其他流量控制器实现由制冷剂的稳定流动表示的流动稳定,该制冷剂的稳定流动能够在(r2rhx 360的)第一冷凝器单元362与其蒸发器或蒸发器区段(例如,由图2中的通道264实现)之间流动,该第一冷凝器单元362在冷板326外部但在rdu内。
89.在至少一个实施例中,一个或更多个分流器流量控制器310c、312c将辅助冷却回路和制冷剂冷却回路中的每一者隔离。在至少一个实施例中,一个或更多个分流器流量控制器具有下游膨胀阀,用于为制冷剂提供在适当压力下高效吸热的膨胀特征。在至少一个实施例中,第一制冷剂可以与至少一个冷板326一起使用并且与rdu的r2rhx 360一起使用,其中这样的r2rhx 360具有第一冷凝器单元364和第二蒸发器区段372。在至少一个实施例中,一个或更多个风扇364可以与第一冷凝器单元362的管线或垫圈板364相关联,以便能够实现从第一制冷剂到第二制冷剂的高效热传递。
90.因此,在至少一个实施例中,rdu的r2rhx 360使得使用具有第一蒸发器区段的冷板提取的热量从第一制冷剂冷却回路的第一冷凝器单元362到第二制冷剂冷却回路的第二蒸发器区段372的热传递能够进行传导和对流。在至少一个实施例中,给予第二蒸发器区段372的制冷剂的此类热量可以经由所提供的管线376之一传递到第二冷凝器单元374以用于散发至周围环境。在至少一个实施例中,机架302的所提供的管线320、322、354可以与第一制冷剂冷却回路的制冷剂相关联,该第一制冷剂冷却回路的制冷剂可以不同于第二制冷剂冷却回路的制冷剂。在至少一个实施例中,这种所提供的管线可以与入口310b和出口312b相关联,以便与r2rhx 360接合并且与相关联的管线370a、b以及相关联的组件360-380接合。
91.在至少一个实施例中,数据中心冷却系统包括r2rhx 360,所述r2rhx部分地具有rdu并且与风扇364和冷凝器单元362相关联,所述冷凝器单元可以具有用于制冷循环的一
个或更多个制冷剂泵或压缩机。在至少一个实施例中,智能制冷剂分配单元包括热交换管或垫圈板。在至少一个实施例中,智能制冷剂分配单元的区段、部件或组件360-380可以一起集成到单个单元中。在至少一个实施例中,这种系统的区段、部件或组件360-380可以集成在机架之间并且可以在机架330上提供的支架区域处或经由其支架334、336与机架相关联。在至少一个实施例中,这种集成使用泵或其他流量控制器来在所提供的机架之间的这种集成系统的出口处提供制冷剂的流动稳定性。
92.在至少一个实施例中,第二蒸发器区段372中的热交换管使与第一冷凝器区段362中不同的制冷剂(例如,第二制冷剂)循环。在至少一个实施例中,这样的特征使得第一制冷剂能够通过所提供的流量控制器368中的一个流量控制器循环进入和通过所提供的这种流量控制器368中的另一个流量控制器循环离开。在至少一个实施例中,在第一冷凝器单元362的这种出口侧上,可提供泵或其他流量控制器以用于流动稳定并防止制冷剂的过多蒸发。在至少一个实施例中,当对可以是闭合回路的第一制冷剂冷却回路提出突然需求时,可以使用泵或其他流量控制器。在至少一个实施例中,这样的泵将收集到制冷剂储存器(如图4中的附图标记438)中的第一制冷剂泵送。在至少一个实施例中,可以要求智能rdu的制冷剂立即解决高冷却需求。在至少一个实施例中,这样的制冷剂可以由用于控制制冷剂流动而无需对第一制冷剂冷却回路的闭合回路施加应变(strain)的泵或其他流量控制器提供。
93.在至少一个实施例中,这种施加应变是相对于流体形式的制冷剂不足以及制冷剂的过多蒸发而言的,可能需要其来处理穿过其中的较低或较高的流体流。在至少一个实施例中,第二蒸发器区段372中的热交换管使得空气能够循环以用于冷却智能制冷剂分配单元(rdu,诸如图4的附图标记424)的集成或分开的特征内的r2rhx 360。在至少一个实施例中,一个或更多个制冷剂或排量泵378、380允许与第一制冷剂冷却回路相接口的第二制冷剂冷却回路的第二制冷剂的循环。
94.在至少一个实施例中,智能制冷剂分配单元(rdu)的r2rhx 360是机架302(或330)的一部分或被结合在机架内。在至少一个实施例中,单独的设施或主管线在一个或更多个r2rhx 360与一个或更多个机架302之间提供制冷剂。在至少一个实施例中,r2rhx 360包括多个通道而不是使制冷剂通过的多个管道,以用于制冷剂的冷却或其中保留的热量的散发。在至少一个实施例中,数据中心冷却系统能够通过机架330的r2rhx 360(及其支持基础设施——诸如,两相能力冷板和压缩机或泵378、380)在第一模式中解决机架330(或302)的第一冷却需求。
95.在至少一个实施例中,在第一模式中,r2rhx 360可以用于经由使来自风扇的空气循环通过第二冷凝器单元374来从第二制冷剂冷却回路的第二制冷剂散热。在至少一个实施例中,第二制冷剂冷却回路(如图4中的制冷剂冷却回路434)可以用于从r2rhx 360去除热量并且使用其自己的第二冷凝器单元(图4中的434b)将这种热量散发到数据中心外部。在至少一个实施例中,数据中心冷却系统能够通过与cdu、主冷却剂和冷却设施接合的辅助冷却回路来解决处于第二模式中的机架330(或302)的第二冷却需求。在至少一个实施例中,对于高密度计算组件,针对机架所确定的任何冷却需求,两种模式都在运行中。在至少一个实施例中,制冷剂的流动默认发生在一个或更多个制冷剂冷却回路中,但可以进一步经由提供的制冷剂泵378、380或甚至压缩机来实现。
96.在至少一个实施例中,第一冷却需求和第二冷却需求可以涉及数据中心的不同热
特征。在至少一个实施例中,第一冷却需求可以与从一个或更多个计算设备产生的热量相关联,该热量由用于解决这样的第一冷却需求的制冷剂来解决。在至少一个实施例中,第二冷却需求还可与从一个或更多个计算设备产生的例如通过经由冷板被保持在制冷剂和/或辅助冷却剂内的热量相关联,并且该热量可能需要由r2rhx中的一个或更多个散发和/或由主冷却剂经由cdu散发。在至少一个实施例中,产生、吸收、提取或保留的热量可以是需要低于操作值或操作范围的温度值;或需要被维持在(诸如至少一个计算设备的)操作值或范围。
97.在至少一个实施例中,可以提供至少一个处理器来确定与机架330(或302)中的计算设备324相关联的温度。在至少一个实施例中,至少一个处理器能够使数据中心冷却系统至少部分地基于与计算设备324相关联或从计算设备324确定的温度而在第一模式或第二模式中操作。在至少一个实施例中,至少一个处理器可以使得数据中心冷却系统的第一模式能够使用r2rhx提供冷却。在至少一个实施例中,这样的至少一个处理器可以使得数据中心冷却系统的第二模式能够使用冷却剂来提供冷却。
98.在至少一个实施例中,机架302(或330)内的浸入式冷却的服务器352可以具有与机架302(或330)内的空气冷却的、冷却剂冷却的或制冷剂冷却的服务器308同时解决的其冷却需求。在至少一个实施例中,浸入式冷却的服务器352可以包括围绕计算设备的介电工程流体。在至少一个实施例中,浸入式冷却服务器352可以包括第二热交换器,该第二热交换器用于在介电工程流体与要在r2rhx 360中循环的制冷剂之间交换热量。
99.在至少一个实施例中,至少一个服务器托盘或箱308(诸如机架302中最底部的服务器托盘或箱308)可以被指定为用于智能制冷剂分配单元的控制系统,使得如果使用制冷剂,则这种系统可以与辅助冷却回路隔离。在至少一个实施例中,服务器托盘或箱308中的控制系统可包括安全特征(诸如用于提供传感器数据或适当功能的传感器)、通信特征(用于与用于主动模式的至少一个流量控制器通信以及与外部监视器通信)、用于为一个或更多个流量控制器和至少一个处理器(及其相关特征)供电的功率特征和由至少一个处理器提供的可与至少一个流量控制器相关联的控制特征。
100.在至少一个实施例中,冷板326可以与计算设备324相关联。在至少一个实施例中,冷板可具有用于支持辅助冷却剂的微通道的第一部分的第一端口,该第一部分不同于支持冷凝器单元362的制冷剂的微通道的第二部分。在至少一个实施例中,至少一个处理器可适于从与计算设备324相关联的传感器接收传感器输入。在至少一个实施例中,传感器还可与机架、辅助冷却剂或制冷剂中的一个或更多个相关联。在至少一个实施例中,至少一个处理器可适于部分地基于传感器输入来确定第一冷却需求和第二冷却需求。在至少一个实施例中,传感器输入可以是从如所描述的传感器以一个或更多个时间间隔感测到的温度。在至少一个实施例中,至少一个处理器可以使得制冷剂冷却回路能够为至少一个计算设备提供冷却,该冷却由冷凝器单元和通过使用泵或其他流量控制器的流量稳定来支持。
101.在至少一个实施例中,一个或更多个神经网络被适配成从所提供的传感器接收传感器输入,并且被适配成推理数据中心冷却系统(诸如数据中心冷却系统的制冷剂冷却回路)的第一冷却需求和第二冷却需求。在至少一个实施例中,这样的制冷剂冷却回路的流量控制器使得制冷剂能够在其中流动。在至少一个实施例中,至少一个处理器可以使至少一个流量控制器使得制冷剂能够流过r2rhx并且可以被适配成防止辅助冷却剂流动到辅助冷
却回路。在至少一个实施例中,可使一个或更多个分流器流量控制器310c、312c能够引起制冷剂和辅助冷却剂的这种流动和阻止该制冷剂和辅助冷却剂的流动。在至少一个实施例中,提供的管线310b、312b可设置成与r2rhx 360的入口管线和出口管线370a、370b流体地耦接。在至少一个实施例中,可使另外的流量控制器368能够防止或引起制冷剂流过r2rhx 360。
102.在至少一个实施例中,确定的流速可由流量控制器368实现。在至少一个实施例中,制冷剂在离开冷凝器单元364的一侧是冷却器。在至少一个实施例中,这样的冷却器制冷剂具有更高的密度并且可以通过制冷剂泵368泵送,该制冷剂泵368用作流量控制器,以直接使用入口320和出口354、322或经由歧管314a、314b间接地将冷却剂以某流速或体积驱动到至少一个冷板326,歧管314a、314b可以仅用于制冷剂或者可以在其中具有用于制冷剂和冷却剂的分离的通道。在至少一个实施例中,密度减小的制冷剂由从计算设备324吸收并通过相关联的冷板326传输的热量引起。在至少一个实施例中,这样的热量使得制冷剂相对于其流体相更具浮力。在至少一个实施例中,这种减小的密度可以导致制冷剂的汽化,并且排量泵可以为处于其气相的这种制冷剂提供移动。
103.在至少一个实施例中,至少一个处理器可以在以第一模式在r2rhx 360内冷却时引起制冷剂流动,这不同于使用辅助冷却剂和制冷剂两者的辅助冷却模式中的基于辅助冷却回路的冷却。在至少一个实施例中,至少一个处理器可以使一个或更多个流量控制器368当在r2rhx 360内以第二模式进行冷却时控制制冷剂,第二模式可以比具有较小冷却需求的第一模式要求更高(例如,更高的冷却需求)。在至少一个实施例中,一个或更多个流量控制器368可以使更多或更少的制冷剂能够在闭合系统中没有任何背压的情况下流过其中。在至少一个实施例中,可以提供电耦合以便为流量控制器的至少一个组件供电。在至少一个实施例中,至少一个处理器可适于从与至少一个计算设备(诸如计算设备324)相关联的传感器接收传感器输入。在至少一个实施例中,至少一个处理器可以部分地基于传感器输入来确定冷却剂状态的改变。在至少一个实施例中,冷却剂状态可涉及冷却剂(或制冷剂)的温度、流速、流量或状态(例如流动或不流动)。
104.在至少一个实施例中,可以从冷板、机架或冷却歧管中的一个或更多个的出口或进口感测冷却剂状态。在至少一个实施例中,至少一个处理器可以使数据中心冷却系统部分地基于所确定的冷却剂状态的改变来在第一模式、辅助冷却模式或第二模式中操作。在至少一个实施例中,当确定从冷板的出口处的冷却剂温度未超过阈值(暗示相关联的计算设备未生成太多热量)时,可以启用第一模式以用于使制冷剂流过r2rhx 360和适当的冷板。在至少一个实施例中,这使得数据中心冷却系统的经济使用能够从辅助冷却回路或r2rhx 360中的一个或更多个提供冷却。
105.在至少一个实施例中,当确定机架的热通道处、计算设备的附近处、或流体(辅助冷却剂或局部冷却剂)处的温度超过阈值(暗示相关联的计算设备生成比可通过单独的强制空气来处理的更多的热量)时,数据中心冷却系统的第二或甚至辅助冷却模式可被启用以使用更多的制冷剂或更高流速的制冷剂,或使用来自辅助冷却回路的辅助来为计算设备提供冷却。在至少一个实施例中,除了已经提供的第一模式或第二模式以外,辅助冷却模式还接合或启用辅助冷却回路,以便经由r2rhx 360冷却至少一个计算设备,该r2rhx具有从与至少一个计算设备相关联的冷板循环的制冷剂,以提供比由辅助冷却回路提供的冷却更
多的冷却。
106.在至少一个实施例中,将r2rhx 360与至少一个冷板相接口或相关联,以便使用作为第一制冷剂冷却回路的一部分的第一制冷剂从至少一个计算设备吸收热量,并且在r2rhx 360内将这种热量散发至第二制冷剂冷却回路的第二制冷剂。在至少一个实施例中,将r2rhx 360进一步与第二冷凝器单元374相接口或相关联以将热量从第二制冷剂散发至周围环境。在至少一个实施例中,制冷剂泵和/或排量泵378、380可以用于辅助第二制冷剂流动。在至少一个实施例中,第二冷凝器单元374可使至少一部分热量从制冷剂散发到数据中心外部或内部的区域,诸如数据中心的热通道。在至少一个实施例中,在与r2rhx 360的盘管关联或接口之前,第二冷凝器单元可以具有相关联的流量控制器(例如阀和微型泵)和管线376。
107.在至少一个实施例中,如图4中所示的数据中心级特征400可以与数据中心冷却系统的智能制冷剂分配单元相关联。在至少一个实施例中,数据中心402内的数据中心级特征400可包括:机架404,用于托管一个或更多个服务器托盘或箱;一个或更多个cdu 406,用于在辅助冷却回路412和主冷却回路422之间交换热量;一个或更多个行歧管410,用于分配来自cdu 406的冷却剂;以及相关联的各种流量控制器420,以及入口和出口管线412、414、416、418。
108.在至少一个实施例中,与数据中心402中的所提供的机架404中的每一个相关联地提供智能制冷剂分配单元。在至少一个实施例中,机架404上方的区域是用于在数据中心冷却系统的第一操作模式期间托管第二冷凝器单元以从至少一个机架404中的至少一个计算设备排出与r2rhx(一起示出为单元432和/或434)相关联的热量的区域。在至少一个实施例中,第一和第二冷凝器单元与位于rdu 424内的r2rhx 432相关联。在至少一个实施例中,r2rhx 432使得能够将热量从第一制冷剂冷却回路传递到第二制冷剂冷却回路,并且随后将热量从至少一个冷板移除到冷板外部的第二冷凝器单元。
109.在至少一个实施例中,第一制冷剂冷却回路在一个或更多个冷板与一个或更多个第一冷凝器单元432a、b之间,其可以终止于一个或更多个rdu 424的一个或更多个r2rhx 432内。在至少一个实施例中,第二制冷剂冷却回路434可以与第一制冷剂冷却回路相关联并且由一个或更多个r2rhx 432内的一个或更多个第二蒸发器区段434a支持,以便从第一冷凝器单元432a-n吸收热量并且经由一个或更多个第二冷凝器单元434b散发该热量。
110.在至少一个实施例中,可以与机架404内的冷板的第一冷凝器单元432a、b(和相关联的热交换器432)和相关联的第一蒸发器区段相关联地提供流量控制器432c(例如制冷剂泵或流量阀)。在至少一个实施例中,第二蒸发器区段434a可以在这样的r2rhx 432 434内以提取从第一冷凝器单元432a;b散发的热量。在至少一个实施例中,第二冷凝器单元434b能够散发由与第一制冷剂冷却回路中相同的或不同的制冷剂从这样的第一冷凝器单元432提取的热量。
111.在至少一个实施例中,还可提供用于控制制冷剂的流速或流量的一个或更多个泵或其他流量控制器,以用于每个相关联的制冷剂冷却回路的制冷剂的流动稳定。在至少一个实施例中,可以在过冷却器440中提供过冷条件,以用于在第一制冷剂冷却回路的至少第一制冷剂的运输过程中保持冷却。在至少一个实施例中,第二制冷剂冷却回路的第二制冷剂可以用于在过冷却器440中与r2rhx 432不同地冷却第一制冷剂。在至少一个实施例中,
可为一个或更多个rdu 424内的每个r2rhx 432提供不同的冷凝器单元432a;b,但可存在与单个外部冷凝单元432b或单个第二制冷剂冷却回路相关联的多个这种r2rhx。
112.在至少一个实施例中,单个过冷却器440可以从相应的r2rhx接收第一制冷剂,并且可以引起这种第一制冷剂的过冷条件,该第一制冷剂被汇集在制冷剂储存器438中或被直接提供给用于一个或更多个机架404的制冷剂行歧管410b。在至少一个实施例中,多个第一制冷剂冷却回路因此终止于一区域中,该区域允许不同的第一冷凝单元将热量施加或散发到这样的多个第一制冷剂冷却回路和单个第二制冷剂冷却回路的一个或更多个rdu 424的组合r2rhx 432内的第二蒸发器区段。在至少一个实施例中,多个第一制冷剂冷却回路可以经由多个r2rhx和多个第二制冷剂冷却回路相接口。
113.在至少一个实施例中,数据中心冷却系统的不同机架404可以协作地具有用于液体冷却的智能制冷剂分配单元。在至少一个实施例中,这样的配置可能需要多个第一制冷剂冷却回路来经由单个r2rhx与单个第二制冷剂冷却回路相接口。在至少一个实施例中,rdu 424可以包括一个或更多个制冷剂泵426、一个或更多个冷凝器单元432b、一个或更多个制冷剂储存器438、以及其他制冷系统,诸如过滤器、粗滤器、以及加料端口。在至少一个实施例中,可以通过第一制冷剂在rdu 424内启用过冷条件,该第一制冷剂被允许在过冷却器440内循环更多时间并且然后被允许在比饱和液相进一步冷却的温度下流到制冷剂储存器438。
114.在至少一个实施例中,不同的行歧管410a、b可以与不同机架相关联以用于冷却剂或制冷剂目的。在至少一个实施例中,不同的冷却剂可以是相对于辅助冷却剂的化学匹配或不匹配。在至少一个实施例中,取决于与所提供的不同cdu中的每一个cdu一起使用的不同辅助冷却剂的化学性质,将不同的流体源作为冗余特征提供给不同cdu。在至少一个实施例中,不需要有用于一个或更多个机架404的辅助冷却回路和cdu,而是,在rdu内或不同于rdu 424具有智能制冷剂分配单元,而是可足以为机架404提供冷却。在至少一个实施例中,这些不与辅助冷却回路相关联的机架可由一个或更多个智能制冷剂分配单元充分地解决。
115.在至少一个实施例中,机架404可以与用于操作智能制冷剂分配单元的至少一个处理器相关联。在至少一个实施例中,处理器可以包括一个或更多个电路。在至少一个实施例中,处理器的一个或更多个电路可适于确定数据中心冷却系统的冷却需求。在至少一个实施例中,处理器可以使数据中心冷却系统的第一操作模式或第二操作模式通过rdu解决第一冷却需求和第二冷却需求,所述rdu使r2rhx在来自冷板的第一制冷剂与第二冷凝器单元的第二制冷剂之间交换热量。
116.在至少一个实施例中,这样的操作可独立于辅助冷却剂和来自冷却设施408的主冷却剂。在至少一个实施例中,处理器可使得数据中心冷却系统的辅助冷却操作模式通过具有行歧管410a、流量控制器416、418和cdu 406的辅助冷却回路来解决进一步的冷却需求(比制冷剂所解决的第一冷却需求或第二冷却需求相比),cdu 406又耦合到具有冷却设施408的主冷却回路422。在至少一个实施例中,不同于行歧管410a,制冷剂歧管410b将第一制冷剂冷却回路的第一制冷剂分配到一个或更多个冷板。在至少一个实施例中,诸如机架或服务器内的其他制冷剂歧管可与行制冷剂歧管410b接口。在至少一个实施例中,这样的行制冷剂歧管410b可直接向机架内的服务器的冷板提供第一制冷剂。
117.在至少一个实施例中,制冷剂冷却回路可以比辅助冷却回路更经济,但是辅助冷
却回路可以比制冷剂冷却回路解决更高的冷却需求。在至少一个实施例中,使得所有冷却模式针对提供的机架404同时发生。在至少一个实施例中,垫圈或管道热交换器可用作冷板以不同地支持辅助冷却剂和制冷剂。
118.在至少一个实施例中,与智能制冷剂分配单元一起使用的处理器包括输出端,用于为一个或更多个流量控制器436、432c、412、420提供信号。在至少一个实施例中,一个或更多个流量控制器436、432c、412、420可以使得制冷剂能够流过rdu的r2rhx,并且可以在数据中心冷却系统的模式下防止辅助冷却剂流到辅助冷却回路,使得智能制冷剂分配单元在机架中提供单个冷却源。在至少一个实施例中,该特征使得能够在不具有辅助冷却回路、主冷却回路、cdu和相关联的冷却塔的情况下孤立地使用智能制冷剂分配单元。在至少一个实施例中,可提供这样的冷却达一时间段,直到已解决主冷却回路中的任何问题。在至少一个实施例中,这样的冷却可以具有由服务水平协议(sla)中的停机时间定义的容量。
119.在至少一个实施例中,与智能制冷剂分配单元一起使用的处理器包括输入端,用于接收来自与机架404的至少一个计算设备相关联的传感器的传感器输入。在至少一个实施例中,传感器可以与机架、辅助冷却剂或来自机架的相关联冷板的制冷剂同时地或分开地相关联。在至少一个实施例中,处理器可部分地基于来自这些相关联的传感器的传感器输入来确定第一冷却需求和第二冷却需求。在至少一个实施例中,部分地基于来自这些相关联的传感器的传感器输入,可针对通过冷板(或针对辅助冷却剂)、通过cdu(针对主冷却剂)、或通过r2rhx和适配的冷板(针对制冷剂)的主冷却剂、辅助冷却剂或制冷剂中的一个或更多个来调节流速。
120.在至少一个实施例中,可以在至少一个处理器内提供一个或更多个神经网络以接收传感器输入并从计算设备或数据中心冷却系统的方面推理第一冷却需求和第二冷却需求。在至少一个实施例中,一个或更多个神经网络可以推理辅助冷却回路或主冷却回路的故障。在至少一个实施例中,部分地基于与流速、流量、温度、湿度和泄漏相关联的传感器输入,处理器的一个或更多个电路可使得一个或更多个流量控制器支持冷却的第一、第二或辅助冷却模式。
121.在至少一个实施例中,与机架404和智能制冷剂分配单元一起使用的处理器包括一个或更多个电路。在至少一个实施例中,处理器的一个或更多个电路可以引起用于数据中心冷却系统的第一模式、第二模式或不同操作模式的辅助冷却。在至少一个实施例中,引起第一模式、第二模式或辅助冷却模式是指引起数据中心冷却系统在第一模式、第二模式或辅助冷却模式中操作。
122.在至少一个实施例中,数据中心冷却系统包括在制冷剂冷却回路的rdu内的r2rhx。在至少一个实施例中,可以提供处理器的一个或更多个电路来训练一个或更多个神经网络以从与机架、计算设备、辅助冷却剂或与来自机架的至少一个冷板的制冷剂相关联的传感器的传感器输入推理冷却需求。在至少一个实施例中,这些可以是一个或更多个制冷剂冷却回路的冷却需求。在至少一个实施例中,处理器可使得冷板使用冷板内的蒸发器区段为计算设备提供冷却。在至少一个实施例中,第一制冷剂冷却回路可以以默认流速提供冷却,但是处理器可以通过使用这样的流量控制器实现制冷剂通过其的额外流动而引起冷却。
123.在至少一个实施例中,这样的冷却可以用于通过流经冷板内的蒸发器区段的制冷
剂从计算设备移除热量。在至少一个实施例中,当制冷剂从计算设备吸收或移除热量时,制冷剂随着那里的压力变化而变成气相。在至少一个实施例中,蒸发器区段可以与泵相关联以在制冷剂进入冷板之前执行流动稳定。在至少一个实施例中,这种制冷剂是不同于第二制冷剂的第一制冷剂,第二制冷剂用于从第一制冷剂提取热量或从第一制冷剂吸收热量。在至少一个实施例中,流动稳定可以使得制冷剂总是能够在位于r2rhx中的冷板外部的冷凝器单元与蒸发器之间流动,即使热量产生增加并且冷却需求因此增加。在至少一个实施例中,第一或第二制冷剂冷却回路总是在默认流速或流量下运行。在至少一个实施例中,启用流动或启用第一或第二制冷剂冷却回路是指从流动的默认流速或流量改变默认流速或流量或在第一或第二制冷剂冷却回路内改变默认流速或流量。
124.在至少一个实施例中,与智能制冷剂分配单元一起使用的处理器的输出可以被适配成为一个或更多个流量控制器提供信号。在至少一个实施例中,这使得制冷剂能够以高于默认流速的速率流经r2rhx。在至少一个实施例中,在数据中心冷却系统的第一或第二模式中,这样的输出还可允许阻止辅助冷却剂流到辅助冷却回路。
125.在至少一个实施例中,这样的输出可以用于控制来自rdu的制冷剂储存器的制冷剂的流速。在至少一个实施例中,辅助冷却回路不与这种智能制冷剂分配单元一起使用;然而,当使用时,则可以使用至少一个分流流量控制器来使制冷剂在冷板与r2rhx之间流动,或者使辅助冷却剂在冷板与cdu之间流动,以与智能制冷剂分配单元同时或分开使用。在至少一个实施例中,一个或更多个流量控制器可以由这种输出来控制,以便支持通过其的制冷剂的不同流速。
126.在至少一个实施例中,处理器的一个或更多个神经网络可适于接收传感器输入。在至少一个实施例中,一个或更多个神经网络可被训练为作为对先前传感器输入和先前冷却需求的分析的一部分而推理第一冷却需求和第二冷却需求。在至少一个实施例中,一个或更多个神经网络可用先前传感器输入和先前冷却需求的相关数据来训练,使得先前传感器输入的阈值内的新传感器输入可与先前冷却需求或其变化相关。
127.在至少一个实施例中,与智能制冷剂分配单元一起使用的处理器的输出可被适配成提供信号以使一个或更多个流量控制器在第一模式或第二模式中被调整,使得制冷剂流动发生在第一模式或第二模式中,与在辅助冷却模式中发生的辅助冷却剂流动不同。在至少一个实施例中,取决于哪种模式是活动的,制冷剂流量或体积可以增加或减小至r2rhx。
128.在至少一个实施例中,与智能制冷剂分配单元一起使用的处理器的输入被适配成接收与至少一个计算设备、辅助冷却剂、或离开冷板的制冷剂的温度相关联的传感器输入。在至少一个实施例中,可以训练处理器的一个或更多个神经网络以部分地基于至少一个计算设备、辅助冷却剂或制冷剂的温度和先前温度来推理已经发生冷却剂状态的改变。在至少一个实施例中,处理器的一个或更多个电路可以适于引起用于数据中心冷却系统的操作的第一模式、第二模式或辅助冷却模式。在至少一个实施例中,一个或更多个电路可以启用或禁用制冷剂冷却回路。
129.在至少一个实施例中,要与智能制冷剂分配单元一起使用的处理器包括用于引起数据中心冷却系统的第一模式、第二模式或辅助冷却操作模式的一个或更多个电路。在至少一个实施例中,一个或更多个电路或处理器将包括一个或更多个神经网络,用于从与机架404或与来自至少一个冷板的辅助冷却剂或制冷剂相关联的传感器的传感器输入推理冷
却需求。在至少一个实施例中,处理器可适于通过使制冷剂能够以一个或更多个流速流过制冷剂至制冷剂热交换器来使第一模式或第二模式满足第一或第二冷却需求。在至少一个实施例中,处理器可适于还使辅助冷却模式解决辅助冷却回路和cdu对从冷板循环的流体进行冷却的进一步冷却需求。
130.在至少一个实施例中,贯穿图1-4描述的至少一个处理器中的每一个具有推理和/或训练逻辑1815,所述推理和/或训练逻辑可以包括但不限于:代码和/或数据存储设备1801,用于存储转发和/或输出权重和/或输入/输出数据、和/或用于配置被训练和/或用于一个或更多个实施例的方面中的推理的神经网络的神经元或层的其他参数。在至少一个实施例中,训练逻辑1815可以包括或耦合至代码和/或数据存储设备1801,其用于存储图代码或其他软件以控制定时和/或顺序,其中可以加载权重和/或其他参数信息来配置逻辑,所述逻辑包括整数和/或浮点单元(统称为算术逻辑单元(alu))。在至少一个实施例中,诸如图代码之类的代码基于这样的代码所对应的神经网络的架构将权重或其他参数信息加载到处理器alu中。在至少一个实施例中,代码和/或数据存储设备1801存储使用一个或更多个实施例的方面在训练和/或推理期间在输入/输出数据和/或权重参数的前向传播期间结合一个或更多个实施例训练或使用的神经网络的每一层的权重参数和/或输入/输出数据。在至少一个实施例中,代码和/或数据存储1801的任何部分可与其他片上或片外数据存储包括在一起,包括处理器的l1、l2或l3高速缓存或系统存储器。
131.在至少一个实施例中,至少一个处理器的推理和/或训练逻辑1815可以是用于控制服务器级、机架级和行级中的一个或更多个处的流量控制器的建筑管理系统(bms)的一部分。在至少一个实施例中,可以将接合与辅助冷却回路、智能制冷剂分配单元、rdu、cdu、冷板或其他冷却歧管相关联的流量控制器的确定提供给推理和/或训练逻辑1815的一个或更多个神经网络,以使得一个或更多个神经网络针对一个或更多个冷板、服务器或机架的冷却剂要求,从r2rhx或数据中心冷却系统的辅助冷却回路中得体地接合或脱离哪些流量控制器。在至少一个实施例中,可通过流量控制器来实现通过r2rhx的流体流量的增加或减少,所述流量控制器由与控制逻辑相关联的至少一个处理器的推理和/或训练逻辑1815控制,所述控制逻辑与局部冷却回路相关联。
132.在至少一个实施例中,至少一个处理器可以与局部冷却回路以及与辅助冷却回路相关联。在至少一个实施例中,至少一个处理器可以与智能制冷剂分配单元相关联。在至少一个实施例中,至少一个处理器包括诸如推理和/或训练逻辑1815的控制逻辑,并且与至少一个流量控制器相关联。在至少一个实施例中,至少一个流量控制器可以具有其自己各自的处理器或微控制器。在至少一个实施例中,处理器或微控制器执行从控制逻辑发送到它的指令。在至少一个实施例中,控制逻辑可用于确定冷却剂状态的变化,诸如辅助冷却回路(诸如cdu和冷却歧管)或主冷却回路(诸如冷却设备、冷却歧管以及相关联的cdu)中的故障。在至少一个实施例中,对于需要更换的冷却歧管,也可能发生故障。在至少一个实施例中,控制逻辑可使至少一个流量控制器提供响应,例如通过将具有多个制冷剂冷却回路的r2rhx与它们各自的冷凝器单元、制冷剂、蒸发器区段、rdu和支持性冷板接合,从而为至少一个计算设备提供冷却。在至少一个实施例中,这种接合可仅用于增加制冷剂的流动,该制冷剂总是流过冷板。
133.在至少一个实施例中,控制逻辑可使到至少一个流量控制器的第一信号实现来自
辅助冷却回路的辅助冷却剂的停止,作为冷却剂响应的一部分。在至少一个实施例中,控制逻辑可使到至少一个流量控制器的第二信号实现启动来自制冷剂冷却回路的制冷剂,作为响应的一部分。在至少一个实施例中,控制逻辑可从与cdu的辅助冷却剂、制冷剂和/或至少一个计算设备相关联的传感器接收传感器输入。在至少一个实施例中,至少一个处理器可以部分地基于传感器输入来确定冷却剂状态的变化。在至少一个实施例中,推理和/或训练逻辑1815的一个或更多个神经网络可适于接收传感器输入并推理冷却剂状态的变化。
134.在至少一个实施例中,至少一个处理器可以包括用于一个或更多个神经网络的一个或更多个电路,诸如推理和/或训练逻辑1815。在至少一个实施例中,推理和/或训练逻辑1815可适于从与至少一个服务器或至少一个机架相关联的传感器输入推理冷却剂状态的改变,例如来自cdu的冷却剂在进入机架时无效或保留太多热量。在至少一个实施例中,一个或更多个电路可适于引起至少一个流量控制器提供来自制冷剂冷却回路的响应。
135.在至少一个实施例中,与一个或更多个电路相关联的控制逻辑可以使到至少一个流量控制器的第一信号(连同任何相关联的信号)实现来自具有智能制冷剂分配单元的辅助冷却回路或制冷剂冷却回路的响应。在至少一个实施例中,第二信号可以被提供给至少流量控制器,并且还可以在不具有辅助冷却回路的不同模式下仅启用r2rhx,但如果需要进一步冷却,则可以接合或激活辅助冷却回路。在至少一个实施例中,由至少一个处理器的一个或更多个电路启用分布式或集成架构。在至少一个实施例中,分布式架构可以由一个或更多个电路中的不同定位的电路支持。
136.在至少一个实施例中,推理和/或训练逻辑1815的一个或更多个神经网络可以被适配成用于推理至少一个服务器的至少一个计算组件的冷却需求的增加或减少。在至少一个实施例中,一个或更多个电路可适于使冷却回路经济地解决对至少一个计算组件的降低的冷却需求或补充增加的冷却需求。在至少一个实施例中,启用冷却回路表示来自制冷剂冷却回路的响应部分地基于发送到至少一个计算组件的工作负载来抢占至少一个服务器的至少一个计算组件的冷却需求的相应增大或相应减小。
137.在至少一个实施例中,至少一个处理器包括一个或更多个电路(如推理和/或训练逻辑1815),所述一个或更多个电路用于训练一个或更多个神经网络以根据所提供的数据做出推理。在至少一个实施例中,推理和/或训练逻辑1815可以从与至少一个服务器或至少一个机架相关联的传感器输入推理冷却剂状态的变化。在至少一个实施例中,可使用推理来使一个或更多个电路能够引起制冷剂冷却回路的至少一个流量控制器提供响应。在至少一个实施例中,响应可以用于引起来自制冷剂冷却回路的制冷剂响应将热量吸收到制冷剂中并且经由具有风扇的冷凝器单元将所吸收的热量交换到环境中(或交换到第二制冷剂冷却回路),而不是具有cdu的辅助冷却回路。
138.在至少一个实施例中,一个或更多个电路可以被适配成训练一个或更多个神经网络以推理至少一个服务器的至少一个计算组件的冷却需求的增加或减少。在至少一个实施例中,一个或更多个电路可适于训练一个或更多个神经网络以推理由于cdu故障或至少一个服务器的至少一个计算组件的功率需求的相应增加或减少,来自辅助冷却回路的流量输出的增加或减少与辅助冷却剂的不适当流量相关联。
139.在至少一个实施例中,一个或更多个神经网络可以被训练成通过来自计算设备、服务器或机架的先前相关联的热特征或冷却需求以及由本地冷却回路的流体源指示的冷
却容量或能力(诸如通过具有高于强制空气冷却能力但可以低于辅助冷却回路的冷却能力的特定冷却能力的智能制冷剂分配单元)做出推理。在至少一个实施例中,制冷剂冷却回路满足的先前冷却需求可以用于引起一个或更多个神经网络做出类似推理,以便通过调节一个或更多个流量控制器来以不同的流量或流速接合制冷剂冷却回路来满足将来的类似冷却需求(考虑来自此的小变化)。
140.图5示出了根据至少一个实施例的与图2-4的数据中心冷却系统相关联的方法500。在至少一个实施例中,方法500包括用于提供制冷剂分配单元(rdu)的步骤502,该制冷剂分配单元包括用于分配来自制冷剂储存器的第一制冷剂的一个或更多个流量控制器。在至少一个实施例中,这样的方法500中的步骤504用于确定对机架的至少一个计算设备的冷却需求。在至少一个实施例中,这样的方法500中的步骤506用于验证至少一个计算设备的至少一个冷却需求。在至少一个实施例中,可以部分地基于来自步骤506的结果来重复步骤504。在至少一个实施例中,这样的方法500中的步骤508是用于启用一个或更多个冷板使用第一制冷剂从至少一个计算设备吸收热量。在至少一个实施例中,这样的一个或更多个冷板可以是第一制冷剂冷却回路的一部分并且使用蒸发器区段来将热量吸收到第一制冷剂中。在至少一个实施例中,这样的方法500中的步骤510用于启用rdu在第一制冷剂冷却回路和第二制冷剂冷却回路之间接口。在至少一个实施例中,第二制冷剂冷却回路用于使用第二制冷剂将所吸收的热量的至少一部分通过第二冷凝器单元散发到数据中心外部的周围环境。
141.在至少一个实施例中,方法500可以包括用于使用至少一个处理器确定与机架中的至少一个计算设备相关联的温度的进一步的步骤或子步骤。在至少一个实施例中,方法500可以包括用于使用与机架中的至少一个计算设备相关联的温度来确定第一冷却需求或第二冷却需求的进一步的步骤或子步骤。在至少一个实施例中,方法500可以包括用于部分地基于第一冷却需求或第二冷却需求引起第一制冷剂冷却回路、第二制冷剂冷却回路、或辅助冷却回路的进一步的步骤或子步骤,其中这样的辅助冷却回路与主冷却回路相关联。
142.在至少一个实施例中,方法500可以包括用于在至少一个处理器中接收来自与至少一个计算设备、机架、辅助冷却剂、第一制冷剂、或第二制冷剂相关联的传感器的传感器输入的进一步的步骤或子步骤。在至少一个实施例中,方法500可包括用于使用至少一个处理器部分地基于接收到至少一个处理器的传感器输入来确定第一冷却需求和第二冷却需求的进一步的步骤或子步骤。在至少一个实施例中,方法500可以包括用于使rdu的r2rhx能够将来自多个机架的多个冷凝器单元与关联于第二制冷剂冷却回路的第二蒸发器区段耦接,以使得来自不同机架的不同热量从第二冷凝器单元散发至周围环境的进一步的步骤或子步骤。在至少一个实施例中,来自不同的冷凝器单元的制冷剂在流体储存器中冷却成饱和流体并且可以从这种流体储存器经由制冷剂歧管提供到一个或更多个冷板。
143.在至少一个实施例中,方法500可以包括用于由至少一个处理器从与至少一个计算设备相关联的传感器接收传感器输入的进一步的步骤或子步骤。在至少一个实施例中,方法500可以包括用于由至少一个处理器部分地基于在其中接收的传感器输入来确定冷却剂状态的改变的进一步的步骤或子步骤。在至少一个实施例中,方法500可以包括用于部分地基于冷却剂状态的改变而引起第一制冷剂冷却回路、第二制冷剂冷却回路或辅助冷却回路的进一步的步骤或子步骤,其中这样的辅助冷却回路与主冷却回路相关联。
144.服务器和数据中心
145.以下附图阐述了但不限于可以用于实现至少一个实施例的基于示例性网络服务器和数据中心的系统。
146.图6示出了根据至少一个实施例的分布式系统600。在至少一个实施例中,分布式系统600包括一个或更多个客户端计算设备602、604、606和608,其被配置成在一个或更多个网络610上执行和操作客户端应用,诸如网络(web)浏览器、专有客户端和/或其变体。在至少一个实施例中,服务器612可以经由网络610与远程客户端计算设备602、604、606和608通信地耦合。
147.在至少一个实施例中,服务器612可适于运行一个或更多个服务或软件应用,诸如可管理跨多个数据中心的单点登录(sso)访问的会话活动的服务和应用。在至少一个实施例中,服务器612还可以提供其他服务,或者软件应用,其可以包括非虚拟和虚拟环境。在至少一个实施例中,这些服务可作为基于web的服务或云服务或在软件即服务(saas)模型下被提供给客户端计算设备602、604、606和/或608的用户。在至少一个实施例中,操作客户端计算设备602、604、606和/或608的用户又可以利用一个或更多个客户端应用来与服务器612交互以利用由这些组件提供的服务。
148.在至少一个实施例中,系统600的软件组件618、620和622在服务器612上实现。在至少一个实施例中,系统600的一个或更多个组件和/或由这些组件提供的服务也可由客户端计算设备602、604、606和/或608中的一个或更多个来实现。在至少一个实施例中,操作客户端计算设备的用户然后可以利用一个或更多个客户端应用来使用由这些组件提供的服务。在至少一个实施例中,这些组件可以用硬件、固件、软件或其组合来实现。应当理解,各种不同的系统配置是可能的,其可以不同于分布式系统600。因此,图6所示的实施例是用于实现实施例系统的分布式系统的至少一个实施例,并且不旨在是限制性的。
149.在至少一个实施例中,客户端计算设备602、604、606和/或608可以包括不同类型的计算系统。在至少一个实施例中,客户端计算设备可以包括便携式手持设备(例如,蜂窝电话、计算平板、个人数字助理(pda))或可穿戴设备(例如,google头戴式显示器),运行软件(如microsoft windows)和/或各种移动操作系统(诸如ios、windows phone、android、blackberry 10、palm os和/或其变体)。在至少一个实施例中,设备可以支持不同应用,诸如不同互联网相关的应用、电子邮件、短消息服务(sms)应用,并且可以使用各种其他通信协议。在至少一个实施例中,客户端计算设备还可以包括通用个人计算机,在至少一个实施例中,所述通用个人计算机包括运行各种版本的microsoftapple和/或linux操作系统的个人计算机和/或膝上型计算机。
150.在至少一个实施例中,客户端计算设备可以是运行各种可商购的或类似unix的操作系统中的任一种的工作站计算机,包括但不限于各种gnu/linux操作系统,诸如google chrome os。在至少一个实施例中,客户端计算设备还可以包括能够通过一个或更多个网络610进行通信的电子设备,诸如瘦客户端计算机、启用互联网的游戏系统(例如,具有或不具有手势输入设备的微软xbox游戏控制台)、和/或个人消息传递设备。尽管图6中的分布式系统600被示为具有四个客户端计算设备,但可支持任何数量的客户端计
算设备。其他设备(诸如具有传感器的设备等)可与服务器612交互。
151.在至少一个实施例中,分布式系统600中的网络610可以是能够使用各种可用协议中的任何协议来支持数据通信的任何类型的网络,包括但不限于tcp/ip(传输控制协议/互联网协议)、sna(系统网络架构)、ipx(互联网分组交换)、appletalk和/或其变体。在至少一个实施例中,网络610可以是局域网(lan),基于以太网的网络、令牌环、广域网、互联网、虚拟网络、虚拟专用网(vpn)、内联网、外联网、公共交换电话网络(pstn)、红外网络、无线网络(例如,在电气与电子协会(ieee)802.11协议组、和/或任何其他无线协议中的任一者下运行的网络),和/或这些和/或其他网络的任何组合。
152.在至少一个实施例中,服务器612可以由一个或更多个通用计算机、专用服务器计算机(在至少一个实施例中,包括pc(个人计算机)服务器、服务器、中程服务器、大型计算机、机架式服务器等)、服务器农场、服务器集群或任何其他适当的布置和/或组合组成。在至少一个实施例中,服务器612可包括运行虚拟操作系统的一个或更多个虚拟机或涉及虚拟化的其他计算架构。在至少一个实施例中,可以虚拟化一个或更多个灵活的逻辑存储设备池,以便为服务器维护虚拟存储设备。在至少一个实施例中,虚拟网络可由服务器612使用软件定义的网络来控制。在至少一个实施例中,服务器612可适于运行一个或更多个服务或软件应用。
153.在至少一个实施例中,服务器612可以运行任何操作系统,以及任何可商购的服务器操作系统。在至少一个实施例中,服务器612还可以运行各种附加服务器应用和/或中层应用中的任一种,包括http(超文本传输协议)服务器、ftp(文件传输协议)服务器、cgi(公共网关接口)服务器、服务器、数据库服务器和/或其变体。在至少一个实施例中,示例性数据库服务器包括但不限于从oracle、microsoft、sybase、ibm(国际商业机器)和/或其变体可商购的那些。
154.在至少一个实施例中,服务器612可包括一个或更多个应用,用于分析和合并从客户端计算设备602、604、606和608的用户接收的数据馈送和/或事件更新。在至少一个实施例中,数据馈送和/或事件更新可以包括但不限于,从一个或更多个第三方信息源和连续数据流接收的馈送、更新或实时更新,其可以包括与传感器数据应用、金融报价器、网络性能测量工具(例如,网络监视和业务管理应用)相关的实时事件,点击流分析工具、汽车交通监测和/或其变化。在至少一个实施例中,服务器612还可以包括用于经由客户端计算设备602、604、606和608的一个或更多个显示设备来显示数据馈送和/或实时事件的一个或更多个应用。
155.在至少一个实施例中,分布式系统600还可包括一个或更多个数据库614和616。在至少一个实施例中,数据库可提供用于存储信息(诸如用户交互信息、使用模式信息、适配规则信息和其他信息)的机制。在至少一个实施例中,数据库614和616可以驻留在各种位置中。在至少一个实施例中,数据库614和616中的一个或更多个可以驻留在服务器612本地(和/或驻留在服务器612中)的非暂态存储介质上。在至少一个实施例中,数据库614和616可以远离服务器612并且经由基于网络的连接或专用连接与服务器612通信。在至少一个实施例中,数据库614和616可以驻留在存储区域网络(san)中。在至少一个实施例中,用于执行归属于服务器612的功能的任何必要的文件可以适当地本地存储在服务器612上和/或远
程存储。在至少一个实施例中,数据库614和616可以包括关系数据库,诸如适于响应于sql格式化的命令而存储、更新和检索数据的数据库。
156.图7示出了根据至少一个实施例的示例性数据中心700。在至少一个实施例中,数据中心700包括但不限于数据中心基础设施层710、框架层720、软件层730和应用层740。
157.在至少一个实施例中,如图7所示,数据中心基础设施层710可以包括资源协调器712、分组的计算资源714和节点计算资源(“节点c.r.”)716(1)-716(n),其中“n”表示任何完整的正整数。在至少一个实施例中,节点c.r.716(1)-716(n)可以包括但不限于任意数量的中央处理单元(“cpu”)或其他处理器(包括加速器、现场可编程门阵列(“fpga”)、图形处理器等)、存储器设备(例如,动态只读存储器)、存储设备(例如,固态硬盘或磁盘驱动器)、网络输入/输出(“nw i/o”)设备、网络交换机、虚拟机(“vm”)、功率模块和冷却模块等。在至少一个实施例中,节点c.r.716(1)-716(n)中的一个或更多个节点c.r.可以是具有一个或更多个上述计算资源的服务器。
158.在至少一个实施例中,分组的计算资源714可以包括容纳在一个或更多个机架内的节点c.r.的单独分组(未示出),或者容纳在各个地理位置的数据中心内的许多机架(也未示出)。分组的计算资源714内的节点c.r.的单独分组可以包括可以被配置或分配为支持一个或更多个工作负载的分组的计算、网络、存储器或存储资源。在至少一个实施例中,可以将包括cpu或处理器的几个节点c.r.分组在一个或更多个机架内,以提供计算资源来支持一个或更多个工作负载。在至少一个实施例中,一个或更多个机架还可以包括任意数量的电源模块、冷却模块和网络交换机,以任意组合。
159.在至少一个实施例中,资源协调器712可以配置或以其他方式控制一个或更多个节点c.r.716(1)-716(n)和/或分组的计算资源714。在至少一个实施例中,资源协调器712可以包括用于数据中心700的软件设计基础结构(“sdi”)管理实体。在至少一个实施例中,资源协调器712可以包括硬件、软件或其某种组合。
160.在至少一个实施例中,如图7所示,框架层720包括但不限于作业调度器732、配置管理器734、资源管理器736和分布式文件系统738。在至少一个实施例中,框架层720可以包括支持软件层730的软件752和/或应用程序层740的一个或更多个应用程序742的框架。在至少一个实施例中,软件752或应用程序742可以分别包括基于web的服务软件或应用程序,例如由amazon web services、google cloud和microsoft azure提供的服务或应用程序。在至少一个实施例中,框架层720可以是但不限于一种免费和开放源软件网络应用框架,例如可以利用分布式文件系统738来进行大范围数据处理(例如“大数据”)的apache sparktm(以下称为“spark”)。在至少一个实施例中,作业调度器732可以包括spark驱动器,以促进对数据中心700的各个层所支持的工作负载进行调度。在至少一个实施例中,配置管理器734可以能够配置不同的层,例如软件层730和包括spark和用于支持大规模数据处理的分布式文件系统738的框架层720。在至少一个实施例中,资源管理器736能够管理映射到或分配用于支持分布式文件系统738和作业调度器732的集群或分组计算资源。在至少一个实施例中,集群或分组计算资源可以包括数据中心基础设施层710上的分组的计算资源714。在至少一个实施例中,资源管理器736可以与资源协调器712协调以管理这些映射的或分配的计算资源。
161.在至少一个实施例中,包括在软件层730中的软件752可以包括由节点c.r.716
(1)-716(n)的至少一部分,分组计算资源714和/或框架层720的分布式文件系统738使用的软件。一种或更多种类型的软件可以包括但不限于internet网页搜索软件、电子邮件病毒扫描软件、数据库软件和流视频内容软件。
162.在至少一个实施例中,应用层740中包括的一个或更多个应用程序742可以包括由节点c.r.716(1)-716(n)的至少一部分、分组的计算资源714和/或框架层720的分布式文件系统738使用的一种或更多种类型的应用程序。一种或更多种类型的应用程序可以包括但不限于cuda应用程序、5g网络应用程序、人工智能应用程序、数据中心应用程序、和/或其变体。
163.在至少一个实施例中,配置管理器734、资源管理器736和资源协调器712中的任何一个可以基于以任何技术上可行的方式获取的任意数量和类型的数据来实现任意数量和类型的自我修改动作。在至少一个实施例中,自我修改动作可以减轻数据中心700的数据中心操作员做出可能不好的配置决定并且可以避免数据中心的未充分利用和/或执行差的部分。
164.图8示出了根据至少一个实施例的由互连的多个网络服务器计算机802形成的客户端-服务器网络804。在至少一个实施例中,每个网络服务器计算机802存储其他网络服务器计算机802和链接到广域网804中的客户端计算机806和网络808可访问的数据。在至少一个实施例中,当客户端计算机806和一个或更多个网络808与网络804连接和断开连接时,以及当一个或更多个干线服务器计算机802被添加到网络804或从网络804移除时,客户端-服务器网络804的配置可随时间改变。在至少一个实施例中,当客户端计算机806和网络808与网络服务器计算机802连接时,客户端-服务器网络包括这样的客户端计算机806和网络808。在至少一个实施例中,术语计算机包括能够接受数据、将规定的过程应用于数据以及提供过程的结果的任何设备或机器。
165.在至少一个实施例中,客户端-服务器网络804存储网络服务器计算机802、远程网络808和客户端计算机806可访问的信息。在至少一个实施例中,网络服务器计算机802由大型计算机、小型计算机和/或各自具有一个或更多个处理器的微型计算机形成。在至少一个实施例中,服务器计算机802通过有线和/或无线传输介质(诸如导线、光纤电缆)和/或微波传输介质、卫星传输介质或其他导电、光学或电磁波传输介质链接在一起。在至少一个实施例中,客户端计算机806通过类似的有线或无线传输介质访问网络服务器计算机802。在至少一个实施例中,客户端计算机806可以使用调制解调器和标准电话通信网络链接到客户端-服务器网络804中。在至少一个实施例中,替代性的运营商系统(如电缆和卫星通信系统)还可以用于链接到客户端-服务器网络804中。在至少一个实施例中,可以使用其他私有或时间共享的运营商系统。在至少一个实施例中,网络804是全球信息网络,诸如互联网。在至少一个实施例中,网络是使用与互联网类似的协议但具有添加的安全措施和受限的访问控制的私有内联网。在至少一个实施例中,网络804是使用专有通信协议的私有或半私有网络。
166.在至少一个实施例中,客户端计算机806是任何终端用户计算机,并且还可以是具有一个或更多个微处理器的大型计算机、小型计算机或微型计算机。在至少一个实施例中,服务器计算机802有时可用作访问另一服务器计算机802的客户端计算机。在至少一个实施例中,远程网络808可以是局域网、通过用于互联网的独立服务提供商(isp)被添加到广域
网中的网络、或通过具有固定的或随时间改变的配置的有线或无线传输介质互连的另一组计算机。在至少一个实施例中,客户端计算机806可以独立地或通过远程网络808链接到网络804中并且访问网络804。
167.图9示出了根据至少一个实施例的连接一个或更多个计算机器的计算机网络908。在至少一个实施例中,网络908可以是任何类型的电连接的计算机组,包括例如以下网络:互联网、内联网、局域网(lan)、广域网(wan)或这些网络类型的互连组合。在至少一个实施例中,网络908内的连接可以是远程调制解调器、以太网(ieee 802.3)、令牌环(ieee802.5)、光纤分布式数据链路接口(fddi)、异步传输模式(atm)或任何其他通信协议。在至少一个实施例中,链接到网络的计算设备可以是台式机、服务器、便携式、手持式、机顶盒、个人数字助理(pda)、终端、或任何其他期望的类型或配置。在至少一个实施例中,取决于它们的功能性,网络连接的设备可以在处理能力、内部存储器和其他性能方面广泛地变化。
168.在至少一个实施例中,网络内的通信以及去往或来自连接到网络的计算设备的通信可以是有线或无线的。在至少一个实施例中,网络908可以至少部分地包括世界范围的公共互联网,其通常根据客户端-服务器模型根据传输控制协议/互联网协议(tcp/ip)规范连接多个用户。在至少一个实施例中,客户端-服务器网络是用于在两个计算机之间通信的主导模型。在至少一个实施例中,客户端计算机(“客户端”)向服务器计算机(“服务器”)发出一个或更多个命令。在至少一个实施例中,服务器通过访问可用网络资源并根据客户端命令向客户端返回信息来履行客户端命令。在至少一个实施例中,客户端计算机系统和驻留在网络服务器上的网络资源被分配网络地址,用于网络的元件之间的通信期间的识别。在至少一个实施例中,从其他网络连接的系统到服务器的通信将包括作为通信的一部分的相关服务器/网络资源的网络地址,使得数据/请求的适当目的地被识别为接收者。在至少一个实施例中,当网络908包括全球互联网时,网络地址是tcp/ip格式的ip地址,其可至少部分地将数据路由到电子邮件账户、网站或驻留在服务器上的其他互联网工具。在至少一个实施例中,驻留在网络服务器上的信息和服务可以通过域名(例如www.site.com)(其映射到网络服务器的ip地址)对客户端计算机的web浏览器可用。
169.在至少一个实施例中,多个客户端902、904和906经由相应的通信链路连接至网络908。在至少一个实施例中,这些客户端中的每一个可以经由任何期望形式的通信(诸如经由拨号调制解调器连接、电缆链路、数字用户线(dsl)、无线或卫星链路、或任何其他形式的通信)来访问网络908。在至少一个实施例中,每个客户端可以使用与网络908兼容的任何机器(例如,个人计算机(pc)、工作站、专用终端、个人数据助理(pda)或其他类似的设备)进行通信。在至少一个实施例中,客户端902、904和906可以位于或可以不位于相同的地理区域中。
170.在至少一个实施例中,多个服务器910、912和914连接到网络918以服务于与网络918通信的客户端。在至少一个实施例中,每个服务器通常是管理网络资源并对客户端命令作出响应的强大的计算机或设备。在至少一个实施例中,服务器包括存储程序指令和数据的计算机可读数据存储介质,诸如硬盘驱动器和ram存储器。在至少一个实施例中,服务器910、912、914运行响应于客户端命令的应用程序。在至少一个实施例中,服务器910可以运行用于响应对html页面的客户端请求的web服务器应用,并且还可以运行用于接收和路由
电子邮件的邮件服务器应用。在至少一个实施例中,在服务器910上还可以运行其他应用程序,诸如用于将音频/视频数据流式传输至客户端的ftp服务器或媒体服务器。在至少一个实施例中,不同的服务器可以专用于执行不同的任务。在至少一个实施例中,服务器910可以是为不同用户管理与网站相关的资源的专用web服务器,而服务器912可以专用于提供电子邮件(email)管理。在至少一个实施例中,其他服务器可以专用于媒体(音频、视频等)、文件传输协议(ftp)或通常通过网络可用或提供的任何两个或更多个服务的组合。在至少一个实施例中,每个服务器可以在与其他服务器的位置相同或不同的位置中。在至少一个实施例中,可存在为用户执行镜像任务的多个服务器,从而减轻拥塞或最小化定向到和来自单个服务器的流量。在至少一个实施例中,服务器910、912、914在维护和通过网络918递送第三方内容的业务中的web托管提供者的控制下。
171.在至少一个实施例中,web托管提供商向两个不同类型的客户端递送服务。在至少一个实施例中,可被称为浏览器的一种类型从服务器910、912、914请求内容,诸如网页、电子邮件消息、视频剪辑等。在至少一个实施例中,第二类型(其可以被称为用户)雇佣web托管提供商来维护网络资源(诸如网站)并使其可用于浏览器。在至少一个实施例中,用户与web托管提供商签订合同,以根据用户期望利用的服务器资源的量使存储器空间、处理器容量和通信带宽可用于他们期望的网络资源。
172.在至少一个实施例中,为了使web托管提供商为这两个客户端提供服务,必须适当地配置管理由服务器托管的网络资源的应用程序。在至少一个实施例中,程序配置过程涉及定义参数集,所述参数集至少部分地控制应用程序对浏览器请求的响应,并且还至少部分地定义特定用户可用的服务器资源。
173.在一个实施例中,内联网服务器916经由通信链路与网络908通信。在至少一个实施例中,内联网服务器916与服务器管理器918通信。在至少一个实施例中,服务器管理器918包括在服务器910、912、914中使用的应用程序配置参数的数据库。在至少一个实施例中,用户经由内联网916修改数据库920,并且服务器管理器918与服务器910、912、914交互以修改应用程序参数,使得它们匹配数据库的内容。在至少一个实施例中,用户通过经由计算机902连接到内联网916并且输入诸如用户名和密码之类的认证信息来登录到内联网916。
174.在至少一个实施例中,当用户希望登录新服务或修改现有服务时,内联网服务器916对用户进行认证并向用户提供允许用户访问特定应用程序的配置参数的交互式屏幕显示/控制面板。在至少一个实施例中,向用户呈现描述用户的网站或其他网络资源的配置的方面的多个可修改文本框。在至少一个实施例中,如果用户期望增加在服务器上为其网站保留的存储器空间,则向用户提供其中用户指定期望的存储器空间的字段。在至少一个实施例中,响应于接收到该信息,内联网服务器916更新数据库920。在至少一个实施例中,服务器管理器918将该信息转发到适当的服务器,并且在应用程序操作期间使用新的参数。在至少一个实施例中,内联网服务器916被配置为向用户提供对用户已与web托管服务提供商签订的托管网络资源(例如,网页、电子邮件、ftp站点、媒体站点等)的配置参数的访问。
175.图10a示出了根据至少一个实施例的联网计算机系统1000a。在至少一个实施例中,联网计算机系统1000a包括多个节点或个人计算机(“pc”)1002、1018、1020。在至少一个实施例中,个人计算机或节点1002包括处理器1014、存储器1016、摄像机1004、麦克风1006、
鼠标1008、扬声器1010和监视器1012。在至少一个实施例中,pc 1002、1018、1020可以各自运行例如给定公司内的内部网络的一个或更多个桌面服务器,或者可以是不限于特定环境的通用网络的服务器。在至少一个实施例中,网络的每pc节点有一个服务器,使得网络的每个pc节点表示具有特定网络url地址的特定网络服务器。在至少一个实施例中,每个服务器默认为该服务器的用户的默认网页,该默认网页本身可包含指向该服务器上该用户的进一步子页面、或者指向网络上的其他服务器或其他服务器上的页面的嵌入式url。
176.在至少一个实施例中,节点1002、1018、1020和网络的其他节点经由介质1022互连。在至少一个实施例中,介质1022可以是诸如综合服务数字网(“isdn”)的通信信道。在至少一个实施例中,联网计算机系统的各个节点可以通过各种通信介质连接,包括局域网(“lan”)、简易老式电话线(“pots”)(有时被称为公共交换电话网络(“pstn”))、和/或其变体。在至少一个实施例中,网络的各个节点还可以构成经由诸如互联网之类的网络互连的计算机系统用户。在至少一个实施例中,(在给定实例处从网络的特定节点运行的)网络上的每个服务器在网络内具有唯一地址或标识,该唯一地址或标识可以根据url指定。
177.在至少一个实施例中,多个多点会议单元(“mcu”)因此可以用于向会议系统的各个节点或“端点”和从会议系统的各个节点或“端点”传输数据。在至少一个实施例中,除了各种其他通信介质(诸如,通过互联网连接的节点)之外,节点和/或mcu可经由isdn链路或通过局域网(“lan”)互连。在至少一个实施例中,会议系统的节点通常可以直接连接到通信介质(诸如lan)或通过mcu连接,并且会议系统可以包括其他节点或元件,诸如路由器、服务器和/或其变体。
178.在至少一个实施例中,处理器1014是通用可编程处理器。在至少一个实施例中,联网计算机系统1000a的节点的处理器还可以是专用视频处理器。在至少一个实施例中,节点的不同外围设备和组件(诸如节点1002的那些)可以与其他节点的那些不同。在至少一个实施例中,节点1018和节点1020可以被配置为与节点1002相同或不同。在至少一个实施例中,除了pc系统之外,节点还可以在任何合适的计算机系统上实现。
179.图10b示出了根据至少一个实施例的联网计算机系统1000b。在至少一个实施例中,系统1000b示出了网络(诸如lan 1024),该网络可以用于互连可以彼此通信的各种节点。在至少一个实施例中,附接到lan1024的是多个节点,诸如pc节点1026、1028、1030。在至少一个实施例中,节点还可经由网络服务器或其他装置连接到lan。在至少一个实施例中,系统1000b包括其他类型的节点或元件,针对至少一个实施例,其包括路由器、服务器和节点。
180.图10c示出根据至少一个实施例的联网计算机系统1000c。在至少一个实施例中,系统1000c示出了具有跨主干通信网络(诸如互联网1032)的通信的www系统,主干通信网络可用于互连网络的各种节点。在至少一个实施例中,www是在互联网的顶部上操作的一组协议,并且允许图形界面系统在其上操作以便通过互联网访问信息。在至少一个实施例中,附接到www中的互联网1032的是多个节点,例如pc 1040、1042、1044。在至少一个实施例中,节点通过www http服务器(诸如服务器1034、1036)与www的其他节点对接。在至少一个实施例中,pc 1044可以是形成网络1032的节点的pc,并且pc 1044本身运行它的服务器1036,尽管为了说明的目的在图10c中单独地示出pc 1044和服务器1036。
181.在至少一个实施例中,www是一种分布式类型的应用程序,其特征为www http、www
的协议,它在互联网的传输控制协议/互联网协议(“tcp/ip”)的顶部上运行。在至少一个实施例中,www因此可以由在互联网上运行的一组协议(即,http)作为其“主干”来表征。
182.在至少一个实施例中,web浏览器是在兼容www类型的网络系统中在网络的节点上运行的应用程序,其允许特定服务器或节点的用户查看这样的信息,并因此允许用户搜索使用嵌入在从理解http的网络上的服务器可获得的文档或文件中的超文本链接链接在一起的图形和基于文本的文件。在至少一个实施例中,当用户使用诸如互联网之类的网络上的另一服务器来检索与第一节点相关联的第一服务器的给定网页时,所检索到的文档可具有嵌入在其中的不同超文本链接,并且在检索用户的本地创建页面的本地副本。在至少一个实施例中,当用户点击超文本链接时,与所选择的超文本链接相关的本地存储的信息通常足以允许用户的机器打开通过互联网到由超文本链接指示的服务器的连接。
183.在至少一个实施例中,多于一个用户可通过lan(诸如lan 1038,诸如关于www http服务器1034所示)耦合到每个http服务器。在至少一个实施例中,系统1000c还可以包括其他类型的节点或元件。在至少一个实施例中,www http服务器是在诸如pc的机器上运行的应用。在至少一个实施例中,每个用户可以被认为具有唯一的“服务器”,如关于pc 1044所示。在至少一个实施例中,服务器可以被认为是诸如www http服务器1034之类的服务器,该服务器为lan或多个节点或多个lan提供对网络的访问。在至少一个实施例中,存在多个用户,每个用户具有台式pc或网络的节点,每个台式pc潜在地为其用户建立服务器。在至少一个实施例中,每个服务器与特定网络地址或url相关联,当被访问时,该特定网络地址或url为该用户提供默认网页。在至少一个实施例中,网页可以包含进一步的链接(嵌入式url),其指向该服务器上的该用户的进一步的子页面,或者指向网络上的其他服务器或者指向网络上的其他服务器上的页面。
184.云计算和服务
185.以下附图阐述但不限于可以用于实现至少一个实施例的示例性的基于云的系统。
186.在至少一个实施例中,云计算是一种计算风格,其中动态可扩展和通常虚拟化的资源作为服务通过互联网来提供。在至少一个实施例中,用户不需要具有支持他们的技术基础设施的知识、技术基础设施的专业知识或对技术基础设施的控制,该技术基础设施可以被称为“在云中”。在至少一个实施例中,云计算将基础设施合并为服务、平台即服务、软件即服务、以及具有依赖于互联网的常见主题以满足用户的计算需求的其他变型。在至少一个实施例中,典型的云部署(诸如在私有云(例如,企业网络)中)或公共云(例如,互联网)中的数据中心(dc)可由数千个服务器(或可替代地,vm)、数百个以太网、光纤信道或以太网光纤信道(fcoe)端口、交换和存储基础设施等组成。在至少一个实施例中,云还可以由网络服务基础设施组成,如ipsec vpn集线器、防火墙、负载平衡器、广域网(wan)优化器等。在至少一个实施例中,远程订户可以通过经由vpn隧道(如ipsec vpn隧道)连接来安全地访问云应用和服务。
187.在至少一个实施例中,云计算是一种用于使能对可配置计算资源(例如,网络、服务器、存储装置、应用程序和服务)的共享池的方便、按需的网络访问的模型,所述可配置计算资源可以用最小的管理努力或服务提供商交互来快速配置和释放。
188.在至少一个实施例中,云计算的特征在于按需自助服务,其中消费者可根据需要自动地单方面供应计算能力,诸如服务器时间和网络存储,而无需与每个服务提供商的人
类互动。在至少一个实施例中,云计算的特征在于广泛的网络访问,其中能力在网络上可用并且通过标准机制来访问,所述标准机制促进由异构的瘦或厚客户端平台(例如,移动电话、膝上型计算机和pda)的使用。在至少一个实施例中,云计算的特征在于资源池,其中提供商的计算资源被池化以使用多租户模型服务于多个消费者,其中不同的物理和虚拟资源根据消费者需求被动态地签名和重新分配。在至少一个实施例中,存在位置独立性的感觉,因为消费者通常对所提供的资源的确切位置没有控制或知识,但可能能够在较高抽象级别(例如,国家、州或数据中心)指定位置。
189.在至少一个实施例中,资源包括存储、处理、存储器、网络带宽和虚拟机。在至少一个实施例中,云计算的特征在于快速弹性,其中能力可被快速且弹性地供应(在一些情况下是自动地),以快速缩小和快速释放以快速放大。在至少一个实施例中,对于消费者,可用于供应的能力通常显得不受限制并且可以在任何时间以任何数量购买。在至少一个实施例中,云计算由测量的服务来表征,其中云系统通过在适合于服务类型(例如,存储、处理、带宽和活动用户账户)的某种抽象级别处利用计量能力来自动地控制和优化资源使用。在至少一个实施例中,资源使用可以被监控、控制和报告,从而为所利用的服务的提供商和消费者两者提供透明度。
190.在至少一个实施例中,云计算可与各种服务相关联。在至少一个实施例中,云软件即服务(saas)可以指代提供给消费者的能力是使用在云基础设施上运行的提供商的应用的服务。在至少一个实施例中,应用可通过诸如web浏览器(例如,基于web的电子邮件)的瘦客户端接口从不同客户端设备访问。在至少一个实施例中,消费者不管理或控制包括网络、服务器、操作系统、存储或甚至各个应用能力的底层云基础结构,可能的例外是有限的用户特定的应用配置设置。
191.在至少一个实施例中,云平台即服务(paas)可以指这样的服务:其中提供给消费者的能力是将消费者创建或获取的应用程序部署到云基础设施上,这些应用程序是使用由提供商支持的编程语言和工具创建的。在至少一个实施例中,消费者不管理或控制包括网络、服务器、操作系统或存储的底层云基础结构,但是具有对所部署的应用程序以及可能的应用托管环境配置的控制。
192.在至少一个实施例中,云基础设施即服务(iaas)可以指这样的服务:其中向消费者提供的能力是提供处理、存储、网络和消费者能够部署和运行可包括操作系统和应用的任意软件的其他基本计算资源。在至少一个实施例中,消费者不管理或控制底层云基础设施,而是具有对操作系统、存储、所部署的应用程序的控制,以及对选择的联网组件(例如,主机防火墙)的可能有限的控制。
193.在至少一个实施例中,可以不同方式部署云计算。在至少一个实施例中,私有云可指仅针对组织操作的云基础设施。在至少一个实施例中,私有云可由组织或第三方管理,并且可存在于场所内或场所外。在至少一个实施例中,社区云可以指由若干组织共享并且支持具有共享关注(例如,任务、安全要求、策略和合规性考虑)的特定社区的云基础设施。在至少一个实施例中,社区云可由组织或第三方管理,并且可存在于场所内或场所外。在至少一个实施例中,公共云可以指代对一般公众或大型产业组可用并且由提供云服务的组织拥有的云基础设施。在至少一个实施例中,混合云可以指云基础设施是两个或更多个云(私有、社区或公共的)的组成部分,这些云仍然是唯一的实体,但是通过实现数据和应用便携
性的标准化或专有技术(例如,用于云之间的负载平衡的云突发)绑定在一起。在至少一个实施例中,云计算环境是面向服务的,其关注于无状态性、低耦合、模块性和语义互操作性。
194.图11示出根据至少一个实施例的系统环境1100的一个或更多个组件,其中服务可被提供为第三方网络服务。在至少一个实施例中,第三方网络可被称为云、云网络、云计算网络和/或其变体。在至少一个实施例中,系统环境1100包括一个或更多个客户端计算设备1104、1106和1108,客户端计算设备1104、1106和1108可被用户用来与提供第三方网络服务(其可被称为云计算服务)的第三方网络基础设施系统1102交互。在至少一个实施例中,第三方网络基础设施系统1102可包括一个或更多个计算机和/或服务器。
195.应了解,图11中所描绘的第三方网络基础设施系统1102可具有除了所描绘的那些组件之外的其他组件。进一步地,图11描绘了第三方网络基础设施系统的实施例。在至少一个实施例中,第三方网络基础设施系统1102可具有比图11中描绘的更多或更少的组件,可组合两个或更多个组件,或可具有不同的组件配置或布置。
196.在至少一个实施例中,客户端计算设备1104、1106和1108可被配置成操作客户端应用,诸如web浏览器,可由客户端计算设备的用户用来与第三方网络基础设施系统1102交互以使用由第三方网络基础设施系统1102提供的服务的专有客户端应用或一些其他应用。尽管示例性系统环境1100被示为具有三个客户端计算设备,但是可以支持任何数量的客户端计算设备。在至少一个实施例中,其他设备,诸如具有传感器的设备等,可与第三方网络基础设施系统1102交互。在至少一个实施例中,一个或更多个网络1110可以促进客户端计算设备1104、1106和1108与第三方网络基础设施系统1102之间的通信和数据交换。
197.在至少一个实施例中,由第三方网络基础设施系统1102提供的服务可包括按需可用于第三方网络基础设施系统的用户的服务的主机。在至少一个实施例中,还可以提供各种服务,包括但不限于在线数据存储和备份解决方案、基于web的电子邮件服务、托管的办公套件和文档协作服务、数据库管理和处理、管理的技术支持服务、和/或其变体。在至少一个实施例中,由第三方网络基础设施系统提供的服务可以动态地扩展以满足其用户的需要。
198.在至少一个实施例中,由第三方网络基础设施系统1102提供的服务的特定实例化可被称为“服务实例”。在至少一个实施例中,通常,经由通信网络(诸如互联网)从第三方网络服务提供商系统对用户可用的任何服务被称为“第三方网络服务”。在至少一个实施例中,在公共第三方网络环境中,组成第三方网络服务提供商系统的服务器和系统不同于客户自己的场所内服务器和系统。在至少一个实施例中,第三方网络服务提供商系统可以托管应用,并且用户可以经由通信网络(诸如互联网)按需订购和使用应用。
199.在至少一个实施例中,计算机网络第三方网络基础设施中的服务可包括对存储、托管数据库、托管网络服务器、软件应用或由第三方网络供应商提供给用户的其他服务的受保护的计算机网络访问。在至少一个实施例中,服务可包括通过互联网对第三方网络上的远程存储装置的密码保护的访问。在至少一个实施例中,服务可以包括基于网络服务的托管关系数据库和脚本语言中间件引擎,以便由联网开发者私人使用。在至少一个实施例中,服务可包括对托管在第三方网络供应商的网站上的电子邮件软件应用的访问。
200.在至少一个实施例中,第三方网络基础设施系统1102可包括以自助、基于订阅、可弹性扩展、可靠、高度可用和安全方式递送给客户的一套应用、中间件和数据库服务提供
物。在至少一个实施例中,第三方网络基础设施系统1102还可以提供“大数据”相关的计算和分析服务。在至少一个实施例中,术语“大数据”通常用于指可以由分析师和研究人员存储和操纵的极大数据集,以便使大量数据可视化、检测趋势、和/或以其他方式与数据交互。在至少一个实施例中,大数据和相关应用可以由基础设施系统在许多级别上和以不同规模托管和/或操纵。在至少一个实施例中,并行链接的数十个、数百个或数千个处理器可对此类数据起作用以便呈现该数据或模拟对数据或其所表示的内容的外力。在至少一个实施例中,这些数据集可涉及结构化数据(诸如在数据库中或以其他方式根据结构化模型组织的结构化数据)和/或非结构化数据(例如,电子邮件、图像、数据blob(二进制大对象)、网页、复杂事件处理)。在至少一个实施例中,通过利用实施例的能力来将更多(或更少)计算资源相对快速地聚焦到目标上,第三方网络基础设施系统可以更好地可用于基于来自企业、政府机构、研究组织、私人个人、想法相同的个人或组织的组、或其他实体的需求在大数据集上执行任务。
201.在至少一个实施例中,第三方网络基础设施系统1102可以被适配成自动地提供、管理和跟踪顾客对由第三方网络基础设施系统1102提供的服务的订阅。在至少一个实施例中,第三方网络基础设施系统1102可以经由不同的部署模型提供第三方网络服务。在至少一个实施例中,可在公共第三方网络模型下提供服务,其中第三方网络基础设施系统1102由销售第三方网络服务的组织拥有,并且使得服务可用于一般公众或不同的行业企业。在至少一个实施例中,可在私有第三方网络模型下提供服务,在该私有第三方网络模型中,第三方网络基础设施系统1102仅针对单个组织操作,并且可为组织内的一个或更多个实体提供服务。在至少一个实施例中,第三方网络服务也可在社区第三方网络模型下提供,其中第三方网络基础设施系统1102和第三方网络基础设施系统1102提供的服务由相关社区中的若干组织共享。在至少一个实施例中,也可在混合第三方网络模型下提供第三方网络服务,该混合第三方网络模型是两个或更多个不同模型的组合。
202.在至少一个实施例中,由第三方网络基础设施系统1102提供的服务可包括在软件即服务(saas)类别、平台即服务(paas)类别、基础设施即服务(iaas)类别或包括混合服务的其他服务类别下提供的一个或更多个服务。在至少一个实施例中,客户经由订阅订单可订购由第三方网络基础设施系统1102提供的一个或更多个服务。在至少一个实施例中,第三方网络基础设施系统1102然后执行处理以在客户的订阅订单中提供服务。
203.在至少一个实施例中,由第三方网络基础设施系统1102提供的服务可以包括但不限于应用服务、平台服务和基础设施服务。在至少一个实施例中,应用服务可由第三方网络基础设施系统经由saas平台提供。在至少一个实施例中,saas平台可被配置为提供属于saas类别的第三方网络服务。在至少一个实施例中,saas平台可以提供在集成开发和部署平台上构建并递送一套按需应用的能力。在至少一个实施例中,saas平台可以管理和控制用于提供saas服务的底层软件和基础设施。在至少一个实施例中,通过利用由saas平台提供的服务,客户可利用在第三方网络基础设施系统上执行的应用。在至少一个实施例中,客户可以获得应用服务,而不需要客户购买单独的许可证和支持。在至少一个实施例中,可提供各种不同的saas服务。在至少一个实施例中,这可以包括但不限于为大组织的销售性能管理、企业集成和商业灵活性提供解决方案的服务。
204.在至少一个实施例中,平台服务可由第三方网络基础设施系统1102经由paas平台
提供。在至少一个实施例中,paas平台可被配置为提供属于paas类别的第三方网络服务。在至少一个实施例中,平台服务可以包括但不限于使组织能够将现有应用合并在共享的公共架构上的服务,以及建立利用由平台提供的共享服务的新应用的能力。在至少一个实施例中,paas平台可以管理和控制用于提供paas服务的底层软件和基础设施。在至少一个实施例中,客户可获取由第三方网络基础设施系统1102提供的paas服务,而无需客户购买单独的许可证和支持。
205.在至少一个实施例中,通过利用由paas平台提供的服务,客户可采用由第三方网络基础设施系统支持的编程语言和工具,并且还控制所部署的服务。在至少一个实施例中,由第三方网络基础设施系统提供的平台服务可包括数据库第三方网络服务、中间件第三方网络服务和第三方网络服务。在至少一个实施例中,数据库第三方网络服务可支持共享服务部署模型,所述共享服务部署模型使组织能够汇聚数据库资源并以数据库第三方网络的形式向客户提供数据库即服务。在至少一个实施例中,在第三方网络基础设施系统中,中间件第三方网络服务可以为客户提供平台以开发和部署不同业务应用,并且第三方网络服务可以为客户提供平台以部署应用。
206.在至少一个实施例中,各种不同的基础设施服务可由第三方网络基础设施系统中的iaas平台提供。在至少一个实施例中,基础设施服务促进利用由saas平台和paas平台提供的服务的客户对底层计算资源(诸如存储、网络和其他基础计算资源)的管理和控制。
207.在至少一个实施例中,第三方网络基础设施系统1102还可包括用于提供用于向第三方网络基础设施系统的客户提供各种服务的资源的基础设施资源1130。在至少一个实施例中,基础设施资源1130可包括硬件(诸如服务器、存储和联网资源)的预集成和优化的组合,用于执行由paas平台和saas平台提供的服务和其他资源。
208.在至少一个实施例中,第三方网络基础设施系统1102中的资源可由多个用户共享并且按照需求动态地重新分配。在至少一个实施例中,可以向不同时区中的用户分配资源。在至少一个实施例中,第三方网络基础设施系统1102可以使得第一时区中的第一组用户能够利用第三方网络基础设施系统的资源持续指定小时数,并且随后使得能够将相同资源重新分配给位于不同时区中的另一组用户,从而使资源利用率最大化。
209.在至少一个实施例中,可提供由第三方网络基础设施系统1102的不同组件或模块共享的多个内部共享服务1132,用于实现由第三方网络基础设施系统1102提供服务。在至少一个实施例中,这些内部共享服务可包括但不限于安全和身份服务、集成服务、企业库服务、企业管理器服务、病毒扫描和白名单服务、高可用性、备份和恢复服务、用于使能第三方网络支持的服务、电子邮件服务、通知服务、文件传输服务和/或其变体。
210.在至少一个实施例中,第三方网络基础设施系统1102可在第三方网络基础设施系统中提供第三方网络服务(例如,saas、paas和iaas服务)的全面管理。在至少一个实施例中,第三方网络管理功能可包括用于供应、管理和跟踪由第三方网络基础设施系统1102接收的客户的订阅的能力和/或其变体。
211.在至少一个实施例中,如图11所示,第三方网络管理功能可以由一个或更多个模块提供,诸如订单管理模块1120、订单协调模块1122、订单供应模块1124、订单管理和监控模块1126和身份管理模块1128。在至少一个实施例中,这些模块可包括一个或更多个计算机和/或服务器或使用一个或更多个计算机和/或服务器来提供,所述一个或更多个计算机
和/或服务器可以是通用计算机、专用服务器计算机、服务器农场、服务器集群或任何其他适当的布置和/或组合。
212.在至少一个实施例中,在步骤1134,使用客户端设备(诸如客户端计算设备1104、1106或1108)的客户可通过请求由第三方网络基础设施系统1102提供的一个或更多个服务并对由第三方网络基础设施系统1102提供的一个或更多个服务的订阅下订单来与第三方网络基础设施系统1102交互。在至少一个实施例中,客户可访问第三方网络用户界面(ui),诸如第三方网络ui 1112、第三方网络ui 1114和/或第三方网络ui 1116,并经由这些ui进行订购订单。在至少一个实施例中,由第三方网络基础设施系统1102响应于客户下订单而接收的订单信息可包括识别客户和由第三方网络基础设施系统1102提供的、客户想要订阅的一个或更多个服务的信息。
213.在至少一个实施例中,在步骤1136,从客户接收的订单信息可存储在订单数据库1118中。在至少一个实施例中,如果这是新订单,则可以为订单创建新记录。在至少一个实施例中,订单数据库1118可以是由第三方网络基础设施系统1118操作的并且结合其他系统元件操作的若干数据库之一。
214.在至少一个实施例中,在步骤1138,可以将订单信息转发到订单管理模块1120,该订单管理模块可以被配置成执行与订单相关的计费和记账功能,诸如验证订单,并且在验证后,预订一订单。
215.在至少一个实施例中,在步骤1140,关于订单的信息可被传送到订单协调模块1122,该订单协调模块1122被配置为针对由客户下的订单协调服务和资源的供应。在至少一个实施例中,订单协调模块1122可以使用订单供应模块1124的服务进行供应。在至少一个实施例中,订单协调模块1122使得能够管理与每个订单相关联的业务过程,并且应用业务逻辑来确定订单是否应继续供应。
216.在至少一个实施例中,在步骤1142,当接收到新订阅的订单时,订单协调模块1122向订单供应模块1124发送分配资源和配置满足订阅订单所需的资源的请求。在至少一个实施例中,订单供应模块1124实现针对由客户订购的服务的资源分配。在至少一个实施例中,订单供应模块1124提供由第三方网络基础设施系统1100提供的第三方网络服务与用于供应用于提供所请求的服务的资源的物理实现层之间的抽象级别。在至少一个实施例中,这使得订单协调模块1122能够与实现细节隔离,诸如服务和资源实际上是实时供应的,还是预先供应的并且仅在请求时分配/指派。
217.在至少一个实施例中,在步骤1144,一旦服务和资源被供应,可以向订阅客户发送指示所请求的服务现在准备好使用的通知。在至少一个实施例中,信息(例如,链接)可以被发送到客户,其使客户能够开始使用所请求的服务。
218.在至少一个实施例中,在步骤1146,客户订阅的订单可由订单管理和监控模块1126管理和跟踪。在至少一个实施例中,订单管理和监控模块1126可以被配置成收集关于订阅服务的客户使用的使用统计。在至少一个实施例中,可以针对所使用的存储量、所传输的数据量、用户数量、以及系统上电时间和系统下电时间的量和/或其变化来收集统计。
219.在至少一个实施例中,第三方网络基础设施系统1100可包括身份管理模块1128,该身份管理模块1128被配置成提供身份服务,诸如第三方网络基础设施系统1100中的访问管理和授权服务。在至少一个实施例中,身份管理模块1128可控制关于希望利用由第三方
网络基础设施系统1102提供的服务的客户的信息。在至少一个实施例中,这样的信息可以包括认证这样的客户的身份的信息和描述那些客户被授权相对于各种系统资源(例如,文件、目录、应用、通信端口、存储器段等)执行哪些动作的信息。在至少一个实施例中,身份管理模块1128还可包括管理关于每个顾客的描述性信息以及关于可如何访问和修改该描述性信息和可由谁来访问和修改该描述性信息。
220.图12示出了根据至少一个实施例的云计算环境1202。在至少一个实施例中,云计算环境1202包括一个或更多个计算机系统/服务器1204,诸如个人数字助理(pda)或蜂窝电话1206a、台式计算机1206b、膝上型计算机1206c和/或汽车计算机系统1206n之类的计算设备与该一个或更多个计算机系统/服务器1204通信。在至少一个实施例中,这允许基础设施、平台和/或软件作为服务从云计算环境1202提供,以便不需要每个客户端单独地维护这样的资源。应当理解,图12中示出的计算设备1206a-n的类型旨在仅是说明性的,并且云计算环境1202可通过任何类型的网络和/或网络/可寻址连接(例如,使用web浏览器)与任何类型的计算机化设备通信。
221.在至少一个实施例中,可被表示为云计算节点的计算机系统/服务器1204可与许多其他通用或专用计算系统环境或配置一起操作。在至少一个实施例中,可以适合于与计算机系统/服务器1204一起使用的计算系统、环境和/或配置包括但不限于个人计算机系统、服务器计算机系统、瘦客户机、厚客户端、手持式或膝上型设备、多处理器系统、基于微处理器的系统、机顶盒、可编程消费电子产品,网络pc、小型计算机系统、大型计算机系统和包括任何上述系统或设备的分布式云计算环境,和/或其变体。
222.在至少一个实施例中,计算机系统/服务器1204可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般上下文中描述。在至少一个实施例中,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、逻辑、数据结构等。在至少一个实施例中,示例性计算机系统/服务器1204可以在分布式云计算环境中实践,其中任务由通过通信网络链接的远程处理设备来执行。在至少一个实施例中,在分布式云计算环境中,程序模块可位于包括存储器存储设备的本地和远程计算机系统存储介质两者中。
223.图13示出了根据至少一个实施例的由云计算环境1202(图12)提供的一组功能抽象层。应提前理解,图13中所示的组件、层和功能仅旨在是说明性的,并且组件、层和功能可以变化。
224.在至少一个实施例中,硬件和软件层1302包括硬件和软件组件。在至少一个实施例中,硬件组件包括大型机、基于各种risc(精简指令集计算机)架构的服务器、各种计算系统、超级计算系统、存储设备、网络、联网组件和/或其变体。在至少一个实施例中,软件组件包括网络应用服务器软件、各种应用服务器软件、各种数据库软件、和/或其变体。
225.在至少一个实施例中,虚拟化层1304提供抽象层,从该抽象层可以提供以下示例性虚拟实体:虚拟服务器、虚拟存储、虚拟网络(包括虚拟私有网络)、虚拟应用、虚拟客户端和/或其变体。
226.在至少一个实施例中,管理层1306提供各种功能。在至少一个实施例中,资源供应提供用于在云计算环境内执行任务的计算资源和其他资源的动态获取。在至少一个实施例中,计量(metering)提供了在云计算环境内利用资源时的使用跟踪,以及针对这些资源的
消耗的计费或发票。在至少一个实施例中,资源可以包括应用软件许可证。在至少一个实施例中,安全性为用户和任务提供身份验证,以及对数据和其他资源的保护。在至少一个实施例中,用户界面为用户和系统管理员两者提供对云计算环境的访问。在至少一个实施例中,服务水平管理提供云计算资源分配和管理,使得满足所需的服务水平。在至少一个实施例中,服务水平协议(sla)管理提供云计算资源的预布置和获取,根据sla预期对该云计算资源的未来需求。
227.在至少一个实施例中,工作负载层1308提供利用云计算环境的功能。在至少一个实施例中,可以从该层提供的工作负载和功能包括:地图和导航、软件开发和管理、教育服务、数据分析和处理、交易处理和服务递送。
228.超级计算
229.以下附图阐述了但不限于可以用于实现至少一个实施例的示例性的基于超级计算机的系统。
230.在至少一个实施例中,超级计算机可以指展现出显著并行性并且包括至少一个芯片的硬件系统,其中系统中的芯片通过网络互连并且被放置在分层组织的外壳中。在至少一个实施例中,用若干机架填充机房的大型硬件系统是超级计算机的至少一个实施例,每个机架包含若干板/机架模块,每个板/机架模块包含全部由可扩展网络互连的若干芯片。在至少一个实施例中,这种大型硬件系统的单个机架是超级计算机的至少一个其他实施例。在至少一个实施例中,展现出显著并行性并且包含若干硬件组件的单个芯片同样可以被认为是超级计算机,因为随着特征尺寸可能减小,可以结合在单个芯片中的硬件数量也可能增加。
231.图14示出了根据至少一个实施例的芯片级的超级计算机。在至少一个实施例中,在fpga或asic芯片内部,在被称为线程单元的有限状态机(1404)内执行主计算。在至少一个实施例中,任务和同步网络(1402)连接有限状态机并且被用于以正确的顺序分派线程和执行操作。在至少一个实施例中,使用存储器网络(1406,1410)来访问多级分区的片上高速缓存层级(1408,1412)。在至少一个实施例中,使用存储器控制器(1416)和片外存储器网络(1414)来访问片外存储器。在至少一个实施例中,当设计不适合于单个逻辑芯片时,i/o控制器(1418)用于跨芯片通信。
232.图15示出根据至少一个实施例的在机架模块级别的超级计算机。在至少一个实施例中,在机架模块内,存在连接至构成主加速器存储器的一个或更多个dram单元(1504)的多个fpga或asic芯片(1502)。在至少一个实施例中,每个fpga/asic芯片使用板上的宽总线用差分高速信令(1506)连接到其相邻的fpga/asic芯片。在至少一个实施例中,每个fpga/asic芯片还连接到至少一个高速串行通信电缆。
233.图16示出了根据至少一个实施例的机架级的超级计算机。图17示出了根据至少一个实施例的整个系统级的超级计算机。在至少一个实施例中,参见图16和图17,在机架中的机架模块之间并且跨整个系统的机架,使用高速串行光缆或铜电缆(1602,1702)来实现可扩展的、可能不完整的超立方体网络。在至少一个实施例中,加速器的fpga/asic芯片中的一个通过pci-express连接被连接到主机系统(1704)。在至少一个实施例中,主机系统包括应用的软件部分在其上运行的主机微处理器(1708)以及由与加速器上的存储器保持一致的一个或更多个主机存储器dram单元(1706)组成的存储器。在至少一个实施例中,主机系
统可以是机架之一上的单独模块,或可以与超级计算机的模块之一集成。在至少一个实施例中,立方体连接的循环拓扑提供通信链路以为大型超级计算机创建超立方体网络。在至少一个实施例中,机架模块上的小组fpga/asic芯片可充当单个超立方体节点,使得与单个芯片相比,每组的外部链路的总数增加。在至少一个实施例中,组包含机架模块上的芯片a、b、c和d,该机架模块具有连接环形组织中的a、b、c和d的内部宽差分总线。在至少一个实施例中,存在将机架模块连接到外部世界的12条串行通信电缆。在至少一个实施例中,机架模块上的芯片a连接至串行通信电缆0、1、2。在至少一个实施例中,芯片b连接至电缆3、4、5。在至少一个实施例中,芯片c连接至6、7、8。在至少一个实施例中,芯片d连接至9、10、11。在至少一个实施例中,构成机架模块的整个组{a,b,c,d}可以形成超级计算机系统内的超立方体节点,其中多达212=4096个机架模块(16384fpga/asic芯片)。在至少一个实施例中,为了使芯片a在组{a,b,c,d}的链路4上向外发送消息,必须首先用板上差分宽总线连接将消息路由到芯片b。在至少一个实施例中,在链路4上到达去往芯片a的组{a,b,c,d}(即,到达b)的消息也必须首先被路由到组{a,b,c,d}内部的正确目的地芯片(a)。在至少一个实施例中,还可以实现其他大小的并行超级计算机系统。
234.人工智能
235.以下附图阐述了但不限于可以用于实现至少一个实施例的示例性的基于人工智能的系统。
236.图18a示出了用于执行与一个或更多个实施例相关联的推理和/或训练操作的推理和/或训练逻辑1815。下面结合图18a和/或图18b提供关于推理和/或训练逻辑1815的细节。
237.在至少一个实施例中,推理和/或训练逻辑1815可以包括但不限于,代码和/或数据存储1801,用于存储前向和/或输出权重和/或输入/输出数据,和/或在一个或更多个实施例的各方面中用于配置被训练和/或用于推理的神经网络的神经元或层的其他参数。在至少一个实施例中,训练逻辑1815可以包括或被耦合到代码和/或数据存储1801,用于存储图形代码或其他软件以控制定时和/或顺序,其中将加载权重和/或其他参数信息来配置逻辑,包括整数和/或浮点单元(统称为算术逻辑单元(alu))。在至少一个实施例中,代码(诸如图代码)基于这样的代码所对应的神经网络的架构将权重或其他参数信息加载到处理器alu中。在至少一个实施例中,代码和/或数据存储1801存储神经网络的每个层的权重参数和/或输入/输出数据,该神经网络在使用一个或更多个实施例的各方面的训练和/或推理期间在输入/输出数据和/或权重参数的前向传播期间与一个或更多个实施例结合训练或使用。在至少一个实施例中,代码和/或数据存储1801的任何部分可与其他片上或片外数据存储装置一起被包括,包括处理器的l1、l2或l3高速缓存存储器或系统存储器。
238.在至少一个实施例中,代码和/或数据存储1801的任何部分可在一个或更多个处理器或其他硬件逻辑设备或电路内部或外部。在至少一个实施例中,代码和/或代码和/或数据存储1801可以是高速缓存存储器、动态随机可寻址存储器(“dram”)、静态随机可寻址存储器(“sram”)、非易失性存储器(例如,闪存)或其他存储装置。在至少一个实施例中,对代码和/或代码和/或数据存储1801是在处理器内部还是外部,在至少一个实施例中,或包括dram、sram、闪存或一些其他存储类型的选择,可以取决于片上相对于片外的可用存储,正在执行的训练和/或推理功能的延时要求、在神经网络的推理和/或训练中使用的数据的
批大小,或这些因素的一些组合。
239.在至少一个实施例中,推理和/或训练逻辑1815可以包括但不限于:代码和/或数据存储1805,用于存储与在一个或更多个实施例的各方面中被训练和/或用于推理的神经网络的神经元或层相对应的反向和/或输出权重和/或输入/输出数据。在至少一个实施例中,代码和/或数据存储1805存储神经网络的每一层的权重参数和/或输入/输出数据,该神经网络在使用一个或更多个实施例的各方面的训练和/或推理期间的输入/输出数据和/或权重参数的反后传播期间与一个或更多个实施例结合训练或使用。在至少一个实施例中,训练逻辑1815可以包括或被耦合到代码和/或数据存储1805,以存储图代码或其他软件来控制定时和/或顺序,其中将加载权重和/或其他参数信息以配置逻辑,包括整数和/或浮点单元(统称为算术逻辑单元(alu))。
240.在至少一个实施例中,代码(诸如图代码)使基于这样的代码所对应的神经网络的架构将权重或其他参数信息加载到处理器alu中。在至少一个实施例中,代码和/或数据存储1805的任何部分可与其他片上或片外数据存储包括在一起,包括处理器的l1、l2或l3高速缓存或系统存储器。在至少一个实施例中,代码和/或数据存储1805的任何部分可以在一个或更多个处理器或其他硬件逻辑设备或电路的内部或外部。在至少一个实施例中,代码和/或数据存储1805可以是高速缓存存储器、dram、sram、非易失性存储器(例如,闪存)或其他存储装置。在至少一个实施例中,对代码和/或数据存储1805是在处理器内部还是外部,在至少一个实施例中,或包括dram、sram、闪存或一些其他存储类型的选择,可以取决于片上相对于片外的可用存储,正在执行的训练和/或推理功能的延时要求、在神经网络的推理和/或训练中使用的数据的批大小,或这些因素的一些组合。
241.在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805可为单独的存储结构。在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805可以是组合的存储结构。在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805可部分组合且部分分离。在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805的任何部分可与其他片上或片外数据存储(包括处理器的l1、l2或l3高速缓存或系统存储器)包括在一起。
242.在至少一个实施例中,推理和/或训练逻辑1815可以包括但不限于,一个或更多个算术逻辑单元(“alu”)1810,包括整数和/或浮点单元,用于至少部分地基于训练和/或推理代码(例如,图形代码)或由训练和/或推理代码(例如,图形代码)指示来执行逻辑和/或数学运算,其结果可以产生存储在激活存储1820中的激活(例如,来自神经网络内的层或神经元的输出值),所述激活存储是存储在代码和/或数据存储1801和/或代码和/或数据存储1805中的输入/输出和/或权重参数数据的函数。在至少一个实施例中,根据响应于执行指令或其他代码、由alu 1810执行的线性代数和/或基于矩阵的数学来生成存储在激活存储1820中的激活,其中存储在代码和/或数据存储1805和/或数据存储1801中的权重值与其他值(诸如偏置值、梯度信息、动量值或其他参数或超参数)一起被用作操作数,该其他值中的任何或全部值可被存储在代码和/或数据存储1805或代码和/或数据存储1801或芯片上或芯片外的另一存储中。
243.在至少一个实施例中,一个或更多个alu 1810被包括在一个或更多个处理器或其他硬件逻辑器件或电路内,而在另一个实施例中,一个或更多个alu 1810可以在处理器或
使用它们的其他硬件逻辑器件或电路(例如,协处理器)的外部。在至少一个实施例中,alu 1810可以被包括在处理器的执行单元内或者以其他方式在可由处理器的执行单元可访问的alu库内,所述处理器的执行单元在同一处理器内或分布在不同类型的不同处理器(例如,中央处理单元、图形处理单元、固定功能单元等)之间。在至少一个实施例中,代码和/或数据存储1801、代码和/或数据存储1805、以及激活存储1820可以共享处理器或其他硬件逻辑器件或电路,而在另一个实施例中,它们可以在不同的处理器或其他硬件逻辑器件或电路中,或在相同和不同处理器或其他硬件逻辑器件或电路的某种组合中。在至少一个实施例中,激活存储1820的任何部分可以与其他片上或片外数据存储包括在一起,所述其他片上或片外数据存储包括处理器的l1、l2或l3高速缓存或系统存储器。此外,推理和/或训练代码可与处理器或其他硬件逻辑或电路可访问并使用处理器的获取、解码、调度、执行、引退(retirement)和/或其他逻辑电路来获取和/或处理的其他代码一起存储。
244.在至少一个实施例中,激活存储1820可以是高速缓存存储器、dram、sram、非易失性存储器(例如,闪存)或其他存储装置。在至少一个实施例中,激活存储1820可以完全或部分地在一个或更多个处理器或其他逻辑电路之内或外部。在至少一个实施例中,对激活存储1820是在处理器内部还是外部,在至少一个实施例中,或包括dram、sram、闪存或一些其他存储类型的选择,可以取决于片上相对于片外的可用存储,正在执行的训练和/或推理功能的延时要求、在神经网络的推理和/或训练中使用的数据的批大小,或这些因素的一些组合。
245.在至少一个实施例中,图18a中所示出的推理和/或训练逻辑1815可以与专用集成电路(“asic”)结合使用,诸如来自谷歌的处理单元、来自graphcore
tm
的推理处理单元(ipu)、或来自英特尔公司的(例如,“lake crest”)处理器。在至少一个实施例中,图18a中所示出的推理和/或训练逻辑1815可以结合中央处理单元(“cpu”)硬件、图形处理单元(“gpu”)硬件或其他硬件(如现场可编程门阵列(“fpga”))使用。
246.图18b示出了根据至少一个实施例的推理和/或训练逻辑1815。在至少一个实施例中,推理和/或训练逻辑1815可包括但不限于其中计算资源是专用的或以其他方式结合与神经网络内的一个或更多个神经元层相对应的权重值或其他信息排他地使用的硬件逻辑。在至少一个实施例中,图18b中所示出的推理和/或训练逻辑1815可以结合专用集成电路(asic)(如来自谷歌的处理单元、来自graphcore
tm
的推理处理单元(ipu)、或来自英特尔公司的(例如,“lake crest”)处理器来使用。在至少一个实施例中,图18b中示出的推理和/或训练逻辑1815可结合中央处理单元(cpu)硬件、图形处理单元(gpu)硬件或其他硬件(诸如现场可编程门阵列(fpga))使用。在至少一个实施例中,推理和/或训练逻辑1815包括但不限于代码和/或数据存储1801以及代码和/或数据存储1805,其可以用于存储代码(例如,图代码)、权重值和/或其他信息,包括偏置值、梯度信息、动量值和/或其他参数或超参数信息。在图18b中所说明的至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805中的每一者分别与专用计算资源(例如,计算硬件1802和计算硬件1806)相关联。在至少一个实施例中,计算硬件1802和计算硬件1806中的每一个包括一个或更多个alu,该一个或更多个alu仅分别对存储在代码和/或数据存储1801和代码和/或数据存储1805中的信息执行数学函数(诸如线性代数函数),其结果被存储在激活存储1820中。
247.在至少一个实施例中,每个代码和/或数据存储1801和1805以及相应的计算硬件1802和1806,分别对应于神经网络的不同层,使得来自代码和/或数据存储1801和计算硬件1802中的一个存储/计算对1801/1802的结果激活作为输入被提供给代码和/或数据存储1805和计算硬件1806中的下一个存储/计算对1805/1806,以便镜像神经网络的概念组织。在至少一个实施例中,存储/计算对1801/1802和1805/1806中的每一个可对应于多于一个神经网络层。在至少一个实施例中,在存储/计算对1801/1802和1805/1806之后或与存储/计算对1801/1802和1805/1806并行的附加存储/计算对(未示出)可被包括在推理和/或训练逻辑1815中。
248.图19示出根据至少一个实施例的深度神经网络的训练和部署。在至少一个实施例中,使用训练数据集1902来训练未经训练的神经网络1906。在至少一个实施例中,训练框架1904是pytorch框架,而在其他实施例中,训练框架1904是tensorflow、boost、caffe、microsoft cognitive toolkit/cntk、mxnet、chainer、keras、deeplearning4j或其他训练框架。在至少一个实施例中,训练框架1904对未经训练的神经网络1906进行训练,并使其能够使用本文中所描述的处理资源来训练以生成经训练的神经网络1908。在至少一个实施例中,权重可以随机选择或通过使用深度信念网络进行预训练来选择。在至少一个实施例中,训练可以以监督、部分监督或无监督的方式来执行。
249.在至少一个实施例中,使用监督学习来训练未经训练的神经网络1906,其中训练数据集1902包括与用于输入的期望输出配对的输入,或者其中训练数据集1902包括具有已知输出的输入,并且神经网络1906的输出被手动地分级。在至少一个实施例中,以监督方式来训练未经训练的神经网络1906,并且处理来自训练数据集1902的输入,并将结果输出与预期或期望输出的集合进行比较。在至少一个实施例中,然后误差被反向传播通过未经训练的神经网络1906。在至少一个实施例中,训练框架1904调整控制未经训练的神经网络1906的权重。在至少一个实施例中,训练框架1904包括用于监视未经训练的神经网络1906朝向模型(诸如经训练的神经网络1908)收敛多好的工具,该模型适于基于输入数据(诸如新数据集1912)来生成正确答案(诸如结果1914)。在至少一个实施例中,训练框架1904重复地训练未经训练的神经网络1906,同时使用损失函数和调整算法(诸如随机梯度下降)来调整权重以精炼未经训练的神经网络1906的输出。在至少一个实施例中,训练框架1904训练未经训练的神经网络1906,直到未经训练的神经网络1906实现所期望的准确度。在至少一个实施例中,经训练的神经网络1908然后可被部署以实现任何数量的机器学习操作。
250.在至少一个实施例中,使用无监督学习来训练未经训练的神经网络1906,其中未经训练的神经网络1906尝试使用未标记的数据来训练其自身。在至少一个实施例中,无监督学习训练数据集1902将包括输入数据而没有任何相关联的输出数据或“地面真值”数据。在至少一个实施例中,未经训练的神经网络1906可以学习训练数据集1902内的分组,并且可以确定各个输入如何与未经训练的数据集1902相关。在至少一个实施例中,无监督训练可被用于在经训练的神经网络1908中生成能够执行在减少新数据集1912的维度中有用的操作的自组织映射。在至少一个实施例中,无监督训练还可用于执行异常检测,其允许识别新数据集1912中偏离新数据集1912的正常模式的数据点。
251.在至少一个实施例中,可以使用半监督学习,半监督学习是其中在训练数据集1902中包括标记数据和未标记数据的混合的技术。在至少一个实施例中,训练框架1904可
被用于执行增量学习,诸如通过转移学习技术。在至少一个实施例中,增量学习使得经训练的神经网络1908能够适应新的数据集1912,而不会忘记在初始训练期间注入在经训练的神经网络1408内的知识。
252.5g网络
253.以下附图阐述了但不限于可以用于实现至少一个实施例的示例性基于5g网络的系统。
254.图20示出了根据至少一个实施例的网络的系统2000的架构。在至少一个实施例中,系统2000被示为包括用户设备(ue)2002和ue 2004。
255.在至少一个实施例中,ue 2002和2004被示为智能电话(例如,可连接到一个或更多个蜂窝网络的手持触摸屏移动计算设备),但还可包括任何移动或非移动计算设备,诸如个人数字助理(pda)、寻呼机、膝上型计算机、台式计算机、无线手持设备或包括无线通信接口的任何计算设备。
256.在至少一个实施例中,ue 2002和ue 2004中的任何一个可包括物联网(iot)ue,该iot ue可包括为利用短暂ue连接的低功率iot应用设计的网络接入层。在至少一个实施例中,iot ue可利用诸如用于经由公共陆地移动网络(plmn)、基于邻近的服务(prose)或设备到设备(d2d)通信、传感器网络或iot网络与mtc服务器或设备交换数据的技术,诸如机器对机器(m2m)或机器类型通信(mtc)。在至少一个实施例中,m2m或mtc数据交换可以是机器发起的数据交换。在至少一个实施例中,iot网络描述互连iot ue,该iot ue可包括具有短寿命连接的可唯一标识的嵌入式计算设备(在互联网基础结构内)。在至少一个实施例中,iot ue可执行后台应用(例如,保活消息、状态更新等)以促进iot网络的连接。
257.在至少一个实施例中,ue 2002和ue 2004可以被配置为与无线电接入网(ran)2016连接(例如,通信地耦合)。在至少一个实施例中,ran2016在至少一个实施例中可以是演进的通用移动电信系统(umts)陆地无线电接入网络(e-utran)、nextgen ran(ng ran)或一些其他类型的ran。在至少一个实施例中,ue 2002和ue 2004分别利用连接2012和连接2014,每个连接包括物理通信接口或层。在至少一个实施例中,连接2012和2014被示为空中接口,用于实现通信耦合,并且可以与蜂窝通信协议一致,诸如全球移动通信系统(gsm)协议,码分多址(cdma)网络协议、即按即讲(ptt)协议、蜂窝ptt(poc)协议、通用移动电信系统(umts)协议、3gpp长期演进(lte)协议、第五代(5g)协议、新无线电(nr)协议及其变型。
258.在至少一个实施例中,ue 2002和2004还可经由prose接口2006直接交换通信数据。在至少一个实施例中,prose接口2006可替代地被称为边链路接口,其包括一个或更多个逻辑信道,包括但不限于物理边链路控制信道(pscch)、物理边链路共享信道(pssch)、物理边链路发现信道(psdch)和物理边链路广播信道(psbch)。
259.在至少一个实施例中,ue 2004被示为配置成经由连接2008接入接入点(ap)2010。在至少一个实施例中,连接2008可以包括本地无线连接,诸如与任何ieee 802.11协议一致的连接,其中ap 2010将包括无线保真路由器。在至少一个实施例中,ap 2010被示为连接到互联网而不连接到无线系统的核心网。
260.在至少一个实施例中,ran 2016可包括启用连接2012和2014的一个或更多个接入节点。在至少一个实施例中,这些接入节点(an)可被称为基站(bs)、nodeb、演进型nodeb(enb)、下一代nodeb(gnb)、ran节点等,并且可包括地面站(例如,地面接入点)或提供地理
区域(例如,小区)内的覆盖的卫星站。在至少一个实施例中,ran 2016可包括用于提供宏蜂窝小区的一个或更多个ran节点(例如,宏ran节点2018)和用于提供毫微微蜂窝小区或微微蜂窝小区(例如,与宏蜂窝小区相比具有较小覆盖区域、较小用户容量、或较高带宽的蜂窝小区)的一个或更多个ran节点(例如,低功率(lp)ran节点2020)。
261.在至少一个实施例中,ran节点2018和2020中的任一个可终止空中接口协议并且可以为ue 2002和2004的第一联系点。在至少一个实施例中,ran节点2018和2020中的任一个可实现ran 2016的各种逻辑功能,包括但不限于无线电网络控制器(rnc)功能,诸如无线电承载管理、上行链路和下行链路动态无线电资源管理和数据分组调度和移动性管理。
262.在至少一个实施例中,ue 2002和ue 2004可被配置为使用正交频分复用(ofdm)通信信号根据各种通信技术通过多载波通信信道彼此通信或者与ran节点2018和ran节点2020中的任一个通信,通信技术诸如但不限于正交频分多址(ofdma)通信技术(例如,用于下行链路通信)或单载波频分多址(sc-fdma)通信技术(例如,用于上行链路和prose或边链路通信),和/或其变体。在至少一个实施例中,ofdm信号可包括多个正交子载波。
263.在至少一个实施例中,下行链路资源网格可以用于从ran节点2018和2020中的任一个到ue 2002和2004的下行链路传输,而上行链路传输可以利用类似的技术。在至少一个实施例中,网格可以是称为资源网格或时频资源网格的时频网格,其是每个时隙中下行链路中的物理资源。在至少一个实施例中,这种时频平面表示是ofdm系统的常见实践,这使得其对于无线电资源分配来说是直观的。在至少一个实施例中,资源网格的每列和每行分别对应于一个ofdm符号和一个ofdm子载波。在至少一个实施例中,时域中的资源网格的持续时间对应于无线电帧中的一个时隙。在至少一个实施例中,资源网格中的最小时间-频率单元被表示为资源元素。在至少一个实施例中,每个资源网格包括多个资源块,其描述某些物理信道到资源元素的映射。在至少一个实施例中,每个资源块包括资源元素的集合。在至少一个实施例中,在频域中,这可以表示当前可以被分配的最小数量的资源。在至少一个实施例中,存在使用这样的资源块传送的若干不同的物理下行链路信道。
264.在至少一个实施例中,物理下行链路共享信道(pdsch)可以运载用户数据和更高层信令给ue 2002和2004。在至少一个实施例中,物理下行链路控制信道(pdcch)可运载关于与pdsch信道相关的传输格式和资源分配的信息等。在至少一个实施例中,其还可以向ue 2002和2004通知与上行链路共享信道有关的传输格式、资源分配和harq(混合自动重传请求)信息。在至少一个实施例中,通常,下行链路调度(将控制和共享信道资源块分配给小区内的ue 2002)可以在ran节点2018和2020中的任一个处基于从ue 2002和2004中的任一个反馈的信道质量信息来执行。在至少一个实施例中,下行链路资源分配信息可以在用于(例如分配给)ue 2002和2004中的每一个的pdcch上发送。
265.在至少一个实施例中,pdcch可以使用控制信道元素(cce)来传送控制信息。在至少一个实施例中,在被映射到资源元素之前,pdcch复值符号可以首先被组织成四元组,然后可以使用子块交织器对其进行置换以用于速率匹配。在至少一个实施例中,可以使用这些cce中的一个或更多个来传送每个pdcch,其中每个cce可以对应于被称为资源元素组(reg)的四个物理资源元素的九个集合。在至少一个实施例中,四个正交相移键控(qpsk)符号可以被映射到每个reg。在至少一个实施例中,取决于下行链路控制信息(dci)的大小和信道条件,可以使用一个或更多个cce来发送pdcch。在至少一个实施例中,可以有在lte中
定义的具有不同数目的cce的四个或更多个不同的pdcch格式(例如,聚合等级,l=1、2、4或8)。
266.在至少一个实施例中,使用pdsch资源的增强型物理下行链路控制信道(epdcch)可以用于控制信息传输。在至少一个实施例中,可以使用一个或更多个增强型控制信道元素(ecce)来发送epdcch。在至少一个实施例中,每个ecce可以对应于被称为增强型资源元素组(ereg)的四个物理资源元素的九个集合。在至少一个实施例中,ecce在一些情况下可以具有其他数目的ereg。
267.在至少一个实施例中,ran 2016被示为经由s1接口2022通信地耦合至核心网(cn)2038。在至少一个实施例中,cn 2038可以是演进的分组核心(epc)网络、nextgen分组核心(npc)网络或一些其他类型的cn。在至少一个实施例中,s1接口2022被分成两部分:s1-u接口2026,其运载ran节点2018和2020与服务网关(s-gw)2030之间的业务数据;以及s1-移动性管理实体(mme)接口2024,其为ran节点2018和2020与mme 2028之间的信令接口。
268.在至少一个实施例中,cn 2038包括mme 2028、s-gw 2030、分组数据网络(pdn)网关(p-gw)2034和归属订户服务器(hss)2032。在至少一个实施例中,mme 2028可以在功能上类似于传统服务通用分组无线电服务(gprs)支持节点(sgsn)的控制平面。在至少一个实施例中,mme 2028可以管理接入中的移动性方面,例如网关选择和跟踪区域列表管理。在至少一个实施例中,hss 2032可以包括用于网络用户的数据库,该数据库包括用于支持网络实体处理通信会话的订阅相关信息。在至少一个实施例中,cn 2038可以包括一个或更多个hss 2032,这取决于移动用户的数量、设备的容量、网络的组织等。在至少一个实施例中,hss 2032可以提供对路由/漫游、认证、授权、命名/寻址解析、位置依赖性等的支持。
269.在至少一个实施例中,s-gw 2030可以终止朝向ran 2016的s1接口2022,并且在ran 2016和cn 2038之间路由数据分组。在至少一个实施例中,s-gw 2030可以是用于ran间节点切换的本地移动性锚点,并且还可以提供用于3gpp间移动性的锚点。在至少一个实施例中,其他责任可以包括合法拦截、收费和一些策略强制执行。
270.在至少一个实施例中,p-gw 2034可以终止朝向pdn的sgi接口。在至少一个实施例中,p-gw 2034可以经由互联网协议(ip)接口2042在epc网络2038和外部网络(诸如包括应用服务器2040(或者称为应用功能(af))的网络)之间路由数据分组。在至少一个实施例中,应用服务器2040可以是采用核心网络(例如,umts分组服务(ps)域、lte ps数据服务等)提供使用ip承载资源的应用的元件。在至少一个实施例中,p-gw 2034被示出为经由ip通信接口2042通信地耦合到应用服务器2040。在至少一个实施例中,应用服务器2040还可被配置为经由cn 2038支持ue 2002和2004的一个或更多个通信服务(例如,互联网协议语音(voip)会话、ptt会话、群组通信会话、社交网络服务等)。
271.在至少一个实施例中,p-gw 2034还可以是用于策略实施和收费数据收集的节点。在至少一个实施例中,策略和计费执行功能(pcrf)2036是cn 2038的策略和计费控制元件。在至少一个实施例中,在非漫游场景中,在与ue的互联网协议连接性接入网络(ip-can)会话相关联的归属公共陆地移动网络(hplmn)中可以存在单个pcrf。在至少一个实施例中,在具有本地流量突破的漫游场景中,可存在与ue的ip-can会话相关联的两个pcrf:hplmn内的归属pcrf(h-pcrf)和受访公共陆地移动网络(vplmn)内的受访pcrf(v-pcrf)。在至少一个实施例中,pcrf 2036可以经由p-gw 2034通信地耦合到应用服务器2040。在至少一个实施
例中,应用服务器2040可以向pcrf 2036发信号,以指示新的服务流,并选择适当的服务质量(qos)和计费参数。在至少一个实施例中,pcrf 2036可以将这个规则供应到具有适当的业务流模板(tft)和标识符的qos类(qci)的策略和计费执行功能(pcef)(未示出),所述pcef开始由应用服务器2040指定的qos和计费。
272.图21示出了根据一些实施例的网络的系统2100的架构。在至少一个实施例中,系统2100被示为包括ue 2102、5g接入节点或ran节点(被示为(r)an节点2108),用户平面功能(被示出为upf 2104),数据网络(dn 2106),在至少一个实施例中,其可以是运营商服务、互联网接入或第三方服务、以及5g核心网络(5gc)(示为cn 2110)。
273.在至少一个实施例中,cn 2110包括认证服务器功能(ausf 2114);核心接入和移动性管理功能(amf 2112);会话管理功能(smf 2118);网络暴露功能(nef 2116);策略控制功能(pcf 2122);网络功能(nf)储存库功能(nrf 2120);统一数据管理(udm 2124);以及应用功能(af2126)。在至少一个实施例中,cn 2110还可包括未示出的其他元件,诸如结构化数据存储网络功能(sdsf)、非结构化数据存储网络功能(udsf)及其变型。
274.在至少一个实施例中,upf 2104可充当rat内和rat间移动性的锚点、互连到dn 2106的外部pdu会话点、和支持多归属pdu会话的分支点。在至少一个实施例中,upf 2104还可以执行分组路由和转发、分组检查、实施策略规则的用户平面部分、合法拦截分组(up收集);业务使用报告、为用户平面执行qos处理(例如分组过滤、门控、ul/dl速率执行)、执行上行链路业务验证(例如,sdf到qos流映射)、上行链路和下行链路中的传输级分组标记、以及下行链路分组缓存和下行链路数据通知触发。在至少一个实施例中,upf 2104可包括上行链路分类器,用于支持将业务流路由到数据网络。在至少一个实施例中,dn 2106可表示各种网络运营商服务、互联网接入或第三方服务。
275.在至少一个实施例中,ausf 2114可以存储用于ue 2102的认证的数据,并且处理与认证相关的功能。在至少一个实施例中,ausf 2114可以促进用于各种接入类型的公共认证框架。
276.在至少一个实施例中,amf 2112可以负责注册管理(例如,用于注册ue 2102等)、连接管理、可达性管理、移动性管理、和amf相关事件的合法拦截、以及接入认证和授权。在至少一个实施例中,amf 2112可以为smf 2118提供sm消息的传输,并且充当用于路由sm消息的透明代理。在至少一个实施例中,amf 2112还可以提供ue 2102与sms功能(smsf)(图21未示出)之间的短消息服务(sms)消息的传输。在至少一个实施例中,amf 2112可以充当安全锚定功能(sea),其可以包括与ausf 2114和ue 2102的交互以及接收作为ue 2102认证过程的结果而建立的中间密钥。在至少一个实施例中,在使用基于usim的认证的情况下,amf 2112可以从ausf 2114检索安全材料。在至少一个实施例中,amf 2112还可以包括安全上下文管理(scm)功能,其从sea接收它用来导出接入网络专用密钥的密钥。此外,在至少一个实施例中,amf 2112可以是ran cp接口的终止点(n2参考点)、nas(ni)信令的终止点,并且执行nas加密和完整性保护。
277.在至少一个实施例中,amf 2112还可以支持通过n3互通功能(iwf)接口与ue 2102的nas信令。在至少一个实施例中,n3iwf可以用于提供对不受信实体的访问。在至少一个实施例中,n3iwf可以分别是控制平面和用户平面的n2和n3接口的终止点,因此,可针对pdu会话和qos处理来自smf和amf的n2信令,对ipsec和n3隧道的分组进行封装/解封装,在上行链
路中标记n3用户平面分组,并且考虑到与通过n2接收的这种标记相关联的qos要求,实施对应于n3分组标记的qos。在至少一个实施例中,n3iwf还可以在ue 2102和amf 2112之间中继上行链路和下行链路控制平面nas(ni)信令,并且在ue 2102和upf 2104之间中继上行链路和下行链路用户平面分组。在至少一个实施例中,n3iwf还提供用于与ue 2102的ipsec隧道建立的机制。
278.在至少一个实施例中,smf 2118可负责会话管理(例如,会话建立、修改和释放,包括upf和an节点之间的隧道保持);ue ip地址分配和管理(包括可选的授权);up功能的选择和控制;在upf处配置流量转向以将流量路由到合适的目的地;朝向策略控制功能的接口终止;策略强制执行和qos的控制部分;合法拦截(用于sm事件和到li系统的接口);nas消息的sm部分的终止;下行链路数据通知;an特定sm信息的发起者,其经由amf在n2上发送到an;确定会话的ssc模式。在至少一个实施例中,smf 2118可包括以下漫游功能:处理本地实施以应用qos slab(vplmn);收费数据收集和收费接口(vplmn);合法拦截(在vplmn中用于sm事件并且接口到li系统);支持与外部dn交互以传输用于由外部dn进行的pdu会话授权/认证的信令。
279.在至少一个实施例中,nef 2116可以提供用于安全地暴露由3gpp网络功能为第三方提供的服务和能力、内部暴露/重新暴露、应用功能(例如,af 2126)、边缘计算或雾计算系统等的装置。在至少一个实施例中,nef 2116可认证、授权和/或节流af。在至少一个实施例中,nef 2116还可以转换与af 2126交换的信息和与内部网络功能交换的信息。在至少一个实施例中,nef 2116可以在af服务标识符和内部5gc信息之间转换。在至少一个实施例中,nef 2116还可以基于其他网络功能的暴露的能力从其他网络功能(nf)接收信息。在至少一个实施例中,该信息可作为结构化数据存储在nef 2116处,或使用标准化接口存储在数据存储nf处。在至少一个实施例中,所存储的信息然后可由nef 2116重新暴露给其他nf和af,和/或用于其他目的,诸如分析。
280.在至少一个实施例中,nrf 2120可以支持服务发现功能,从nf实例接收nf发现请求,以及向nf实例提供所发现的nf实例的信息。在至少一个实施例中,nrf 2120还维护可用nf实例及其支持的服务的信息。
281.在至少一个实施例中,pcf 2122可向控制平面功能提供策略规则以实施它们,并且还可支持统一策略框架以管理网络行为。在至少一个实施例中,pcf 2122还可实现前端(fe),用于访问udm 2124的udr中与策略决策相关的订阅信息。
282.在至少一个实施例中,udm 2124可处理订阅相关信息以支持网络实体处理通信会话,并且可存储ue 2102的订阅数据。在至少一个实施例中,udm 2124可以包括两个部分,应用fe和用户数据存储库(udr)。在至少一个实施例中,udm可以包括udm fe,该udm fe负责处理凭证、位置管理、订阅管理等。在至少一个实施例中,若干不同前端可在不同交易中服务同一用户。在至少一个实施例中,udm-fe访问udr中存储的子订阅信息,并执行认证凭证处理;用户标识处理;接入授权;注册/移动性管理;以及订阅管理。在至少一个实施例中,udr可与pcf 2122交互。在至少一个实施例中,udm 2124还可支持sms管理,其中sms-fe实现如前所述的类似应用逻辑。
283.在至少一个实施例中,af 2126可以提供对业务路由的应用影响、对网络能力暴露(nce)的接入,以及与策略框架的交互以用于策略控制。在至少一个实施例中,nce可以是允
许5gc和af 2126经由nef 2116向彼此提供信息的机制,nef 2116可以用于边缘计算实现。在至少一个实施例中,网络运营商和第三方服务可被托管在ue 2102的附接接入点附近,以通过减少的端到端延时和传输网络上的负载来实现高效的服务递送。在至少一个实施例中,对于边缘计算实现,5gc可选择靠近ue 2102的upf 2104,并经由n6接口执行从upf 2104到dn 2106的业务引导。在至少一个实施例中,这可以基于由af 2126提供的ue订阅数据、ue位置和信息。在至少一个实施例中,af 2126可以影响upf(重新)选择和业务路由。在至少一个实施例中,基于运营商部署,当af 2126被认为是受信实体时,网络运营商可以允许af 2126直接与相关nf交互。
284.在至少一个实施例中,cn 2110可以包括smsf,其可以负责sms订阅检查和验证,并且中继去往/来自ue 2102的sm消息到/来自其他实体,例如sms-gmsc/iwmsc/sms路由器。在至少一个实施例中,sms还可以与amf 2112和udm 2124交互,以用于ue 2102可用于sms传送的通知过程(例如,设置ue不可达标志,并且当ue 2102可用于sms时通知udm 2124)。
285.在至少一个实施例中,系统2100可以包括以下基于服务的接口:namf:amf展现的基于服务的接口;nsmf:smf展现的基于服务的接口;nnef:nef展现的基于服务的接口;npcf:pcf展现的基于服务的接口;nudm:udm展现的基于服务的接口;naf:af展现的基于服务的接口;nnrf:nrf展现的基于服务的接口;以及nausf:ausf展现的基于服务的接口。
286.在至少一个实施例中,系统2100可以包括以下参考点:n1:ue和amf之间的参考点;n2:(r)an和amf之间的参考点;n3:(r)an和upf之间的参考点;n4:smf和upf之间的参考点;以及n6:upf和数据网络之间的参考点。在至少一个实施例中,nf中的nf服务之间可能存在更多的参考点和/或基于服务的接口,然而,为清楚起见,这些接口和参考点已经被省略。在至少一个实施例中,ns参考点可以在pcf与af之间;n7参考点可以在pcf与smf之间;n11参考点在amf与smf之间等等。在至少一个实施例中,cn 2110可以包括nx接口,nx接口是mme和amf 2112之间的cn间接口,以便实现cn 2110和cn 7221之间的互通。
287.在至少一个实施例中,系统2100可包括多个ran节点(诸如(r)an节点2108),其中在连接到5gc 410的两个或更多个(r)an节点2108(例如,gnb)之间,在连接到cn 2110的(r)an节点2108(例如gnb)和enb(例如宏ran节点)之间,和/或在连接到cn 2110的两个enb之间定义xn接口。
288.在至少一个实施例中,xn接口可以包括xn用户平面(xn-u)接口和xn控制平面(xn-c)接口。在至少一个实施例中,xn-u可以提供用户平面pdu的无保证的递送,并且支持/提供数据转发和流控制功能。在至少一个实施例中,xn-c可提供管理和错误处理功能、管理xn-c接口的功能;对处于连接模式(例如,cm-connected)的ue 2102的移动性支持,其包括管理针对一个或更多个(r)an节点2108之间的连接模式的ue移动性的功能。在至少一个实施例中,移动性支持可包括从旧(源)服务(r)an节点2108到新(目标)服务(r)an节点2108的上下文传送;以及控制旧(源)服务(r)an节点2108至新(目标)服务(r)an节点2108之间的用户平面隧道。
289.在至少一个实施例中,xn-u的协议栈可以包括在互联网协议(ip)传输层上构建的传输网络层和在udp和/或一个或更多个ip层的顶部上用于承载用户平面pdu的gtp-u层。在至少一个实施例中,xn-c协议栈可以包括应用层信令协议(称为xn应用协议(xn-ap))和建立在sctp层上的传输网络层。在至少一个实施例中,sctp层可以在ip层的顶部上。在至少一
2028之间的控制平面的最高层。在至少一个实施例中,nas协议2212支持ue 2002的移动性和会话管理过程以建立和维持ue2002与p-gw 2034之间的ip连接。
298.在至少一个实施例中,si应用协议(si-ap)层(si-ap层2222)可以支持si接口的功能并且包括基本过程(ep)。在至少一个实施例中,ep是ran 2016和cn 2028之间的交互单元。在至少一个实施例中,s1-ap层服务可以包括两个组:ue关联服务和非ue关联服务。在至少一个实施例中,这些服务执行功能,包括但不限于:e-utran无线电接入承载(e-rab)管理、ue能力指示、移动性、nas信令传输、ran信息管理(rim)和配置转移。
299.在至少一个实施例中,流控制传输协议(sctp)层(可替代地称为流控制传输协议/互联网协议(sctp/ip)层)(sctp层2220)可以部分地基于ip层2218所支持的ip协议来确保ran 2016与mme 2028之间的信令消息的可靠传递。在至少一个实施例中,l2层2216和l1层2214可以指由ran节点和mme用来交换信息的通信链路(例如,有线或无线)。
300.在至少一个实施例中,ran 2016和一个或更多个mme 2028可以利用s1-mme接口来经由包括l1层2214、l2层2216、ip层2218、sctp层2220和si-ap层2222的协议栈交换控制平面数据。
301.图23是根据至少一个实施例的用户平面协议栈的图示。在至少一个实施例中,用户平面2300被示为ue 2002、ran 2016、s-gw 2030和p-gw2034之间的通信协议栈。在至少一个实施例中,用户平面2300可以利用与控制平面2200相同的协议层。在至少一个实施例中,ue 2002和ran2016可以利用uu接口(例如,lte-uu接口)来经由包括phy层2202、mac层2204、rlc层2206、pdcp层2208的协议栈来交换用户平面数据。
302.在至少一个实施例中,用于用户平面的通用分组无线电服务(gprs)隧道协议(gtp-u)层(gtp-u层2304)可以用于在gprs核心网络内和在无线电接入网络和核心网络之间运载用户数据。在至少一个实施例中,所传输的用户数据可以是ipv4、ipv6或ppp格式中的任何格式的分组。在至少一个实施例中,udp和ip安全(udp/ip)层(udp/ip层2302)可以提供数据完整性的校验和、用于在源和目的地寻址不同功能的端口号、以及对所选数据流的加密和认证。在至少一个实施例中,ran 2016和s-gw2030可以利用s1-u接口来经由包括l1层2214、l2层2216、udp/ip层2302和gtp-u层2304的协议栈来交换用户平面数据。在至少一个实施例中,s-gw 2030和p-gw 2034可以利用s5/s8a接口来经由包括l1层2214、l2层2216、udp/ip层2302和gtp-u层2304的协议栈交换用户平面数据。在至少一个实施例中,如以上关于图22所讨论的,nas协议支持ue 2002的移动性和会话管理过程以建立和维持ue 2002与p-gw 2034之间的ip连接。
303.图24示出了根据至少一个实施例的核心网络的组件2400。在至少一个实施例中,cn 2038的组件可以在一个物理节点或单独的物理节点中实现,所述单独的物理节点包括用于从机器可读介质或计算机可读介质(例如,非暂态机器可读存储介质)读取和执行指令的组件。在至少一个实施例中,网络功能虚拟化(nfv)用于经由存储在一个或更多个计算机可读存储介质(以下进一步详细描述)中的可执行指令来虚拟化任何或所有的上述网络节点功能。在至少一个实施例中,cn 2038的逻辑实例化可以被称为网络切片2402(例如,网络切片2402被示出为包括hss 2032、mme2028和s-gw 2030)。在至少一个实施例中,cn 2038的一部分的逻辑实例化可以被称为网络子切片2404(例如,网络子切片2404被示出为包括p-gw 2034和pcrf 2036)。
304.在至少一个实施例中,nfv架构和基础设施可以用于将一个或更多个网络功能虚拟化到包括行业标准服务器硬件、存储硬件或交换机的组合的物理资源上,所述网络功能可替代地由专用硬件执行。在至少一个实施例中,nfv系统可用于执行一个或更多个epc组件/功能的虚拟或可重新配置的实现方式。
305.图25是示出了根据至少一个实施例的用于支持网络功能虚拟化(nfv)的系统2500的组件的框图。在至少一个实施例中,系统2500被示为包括虚拟化基础设施管理器(被示为vim 2502)、网络功能虚拟化基础设施(如nfvi 2504所示)、vnf管理器(如vnfm 2506所示)、虚拟化网络功能(示出为vnf 2508)、元件管理器(示出为em 2510)、nfv协调器(示出为nfvo 2512)、以及网络管理器(示为nm 2514)。
306.在至少一个实施例中,vim 2502管理nfvi 2504的资源。在至少一个实施例中,nfvi 2504可包括用于执行系统2500的物理或虚拟资源和应用(包括管理程序)。在至少一个实施例中,vim 2502可以利用nfvi 2504来管理虚拟资源的生命周期(例如,与一个或更多个物理资源相关联的虚拟机(vm)的创建、维护和拆除)、跟踪vm实例、跟踪性能、vm实例和相关联的物理资源的故障和安全性、以及向其他管理系统暴露vm实例和相关联的物理资源。
307.在至少一个实施例中,vnfm 2506可以管理vnf 2508。在至少一个实施例中,vnf 2508可以用于执行epc组件/功能。在至少一个实施例中,vnfm 2506可以管理vnf 2508的生命周期并且跟踪vnf 2508的虚拟方面的性能、故障和安全性。在至少一个实施例中,em 2510可以跟踪vnf2508的功能方面的性能、故障和安全性。在至少一个实施例中,跟踪来自vnfm 2506和em 2510的数据可以包括,在至少一个实施例中,由vim2502或nfvi 2504使用的性能测量(pm)数据。在至少一个实施例中,vnfm 2506和em 2510两者可以放大/缩小系统2500的vnf的数量。
308.在至少一个实施例中,nfvo 2512可协调、授权、释放和占用nfvi2504的资源,以便提供所请求的服务(例如,以执行epc功能、组件或切片)。在至少一个实施例中,nm 2514可提供负责管理网络的终端用户功能包,该网络可包括具有vnf、非虚拟化网络功能或两者的网络元件(vnf的管理可经由em 2510发生)。
309.基于计算机的系统
310.以下各图提出但不限于可用于实现至少一个实施例的示例性的基于计算机的系统。
311.图26示出了根据至少一个实施例的处理系统2600。在至少一个实施例中,系统2600包括一个或更多个处理器2602和一个或更多个图形处理器2608,并且可以是单处理器台式机系统、多处理器工作站系统或具有大量处理器2602或处理器核心2607的服务器系统。在至少一个实施例中,处理系统2600是结合在片上系统(soc)集成电路内的处理平台,以用于移动、手持或嵌入式设备。
312.在至少一个实施例中,处理系统2600可以包括或结合在基于服务器的游戏平台中,包括游戏和媒体控制台的游戏控制台、移动游戏控制台、手持游戏控制台或在线游戏控制台。在至少一个实施例中,处理系统2600是移动电话、智能电话、平板计算设备或移动互联网设备。在至少一个实施例中,处理系统2600还可包括与可穿戴设备耦合或集成在可穿戴设备中,例如智能手表可穿戴设备、智能眼镜设备、增强现实设备或虚拟现实设备。在至
少一个实施例中,处理系统2600是电视或机顶盒设备,其具有一个或更多个处理器2602以及由一个或更多个图形处理器2608生成的图形界面。
313.在至少一个实施例中,一个或更多个处理器2602每个包括一个或更多个处理器核心2607,以处理指令,该指令在被执行时执行针对系统和用户软件的操作。在至少一个实施例中,一个或更多个处理器核心2607中的每一个被配置为处理特定指令集2609。在至少一个实施例中,指令集2609可以促进复杂指令集计算(cisc)、精简指令集计算(risc),或通过超长指令字(vliw)进行计算。在至少一个实施例中,多个处理器核心2607可以各自处理不同的指令集2609,该指令集2609可以包括有助于仿真其他指令集的指令。在至少一个实施例中,处理器核心2607还可以包括其他处理设备,例如数字信号处理器(dsp)。
314.在至少一个实施例中,处理器2602包括高速缓存存储器(cache)2604。在至少一个实施例中,处理器2602可以具有单个内部高速缓存或多个级别的内部高速缓存。在至少一个实施例中,高速缓存存储器在处理器2602的各个组件之间共享。在至少一个实施例中,处理器2602还使用外部高速缓存(例如,三级(l3)高速缓存或最后一级高速缓存(llc))(未示出),其可以使用已知的高速缓存一致性技术在处理器核心2607之间共享该逻辑。在至少一个实施例中,处理器2602中另外包括寄存器文件2606,处理器2602可以包括用于存储不同类型的数据的不同类型的寄存器(例如,整数寄存器、浮点寄存器、状态寄存器和指令指针寄存器)。在至少一个实施例中,寄存器文件2606可以包括通用寄存器或其他寄存器。
315.在至少一个实施例中,一个或更多个处理器2602与一个或更多个接口总线2610耦合,以在处理器2602与系统2600中的其他组件之间传输通信信号,例如地址、数据或控制信号。在至少一个实施例中,接口总线2610在一个实施例中可以是处理器总线,例如直接媒体接口(dmi)总线的版本。在至少一个实施例中,接口总线2610不限于dmi总线,并且可以包括一个或更多个外围组件互连总线(例如,pci,pci express)、存储器总线或其他类型的接口总线。在至少一个实施例中,处理器2602包括集成存储器控制器2616和平台控制器集线器2630。在至少一个实施例中,存储器控制器2616促进存储设备与处理系统2600的其他组件之间的通信,而平台控制器集线器(pch)2630通过本地i/o总线提供到输入/输出(i/o)设备的连接。
316.在至少一个实施例中,存储器设备2620可以是动态随机存取存储器(dram)设备、静态随机存取存储器(sram)设备、闪存设备、相变存储设备或具有适当的性能以用作处理器存储器。在至少一个实施例中,存储设备2620可以用作处理系统2600的系统存储器,以存储数据2622和指令2621,以在一个或更多个处理器2602执行应用或过程时使用。在至少一个实施例中,存储器控制器2616还与可选的外部图形处理器2612耦合,其可以与处理器2602中的一个或更多个图形处理器2608通信以执行图和媒体操作。在至少一个实施例中,显示设备2611可以连接至处理器2602。在至少一个实施例中,显示设备2611可以包括内部显示设备中的一个或更多个,例如在移动电子设备或便携式计算机设备或通过显示器接口(例如显示端口(displayport)等)连接的外部显示设备。在至少一个实施例中,显示设备2611可以包括头戴式显示器(hmd),诸如用于虚拟现实(vr)应用或增强现实(ar)应用中的立体显示设备。
317.在至少一个实施例中,平台控制器集线器2630使外围设备能够通过高速i/o总线连接到存储设备2620和处理器2602。在至少一个实施例中,i/o外围设备包括但不限于音频
控制器2646、网络控制器2634、固件接口2628、无线收发器2626、触摸传感器2625、数据存储设备2624(例如,硬盘驱动器、闪存等)。在至少一个实施例中,数据存储设备2624可以经由存储器接口(例如,sata)或经由外围总线来连接,诸如外围组件互连总线(例如,pci、pcie)。在至少一个实施例中,触摸传感器2625可以包括触摸屏传感器、压力传感器或指纹传感器。在至少一个实施例中,无线收发器2626可以是wi-fi收发器、蓝牙收发器或移动网络收发器,诸如3g、4g或长期演进(lte)收发器。在至少一个实施例中,固件接口2628使能与系统固件的通信,在至少一个实施例中,并且可以是统一的可扩展固件接口(uefi)。在至少一个实施例中,网络控制器2634可以启用到有线网络的网络连接。在至少一个实施例中,高性能网络控制器(未示出)与接口总线2610耦合。在至少一个实施例中,音频控制器2646是多通道高清晰度音频控制器。在至少一个实施例中,处理系统2600包括可选的传统(legacy)i/o控制器2640,用于将遗留(例如,个人系统2(ps/2))设备耦合到处理系统2600。在至少一个实施例中,平台控制器集线器2630还可以连接到一个或更多个通用串行总线(usb)控制器2642,该控制器连接输入设备,诸如键盘和鼠标2643组合、相机2644或其他usb输入设备。
318.在至少一个实施例中,存储器控制器2616和平台控制器集线器2630的实例可以集成到离散的外部图形处理器中,例如外部图形处理器2612。在至少一个实施例中,平台控制器集线器2630和/或存储控制器2616可以在一个或更多个处理器2602的外部。在至少一个实施例中,处理系统2600可以包括外部存储控制器2616和平台控制器集线器2630,其可以配置成在与处理器2602通信的系统芯片组中的存储器控制器集线器和外围控制器集线器。
319.图27示出了根据至少一个实施例的计算机系统2700。在至少一个实施例中,计算机系统2700可以是具有互连的设备和组件,soc,或某种组合的系统。在至少一个实施例中,计算机系统2700由处理器2702形成,该处理器2702可以包括用于执行指令的执行单元。在至少一个实施例中,计算机系统2700可以包括但不限于组件,例如处理器2702,其采用包括逻辑的执行单元以执行用于过程数据的算法。在至少一个实施例中,计算机系统2700可以包括处理器,例如可从加利福尼亚圣塔克拉拉的英特尔公司(intel corporation of santa clara,california)获得的处理器家族、xeontm、xscaletm和/或strongarmtm,core
tm
或nervana
tm
微处理器,尽管也可以使用其他系统(包括具有其他微处理器的pc、工程工作站、机顶盒等)。在至少一个实施例中,计算机系统2700可以执行可从华盛顿州雷蒙德市的微软公司(microsoft corporation of redmond,wash.)获得的windows操作系统版本,尽管其他操作系统(在至少一个实施例中unix和linux)、嵌入式软件和/或图形用户界面也可以使用。
320.在至少一个实施例中,计算机系统2700可以用在其他设备中,例如手持设备和嵌入式应用。手持设备的至少一个实施例的一些包括蜂窝电话、互联网协议(internet protocol)设备、数码相机、个人数字助理(“pda”)和手持pc。在至少一个实施例中,嵌入式应用可以包括微控制器、数字信号处理器(“dsp”)、soc、网络计算机(“netpc”)、机顶盒、网络集线器、广域网(“wan”)交换机,或根据至少一个实施例可以执行一个或更多个指令的任何其他系统。
321.在至少一个实施例中,计算机系统2700可包括但不限于处理器2702,该处理器2702可包括但不限于一个或更多个执行单元2708,其可以配置为执行计算统一设备架构
(“cuda”)(由加利福尼亚州圣克拉拉的nvidia corporation开发)程序。在至少一个实施例中,cuda程序是用cuda编程语言编写的软件应用程序的至少一部分。在至少一个实施例中,计算机系统2700是单处理器台式机或服务器系统。在至少一个实施例中,计算机系统2700可以是多处理器系统。在至少一个实施例中,处理器2702可以包括但不限于cisc微处理器、risc微处理器、vliw微处理器、实现指令集组合的处理器,或任何其他处理器设备,在至少一个实施例中,诸如数字信号处理器。在至少一个实施例中,处理器2702可以耦合到处理器总线2710,该处理器总线2710可以在处理器2702与计算机系统2700中的其他组件之间传输数据信号。
322.在至少一个实施例中,处理器2702可以包括但不限于1级(“l1”)内部高速缓存存储器(“cache”)2704。在至少一个实施例中,处理器2702可以具有单个内部高速缓存或多级内部缓存。在至少一个实施例中,高速缓存存储器可以驻留在处理器2702的外部。在至少一个实施例中,处理器2702可以包括内部和外部高速缓存的组合。在至少一个实施例中,寄存器文件2706可以在各种寄存器中存储不同类型的数据,包括但不限于整数寄存器、浮点寄存器、状态寄存器和指令指针寄存器。
323.在至少一个实施例中,包括但不限于执行整数和浮点运算的逻辑的执行单元2708,其也位于处理器2702中。处理器2702还可以包括微码(“ucode”)只读存储器(“rom”),用于存储某些宏指令的微代码。在至少一个实施例中,执行单元2708可以包括用于处理封装指令集2709的逻辑。在至少一个实施例中,通过将封装指令集2709包括在通用处理器2702的指令集中,以及要执行指令的相关电路,可以使用通用处理器2702中的封装数据来执行许多多媒体应用程序使用的操作。在至少一个实施例中,可以通过使用处理器的数据总线的全宽度来在封装的数据上执行操作来加速和更有效地执行许多多媒体应用程序,这可能不需要在处理器的数据总线上传输较小的数据单元来一次对一个数据元素执行一个或更多个操作。
324.在至少一个实施例中,执行单元2708也可以用在微控制器、嵌入式处理器、图形设备、dsp和其他类型的逻辑电路中。在至少一个实施例中,计算机系统2700可以包括但不限于存储器2720。在至少一个实施例中,存储器2720可以被实现为dram设备、sram设备、闪存设备或其他存储设备。存储器2720可以存储由处理器2702可以执行的由数据信号表示的指令2719和/或数据2721。
325.在至少一个实施例中,系统逻辑芯片可以耦合到处理器总线2710和存储器2720。在至少一个实施例中,系统逻辑芯片可以包括但不限于存储器控制器集线器(“mch”)2716,并且处理器2702可以经由处理器总线2710与mch 2716通信。在至少一个实施例中,mch 2716可以提供到存储器2720的高带宽存储器路径2718以用于指令和数据存储以及用于图形命令、数据和纹理的存储。在至少一个实施例中,mch 2716可以在处理器2702、存储器2720和计算机系统2700中的其他组件之间启动数据信号,并且在处理器总线2710、存储器2720和系统i/o 2722之间桥接数据信号。在至少一个实施例中,系统逻辑芯片可以提供用于耦合到图形控制器的图形端口。在至少一个实施例中,mch 2716可以通过高带宽存储器路径2718耦合到存储器2720,并且图形/视频卡2712可以通过加速图形端口(accelerated graphics port)(“agp”)互连2714耦合到mch 2716。
326.在至少一个实施例中,计算机系统2700可以使用系统i/o 2722作为专有集线器接
口总线来将mch 2716耦合到i/o控制器集线器(“ich”)2730。在至少一个实施例中,ich 2730可以通过本地i/o总线提供与某些i/o设备的直接连接。在至少一个实施例中,本地i/o总线可以包括但不限于用于将外围设备连接到存储器2720、芯片组和处理器2702的高速i/o总线。示例可以包括但不限于音频控制器2729、固件集线器(“flash bios”)2728、无线收发器2726、数据存储2724、包含用户输入2725的传统i/o控制器2723和键盘接口、串行扩展端口2777(例如usb)和网络控制器2734。数据存储2724可以包括硬盘驱动器、软盘驱动器、cd-rom设备、闪存设备或其他大容量存储设备。
327.在至少一个实施例中,图27示出了包括互连的硬件设备或“芯片”的系统。在至少一个实施例中,图27可以示出示例性soc。在至少一个实施例中,图27中示出的设备可以与专有互连、标准化互连(例如,pcie)或其某种组合互连。在至少一个实施例中,系统2700的一个或更多个组件使用计算快速链路(cxl)互连来互连。
328.图28示出了根据至少一个实施例的系统2800。在至少一个实施例中,系统2800是利用处理器2810的电子设备。在至少一个实施例中,系统2800可以是,在至少一个实施例中但不限于,笔记本电脑、塔式服务器、机架服务器、刀片服务器、膝上型计算机、台式机、平板电脑、移动设备、电话、嵌入式计算机或任何其他合适的电子设备。
329.在至少一个实施例中,系统2800可以包括但不限于通信地耦合到任何合适数量或种类的组件、外围设备、模块或设备的处理器2810。在至少一个实施例中,处理器2810使用总线或接口耦合,诸如i2c总线、系统管理总线(“smbus”)、低引脚数(lpc)总线、串行外围接口(“spi”)、高清音频(“hda”)总线、串行高级技术附件(“sata”)总线、usb(1、2、3版)或通用异步接收器/发送器(“uart”)总线。在至少一个实施例中,图28示出了系统,该系统包括互连的硬件设备或“芯片”。在至少一个实施例中,图28可以示出示例性soc。在至少一个实施例中,图28中所示的设备可以与专有互连线、标准化互连(例如,pcie)或其某种组合互连。在至少一个实施例中,图28的一个或更多个组件使用计算快速链路(cxl)互连线来互连。
330.在至少一个实施例中,图28可以包括显示器2824、触摸屏2825、触摸板2830、近场通信单元(“nfc”)2845、传感器集线器2840、热传感器2846、快速芯片组(“ec”)2835、可信平台模块(“tpm”)2838、bios/固件/闪存(“bios,fw flash”)2822、dsp 2860、固态磁盘(“ssd”)或硬盘驱动器(“hdd”)2820、无线局域网单元(“wlan”)2850、蓝牙单元2852、无线广域网单元(“wwan”)2856、全球定位系统(gps)2855、相机(“usb 3.0相机”)2854(例如usb 3.0相机)或以至少一个实施例lpddr3标准实现的低功耗双倍数据速率(“lpddr”)存储器单元(“lpddr3”)2815。这些组件可以各自以任何合适的方式实现。
331.在至少一个实施例中,其他组件可以通过以上讨论的组件通信地耦合到处理器2810。在至少一个实施例中,加速度计2841、环境光传感器(“als”)2842、罗盘2843和陀螺仪2844可以可通信地耦合到传感器集线器2840。在至少一个实施例中,热传感器2839、风扇2837、键盘2846和触摸板2830可以通信地耦合到ec 2835。在至少一个实施例中,扬声器2863、耳机2864和麦克风(“mic”)2865可以通信地耦合到音频单元(“音频编解码器和d类放大器”)2864,其又可以通信地耦合到dsp 2860。在至少一个实施例中,音频单元2864可以包括但不限于音频编码器/解码器(“编解码器”)和d类放大器。在至少一个实施例中,sim卡(“sim”)2857可以通信地耦合到wwan单元2856。在至少一个实施例中,组件(诸如wlan单元2850和蓝牙单元2852以及wwan单元2856)可以被实现为下一代形式因素(ngff)。
332.图29示出了根据至少一个实施例的示例性集成电路2900。在至少一个实施例中,示例性集成电路2900是soc,其可使用一个或更多个ip核心制造。在至少一个实施例中,集成电路2900包括一个或更多个应用处理器2905(例如,cpu)、至少一个图形处理器2910,并且可以另外包括图像处理器2915和/或视频处理器2920,其中任意一个可能是模块化ip核心。在至少一个实施例中,集成电路2900包括外围或总线逻辑,其包括usb控制器2925、uart控制器2930、spi/sdio控制器2935和i2s/i2c控制器2940。在至少一个实施例中,集成电路2900可以包括显示设备2945耦合到高清多媒体接口(hdmi)控制器2950和移动工业处理器接口(mipi)显示接口2955中的一个或更多个。在至少一个实施例中,存储可以由闪存子系统2960提供,包括闪存和闪存控制器。在至少一个实施例中,可以经由存储器控制器2965提供存储器接口以用于访问sdram或sram存储器设备。在至少一个实施例中,一些集成电路还包括嵌入式安全引擎2970。
333.图30示出了根据至少一个实施例的计算系统3000。在至少一个实施例中,计算系统3000包括处理子系统3001,其具有经由可以包括存储器集线器3005的互连路径通信的一个或更多个处理器3002和系统存储器3004。在至少一个实施例中,存储器集线器3005可以是芯片组组件内的单独组件,也可以集成在一个或更多个处理器3002内。在至少一个实施例中,存储器集线器3005通过通信链路3006与i/o子系统3011耦合。在至少一个实施例中,i/o子系统3011包括i/o集线器3007,其可以使计算系统3000能够接收来自一个或更多个输入设备3008的输入。在至少一个实施例中,i/o集线器3007可以使能显示控制器,其包括在一个或更多个处理器3002中,用于向一个或更多个显示设备3010a提供输出。在至少一个实施例中,与i/o集线器3007耦合的一个或更多个显示设备3010a可以包括本地、内部或嵌入式显示设备。
334.在至少一个实施例中,处理子系统3001包括经由总线或其他通信链路3013耦合到存储器集线器3005的一个或更多个并行处理器3012。在至少一个实施例中,通信链路3013可以是许多基于标准的通信链路技术或协议中的一种,例如但不限于pcie,或者可以是针对供应商的通信接口或通信结构。在至少一个实施例中,一个或更多个并行处理器3012形成计算集中的并行或向量处理系统,该系统可以包括大量的处理核心和/或处理集群,例如多集成核心(mic)处理器。在至少一个实施例中,一个或更多个并行处理器3012形成可以将像素输出到经由i/o集线器3007耦合的一个或更多个显示设备3010a之一的图形处理子系统。在至少一个实施例中,一个或更多个并行处理器3012还可以包括显示控制器和显示接口(未示出),以使得能够直接连接到一个或更多个显示设备3010b。
335.在至少一个实施例中,系统存储单元3014可以连接到i/o集线器3007,以提供用于计算系统3000的存储机制。在至少一个实施例中,i/o交换机3016可以用于提供接口机制,以实现i/o集线器3007与其他组件之间的连接,例如可以集成到平台中的网络适配器3018和/或无线网络适配器3019,以及可以通过一个或更多个附加设备3020添加的各种其他设备。在至少一个实施例中,网络适配器3018可以是以太网适配器或另一有线网络适配器。在至少一个实施例中,无线网络适配器3019可以包括wi-fi、蓝牙、nfc的一个或更多个或其他包括一个或更多个无线电的网络设备。
336.在至少一个实施例中,计算系统3000可以包括未明确示出的其他组件,包括usb或其他端口连接、光存储驱动器、视频捕获设备和/或其变体,也可以连接到i/o集线器3007。
在至少一个实施例中,对图30中的各个组件进行互连的通信路径可以使用任何合适的协议来实现,诸如基于pci(外围组件互连)的协议(例如,pcie),或其他总线或点对点通信接口和/或协议(例如,nvlink高速互连或互连协议)。
337.在至少一个实施例中,一个或更多个并行处理器3012包括针对图形和视频处理而优化的电路(在至少一个实施例,包括视频输出电路),并构成图形处理单元(gpu)。在至少一个实施例中,一个或更多个并行处理器3012包括针对通用处理而优化的电路。在至少一个实施例中,计算系统3000的组件可以与单个集成电路上的一个或更多个其他系统元件集成。在至少一个实施例中,一个或更多个并行处理器3012、存储器集线器3005、处理器3002和i/o集线器3007可以被集成到片上系统(soc)集成电路中。在至少一个实施例中,计算系统3000的组件可以被集成到单个封装中以形成系统级封装(sip)配置。在至少一个实施例中,计算系统3000的组件的至少一部分可以被集成到多芯片模块(mcm)中,该多芯片模块可以与其他多芯片模块互连到模块化计算系统中。在至少一个实施例中,从计算系统3000中省略了i/o子系统3011和显示设备3010b。
338.处理系统
339.以下各图阐述了但不限于可用于实现至少一个实施例的示例性处理系统。
340.图31示出了根据至少一个实施例的加速处理单元(“apu”)3100。在至少一个实施例中,apu 3100由加利福尼亚州圣克拉拉市的amd公司开发。在至少一个实施例中,apu 3100可以被配置为执行应用程序,诸如cuda程序。在至少一个实施例中,apu 3100包括但不限于核心复合体3110、图形复合体3140、结构3160、i/o接口3170、存储器控制器3180、显示控制器3192和多媒体引擎3194。在至少一个实施例中,apu 3100可以包括但不限于任意数量的核心复合体3110、任意数量的图形复合体3140、任意数量的显示控制器3192和任意数量的多媒体引擎3194的任何组合。为了说明的目的,在本文中用附图标记表示相似对象的多个实例,其中附图标记标识该对象,并且括号中的数字标识所需要的实例。
341.在至少一个实施例中,核心复合体3110是cpu,图形复合体3140是gpu,并且apu 3100是将不限于3110和3140集成到单个芯片上的处理单元。在至少一个实施例中,一些任务可以被分配给核心复合体3110,而其他任务可以被分配给图形复合体3140。在至少一个实施例中,核心复合体3110被配置为执行与apu 3100相关联的主控制软件,例如操作系统。在至少一个实施例中,核心复合体3110是apu 3100的主处理器,其控制和协调其他处理器的操作。在至少一个实施例中,核心复合体3110发出控制图形复合体3140的操作的命令。在至少一个实施例中,核心复合体3110可以被配置为执行从cuda源代码派生的主机可执行代码,并且图形复合体3140可以被配置为执行从cuda源代码派生的设备可执行代码。
342.在至少一个实施例中,核心复合体3110包括但不限于核心3120(1)-3120(4)和l3高速缓存3130。在至少一个实施例中,核心复合体3110可以包括但不限于任意数量的核心3120以及任意数量和类型的高速缓存的任何组合。在至少一个实施例中,核心3120被配置为执行特定指令集架构(“isa”)的指令。在至少一个实施例中,每个核心3120是cpu核心。
343.在至少一个实施例中,每个核心3120包括但不限于获取/解码单元3122,整数执行引擎3124,浮点执行引擎3126和l2高速缓存3128。在至少一个实施例中,获取/解码单元3122获取指令,对这些指令进行解码,生成微操作,并将单独的微指令分派给整数执行引擎3124和浮点执行引擎3126。在至少一个实施例中,获取/解码单元3122可以同时分派一个微
指令到整数执行引擎3124和另一微指令到浮点执行引擎3126。在至少一个实施例中,整数执行引擎3124执行不限于整数和存储器操作。在至少一个实施例中,浮点引擎3126执行不限于浮点和向量运算。在至少一个实施例中,获取-解码单元3122将微指令分派给单个执行引擎,该执行引擎代替整数执行引擎3124和浮点执行引擎3126两者。
344.在至少一个实施例中,每个核心3120(i)可以访问包括在核心3120(i)中的l2高速缓存3128(i),其中i是表示核心3120的特定实例的整数。在至少一个实施例中,包括在核心复合体3110(j)中的每个核心3120经由包括在核心复合体3110(j)中的l3高速缓存3130(j)连接到包括在核心复合体3110(j)中的其他核心3120,其中j是表示核心复合体3110的特定实例的整数。在至少一个实施例中,包括在核心复合体3110(j)中的核心3120可以访问包括在核心复合体3110(j)中的所有l3高速缓存3130(j),其中j是表示核心复合体3110的特定实例的整数。在至少一个实施例中,l3高速缓存3130可以包括但不限于任意数量的切片(slice)。
345.在至少一个实施例中,图形复合体3140可以被配置为以高度并行的方式执行计算操作。在至少一个实施例中,图形复合体3140被配置为执行图形管线操作,诸如绘制命令、像素操作、几何计算以及与将图像渲染至显示器相关联的其他操作。在至少一个实施例中,图形复合体3140被配置为执行与图形无关的操作。在至少一个实施例中,图形复合体3140被配置为执行与图形有关的操作和与图形无关的操作。
346.在至少一个实施例中,图形复合体3140包括但不限于任意数量的计算单元3150和l2高速缓存3142。在至少一个实施例中,计算单元3150共享l2高速缓存3142。在至少一个实施例中,l2高速缓存3142被分区。在至少一个实施例中,图形复合体3140包括但不限于任意数量的计算单元3150以及任意数量(包括零)和类型的高速缓存。在至少一个实施例中,图形复合体3140包括但不限于任意数量的专用图形硬件。
347.在至少一个实施例中,每个计算单元3150包括但不限于任意数量的simd单元3152和共享存储器3154。在至少一个实施例中,每个simd单元3152实现simd架构并且被配置为并行执行操作。在至少一个实施例中,每个计算单元3150可以执行任意数量的线程块,但是每个线程块在单个计算单元3150上执行。在至少一个实施例中,线程块包括但不限于任意数量的执行线程。在至少一个实施例中,工作组是线程块。在至少一个实施例中,每个simd单元3152执行不同的线程束(warp)。在至少一个实施例中,线程束是一组线程(例如16个线程),其中线程束中的每个线程属于单个线程块,并且被配置为基于单个指令集来处理不同的数据集。在至少一个实施例中,可以使用预测(predication)来禁用线程束中的一个或更多个线程。在至少一个实施例中,通道是线程。在至少一个实施例中,工作项是线程。在至少一个实施例中,波前是线程束。在至少一个实施例中,线程块中的不同波前可一起同步并经由共享存储器3154进行通信。
348.在至少一个实施例中,结构3160是系统互连,其促进跨核心复合体3110、图形复合体3140、i/o接口3170、存储器控制器3180、显示控制器3192和多媒体引擎3194的数据和控制传输。在至少一个实施例中,除了结构3160之外或代替结构3160,apu 3100还可以包括但不限于任意数量和类型的系统互连,该结构3160促进跨可以在apu 3100内部或外部的任意数量和类型的直接或间接链接的组件的数据和控制传输。在至少一个实施例中,i/o接口3170表示任意数量和类型的i/o接口(例如,pci,pci-extended(“pci-x”),pcie,千兆以太
网(“gbe”),usb等)。在至少一个实施例中,各种类型的外围设备耦合到i/o接口3170。在至少一个实施例中,耦合到i/o接口3170的外围设备可以包括但不限于键盘,鼠标,打印机,扫描仪,操纵杆或其他类型的游戏控制器、媒体记录设备、外部存储设备、网络接口卡等。
349.在至少一个实施例中,显示控制器amd92在一个或更多个显示设备(例如液晶显示器(lcd)设备)上显示图像。在至少一个实施例中,多媒体引擎240包括但不限于任意数量和类型的与多媒体相关的电路,例如视频解码器、视频编码器、图像信号处理器等。在至少一个实施例中,存储器控制器3180促进apu 3100与统一系统存储器3190之间的数据传输。在至少一个实施例中,核心复合体3110和图形复合体3140共享统一系统存储器3190。
350.在至少一个实施例中,apu 3100实现种存储器子系统,其包括但不限于任意数量和类型的存储器控制器3180和可以专用于一个组件或在多个组件之间共享的存储器设备(例如,共享存储器3154)。组件。在至少一个实施例中,apu 3100实现高速缓存子系统,其包括但不限于一个或更多个高速缓存存储器(例如,l2高速缓存2728,l3高速缓存3130和l2高速缓存3142),每个高速缓存存储器可以是组件私有的或在任意数量的组件(例如,核心3120,核心复合体3110,simd单元3152,计算单元3150和图形复合体3140)之间共享。
351.图32示出了根据至少一个实施例的cpu 3200。在至少一个实施例中,cpu 3200由加利福尼亚州圣克拉拉市的amd公司开发。在至少一个实施例中,cpu 3200可以被配置为执行应用程序。在至少一个实施例中,cpu 3200被配置为执行主控制软件,例如操作系统。在至少一个实施例中,cpu 3200发出控制外部gpu(未示出)的操作的命令。在至少一个实施例中,cpu 3200可以被配置为执行从cuda源代码派生的主机可执行代码,并且外部gpu可以被配置为执行从这种cuda源代码派生的设备可执行代码。在至少一个实施例中,cpu 3200包括但不限于任意数量的核心复合体3210,结构3260,i/o接口3270和存储器控制器3280。
352.在至少一个实施例中,核心复合体3210包括但不限于核心3220(1)-3220(4)和l3高速缓存3230。在至少一个实施例中,核心复合体3210可以包括但不限于任意数量的核心3220以及任意数量和类型的高速缓存的任何组合。在至少一个实施例中,核心3220被配置为执行特定isa的指令。在至少一个实施例中,每个核心3220是cpu核心。
353.在至少一个实施例中,每个核心3220包括但不限于获取/解码单元3222,整数执行引擎3224,浮点执行引擎3226和l2高速缓存3228。在至少一个实施例中,获取/解码单元3222获取指令,对这些指令进行解码,生成微操作,并将单独的微指令分派给整数执行引擎3224和浮点执行引擎3226。在至少一个实施例中,获取/解码单元3222可以同时分派一个微指令至整数执行引擎3224和另一微指令至浮点执行引擎3226。在至少一个实施例中,整数执行引擎3224执行不限于整数和存储器操作。在至少一个实施例中,浮点引擎3226执行不限于浮点和向量运算。在至少一个实施例中,获取-解码单元3222将微指令分派给单个执行引擎,该引擎代替整数执行引擎3224和浮点执行引擎3226两者。
354.在至少一个实施例中,每个核心3220(i)可以访问包括在核心3220(i)中的l2高速缓存3228(i),其中i是表示核心3220的特定实例的整数。在至少一个实施例中,包括在核心复合体3210(j)中的每个核心3220经由包括在核心复合体3210(j)中的l3高速缓存3230(j)连接到核心复合体3210(j)中的其他核心3220,其中j是表示核心复合体3210的特定实例的整数。在至少一个实施例中,包括在核心复合体3210(j)中的核心3220可以访问包括在核心复合体3210(j)中的所有l3高速缓存3230(j),其中j是表示核心复合体3210的特定实例的
整数。在至少一个实施例中,l3高速缓存3230可以包括但不限于任意数量的切片。
355.在至少一个实施例中,结构3260是系统互连,其促进跨核心复合体3210(1)-3210(n)(其中n是大于零的整数)、i/o接口3270和存储器控制器3280的数据和控制传输。在至少一个实施例中,除了结构3260之外或代替结构3260,cpu 3200还可以包括但不限于任意数量和类型的系统互连,该结构3260促进跨可以在cpu 3200内部或外部的任意数量和类型的直接或间接链接的组件的数据和控制传输。在至少一个实施例中,i/o接口3270表示任意数量和类型的i/o接口(例如pci,pci-x,pcie,gbe,usb等)。在至少一个实施例中,各种类型的外围设备耦合到i/o接口3270。在至少一个实施例中,耦合到i/o接口3270的外围设备可以包括但不限于显示器,键盘,鼠标,打印机,扫描仪,操纵杆或其他类型的游戏控制器、媒体记录设备、外部存储设备、网络接口卡等。
356.在至少一个实施例中,存储器控制器3280促进cpu 3200与系统存储器3290之间的数据传输。在至少一个实施例中,核心复合体3210和图形复合体3240共享系统存储器3290。在至少一个实施例中,cpu 3200实现存储器子系统,其包括但不限于任意数量和类型的存储器控制器3280和可以专用于一个组件或在多个组件之间共享的存储器设备。在至少一个实施例中,cpu 3200实现了高速缓存子系统,其包括但不限于一个或更多个高速缓存存储器(例如,l2高速缓存3228和l3高速缓存3230),每个高速缓存存储器可以是组件私有的或在任意数量的组件(例如,核心3220和核心复合体3210)之间共享。
357.图33示出了根据至少一个实施例的示例性加速器集成切片3390。如本文所使用的,“切片”包括加速器集成电路的处理资源的指定部分。在至少一个实施例中,加速器集成电路代表多个图形加速模块种的多个图形处理引擎提供高速缓存管理、存储器访问、环境管理和中断管理服务。图形处理引擎可以各自包括单独的gpu。可选地,图形处理引擎可包括gpu内的不同类型的图形处理引擎,例如图形执行单元、媒体处理引擎(例如,视频编码器/解码器)、采样器和blit引擎。在至少一个实施例中,图形加速模块可以是具有多个图形处理引擎的gpu。在至少一个实施例中,图形处理引擎可以是集成在通用封装、线卡或芯片上的各个gpu。
358.系统存储器3314内的应用程序有效地址空间3382存储进程元素3383。在一个实施例中,响应于来自处理器3307上执行的应用程序3380的gpu调用3381而存储进程元素3383。进程元素3383包含对应应用程序3380的处理状态。包含在进程元素3383中的工作描述符(wd)3384可以是应用程序请求的单个作业或可能包含指向作业队列的指针。在至少一个实施例中,wd 3384是指向应用程序有效地址空间3382中的作业请求队列的指针。
359.图形加速模块3346和/或各个图形处理引擎可以由系统中的全部或部分进程共享。在至少一个实施例中,可以包括用于建立处理状态并将wd 3384发送到图形加速模块3346以在虚拟化环境中开始作业的基础设施。
360.在至少一个实施例中,专用进程编程模型是针对实现的。在该模型中,单个进程拥有图形加速模块3346或个体图形处理引擎。由于图形加速模块3346由单个进程拥有,因此管理程序为拥有的分区初始化加速器集成电路,并且当分配图形加速模块3346时操作系统对加速器集成电路进行初始化以用于拥有的分区。
361.在操作中,加速器集成切片3390中的wd获取单元3391获取下一个wd 3384,其中包括要由图形加速模块3346的一个或更多个图形处理引擎完成的工作的指示。来自wd 3384
的数据可以存储在寄存器3345被存储器管理单元(mmu)3339、中断管理电路3347和/或环境管理电路3348使用,如图所示。mmu 3339的至少一个实施例包括用于访问os虚拟地址空间3385内的段/页表3386的段/页面漫游电路。中断管理电路3347可以处理从图形加速模块3346接收到的中断事件(int)3392。当执行图操作时,由图形处理引擎产生的有效地址3393由mmu 3339转换为实际地址。
362.在一个实施例中,为每个图形处理引擎和/或图形加速模块3346复制相同的寄存器组3345,并且可以由系统管理程序或操作系统来初始化。这些复制的寄存器中的每一个都可以包含在加速器集成切片3390中。表1中显示了可由管理程序初始化的示例性寄存器。
363.表1

管理程序初始化的寄存器
364.1切片控制寄存器2实地址(ra)计划的处理区域指针3授权掩码覆盖寄存器4中断向量表输入偏移5中断向量表入口限制6状态寄存器7逻辑分区id8实地址(ra)管理程序加速器利用率记录指针9存储描述寄存器
365.表2中示出了可以由操作系统初始化的示例性寄存器。
366.表2

操作系统初始化寄存器
[0367][0368][0369]
在一个实施例中,每个wd 3384特定于特定的图形加速模块3346和/或特定图形处理引擎。它包含图形处理引擎进行工作或工作所需的所有信息,或者它可以是指向存储器位置的指针,其中应用程序建立了要完成的工作的命令队列。
[0370]
图34a-34b示出了根据本文至少一个实施例的示例性图形处理器。在至少一个实施例中,任何示例性图形处理器可以使用一个或更多个ip核心来制造。除了图示之外,在至少一个实施例中可以包括其他逻辑和电路,包括附加的图形处理器/核心、外围接口控制器
或通用处理器核心。在至少一个实施例中,示例性图形处理器用于soc内。
[0371]
图34a示出了根据至少一个实施例的soc集成电路的示例性图形处理器3410,其可以使用一个或更多个ip核心来制造。图34b示出了根据至少一个实施例的soc集成电路的的附加示例性图形处理器3440,其可以使用一个或更多个ip核心来制造。在至少一个实施例中,图34a的图形处理器3410是低功耗图形处理器核心。在至少一个实施例中,图34b的图形处理器3440是更高性能的图形处理器核心。在至少一个实施例中,每个图形处理器3410、3440可以是图5的图形处理器510的变体。
[0372]
在至少一个实施例中,图形处理器3410包括顶点处理器3405和一个或更多个片段处理器3415a-3415n(例如3415a、3415b、3415c、3415d至3415n-1和3415n)。在至少一个实施例中,图形处理器3410可以经由单独的逻辑来执行不同的着色器程序,使得顶点处理器3405被优化以执行针对顶点着色器程序的操作,而一个或更多个片段处理器3415a-3415n执行片段(例如,像素)着色操作用于片段或像素或着色器程序。在至少一个实施例中,顶点处理器3405执行3d图形管线的顶点处理阶段并生成图元和顶点数据。在至少一个实施例中,片段处理器3415a-3415n使用由顶点处理器3405生成的图元和顶点数据来生成在显示设备上显示的帧缓冲区。在至少一个实施例中,片段处理器3415a-3415n被优化以执行如在opengl api中所提供的片段着色器程序,其可以用于执行与在direct 3d api中所提供的像素着色器程序类似的操作。
[0373]
在至少一个实施例中,图形处理器3410附加地包括一个或更多个mmu 3420a-3420b、高速缓存3425a-3425b和电路互连3430a-3430b。在至少一个实施例中,一个或更多个mmu 3420a-3420b提供用于图形处理器3410的虚拟到物理地址的映射,包括用于顶点处理器3405和/或片段处理器3415a-3415n,其可以引用存储在存储器中的顶点或图像/纹理数据,除了存储在一个或更多个高速缓存3425a-3425b中的顶点或图像/纹理数据之外。在至少一个实施例中,一个或更多个mmu 3420a-3420b可以与系统内的其他mmu同步,包括与图5的一个或更多个应用处理器505、图像处理器515和/或视频处理器520相关联的一个或更多个mmu,使得每个处理器505-520可以参与共享或统一的虚拟存储器系统。在至少一个实施例中,一个或更多个电路互连3430a-3430b使图形处理器3410能够经由soc的内部总线或经由直接连接与soc内的其他ip核心相连接。
[0374]
在至少一个实施例中,图形处理器3440包括图34a的图形处理器3410的一个或更多个mmu 3420a-3420b、高速缓存3425a-3425b和电路互连3430a-3430b。在至少一个实施例中,图形处理器3440包括一个或更多个着色器核心3455a-3455n(例如,3455a、3455b、3455c、3455d、3455e、3455f、至3455n-1和3455n),其提供了统一的着色器核心架构,其中单个核心或类型或核心可以执行所有类型的可编程着色器代码,包括用于实现顶点着色器、片段着色器和/或计算着色器的着色器程序代码。在至少一个实施例中,多个着色器核心可以变化。在至少一个实施例中,图形处理器3440包括核心间任务管理器3445,其充当线程分派器以将执行线程分派给一个或更多个着色器核心3455a-3455n和分块单元3458,以加速基于图块渲染的分块操作,其中在图像空间中细分了场景的渲染操作,例如,以利用场景内的局部空间一致性或优化内部缓存的使用。
[0375]
图35a示出了根据至少一个实施例的图形核心3500。在至少一个实施例中,图形核心3500可以包括在图24的图形处理器2410内。在至少一个实施例中,图形核心3500可以是
图34b中统一的着色器核心3455a-3455n。在至少一个实施例中,图形核心3500包括共享指令高速缓存3502、纹理单元3518和高速缓存/共享存储器3520,它们是图形核心3500内的执行资源所共有的。在至少一个实施例中,图形核心3500可以包括多个切片(slice)3501a-3501n或每个核心的分区,图形处理器可以包括图形核心3500的多个实例。切片3501a-3501n可以包括支持逻辑,该支持逻辑包括本地指令高速缓存3504a-3504n、线程调度器3506a-3506n、线程分派器3508a-3508n和一组寄存器3510a-3510n。在至少一个实施例中,切片3501a-3501n可以包括一组附加功能单元(afu)3512a-3512n、浮点单元(fpu)3514a-3514n、整数算术逻辑单元(alu)3516a-3516n、地址计算单元(acu)3513a-3513n、双精度浮点单元(dpfpu)3515a-3515n和矩阵处理单元(mpu)3517a-3517n。
[0376]
在一个实施例中,fpu 3514a-3514n可以执行单精度(32位)和半精度(16位)浮点运算,而dpfpu 3515a-3515n可以执行双精度(64位)浮点运算点操作。在至少一个实施例中,alu 3516a-3516n可以以8位、16位和32位精度执行可变精度整数运算,并且可以被配置用于混合精度运算。在至少一个实施例中,mpu 3517a-3517n还可被配置用于混合精度矩阵运算,包括半精度浮点运算和8位整数运算。在至少一个实施例中,mpu 3517a-3517n可以执行各种矩阵操作以加速cuda程序,包括使得能够支持加速的通用矩阵到矩阵乘法(gemm)。在至少一个实施例中,afu 3512a-3512n可以执行浮点数或整数单元不支持的附加逻辑运算,包括三角运算(例如,sine、cosine等)。
[0377]
图35b示出了在至少一个实施例中的通用图形处理单元(gpgpu)3530。在至少一个实施例中,gpgpu 3530是高度并行的并且适合于部署在多芯片模块上。在至少一个实施例中,gpgpu 3530可以被配置为使得高度并行的计算操作能够由gpu阵列来执行。在至少一个实施例中,gpgpu 3530可以直接链路到gpgpu 3530的其他实例,以创建多gpu集群以提高用于cuda程序的执行时间。在至少一个实施例中,gpgpu 3530包括主机接口3532以实现与主机处理器的连接。在至少一个实施例中,主机接口3532是pcie接口。在至少一个实施例中,主机接口3532可以是厂商专用的通信接口或通信结构。在至少一个实施例中,gpgpu 3530从主机处理器接收命令,并使用全局调度器3534将与那些命令相关联的执行线程分派给一组计算集群3536a-3536h。在至少一个实施例中,计算集群3536a-3536h共享高速缓存存储器3538。在至少一个实施例中,高速缓存存储器3538可以用作计算集群3536a-3536h内的高速缓存存储器的高级高速缓存。
[0378]
在至少一个实施例中,gpgpu 3530包括经由一组存储器控制器3542a-3542b与计算集群3536a-3536h耦合的存储器3544a-3544b。在至少一个实施例中,存储器3544a-3544b可以包括各种类型的存储器设备,包括动态随机存取存储器(dram)或图形随机存取存储器,例如同步图形随机存取存储器(sgram),包括图形双倍数据速率(gddr)存储器。
[0379]
在至少一个实施例中,计算集群3536a-3536h各自包括一组图形核心,诸如图35a的图形核心3500,其可以包括多种类型的整数和浮点逻辑单元,可以以各种精度执行计算操作,包括适合与cuda程序相关的计算。在至少一个实施例中,每个计算集群3536a-3536h中的浮点单元的至少一个子集可以配置为执行16位或32位浮点运算,而不同的浮点单元的子集可以配置为执行64位浮点运算。
[0380]
在至少一个实施例中,gpgpu 3530的多个实例可以被配置为操作为计算集群。在至少一个实施例中,计算集群3536a-3536h可以实现用于同步和数据交换的任何技术上可
行的通信技术。在至少一个实施例中,gpgpu 3530的多个实例通过主机接口3532进行通信。在至少一个实施例中,gpgpu 3530包括i/o集线器3539,其将gpgpu 3530与gpu链路3540耦合,使得能够直接连接至gpgpu 3530的其他的实例。在至少一个实施例中,gpu链路3540耦合到专用gpu到gpu桥接器,其使得能够在gpgpu 3530的多个实例之间进行通信和同步。在至少一个实施例中,gpu链路3540与高速互连耦合,以向其他gpgpu或并行处理器发送和接收数据。在至少一个实施例中,gpgpu 3530的多个实例位于单独的数据处理系统中,并经由可经由主机接口3532访问的网络设备进行通信。在至少一个实施例中,gpu链路3540可被配置为能够连接到主机处理器,附加或替代主机接口3532。在至少一个实施例中,gpgpu 3530可以配置为执行cuda程序。
[0381]
图36a示出了根据至少一个实施例的并行处理器3600。在至少一个实施例中,并行处理器3600的各种组件可以使用一个或更多个集成电路设备来实现,例如可编程处理器、专用集成电路(asic)或fpga。
[0382]
在至少一个实施例中,并行处理器3600包括并行处理单元3602。在至少一个实施例中,并行处理单元3602包括i/o单元3604,其使得能够与其他设备进行通信,包括并行处理单元3602的其他实例。在至少一个实施例中,i/o单元3604可以直接连接到其他设备。在至少一个实施例中,i/o单元3604通过使用集线器或交换机接口(例如,存储器集线器605)与其他设备连接。在至少一个实施例中,存储器集线器605与i/o单元3604之间的连接形成通信链路。在至少一个实施例中,i/o单元3604与主机接口3606和存储器交叉开关3616连接,其中主机接口3606接收用于执行处理操作的命令,而存储器交叉开关3616接收用于执行存储器操作的命令。
[0383]
在至少一个实施例中,当主机接口3606经由i/o单元3604接收命令缓冲区时,主机接口3606可以引导工作操作以执行那些命令到前端3608。在至少一个实施例中,前端3608与调度器3610耦合,调度器3610配置成将命令或其他工作项分配给处理阵列3612。在至少一个实施例中,调度器3610确保在将任务分配给处理阵列3612中的处理阵列3612之前,处理阵列3612被正确地配置并且处于有效状态。在至少一个实施例中,调度器3610通过在微控制器上执行的固件逻辑来实现。在至少一个实施例中,微控制器实现的调度器3610可配置成以粗粒度和细粒度执行复杂的调度和工作分配操作,从而实现对在处理阵列3612上执行的线程的快速抢占和环境切换。在至少一个实施例中,主机软件可以证明用于通过多个图形处理门铃之一在处理阵列3612上进行调度的工作负载。在至少一个实施例中,工作负载然后可以由包括调度器3610的微控制器内的调度器3610逻辑在处理阵列3612上自动分配。
[0384]
在至少一个实施例中,处理阵列3612可以包括多达“n”个处理集群(例如,集群3614a、集群3614b到集群3614n)。在至少一个实施例中,处理阵列3612的每个集群3614a-3614n可以执行大量并发线程。在至少一个实施例中,调度器3610可以使用各种调度和/或工作分配算法将工作分配给处理阵列3612的集群3614a-3614n,其可以根据每种程序或计算类型产生的工作负载而变化。在至少一个实施例中,调度可以由调度器3610动态地处理,或者可以在配置为由处理阵列3612执行的程序逻辑的编译期间部分地由编译器逻辑来辅助。在至少一个实施例中,可将处理阵列3612的不同的集群3614a-3614n分配用于处理不同类型的程序或用于执行不同类型的计算。
[0385]
在至少一个实施例中,处理阵列3612可以配置成执行各种类型的并行处理操作。在至少一个实施例中,处理阵列3612配置成执行通用并行计算操作。在至少一个实施例中,处理阵列3612可以包括执行处理任务的逻辑,该处理任务包括对视频和/或音频数据的过滤,执行建模操作,包括物理操作以及执行数据转换。
[0386]
在至少一个实施例中,处理阵列3612配置成执行并行图形处理操作。在至少一个实施例中,处理阵列3612可以包括附加逻辑以支持这种图形处理操作的执行,包括但不限于执行纹理操作的纹理采样逻辑,以及镶嵌逻辑和其他顶点处理逻辑。在至少一个实施例中,处理阵列3612可以配置成执行与图形处理有关的着色器程序,例如但不限于顶点着色器、曲面细分着色器、几何着色器和像素着色器。在至少一个实施例中,并行处理单元3602可以经由i/o单元3604从系统存储器传送数据以进行处理。在至少一个实施例中,在处理期间,可以在处理期间将传送的数据存储到片上存储器(例如,并行处理器存储器3622),然后将其写回到系统存储器。
[0387]
在至少一个实施例中,当并行处理单元3602用于执行图处理时,调度器3610可以配置成将处理工作负载划分为近似相等大小的任务,以更好地将图形处理操作分配给处理阵列3612的多个集群3614a-3614n。在至少一个实施例中,处理阵列3612的部分可以配置成执行不同类型的处理。在至少一个实施例中,第一部分可以配置成执行顶点着色和拓扑生成,第二部分可以配置成执行镶嵌和几何着色,并且第三部分可以配置成执行像素着色或其他屏幕空间操作,以生成用于显示的渲染图像。在至少一个实施例中,可以将由集群3614a-3614n中的一个或更多个产生的中间数据存储在缓冲区中,以允许在集群3614a-3614n之间传输中间数据以进行进一步处理。
[0388]
在至少一个实施例中,处理阵列3612可以经由调度器3610接收要执行的处理任务,该调度器3610从前端3608接收定义处理任务的命令。在至少一个实施例中,处理任务可以包括要被处理的数据的索引,例如可以包括表面(补丁)数据、原始数据、顶点数据和/或像素数据,以及状态参数和定义如何处理数据的命令(例如,要执行什么程序)。在至少一个实施例中,调度器3610可以配置成获取与任务相对应的索引,或者可以从前端3608接收索引。在至少一个实施例中,前端3608可以配置成确保在启动由传入命令缓冲区(例如,批缓冲区(batch-buffer)、推送缓冲区等)指定的工作负载之前,处理阵列3612配置成有效状态。
[0389]
在至少一个实施例中,并行处理单元3602的一个或更多个实例中的每一个可以与并行处理器存储器3622耦合。在至少一个实施例中,可以经由存储器交叉开关3616访问并行处理器存储器3622,所述存储器交叉开关3616可以接收来自处理阵列3612以及i/o单元3604的存储器请求。在至少一个实施例中,存储器交叉开关3616可以经由存储器接口3618访问并行处理器存储器3622。在至少一个实施例中,存储器接口3618可以包括多个分区单元(例如,分区单元3620a、分区单元3620b到分区单元3620n),其可各自耦合至并行处理器存储器3622的一部分(例如,存储器单元)。在至少一个实施例中,多个分区单元3620a-3620n为配置为等于存储器单元的数量,使得第一分区单元3620a具有对应的第一存储器单元3624a,第二分区单元3620b具有对应的存储器单元3624b,第n分区单元3620n具有对应的第n存储器单元3624n。在至少一个实施例中,分区单元3620a-3620n的数量可以不等于存储器设备的数量。
[0390]
在至少一个实施例中,存储器单元3624a-3624n可以包括各种类型的存储器设备,包括动态随机存取存储器(dram)或图形随机存取存储器,例如同步图形随机存取存储器(sgram),包括图形双倍数据速率(gddr)存储器。在至少一个实施例中,存储器单元3624a-3624n还可包括3d堆叠存储器,包括但不限于高带宽存储器(hbm)。在至少一个实施例中,可以跨存储器单元3624a-3624n来存储诸如帧缓冲区或纹理映射的渲染目标,从而允许分区单元3620a-3620n并行地写入每个渲染目标的部分,以有效地使用并行处理器存储器3622的可用带宽。在至少一个实施例中,可以排除并行处理器存储器3622的本地实例,以有利于利用系统存储器与本地高速缓存存储器结合的统一存储器设计。
[0391]
在至少一个实施例中,处理阵列3612的集群3614a-3614n中的任何一个都可以处理将被写入并行处理器存储器3622内的任何存储器单元3624a-3624n中的数据。在至少一个实施例中,存储器交叉开关3616可以配置为将每个集群3614a-3614n的输出传输到任何分区单元3620a-3620n或另一个集群3614a-3614n,集群3614a-3614n可以对输出执行其他处理操作。在至少一个实施例中,每个集群3614a-3614n可以通过存储器交叉开关3616与存储器接口3618通信,以从各种外部存储设备读取或写入各种外部存储设备。在至少一个实施例中,存储器交叉开关3616具有到存储器接口3618的连接以与i/o单元3604通信,以及到并行处理器存储器3622的本地实例的连接,从而使不同处理集群3614a-3614n内的处理单元与系统存储器或不是并行处理单元3602本地的其他存储器进行通信。在至少一个实施例中,存储器交叉开关3616可以使用虚拟通道来分离集群3614a-3614n和分区单元3620a-3620n之间的业务流。
[0392]
在至少一个实施例中,可以在单个插入卡上提供并行处理单元3602的多个实例,或者可以将多个插入卡互连。在至少一个实施例中,并行处理单元3602的不同实例可以配置成相互操作,即使不同实例具有不同数量的处理核心,不同数量的本地并行处理器存储器和/或其他配置差异。在至少一个实施例中,并行处理单元3602的一些实例可以包括相对于其他实例而言更高精度的浮点单元。在至少一个实施例中,结合并行处理单元3602或并行处理器3600的一个或更多个实例的系统可以以各种配置和形式因素来实现,包括但不限于台式机、膝上型计算机或手持式个人计算机、服务器、工作站、游戏机和/或嵌入式系统。
[0393]
图36b示出了根据至少一个实施例的处理集群3694。在至少一个实施例中,处理集群3694被包括在并行处理单元内。在至少一个实施例中,处理集群3694是图36a的处理集群3614a-3614n之一的实例。在至少一个实施例中,处理集群3694可以配置成并行执行许多线程,其中术语“线程”是指在特定的一组输入数据上执行的特定程序的实例。在至少一个实施例中,单指令多数据(simd)指令发布技术用于支持大量线程的并行执行而无需提供多个独立的指令单元。在至少一个实施例中,使用单指令多线程(simt)技术来支持并行执行大量一般同步的线程,这使用了公共指令单元,该公共指令单元配置成向每个处理集群3694内的一组处理引擎发出指令。
[0394]
在至少一个实施例中,可以通过将处理任务分配给simt并行处理器的管线管理器3632来控制处理集群3694的操作。在至少一个实施例中,管线管理器3632从图36a的调度器3610接收指令,通过图形多处理器3634和/或纹理单元3636管理这些指令的执行。在至少一个实施例中,图形多处理器3634是simt并行处理器的示例性实例。然而,在至少一个实施例中,处理集群3694内可以包括不同架构的各种类型的simt并行处理器。在至少一个实施例
中,在处理集群3694内可以包括图形多处理器3634的一个或更多个实例。在至少一个实施例中,图形多处理器3634可以处理数据,并且数据交叉开关3640可以用于将处理后的数据分发到多个可能的目的(包括其他着色器单元)地之一。在至少一个实施例中,管线管理器3632可以通过指定要经由数据交叉开关3640分配的处理后的数据的目的地来促进处理后的数据的分配。
[0395]
在至少一个实施例中,处理集群3694内的每个图形多处理器3634可以包括相同的一组功能执行逻辑(例如,算术逻辑单元、加载存储单元(lsu)等)。在至少一个实施例中,可以以管线方式配置功能执行逻辑,其中可以在先前的指令完成之前发出新的指令。在至少一个实施例中,功能执行逻辑支持多种运算,包括整数和浮点算术、比较操作、布尔运算、移位和各种代数函数的计算。在至少一个实施例中,可以利用相同的功能单元硬件来执行不同的操作,并且可以存在功能单元的任何组合。
[0396]
在至少一个实施例中,传送到处理集群3694的指令构成线程。在至少一个实施例中,跨一组并行处理引擎执行的一组线程是线程组。在至少一个实施例中,线程组在不同的输入数据上执行程序。在至少一个实施例中,线程组内的每个线程可被分配给图形多处理器3634内的不同处理引擎。在至少一个实施例中,线程组可包括比图形多处理器3634内的多个处理引擎更少的线程。在至少一个实施例中,当线程组包括的线程数少于处理引擎的数量时,一个或更多个处理引擎在正在处理该线程组的循环期间可能是空闲的。在至少一个实施例中,线程组还可以包括比图形多处理器3634内的多个处理引擎更多的线程。在至少一个实施例中,当线程组包括比图形多处理器3634内的处理引擎的数量更多的线程时,可以在连续的时钟周期内执行处理。在至少一个实施例中,可以在图形多处理器3634上同时执行多个线程组。
[0397]
在至少一个实施例中,图形多处理器3634包括内部高速缓存存储器,以执行加载和存储操作。在至少一个实施例中,图形多处理器3634可以放弃内部高速缓存并使用处理集群3694内的高速缓存存储器(例如,l1高速缓存3648)。在至少一个实施例中,每个图形多处理器3634还可以访问分区单元(例如,图36a的分区单元3620a-3620n)内的l2高速缓存,这些分区单元在所有处理集群3694之间共享并且可以用于在线程之间传输数据。在至少一个实施例中,图形多处理器3634还可以访问片外全局存储器,其可以包括本地并行处理器存储器和/或系统存储器中的一个或更多个。在至少一个实施例中,并行处理单元3602外部的任何存储器都可以用作全局存储器。在至少一个实施例中,处理集群3694包括图形多处理器3634的多个实例,它们可以共享可以存储在l1高速缓存3648中的公共指令和数据。
[0398]
在至少一个实施例中,每个处理集群3694可以包括配置成将虚拟地址映射为物理地址的mmu 3645。在至少一个实施例中,mmu 3645的一个或更多个实例可以驻留在图36a的存储器接口3618内。在至少一个实施例中,mmu 3645包括一组页表条目(pte),其用于将虚拟地址映射到图块(谈论有关图块的更多信息)的物理地址以及可选地映射到高速缓存行索引。在至少一个实施例中,mmu 3645可以包括地址转换后备缓冲区(tlb)或可以驻留在图形多处理器3634或l1高速缓存3648或处理集群3694内的高速缓存。在至少一个实施例中,处理物理地址以分配表面数据访问局部性,以便在分区单元之间进行有效的请求交织。在至少一个实施例中,高速缓存行索引可以用于确定对高速缓存线的请求是命中还是未命中。
[0399]
在至少一个实施例中,可以配置处理集群3694,使得每个图形多处理器3634耦合到纹理单元3636,以执行纹理映射操作,例如,可以涉及确定纹理样本位置、读取纹理数据以及过滤纹理数据。在至少一个实施例中,根据需要从内部纹理l1高速缓存(未示出)或从图形多处理器3634内的l1高速缓存中读取纹理数据,并从l2高速缓存、本地并行处理器存储器或系统存储器中获取纹理数据。在至少一个实施例中,每个图形多处理器3634将处理后的任务输出到数据交叉开关3640,以将处理后的任务提供给另一处理集群3694以进行进一步处理或将处理后的任务存储在l2高速缓存、本地并行处理器存储器、或经由存储器交叉开关3616的系统存储器中。在至少一个实施例中,光栅前操作单元(prerop)3642配置成从图形多处理器3634接收数据,将数据引导至rop单元,该rop单元可以与本文所述的分区单元(例如,图36a的分区单元3620a-3620n)一起定位。在至少一个实施例中,prerop 3642单元可以执行用于颜色混合的优化、组织像素颜色数据以及执行地址转换。
[0400]
图36c示出了根据至少一个实施例的图形多处理器3696。在至少一个实施例中,图形多处理器3696是图36b的图形多处理器3634。在至少一个实施例中,图形多处理器3696与处理集群3694的管线管理器3632耦合。在至少一个实施例中,图形多处理器3696具有执行管线,该执行管线包括但不限于指令高速缓存3652、指令单元3654、地址映射单元3656、寄存器文件3658、一个或更多个gpgpu核心3662和一个或更多个lsu 3666。gpgpu核心3662和lsu 3666与高速缓存存储器3672和共享存储器3670通过存储器和高速缓存互连3668耦合。
[0401]
在至少一个实施例中,指令高速缓存3652从管线管理器3632接收要执行的指令流。在至少一个实施例中,将指令高速缓存在指令高速缓存3652中并将其分派以供指令单元3654执行。在一个实施例中,指令单元3654可以分派指令作为线程组(例如,线程束),将线程组的每个线程分配给gpgpu核心3662内的不同执行单元。在至少一个实施例中,指令可以通过在统一地址空间内指定地址来访问任何本地、共享或全局地址空间。在至少一个实施例中,地址映射单元3656可以用于将统一地址空间中的地址转换成可以由lsu 3666访问的不同的存储器地址。
[0402]
在至少一个实施例中,寄存器文件3658为图形多处理器3696的功能单元提供了一组寄存器。在至少一个实施例中,寄存器文件3658为连接到图形多处理器3696的功能单元(例如,gpgpu核心3662、lsu 3666)的数据路径的操作数提供了临时存储。在至少一个实施例中,在每个功能单元之间划分寄存器文件3658,使得为每个功能单元分配寄存器文件3658的专用部分。在至少一个实施例中,寄存器文件3658在图形多处理器3696正在执行的不同线程组之间划分。
[0403]
在至少一个实施例中,gpgpu核心3662可以各自包括用于执行图多处理器3696的指令的fpu和/或alu。gpgpu核心3662在架构上可以相似或架构可能有所不同。在至少一个实施例中,gpgpu核心3662的第一部分包括单精度fpu和整数alu,而gpgpu核心的第二部分包括双精度fpu。在至少一个实施例中,fpu可以实现用于浮点算法的ieee754-3608标准或启用可变精度浮点算法。在至少一个实施例中,图形多处理器3696可以另外包括一个或更多个固定功能或特殊功能单元,以执行特定功能,诸如复制矩形或像素混合操作。在至少一个实施例中,gpgpu核心3662中的一个或更多个也可以包括固定或特殊功能逻辑。
[0404]
在至少一个实施例中,gpgpu核心3662包括能够对多组数据执行单个指令的simd逻辑。在至少一个实施例中,gpgpu核心3662可以物理地执行simd4、simd8和simd16指令,并
且在逻辑上执行simd1、simd2和simd32指令。在至少一个实施例中,用于gpgpu核心的simd指令可以在编译时由着色器编译器生成,或者在执行针对单程序多数据(spmd)或simt架构编写和编译的程序时自动生成。在至少一个实施例中,可以通过单个simd指令来执行为simt执行模型配置的程序的多个线程。在至少一个实施例中,可以通过单个simd8逻辑单元并行执行执行相同或相似操作的八个simt线程。
[0405]
在至少一个实施例中,存储器和高速缓存互连3668是将图形多处理器3696的每个功能单元连接到寄存器文件3658和共享存储器3670的互连网络。在至少一个实施例中,存储器和高速缓存互连3668是交叉开关互连,其允许lsu 3666在共享存储器3670和寄存器文件3658之间实现加载和存储操作。在至少一个实施例中,寄存器文件3658可以以与gpgpu核心3662相同的频率操作,从而在gpgpu核心3662和寄存器文件3658之间进行数据传输的延迟非常低。在至少一个实施例中,共享存储器3670可以用于启用在图形多处理器3696内的功能单元上执行的线程之间的通信。在至少一个实施例中,在至少一个实施例中,高速缓存存储器3672可以用作数据高速缓存,以高速缓存在功能单元和纹理单元3636之间通信的纹理数据。在至少一个实施例中,共享存储器3670也可以用作程序管理的高速缓存。在至少一个实施例中,除了存储在高速缓存存储器3672中的自动高速缓存的数据之外,在gpgpu核心3662上执行的线程还可以以编程方式将数据存储在共享存储器中。
[0406]
在至少一个实施例中,如本文所述的并行处理器或gpgpu通信地耦合到主机/处理器核心,以加速图形操作、机器学习操作、图案分析操作以及各种通用gpu(gpgpu)功能。在至少一个实施例中,gpu可以通过总线或其他互连(例如,诸如pcie或nvlink的高速互连)通信地耦合到主机处理器/核心。在至少一个实施例中,gpu可以与核心集成在相同的封装或芯片上,并通过内部处理器总线/互连(即,封装或芯片的内部)通信地耦合到核心。在至少一个实施例中,不管gpu连接的方式如何,处理器核心可以以wd包含的命令/指令序列的形式向gpu分配工作。在至少一个实施例中,gpu然后使用专用电路/逻辑来有效地处理这些命令/指令。
[0407]
通用计算
[0408]
以下各图阐述但不限于在通用计算中用来实现至少一个实施例的示例性软件配置。
[0409]
图37示出了根据至少一个实施例的编程平台的软件栈。在至少一个实施例中,编程平台是用于利用计算系统上的硬件来加速计算任务的平台。在至少一个实施例中,软件开发人员可以通过库、编译器指令和/或对编程语言的扩展来访问编程平台。在至少一个实施例中,编程平台可以是但不限于cuda,radeon开放计算平台(“rocm”),opencl(由khronos group开发的opencl
tm
),sycl或intel one api。
[0410]
在至少一个实施例中,编程平台的软件栈3700为应用程序3701提供执行环境。在至少一个实施例中,应用程序3701可以包括能够在软件栈3700上启动的任何计算机软件。在至少一个实施例中,应用程序3701可以包括但不限于人工智能(“ai”)/机器学习(“ml”)应用程序,高性能计算(“hpc”)应用程序,虚拟桌面基础架构(“vdi”)或数据中心工作负载。
[0411]
在至少一个实施例中,应用程序3701和软件栈3700在硬件3707上运行。在至少一个实施例中,硬件3707可以包括一个或更多个gpu,cpu,fpga,ai引擎和/或支持编程平台的其他类型的计算设备。在至少一个实施例中,例如采用cuda,软件栈3700可以是厂商专用
的,并且仅与来自特定厂商的设备兼容。在至少一个实施例中,例如在采用opencl中,软件栈3700可以与来自不同供应商的设备一起使用。在至少一个实施例中,硬件3707包括连接到一个或更多个设备的主机,该设备可经由应用程序编程接口(api)调用被访问以执行计算任务。在至少一个实施例中,与硬件3707内的主机相比,其可以包括但不限于cpu(但还可以包括计算设备)及其存储器,硬件3707内的设备可以包括但不限于gpu,fpga,ai引擎或其他计算设备(但还可以包括cpu)及其存储器。
[0412]
在至少一个实施例中,编程平台的软件栈3700包括但不限于多个库3703,运行时(runtime)3705和设备内核驱动器3706。在至少一个实施例中,库3703中的每个库可以包括可以由计算机程序使用并在软件开发期间利用的数据和编程代码。在至少一个实施例中,库3703可以包括但不限于预写的代码和子例程,类,值,类型规范,配置数据,文档,帮助数据和/或消息模板。在至少一个实施例中,库3703包括被优化用于在一种或更多种类型的设备上执行的函数。在至少一个实施例中,库3703可以包括但不限于用于在设备上执行数学、深度学习和/或其他类型的运算的函数。在至少一个实施例中,库3803与对应的api 3802相关联,api 3802可包括一个或更多个api,其暴露在库3803中实现的函数。
[0413]
在至少一个实施例中,将应用程序3701编写为源代码,该源代码被编译成可执行代码,如下面结合图42更详细讨论的。在至少一个实施例中,应用程序3701的可执行代码可以至少部分地在由软件栈3700提供的执行环境上运行。在至少一个实施例中,在应用程序3701的执行期间,可以得到需要在设备(与主机相比)上运行的代码。在这种情况下,在至少一个实施例中,可以调用运行时3705以在设备上加载和启动必需的代码。在至少一个实施例中,运行时3705可以包括能够支持应用程序3701的执行的任何技术上可行的运行时系统。
[0414]
在至少一个实施例中,运行时3705被实现为与对应的api(其被示为api 3704)相关联的一个或更多个运行时库。在至少一个实施例中,一个或更多个这样的运行时库可以包括但不限于用于存储器管理,执行控制,设备管理,错误处理和/或同步等等的函数。在至少一个实施例中,存储器管理函数可以包括但不限于用于分配、解除分配和复制设备存储器以及在主机存储器和设备存储器之间传输数据的函数。在至少一个实施例中,执行控制函数可以包括但不限于在设备上启动函数(当函数是可从主机调用的全局函数时,有时称为“内核”)的函数,和用于在运行时库为要在设备上执行的给定函数维护的缓冲区中设置属性值的函数。
[0415]
在至少一个实施例中,可以任何技术上可行的方式来实现运行时库和相应的api 3704。在至少一个实施例中,一个(或任意数量的)api可以公开用于设备的细粒度控制的低级函数集,而另一(或任意数量的)api可以公开这样的较高级的函数集。在至少一个实施例中,可以在低级api之上构建高级运行时api。在至少一个实施例中,一个或更多个运行时api可以是在与语言无关的运行时api之上分层的特定于语言的api。
[0416]
在至少一个实施例中,设备内核驱动器3706被配置为促进与底层设备的通信。在至少一个实施例中,设备内核驱动器3706可以提供诸如api3704之类的api和/或其他软件所依赖的低级函数。在至少一个实施例中,设备内核驱动器3706可以被配置为在运行时将中间表示(“ir”)代码编译成二进制代码。在至少一个实施例中,对于cuda,设备内核驱动器3706可以在运行时将非硬件专用的并行线程执行(“ptx”)ir代码编译为用于特定目标设备
的二进制代码(高速缓存已编译的二进制代码),其有时也称为“最终”代码。在至少一个实施例中,这样做可以允许最终代码在目标设备上运行,而当源代码最初被编译为ptx代码时,该目标设备可能不存在。备选地,在至少一个实施例中,设备源代码可以离线地编译成二进制代码,而不需要设备内核驱动器3706在运行时编译ir代码。
[0417]
图38示出了根据至少一个实施例的图37的软件栈3700的cuda实现。在至少一个实施例中,可在其上启动应用程序3801的cuda软件栈3800包括cuda库3803,cuda运行时3805,cuda驱动器3807和设备内核驱动器3808。在至少一个实施例中,cuda软件栈3800在硬件3809上执行,该硬件3809可以包括支持cuda的gpu,其由加利福尼亚州圣克拉拉市的nvidia公司开发。
[0418]
在至少一个实施例中,应用程序3801、cuda运行时3805和设备内核驱动器3808可以分别执行与应用程序3701、运行时3705和设备内核驱动器3706类似的功能,以上结合图37对其进行了描述。在至少一个实施例中,cuda驱动器3807包括实现cuda驱动器api 3806的库(libcuda.so)。在至少一个实施例中,类似于由cuda运行时库(cudart)实现的cuda运行时api 3804,cuda驱动器api 3806可以公开但不限于用于存储器管理、执行控制、设备管理、错误处理、同步和/或图形互操作性等的函数。
[0419]
在至少一个实施例中,cuda驱动器api 3806与cuda运行时api 3804的不同之处在于,cuda运行时api 3804通过提供隐式初始化、上下文(类似于进程)管理和模块(类似于动态加载的库)管理来简化设备代码管理。与高级cuda运行时api 3804相反,在至少一个实施例中,cuda驱动器api 3806是提供对设备的更细粒度控制的低级api,特别是关于上下文和模块加载。在至少一个实施例中,cuda驱动器api 3806可以公开没有由cuda运行时api 3804公开的用于上下文管理的函数。在至少一个实施例中,cuda驱动器api 3806也与语言无关,并且除了支持cuda运行时api 3804之外,还支持例如opencl。此外,在至少一个实施例中,包括cuda运行时3805在内的开发库可被视为与驱动器组件分离,包括用户模式的cuda驱动器3807和内核模式的设备驱动器3808(有时也称为“显示”驱动器)。
[0420]
在至少一个实施例中,cuda库3803可以包括但不限于数学库,深度学习库,并行算法库和/或信号/图像/视频处理库,并行计算应用程序(例如应用程序3801)可以利用这些库。在至少一个实施例中,cuda库3803可包括数学库,例如cublas库,其是用于执行线性代数运算的基本线性代数子程序(“blas”)的实现;用于计算快速傅立叶变换(“fft”)的cufft库,以及用于生成随机数的curand库等。在至少一个实施例中,cuda库3803可以包括深度学习库,诸如用于深度神经网络的基元的cudnn库和用于高性能深度学习推理的tensorrt平台等等。
[0421]
图39示出了根据至少一个实施例的图37的软件栈3700的rocm实现。在至少一个实施例中,可在其上启动应用程序3901的rocm软件栈3900包括语言运行时3903,系统运行时3905,thunk 3907,rocm内核驱动器3908和设备内核驱动器3909。在至少一个实施例中,rocm软件栈3900在硬件3909上执行,硬件3909可以包括支持rocm的gpu,其由加利福尼亚州圣克拉拉市的amd公司开发。
[0422]
在至少一个实施例中,应用程序3901可以执行与以上结合图37讨论的应用程序3701类似的功能。另外,在至少一个实施例中,语言运行时3903和系统运行时3905可以执行与以上结合图37讨论的运行时3705类似的功能。在至少一个实施例中,语言运行时3903和
系统运行时3905的不同之处在于,系统运行时3905是实现rocr系统运行时api 3904并利用异构系统架构(“has”)运行时api的语言无关运行时。在至少一个实施例中,has运行时api是一种瘦用户模式api,它公开接口以供访问和与amd gpu交互,包括用于存储器管理、通过架构分派内核的执行控制、错误处理、系统和代理信息以及运行时初始化和关闭等的函数。在至少一个实施例中,与系统运行时3905相比,语言运行时3903是rocr系统运行时api 3904之上分层的特定于语言的运行时api 3902的实现。在至少一个实施例中,语言运行时api可以包括但不限于可移植异构计算接口(“hip”)语言运行时api,异构计算编译器(“hcc”)语言运行时api或opencl api等等。特别是,hip语言是c++编程语言的扩展,具有cuda机制的功能相似版本,并且在至少一个实施例中,hip语言运行时api包括与以上结合图38讨论的cuda运行时api 3804相似的函数,例如用于存储器管理、执行控制、设备管理、错误处理和同步等的函数。
[0423]
在至少一个实施例中,thunk(roct)3907是可用于与底层rocm驱动器3908交互的接口。在至少一个实施例中,rocm驱动器3908是rock驱动器,其是amdgpu驱动器和has内核驱动器(amdkfd)的组合。在至少一个实施例中,amdgpu驱动器是由amd开发的用于gpu的设备内核驱动器,其执行与以上结合图37讨论的设备内核驱动器3706类似的功能。在至少一个实施例中,has内核驱动器是允许不同类型的处理器经由硬件特征更有效地共享系统资源的驱动器。
[0424]
在至少一个实施例中,各种库(未示出)可以被包括在语言运行时3903上方的rocm软件栈3900中,并且提供与以上结合图38讨论的cuda库3803相似的功能。在至少一个实施例中,各种库可以包括但不限于数学、深度学习和/或其他库,例如实现与cuda cublas类似的函数的hipblas库,类似于cuda cufft用于计算fft的rocfft库等。
[0425]
图40示出了根据至少一个实施例的图37的软件栈3700的opencl实现。在至少一个实施例中,可以在其上启动应用程序4001的opencl软件栈4000包括opencl框架4005,opencl运行时4006和驱动器4007。在至少一个实施例中,opencl软件栈4000在不是特定于供应商的硬件3809上执行。在至少一个实施例中,由于由不同厂商开发的设备支持opencl,因此可能需要特定的opencl驱动器才能与来自此类厂商的硬件进行互操作。
[0426]
在至少一个实施例中,应用程序4001,opencl运行时4006,设备内核驱动器4007和硬件4008可以分别执行与上面结合图37讨论的应用程序3701、运行时3705、设备内核驱动器3706和硬件3707类似的功能。在至少一个实施例中,应用程序4001还包括具有将在设备上执行的代码的opencl内核4002。
[0427]
在至少一个实施例中,opencl定义了一种“平台”,其允许主机控制连接到该主机的设备。在至少一个实施例中,opencl框架提供平台层api和运行时api,示出为平台api 4003和运行时api 4005。在至少一个实施例中,运行时api 4005使用上下文来管理设备上内核的执行。在至少一个实施例中,每个标识的设备可以与各自的上下文相关联,运行时api4005可以使用该上下文来管理该设备的命令队列、程序对象和内核对象、共享存储器对象等。在至少一个实施例中,平台api 4003公开了允许设备上下文用于选择和初始化设备,经由命令队列将工作提交给设备,以及使得能够进行来自和去往设备的数据传输等的函数。另外,在至少一个实施例中,opencl框架提供各种内置函数(未示出),包括数学函数、关系函数和图像处理函数等。
[0428]
在至少一个实施例中,编译器4004也被包括在opencl框架4005中。在至少一个实施例中,源代码可以在执行应用程序之前被离线编译或者在执行应用程序期间被在线编译。与cuda和rocm相反,至少一个实施例中的opencl应用程序可以由编译器4004在线编译,编译器4004被包括以代表可以用于将源代码和/或ir代码(例如标准可移植中间表示(“spir-v”)代码)编译为二进制代码的任意数量的编译器。可替代地,在至少一个实施例中,可以在执行这样的应用程序之前离线编译opencl应用程序。
[0429]
图41示出了根据至少一个实施例的由编程平台支持的软件。在至少一个实施例中,编程平台4104被配置为支持应用程序4100可以依赖的各种编程模型4103,中间件和/或库4102以及框架4101。在至少一个实施例中,应用程序4100可以是使用例如深度学习框架(在至少一个实施例中,mxnet,pytorch或tensorflow)实现的ai/ml应用,其可以依赖于诸如cudnn,nvidia collective communications library(“nccl”)”和/或nvidia开发人员数据加载库(“dali”)cuda库之类的库,以在底层硬件上提供加速的计算。
[0430]
在至少一个实施例中,编程平台4104可以是以上分别结合图38、图39和图40描述的cuda、rocm或opencl平台之一。在至少一个实施例中,编程平台4104支持多个编程模型4103,其是底层计算系统的抽象,其允许算法和数据结构的表达。在至少一个实施例中,编程模型4103可以暴露底层硬件的特征以便改善性能。在至少一个实施例中,编程模型4103可以包括但不限于cuda,hip,opencl,c++加速大规模并行性(“c++amp”),开放多处理(“openmp”),开放加速器(“openacc”)和/或vulcan计算(vulcan compute)。
[0431]
在至少一个实施例中,库和/或中间件4102提供编程模型4104的抽象的实现。在至少一个实施例中,这样的库包括可由计算机程序使用并在软件开发期间利用的数据和编程代码。在至少一个实施例中,除了可以从编程平台4104获得的那些之外,这样的中间件还包括向应用程序提供服务的软件。在至少一个实施例中,库和/或中间件4102可以包括但不限于cublas、cufft、curand和其他cuda库,或rocblas、rocfft、rocrand和其他rocm库。另外,在至少一个实施例中,库和/或中间件4102可以包括nccl和rocm通信集合库(“rccl”)库,其提供用于gpu的通信例程,用于深度学习加速的miopen库和/或用于线性代数、矩阵和向量运算、几何变换、数值求解器以及相关算法的本征库。
[0432]
在至少一个实施例中,应用程序框架4101依赖于库和/或中间件4102。在至少一个实施例中,每个应用程序框架4101是用于实现应用软件的标准结构的软件框架。在至少一个实施例中,可以使用框架(诸如caffe,caffe2,tensorflow,keras,pytorch或mxnet深度学习框架)来实现ai/ml应用。
[0433]
图42示出了根据至少一个实施例的编译代码以在图37-40的编程平台之一上执行。在至少一个实施例中,编译器4201接收源代码4200,其包括主机代码以及设备代码两者。在至少一个实施例中,编译器4201被配置为将源代码4200转换为用于在主机上执行的主机可执行代码4202以及用于在设备上执行的设备可执行代码4203。在至少一个实施例中,源代码4200可以在执行应用程序之前离线编译,或者在执行应用程序期间在线编译。
[0434]
在至少一个实施例中,源代码4200可以包括编译器4201支持的任何编程语言的代码,例如c++、c、fortran等。在至少一个实施例中,源代码4200可以包括在单源(single-source)文件中,其具有主机代码和设备代码的混合,并在其中指示了设备代码的位置。在至少一个实施例中,单源文件可以是包括cuda代码的.cu文件或包括hip代码的.hip.cpp文
件。备选地,在至少一个实施例中,源代码4200可以包括多个源代码文件,而不是单源文件,在该单源文件中主机代码和设备代码是分开的。
[0435]
在至少一个实施例中,编译器4201被配置为将源代码4200编译成用于在主机上执行的主机可执行代码4202和用于在设备上执行的设备可执行代码4203。在至少一个实施例中,编译器4201执行操作,包括将源代码4200解析为抽象系统树(ast),执行优化以及生成可执行代码。在源代码4200包括单源文件的至少一个实施例中,编译器4201可以将设备代码与主机代码在这种单源文件中分开,将设备代码和主机代码分别编译成设备可执行代码4203和主机可执行代码4202,以及将设备可执行代码4203和主机可执行代码4202在单个文件中链接到一起,如下面关于图26更详细讨论的。
[0436]
在至少一个实施例中,主机可执行代码4202和设备可执行代码4203可以是任何合适的格式,例如二进制代码和/或ir代码。在cuda的情况下,在至少一个实施例中,主机可执行代码4202可以包括本地对象代码,而设备可执行代码4203可以包括ptx中间表示的代码。在至少一个实施例中,在rocm的情况下,主机可执行代码4202和设备可执行代码4203都可以包括目标二进制代码。
[0437]
其他变型在本公开的精神内。因此,尽管公开的技术易于进行各种修改和替代配置,但是某些示出的其实施例在附图中示出并且已经在上面进行了详细描述。然而,应理解,无意将公开内容限制为所公开的一种或更多种特定形式,而是相反,其意图是涵盖落入如所附权利要求书所定义的本公开内容的精神和范围内的所有修改、替代配置和等同物。
[0438]
除非另有说明或显然与上下文矛盾,否则在描述所公开的实施例的上下文中(特别是在所附权利要求的上下文中),术语“一”和“一个”和“该”以及类似指代的使用应被解释为涵盖单数和复数,而不是作为术语的定义。除非另有说明,否则术语“包括”、“具有”、“包含”和“含有”应被解释为开放式术语(意味着“包括但不限于”)。术语“连接”(在未经修改时指的是物理连接)应解释为部分或全部包含在内、附接到或连接在一起,即使有某些介入。除非本文另外指出,否则本文中对数值范围的引用仅旨在用作分别指代落入该范围内的每个单独值的简写方法,并且每个单独值都被并入说明书中,就如同其在本文中被单独叙述一样。在至少一个实施例中,除非另外指出或与上下文矛盾,否则术语“集”(例如“项目集”)或“子集”的使用应解释为包括一个或更多个成员的非空集合。此外,除非另外指出或与上下文矛盾,否则术语相应集的“子集”不一定表示对应集的适当子集,而是子集和对应集可以相等。
[0439]
除非以其他方式明确指出或与上下文明显矛盾,否则诸如“a,b和c中的至少一个”或“a,b与c中的至少一个”形式的短语之类的连接语在上下文中理解为通常用来表示项目、条款等,其可以是a或b或c,也可以是a和b和c集的任何非空子集。在具有三个成员的集的至少一个实施例中,连接短语“a,b和c中的至少一个”和“a,b与c中的至少一个”是指以下任意集:{a},{b},{c},{a,b},{a,c},{b,c},{a,b,c}。因此,这种连接语言通常不旨在暗示某些实施例要求存在a中的至少一个,b中的至少一个和c中的至少一个。另外,除非另有说明或与上下文矛盾,否则术语“多个”表示复数的状态(例如,“多个项目”表示多个项目)。在至少一个实施例中,多个项目中项目的数量至少为两个,但如果明确指示或通过上下文指示,则可以更多。此外,除非另有说明或从上下文中可以清楚得知,否则短语“基于”是指“至少部分基于”而不是“仅基于”。
[0440]
除非本文另外指出或与上下文明显矛盾,否则本文描述的过程的操作可以任何合适的顺序执行。在至少一个实施例中,诸如本文所述的那些过程(或其变形和/或其组合)之类的过程在配置有可执行指令的一个或更多个计算机系统的控制下执行,并且被实现为代码(例如,可执行指令,一个或更多个计算机程序或一个或更多个应用程序),该代码通过硬件或其组合在一个或更多个处理器上共同执行。在至少一个实施例中,代码以计算机程序的形式存储在计算机可读存储介质上,在至少一个实施例中,该计算机程序包括可由一个或更多个处理器执行的多个指令。在至少一个实施例中,计算机可读存储介质是非暂时性计算机可读存储介质,其排除了暂时性信号(例如,传播的瞬态电或电磁传输),但包括非暂时性数据存储电路(例如,缓冲区、高速缓存和队列)。在至少一个实施例中,代码(例如,可执行代码或源代码)被存储在其上存储有可执行指令的一组一个或更多个非暂时性计算机可读存储介质(或用于存储可执行指令的其他存储器)上,该可执行指令在由计算机系统的一个或更多个处理器执行时(即,作为被执行的结果),使得计算机系统执行本文所述的操作。在至少一个实施例中,一组非暂时性计算机可读存储介质包括多个非暂时性计算机可读存储介质,并且多个非暂时性计算机可读存储介质中的个体非暂时性存储介质中的一个或更多个缺少全部代码,而是多个非暂时性计算机可读存储介质共同存储全部代码。在至少一个实施例中,可执行指令被执行,以使得不同的指令由不同的处理器执行,在至少一个实施例中,非暂时性计算机可读存储介质存储指令,并且主中央处理单元(“cpu”)执行一些指令,而图形处理单元(“gpu”)执行其他指令。在至少一个实施例中,计算机系统的不同组件具有单独的处理器,并且不同的处理器执行指令的不同子集。
[0441]
因此,在至少一个实施例中,计算机系统被配置为实现单独地或共同地执行本文所述的过程的操作的一个或更多个服务,并且这样的计算机系统被配置有使能实施操作的适用的硬件和/或软件。此外,实现本公开的至少一个实施例的计算机系统是单个设备,并且在另一实施例中是分布式计算机系统,其包括以不同方式操作的多个设备,使得分布式计算机系统执行本文所述的操作,并且使得单个设备不执行所有操作。
[0442]
本文提供的任何和所有至少一个实施例或示例性语言(例如,“诸如”)的使用仅旨在更好地阐明本公开的实施例,并且不对公开的范围构成限制,除非另有要求。说明书中的任何语言都不应被解释为表示任何未要求保护的要素对于实践公开内容是必不可少的。
[0443]
本文引用的所有参考文献,包括出版物、专利申请和专利,均通过引用并入本文,其程度就如同每个参考文献被单独且具体地指示为以引用的方式并入本文并且其全部内容在本文中阐述一样。
[0444]
在说明书和权利要求中,可以使用术语“耦合”和“连接”以及它们的派生词。应当理解,这些术语可能不旨在作为彼此的同义词。相反,在至少一个实施例中的一个,“连接”或“耦合”可用于指示两个或更多个元件彼此直接或间接物理或电接触。“耦合”也可能意味着两个或更多个元素彼此不直接接触,但仍彼此协作或交互。
[0445]
除非另有明确说明,否则可以理解,在整个说明书中,诸如“处理”、“计算”、“计算”、“确定”等之类的术语,是指计算机或计算系统或类似的电子计算设备的动作和/或过程,其将计算系统的寄存器和/或存储器中表示为物理量(例如电子)的数据处理和/或转换为类似表示为计算系统的存储器、寄存器或其他此类信息存储、传输或显示设备中的物理量的其他数据。
[0446]
以类似的方式,术语“处理器”可以指处理来自寄存器和/或存储器的电子数据并将该电子数据转换成可以存储在寄存器和/或存储器中的其他电子数据的任何设备或存储器的一部分。作为非限制性至少一个实施例中的一个,“处理器”可以是cpu或gpu。“计算平台”可以包括一个或更多个处理器。如本文所使用的,在至少一个实施例中,“软件”进程可以包括随时间执行工作的软件和/或硬件实体,诸如任务、线程和智能代理。同样,每个过程可以指代多个过程,以连续地或间歇地顺序地或并行地执行指令。术语“系统”和“方法”在本文中可以互换使用,只要系统可以体现一种或更多种方法,并且方法可以被认为是系统。
[0447]
在本文件中,可以参考获得、获取、接收或将模拟或数字数据输入子系统、计算机系统或计算机实现的机器中。在至少一个实施例中,可以通过多种方式来完成获得、获取、接收或输入模拟和数字数据的过程,例如通过接收作为函数调用或对应用程序编程接口的调用的参数的数据。在一些实现方式中,可以通过经由串行或并行接口传输数据来完成获得、获取、接收或输入模拟或数字数据的过程。在另一实现方式中,可以通过经由计算机网络将数据从提供实体传输到获取实体来完成获得、获取、接收或输入模拟或数字数据的过程。也可以参考提供、输出、传送、发送或呈现模拟或数字数据。在各种示例中,提供、输出、传送、发送或呈现模拟或数字数据的过程可以通过将数据作为函数调用的输入或输出参数、应用程序编程接口或进程间通信机制的参数进行传输来实现。
[0448]
尽管上面的讨论阐述了所描述的技术的至少一个实施例中的一个实现,但是其他架构可以用于实现所描述的功能,并且旨在落入本公开的范围内。此外,尽管出于讨论的目的在上面定义了具体的职责分配,但是根据情况,可以以不同的方式分配和划分各种功能和职责。
[0449]
此外,尽管已经用特定于结构特征和/或方法动作的语言描述了主题,但是应当理解,所附权利要求书所要求保护的主题不必限于所描述的特定特征或动作。而是,公开了特定的特征和动作作为实现权利要求的示例性形式。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1