用于并行命令列表生成的硬件的制作方法

文档序号:6351192阅读:116来源:国知局
专利名称:用于并行命令列表生成的硬件的制作方法
技术领域
本发明涉及处理单元,并且,具体地说,涉及用于并行命令列表生成的硬件。
背景技术
Microsoft Direct3D 11 (DXll)是支持曲面细分(tessellation)以及允许经改进多线程的API (应用程序接口),用于帮助开发者开发更好地利用多核处理器的应用程序。在DXl I中,CPU (中央处理单元)的每个内核均能并行地执行命令线程。每个内核或在相同内核上的不同线程均通过自己的用户模式驱动副本来生成独立的命令列表以提高软件应用程序的性能。命令列表是命令缓冲区(buffer)的API级的抽象,它是较低级别的概念。当驱动从应用程序接收到API命令时,该驱动建立命令缓存;命令列表由完整的命令缓冲区加上任意附加的定义实施的(implementation-defined)元(meta)信息来表现。命令列表或命令缓冲区的内容典型地由GPU(图形处理单元)执行。在这些CPU内核的其中之一上运行有单个线程,该线程以特定顺序提交用于执行的命令列表。这些命令列表的顺序,以及由此命令缓冲区的顺序,由所述应用程序确定。通过入栈缓冲区(pushbuffer)将命令缓冲区输入到内核中。所述命令缓冲区包括由内核执行的方法,特别是由GPU执行的方法。然而,DXll不允许跨命令列表的处理器状态继承。相反,处理器状态在每个命令列表开始时被重置为所谓的“空白状态(clean slate state)”。也就是指,每个用户模式驱动线程都在命令列表开始时在处理器中设置所有的状态参数。由于在执行应用程序时线程不能配合,所以不提供跨命令列表的状态继承具有极大的缺点。此外,使用几十或几百个命令来将处理器的状态重置为空白状态所增加的处理开销降低了系统的效率,因此,降低了整体性能。如上所述,本技术领域需要一种改进的技术解决上述当前方法的局限性。

发明内容
本发明的一个实施例提供了一种用于在多线程处理环境中提供跨命令列表的状态继承方法。所述方法包括接收包括多个并行线程的应用程序;为所述多个并行线程的每个线程生成命令列表;使与所述多个并行线程的第一线程相关联的第一命令列表由处理单元执行;以及使与所述多个并行线程的第二线程相关联的第二命令列表由所述处理单元 执行,其中所述第二命令列表从所述第一命令列表继承与所述处理单元相关联的状态。
本发明的另一个实施例提供一种用于为多线程处理环境提供初始默认状态的方法。所述方法包括接收包括多个并行线程的应用程序;为所述多个并行线程的每个线程生成命令列表;将释放方法插入到与所述多个并行线程的第一线程相关联的第一命令列表中以由处理单元执行,其中所述释放方法是将由所述处理单元所执行的命令;使所述释放方法由所述处理单元执行,使得处理单元的状态的每个参数被重置;以及,在执行所述释放方法后,使被包括在所述第一命令列表中的命令由所述处理单元执行。本发明实施例所提供的一个优点在于,相对现有技术实现更高的处理效率。


因此,可以详细地理解本发明的上述特征,并且可以参考实施例对于上面所简要说明的本发明进行更具体的描述,其中一些实施例在附图中示出。然而,应当注意的是,附图仅示出了本发明的典型实施例,因此不应被认为是对本发明范围的限制。本发明可以适用于其他等效的实施例。 图I为示出了被配置为实现本发明一个或多个方面的计算机系统的框图;图2为根据本发明的一个实施例的,用于图I的计算机系统的并行处理子系统的框图;图3A为根据本发明一个实施例的,图2的一个PPU内的GPC的框图;图3B为根据本发明一个实施例的,图2的一个PPU内的分区单元的框图;图4为根据本发明一个实施例的,图2的一个或多个PTO可经配置以实现的图形处理管线的示意图;图5为根据本发明一个实施例的,示出了使用并行命令列表的多线程处理的示意图。图6为根据本发明一个实施例的,示出了跨命令列表的状态继承的示意图。图7为根据本发明一个实施例的,示出了用于状态继承的命令列表的示意图。图8为根据本发明一个实施例的,用于具有跨命令列表状态继承的多线程处理的方法步骤的流程图;图9为根据本发明一个实施例的,用于生成命令列表的方法步骤的流程图;图10为根据本发明一个实施例的,用于使用UnbindAll ()方法实现多线程处理的方法步骤的流程图。
具体实施例方式在下面的描述中,将阐述大量的具体细节以提供对本发明更为彻底的理解。然而,对于本技术领域技术人员来讲将显而易见的是,本发明可以在缺少这些具体细节的一个或者多个的情况下得以实施。在其他实例中,没有描述公知的特征以避免对本发明造成混淆。系统概述图I为示出了被配置为实施本发明的一个或多个方面的计算机系统100的框图。计算机系统100包括中央处理单元(CPU) 102和系统存储器104,两者通过存储器桥105经由总线路径通信。DX 11多线程特征主要针对多内核CPU。因此,在一些实施例中,CPU 102是多内核CPU。如图I所示,存储器桥105可整合在CPU 102中。可选地,存储器桥105可以是常见设备,例如北桥芯片,其通过总线连接到CPU 102。存储器桥105可经由通信路径106 (例如超传输(HyperTransport)链路)连接到I/O (输入/输出)桥107。I/O桥107,其可以例如是南桥芯片,从一个或多个用户输入设备108 (诸如键盘、鼠标)接收用户输入并且经由路径106和存储器桥105将所述输入转发(forward)到CPU 102。并行处理子系统112经由总线或其他通信路径113 (例如PCI Express、加速图形端口或超传输链路)耦合到存储器桥105 ;在一个实施例中,并行处理子系统112是将像素传输到显示设备110(例如常见的基于CRT或IXD的显示器)的图形子系统。系统盘114也连接到I/O桥107。开关116为I/O桥与诸如网络适配器118以及各种外插卡(add-in card) 120和121的其他组件之间提供了连接。其他组件(未明确示出)也可以连接到I/O桥107,包括USB或其他端口连接、CD驱动器、DVD驱动器、胶片记录设备等。图I中将各种组件互连的通信路径可以采用任何适合的协议来实现,诸如PCI (外部组件互连)、PCI-Express, AGP (加速图形端口)、超传输或任何其他总线或者点对点通信协议。并且不同设备间的连接可采用本技术领域已知的不同协议。 在一个实施例中,并行处理子系统112包含被优化用于图形和视频处理的电路,例如包括视频输出电路,并且构成图形处理单元(GPU)。在另一个实施例中,并行处理子系统112包含被优化用于通用目的处理的电路,同时保留底层(underlying)的计算架构,本文将进行更为详细的描述。在另一个实施例中,可以将并行处理子系统112与一个或多个其他系统元件集成,诸如存储器桥105、CPU 102、以及I/O桥107,以形成片上系统(SoC)。应该理解,本文所示系统是示例性的,可以对其进行变形和修改。可根据需要修改连接拓扑,包括桥的数量和布置。例如,在一些实施例中,系统存储器104直接连接到CPU102而不是通过桥,其他设备经由存储器桥105以及CPU 102与系统存储器104通信。在其他替代拓扑中,并行处理子系统112连接到I/O桥107或直接连接到CPU 102,而不是连接到存储器桥105。在又一个实施例中,CPU 102的一个或多个、I/O桥107、并行处理子系统112和存储器桥105可被集成到一个或多个芯片中。本文所示的特定组件是可选的;例如,可以支持任意数量的外插卡或外围装置。在一些实施例中,开关116被去掉,网络适配器118和外插卡120、121直接连接到I/O桥107。图2示出根据本发明的一个实施例的并行处理子系统112。如图所示,并行处理子系统112包括一个或多个并行处理单元(PPU) 202,每个并行处理单元PI3U都耦合到本地并行处理(PP)存储器204。通常,并行处理子系统包括U个PPU,其中U彡I。(本文中,相似对象的多个实体用标识该对象的参考数字和根据需要结合标识该实体的带括号的数字加以表示。)PPU 202和并行处理存储器204可使用一个或多个集成电路器件来实现,该集成电路器件诸如可编程处理器、专用集成电路(ASIC)或存储器器件,或以任何其他技术上可行的方式来实现。再参考图I,在一些实施例中,并行处理子系统112的一些或所有PPU202是具有渲染管线的图形处理器,它可以被配置为执行与下述各项相关的各种任务从CPU102和/或系统存储器104所提供的图形数据生成像素数据、与本地并行处理存储器204(可被用作图形存储器,包括例如常用的帧缓冲器)交互以存储和更新像素数据、输送像素数据到显示设备110等等。在一些实施例中,并行处理子系统112可包括一个或多个作为图形处理器而操作的PPU 202,以及一个或多个用作通用计算的其他PPU 202。这些PI3U可以是相同的或不同的,并且每个PPU均可有自己的专用并行处理存储器设备或非专用并行处理存储器设备。一个或多个PPU 202可输出数据到显示设备110,或每个PPU 202均可输出数据到一个或多个显示设备110。在操作中,CPU 102是计算机系统100的主处理器,控制和协调其他系统组件的操作。具体地,CPU 102发出控制PPU 202的操作的命令。在一些实施例中,CPU 102将针对每个PPU 202的命令流写入到命令缓冲区中(在图I或图2中未明确示出),所述命令缓冲区可位于系统存储器104、并行处理存储器204、或其他可由CPU 102和PPU 202访问的存储位置中。PPU 202从命令缓冲区读取命令流,然后相对于CPU 102的操作异步地执行命令。CPU 102也可创建可由PPU 202响应命令缓冲区中的命令而读取的数据缓冲区。每个命令和数据缓冲区均可由每个PPU 202所读取。现在返回参考图2,每个PPU 202均包括I/O (输入/输出)单元205,该I/O单元205经由连接到存储器桥105 (或,在一个替代实施例中,直接连接到CPU 102)的通信路径 113与计算机系统100的其余部分通信。PPU 202与计算机系统100的其余部分的连接也可以不同。在一些实施例中,并行处理子系统112可作为外插卡来实现,所述外插卡可被插入到计算机系统100的扩展插槽中。在其他实施例中,PPU 202可以和诸如存储器桥105或I/O桥107的总线桥一起集成在单个芯片上。在又一些实施例中,PPU 202的一些或所有元件可以和CPU 102—起集成在单个芯片上。在一个实施例中,通信路径113是PCI-Express链路,其中给每个PPU202分配专用的通道(lane),如本技术领域所知。也可使用其他的通信路径。I/O单元205生成数据包(或其他信号)用于在通信路径113上传送,并且还从通信路径113接收所有传入的数据包(或其他信号),将传入的数据包引向PPU 202的适当组件。例如,可将与处理任务有关的命令引向主机接口 206,而可将与存储器操作有关的命令(例如,对并行处理存储器204的读取或写入)引向存储器交叉开关(crossbar)单元210。主机接口 206读取每个命令缓冲区,并且将该命令缓冲区指定的工作输出到前端212。有利地,每个PPU 202都实现高度并行处理架构。如图中详细所示,PPU 202(0)包括处理集群阵列230,该阵列230包括C个通用处理集群(GPC) 208,其中C彡I。每个GPC 208均能并发执行大量的(例如,几百或几千)线程,其中每个线程均是程序的实例(instance)。在各种应用中,可以分配不同的GPC208用于处理不同类型的程序或用于执行不同类型的计算。例如,在图形应用中,可分配第一组GPC 208来执行曲面细分操作并为曲面片(patch)生成基元(primitive)拓扑,并且可分配第二组GPC 208来执行曲面细分着色以评估用于基元拓扑的曲面片参数以及确定顶点位置和每顶点的其他属性。GPC 208的分配可根据为每种类型的程序或计算所产生的工作量而不同。可替代地,GPC208可被分配以使用分时(time-slice)机制来执行处理任务,从而在不同的处理任务间切换。GPC 208经由工作分布单元200接收将被执行的处理任务,所述工作分布单元200从前端单元212接收定义处理任务的命令。处理任务包括指向将被处理的数据的指针以及定义将如何处理数据(例如,将执行哪个程序)的命令和状态参数,所述指向将被处理的数据的指针例如表面(曲面片)数据、基元数据、顶点数据和/或像素数据。工作分布单元200可以被配置为获取与这些处理任务相对应的指针、可以从前端212接收指针或者可以直接从前端接收数据。在一些实施例中,索引指定了数据在阵列中的位置。前端212确保在命令缓冲区所指定的处理启动前,GPC 208被配置为有效状态。当PPU 202被用于图形处理时,例如,将每个曲面片的处理工作量分成大小近似相等的任务,以使曲面细分处理能够被分布到多个GPC 208。工作分布单元200可被配置为以能够提供任务给多个GPC 208进行处理的频率输出任务。在本发明的一些实施例中,部分GPC 208可被配置为执行不同类型的处理。例如,第一部分可被配置为执行顶点着色和拓扑生成,第二部分可被配置为执行曲面细分和几何着色,并且第三部分可被配置为在屏幕空间中执行像素着色以产生渲染后的图像。分配部分GPC 208用于执行不同类型处理任务的能力有效地适应了由这些不同类型处理任务所产生的数据的扩展和伸缩。在下游GPC208接收数据的速率滞后于上游GPC208产生数据的速率的情况下,由GPC 208产生的中间数据可以被缓冲,以允许该中间数据在GPC 208之间以最小的停顿(stalling)来传送。可将存储器接口 214划分为D个存储器分区单元,其每一个单元均耦合到并行处 理存储器204的一部分,其中DS I。通常,并行处理存储器204的每一部分均包括一个或多个存储器设备(例如,DRAM 220)。本技术领域的技术人员应该理解,DRAM 220可以由其他合适的存储设备代替,并且可以是一般常规设计。因此省略详细的描述。渲染目标,诸如帧缓冲区或纹理映射,可以被跨DRAM 220存储,允许分区单元215并行地写入每个渲染目标的一部分,从而有效地使用并行处理存储器204的可用带宽。任意一个GPC 208都可以处理将被写到并行处理存储器204内任意DRAM 220的数据。交叉开关单元210被配置为将每个GPC 208的输出路由到任意分区单元215的输入或路由到另一个GPC 208用于进一步处理。GPC 208通过交叉开关单元210与存储器接口214通信,以对各种外部存储器设备进行读写。在一个实施例中,交叉开关单元210具有到存储器接口 214的连接以和I/O单元205通信,以及具有到本地并行处理存储器204的连接,从而使得在不同GPC 208内的处理内核能够与系统存储器104或相对于PPU 202来讲非本地的其他存储器通信。交叉开关单元210可使用虚拟通道来分开GPC 208与分区单元215之间的业务流。再者,GPC 208可被编程为执行与种类繁多的应用相关的处理任务,包括但不限于,线性和非线性数据转换、视频和/或音频数据的过滤、建模操作(例如,应用物理定律以确定对象的位置、速率和其他属性)、图像渲染操作(例如,曲面细分着色、顶点着色、几何着色和/或像素着色程序)等等。PPU 202可将数据从系统存储器104和/或本地并行处理存储器204传输到内部(片上)存储器中,处理数据,并且将结果数据写回到系统存储器104和/或本地并行处理存储器204,在这里这样的数据可以由其他系统组件访问,所述其他系统组件包括CPU 102或另一并行处理子系统112。PPU202可拥有任意容量(amount)的本地并行处理存储器204,包括没有本地存储器,并且PPU202可以以任意组合方式使用本地存储器和系统存储器。例如,在统一存储架构(UMA)实施例中,PTO 202可以是图形处理器。在这样的实施例中,将不提供或几乎不提供专用的图形(并行处理)存储器,并且PPU 202会以排他的方式或几乎以排他的方式使用系统存储器。在UMA实施例中,PPU 202可被集成到桥式芯片中或处理器芯片中,或作为分立芯片被提供,所述分立芯片具有经由桥式芯片或其他通信方式将PPU 202连接到系统存储器的高速链路(例如,PCI-Express)。如上所述,并行处理子系统112可以包括任意数量的PPU 202。例如,在单个外插卡上可以提供多个PPU 202,或可以将多个外插卡连接到通信路径113,或可以将一个或多个PPU 202集成到桥式芯片中。多PI3U系统中的PPU 202可以彼此相同或不同。例如,不同的PPU 202可能具有不同数量的处理内核、不同容量的本地并行处理存储器等等。在出现多个PPU202的情况下,可并行地操作这些PI3U从而以高于单个PPU 202可能达到的吞吐量来处理数据。包括一个或多个PPU 202的系统可以以各种配置和形式因素来加以实现,包括桌上型电脑、膝上型电脑或手持式个人计算机、服务器、工作站、游戏控制台、嵌入式系统等。处理集群阵列概述图3A为根据本发明一个实施例的,图2的一个PPU 202内的GPC 208的框图。每个GPC 208可被配置为以并行方式执行大量的线程,其中术语“线程”是指针对特定的一组输入数据执行的特定程序的实例。在一些实施例中,使用单指令多数据(SIMD)指令发送技术来支持大量线程的并行执行,而无需提供多个独立的指令单元。在其他实施例中,采用单指令多线程(SMT)技术,使用被配置为发送指令到每个GPC 208内一组处理引擎的公共指令单元,来支持大量通常同步化的线程的并行执行。与其中所有处理引擎一般都执行相同 指令的SMD执行机制不同,SMT的执行通过给定的线程程序,允许不同线程更容易地跟踪(follow)分散的执行路径。本技术领域的技术人员应该理解,SMD处理机制代表SMT处理机制的一个功能子集。在图形应用中,GPC 208可被配置以实现用于执行屏幕空间图形处理功能的基元引擎,所述屏幕空间图形处理功能可包括但不限于,基元建立、光栅化以及z裁剪(zculling)。该基元引擎从工作分布单元200接收处理任务,并且当该处理任务不需要基元引擎执行操作时,将该处理任务通过基元引擎传到管线管理器305。经由管线管理器305来方便地控制GPC 208的操作,所述管线管理器305分布处理任务给流多处理器(SPM) 310。管线管理器305也可被配置为通过为由SPM 310输出的处理后的数据指定目的地来控制工作分布交叉开关330。在一个实施例中,每个GPC 208均包括M个SPM 310,其中M彡I,每个SPM 310均被配置为处理一个或多个线程组。传送到特定GPC 208的一系列指令构成线程,如本文前面所定义的,并且跨SPM310内并行处理引擎(未示出)所并发执行的一定数量的线程的集合在本文中被称作“线程组”。如本文所使用的,“线程组”是指针对不同输入数据并发执行相同程序的一组线程,该组的每个线程被分配给SPM 310内的不同处理引擎。线程组可以包括比SPM 310内处理引擎的数量更少的线程,在这种情况下,在正在处理该线程组的周期期间,一些处理引擎将处于空闲状态。线程组也可以包括比SPM 310内处理引擎的数量更多的线程,在这种情况下,将在多个时钟周期进行处理。因为每个SPM 310能并发地支持多达G个线程组,所以在任意给定的时间,GPC 208中都可以执行多达GXM个线程组。此外,在SPM 310内,多个相关的线程组可同时处于激活状态(处于不同的执行阶段)。这个线程组的集合在本文中被称作“协作线程阵列”(“CTA”)。特定CTA的大小等于mXk,其中k是线程组中并发执行的线程的数量,并且一般是SPM 310内并行处理引擎数量的整数倍,m是在SPM 310内同时处于激活状态的线程组的数量。CTA的大小通常由编辑人员以及CTA可用的硬件资源例如存储器或寄存器的容量来确定。每个线程可使用独享的本地地址空间,并且共享的每CTA(per-CTA)地址空间用于在CTA内的线程之间传递数据。将存储在每线程地址空间和每CTA地址空间中的数据存储在LI高速缓存(cache) 320中,并且可使用回收(eviction)策略以有助于在LI高速缓存320中保持该数据。每个SPM 310使用相应的LI高速缓存320中用于执行加载和存储操作的空间。每个SPM 310也可以访问分区单元215内的L2高速缓存,该L2高速缓存在所有GPC 208之间被共享并且可以用于在线程之间传输数据。最后,SPM310也可以访问片夕卜“全局”存储器,包括例如并行处理存储器204和/或系统存储器104。L2高速缓存可用于存储写入全局存储器或从全局存储器读出的数据。应该理解,PPU 202外部的任何存储器都可以被用作全局存储器。另外,如本技术领域所知,每个SPM 310有利地包括可被管线化的相同的一组功能单元(例如,算术逻辑单元),从而允许在前一个指令完成之前发送新的指令。可以提供功能单元的任意组合。在一个实施例中,这些功能单元支持各种操作,包括整数和浮点算法(例如,加法和乘法)、比较操作、布尔操作(AND、OR、X0R)、移位(bit-shifting)以及各种代数函数计算(例如,平面插值、三角、指数和对数函数等);并且相同的功能单元硬件可均衡地用于(be leveraged to)执行不同操作。每个GPC 208可包括被配置为将虚拟地址映射到物理地址的存储器管理单元(MMU)328。在其他实施例中,MMU328可驻留在存储器接口 214内。MMU 328包括用于将虚拟地址映射到像素块(tile)的物理地址的一组页表条目(PTE),以及可选地包括高速缓存线索引(cache line index)。处理所述物理地址以分散表面数据访问位置,从而允许在分区单元交错的高效请求。所述高速缓存线索引可被用于确定对高速缓存线的请求是否命中或者未命中。在图形应用中,GPC 208可被配置为使得每个SPM 310耦合到纹理单元315,用于执行纹理映射操作,例如确定纹理采样位置、读取纹理数据以及过滤纹理数据。纹理数据经由存储器接口 214读取,以及当需要的时候从L2高速缓存、并行处理存储器204或系统存储器104获取。纹理单元315可被配置为在内部高速缓存中存储纹理数据。在一些实施例中,将纹理单元315耦合至LI高速缓存320,并且将纹理数据存储在LI高速缓存320中。为了提供处理后的任务给另一个GPC 208用于进一步的处理,或者为了经由交叉开关单元210在L2高速缓存、并行处理存储器204或系统存储器104中存储该处理后的任务,每个SPM 310都将处理后的任务输出给工作分布交叉开关330。preROP(pre-rasteroperations,预光栅操作)单元被配置为从SPM 310接收数据,将数据引向分区单元215中的ROP单元并执行对色彩混合的优化、组织像素色彩数据以及执行地址转换。应该理解,本文所描述的内核架构是示例性的,可以对其进行各种变形和修改。GPC 208内可以包括任意数量的处理引擎例如基元引擎、SPM310、纹理单元315、或preROP325。进一步,虽然只示出了一个GPC 208,但PPU 202可以包括任意数量的GPC 208,这些GPC 208最好功能上彼此相似,从而执行行为不依赖于哪个GPC 208接收到特定处理任务。进一步地,有利地,每个GPC 208最好使用单独的且各异的处理引擎、LI高速缓存320等,独立于其他GPC 208操作。图3B为根据本发明一个实施例的,图2的一个PPU 202内分区单元215的框 图。如图所示,分区单元215包括L2高速缓存350、帧缓冲区(FB) 355以及光栅操作单元(ROP) 360。L2高速缓存350是读/写高速缓存,其被配置为对从交叉开关单元210及ROP360接收的操作执 行加载和存储。读缺失和紧急写回请求由L2高速缓存350输出到FB 355用于处理。脏更新也被发送到FB 355用于伺机处理。FB 355直接与DRAM 220交互,输出读和写请求,并接收从DRAM 220读取的数据。在图形应用中,ROP 360是执行诸如模板、z测试、混合等等光栅操作的处理单元,并输出像素数据作为处理后的图形数据用于在图形存储器中存储。在本发明的一些实施例中,将ROP 360包括在每个GPC 208中,而不是分区单元215中,并且通过交叉开关单元210传送像素读写请求而不是像素片段数据。处理后的图形数据可以在显示设备110上显示,或者被路由用于由CPU 102或由并行处理子系统112内的处理实体之一来进一步处理。为了分布光栅操作的处理,每个分区单元215均包括ROP 360。在一些实施例中,ROP 360可被配置为压缩写入存储器的z数据或色彩数据,以及解压缩从存储器中读出的z数据或色彩数据。本技术领域的技术人员应该理解,图1、2、3A和3B中描述的架构不以任何方式限制本发明的范围,以及在此教导的技术可以在任意合适配置的处理单元上实现,包括但不限于一个或多个CPU、一个或多个多内核CPU、一个或多个PPU 202、一个或多个GPC 208、一个或多个图形或特殊用途的处理单元等等,均不超出本发明的范围。图4为根据本发明一个实施例的,由图2中一个或多个PPU 202经配置以实现的图形处理管线400的示意图。例如,一个SPM 310可被配置为执行一个或多个顶点处理单元415、几何(geometry)处理单元425以及片段处理单元460的功能。数据汇编器410、基元汇编器420、光栅化器455以及光栅操作单元465的功能也可以由GPC 208和相应的分区单元215中的其他处理引擎执行。可替代地,可采用用于一个或多个功能的专用处理单元来实现图形处理管线400。数据汇编器410处理单元针对高序位的表面、基元等采集顶点数据,并输出包括顶点属性的顶点数据到顶点处理单元415。顶点处理单元415是被配置为执行顶点着色程序的可编程执行单元,根据顶点着色程序的指定,光照(lighting)和转换顶点数据。例如,顶点处理单元415可被编程为将顶点数据从基于对象的坐标表示(对象空间)转换到诸如世界空间或标准化设备坐标(NDC)空间的替代基础坐标系统。顶点处理单元415可读取由数据汇编器410存储在LI高速缓存320、并行处理存储器204、系统存储器104中的数据,用于处理顶点数据。基元汇编器从顶点处理单元415接收顶点属性,按需读取存储的顶点属性,并且构建用于通过几何处理单元425处理的图形基元。图形基元包括三角形、线段、点等。几何处理单元425是被配置为执行几何着色程序的可编程执行单元,根据所述几何着色程序的指定,转换从基元汇编器420接收的图形基元。例如,几何处理单元425可经编程以细分图形基元为一个或多个新的图形基元,并计算被用于光栅化所述新的图形基元的参数,例如平面方程系数。在一些实施例中,几何处理单元425也可增加或删除几何流中的元素。几何处理单元425输出指定新的图形基元的参数和顶点到视窗(viewport)缩放、剔除(cull)及裁剪(clip)单元450。几何处理单元425可读取存储在并行处理存储器204或系统存储器104中的数据,用于处理几何数据。视窗缩放、剔除及裁剪单元450执行裁剪、剔除以及视窗缩放,并输出处理后的图形基元到光栅化器455。
光栅化器455扫描转换新的图形基元,并输出片段和覆盖数据到片段处理单元460。此外,光栅化器455可被配置为执行z剔除和其他基于z的优化。片段处理单元460是被配置为执行片段着色程序的可编程执行单元,根据片段着色程序的指定,转换从光栅化器455接收的片段。例如,片段处理单元460可经编程以执行诸如透视校正、纹理映射、着色、混合等操作,以产生输出到光栅操作单元465的着色片段。片段处理单元460可读取存储在并行处理存储器204或系统存储器104中的数据,用于处理片段数据。可以根据编程的采样率,来按像素、采样或其他粒度来对片段进行着色。光栅操作单元465是执行诸如模板(stencil)、z测试、混合等光栅操作的处理单元,并输出像素数据作为处理后的图形数据,用于存储在图形存储器中。处理后的图形数据可存储在例如并行处理存储器204和/或系统存储器104的图形存储器中,用于在显示设备110上显示或用于由CPU 102或并行处理子系统112进一步处理。在本发明的一些实施 例中,光栅操作单元465被配置为压缩被写入存储器中的z数据或色彩数据,以及解压缩从存储器中读出的z数据或色彩数据。用于并行命令列表生成的硬件本发明的实施例涉及在多线程处理系统中将处理器状态从一个命令列表延递(carry over)到下一个命令列表。也就是说,诸如GPU或CPU的处理器的状态可跨多个命令列表累积。这一特征也被称作“跨命令列表的状态继承”。跨命令列表的状态继承给驱动器带来严重的问题,因为选择在命令列表中放入哪种方法依赖于在GPU中执行该方法时GI3U的状态。GPU状态其实是之前被执行的所有命令缓冲区中累积的状态表现。然而,GPU状态可以在由不同驱动线程所生成的上一个命令缓存区中设置,但所述不同驱动线程并未完成对该上一个命令缓冲区的创建。本发明的实施例或者移除对未知继承关系的依赖,或者一旦继承状态已知则更新命令缓存区的状态依赖部分。在一个实施例中,将处理状态定义为与执行命令的处理单元相关联的参数集。在处理状态中所包括的参数的示例尤其包括顶点着色器、几何着色器、像素着色器等的选择,对绑定到像素着色器的一组不同纹理进行定义的一个或多个参数,对如何执行混合进行定义的参数,目标渲染表面的列表。这里所使用的“方法”是发送到处理硬件的命令,所述处理硬件设置一个或多个定义处理器状态的参数。在一个实施例中,设置处理器状态定义了不同的处理阶段如何执行随后的命令。本发明的实施例试图消除这样一种情况放入命令列表中的方法依赖于GPU所有命令列表的执行顺序中的当前状态。这一特征被称作“使驱动器无状态(stateless)”,因为当生成命令列表时,驱动器不需要考虑当前GPU状态。本发明的实施例的另一个动机在于,减小CPU从应用程序向硬件提交渲染命令的开销,即,避免CPU成为瓶颈。这一开销的原因在于,CPU花费时间检查当前状态以确定发送哪个方法。如果不需要检查当前状态来写入所述方法,需要的开销更少。在一个实施例中,每个处理设备有一个主线程和多个辅助线程(worker thread)。例如,这种一主/N辅的布置可由应用程序确定。每个辅助线程都“拥有”一个与将被处理设备所执行的命令相关联的命令列表。在一些实施例中,处理设备包括PPU 202或CPU内核。辅助线程通过进行API调用(例如,状态变化、绘图命令等)将它们的命令列表并发地填充到驱动器中。当完成命令列表时,这些命令列表被传给主线程,该主线程对它们进行排序并提交到驱动器/硬件。在一些实施例中,可多次提交命令列表。至少初看起来,实现这一模型要求驱动器是“无状态”的,意思是任意设备驱动器接口(DDI)入口点都可以被完全处理和转换为方法,而无需参考“当前”API或处理器状态。在一个实施例中,每个DDI入口点可简单地被编码到命令令牌(token)和参数数据中,其可以被附加到与命令列表相关联的缓冲区。当调度命令列表以便执行时,这些令牌可被解释并转换为入栈缓冲区中的方法/命令。然而,这种方式在多线程命令列表生成中遇到瓶颈问题,这是由于达到这一结果所需的大多处理工作仍然在单线程中连续发生。在一个实施例中,每个命令列表包括令牌化的命令队列,以及一个或多个关联的GPU可读命令缓冲段。很多DDI入口点是无状态的,并且正好附加到命令缓冲区。命令令牌之一可能是“附加接下来的N个命令缓冲区字节”。而可能需要其他命令用于依赖状态(state-dependent)的处理。例如,当 提交命令列表时,这一处理可发生在所述主线程,并且它的结果叠加到硬件可见的方法流中。在一个实施例中,每个命令列表都继承当前命令列表执行前所执行的命令列表留下的任意状态。这意味着当命令列表被生成时,可以不知道其初始状态,并且意味着每次命令列表被执行时这一状态甚至都可能不同,即,如果命令列表的排序改变。在这种情况下,驱动器在创建命令列表时,并不总是一直都知道当前API状态。在一个实施例中,在命令列表的资源参考(reference)与命令列表所使用的实际资源之间插入间接处理(indirection)。当提交命令列表时,将该参考绑定到实际资源,并且可在提交之间改变。图5示出根据本发明一个实施例的,使用并行命令列表的多线程处理的示意图。如图所示,由应用程序开发人员所编写的软件应用程序可被分为多个线程512-1、512_2、512-3。每个线程512-1、512-2、512-3分别与不同的驱动器504-1、504-2、504-3相关联。每个驱动器504-1、504-2、504-3分别与不同的命令列表506-1、506-2、506_3相关联。创建命令列表的线程执行于由应用程序和操作系统所确定的CPU内核上。一旦这些线程完成其命令列表的创建,则提交或调度这些命令列表用于由诸如GPU的处理单元510进行执行。在应用程序502经由信号514的控制下,经由软件多路复用器508执行命令列表提交步骤。图6示出根据本发明一个实施例的,跨命令列表的状态继承的示意图。如所描述的,实现跨命令列表的状态继承时,当在临近一个线程的执行结束时设置状态并且在临近另一个命令列表开始时执行依赖于该状态的命令时,可能会出现问题。依赖于所述状态的命令的示例是绘图命令。在图6所示的示例中,假设首先执行命令列表506-1,接下来执行命令列表506_2。如图6所不,在临近执行命令列表506-1的结束时由一个或多个命令604设置处理单兀510的状态。当实现跨命令列表的状态继承时,处理单元510的状态被延递给命令列表506-2的执行,由路径602示出。绘图命令606可被包括在命令列表506-2中且临近命令列表506-2的开始处。因为分别与命令缓冲区506-1、506-2相关联的线程512-1、512-2可以是不相关的线程,当没有校正措施来保证执行所述画图命令606时正确地设置所述状态,则延递所述状态到线程512-2可能发生错误。如本文更详细的描述,本发明实施例支持有效地、无误地跨命令列表状态继承。图7示出根据本发明一个实施例的,用于状态继承的命令列表706的示意图。命令列表706可包括一系列令牌。在一个实施例中,每个令牌都与指向命令缓冲区的指针相关联。在一些实施例中,所述命令列表706交替出现与应用程序命令相关联的令牌和与补丁方法相关联的令牌,如本文所描述。在图7所示的实施例中,命令列表706中的令牌包含指向缓冲区702、704的指针。每个缓冲区702、704存储将由诸如PPU 202或CPU内核这类执行单元所执行的命令,也称作“方法”。在一个实施例中,缓冲区702包括被包含在线程中将被执行的“常规”应用程序命令,并且缓冲区704包括被用于针对由处理单元所执行的后续命令将处理器状态设置为合适状态的“补丁”方法。在一些实施例中,驱动器被配置为设置包括于命令列表706中的指针,并且在缓冲区702、704中存储命令。驱动器顺序地遍历线程中的命令,并使用当前处理器状态来将所执行的命令存储到缓冲区702的块A中。一旦驱动器遇到依赖于不同处理器状态的命令, 该驱动器停止在块A中存储命令。相反,驱动器在缓冲区704的块Xtl中存储一个或多个补丁方法,其中存储在块Xtl中的命令/方法被配置为将处理器状态修改为该线程中随后的命令所希望的形式。一旦将补丁方法存储在缓冲区704中,驱动器继续将包括在线程中的命令存储在缓冲区702中下一个可用块中,即块B。重复这个过程,直到该线程中的所有命令都被存储在缓冲区702中,并且所需的补丁方法被存储在缓冲区704中。在执行时,处理单元遇到补丁命令块并生成补丁。然后将该补丁插入到命令队列中。当创建命令列表时,驱动器仅写入到缓冲区702和706中。在706中的“补丁”表项描述了随后的表项需要哪种状态信息。当提交用于执行的命令列表,尤其在主线程上提交时,补丁表项用于将补丁方法写入缓冲区704。在命令队列中的插入是虚拟的命令队列仅是指向包括方法的缓冲区段的指针序列,因此它将指向段{A,xO,B,xl,......}。如图所示,命令列表706在指向将被执行的命令的指针与指向补丁方法的指针之间交替变化。存储在命令列表706中的指针或者指向缓冲区702中的线程命令块,或者指向缓冲区704中的补丁方法块。同样如图所示,缓冲区704和/或缓冲区702中的块在后续通过命令列表时被重复使用。例如,如图所示,在第一次通过时,命令列表706中的特定补丁方法指针可指向块Xo,但在随后的通过中,同一个指针可指向块&。使用图7所示的示例,将由处理单元所执行的块的序列可以是,例如> A, X0, B, X1, C.......A, x2,B......在一些实施例中,当存在的补丁较少并且每个补丁尽可能小,即每个补丁的命令/方法较少时,将获得更高的效率。本发明的一些实施例包括一个或多个命令,如下所述,其经配置以更有效地执行上述的状态打补丁。相应地,本发明的实施例与下述内容相关联对处理单元的“状态”增加一个或多个附加参数,并且提供基于硬件的技术用于修改所述一个或多个附加参数。I.索引缓冲区格式在一个实施例中,将索引缓冲区格式作为处理器状态的参数添加在硬件中。例如,当硬件绘制索引三角列表时,索引可以是16位或32位索引。在诸如DXlI的传统方法中,较老的硬件要求将索引大小编码在绘图方法中,这是因为绘图命令依赖于所述索引大小。相应地,在DXll中,对于每个所遇到的绘图命令都需要补丁。相反,本发明的实施例包括作为处理器状态参数的索引缓冲区格式。因此,绘图命令不需要与该索引命令一起包括索引大小。当执行绘图命令时,处理单元可简单地参考与索引缓冲区格式相关联的状态参数。为了修改与索引缓冲区格式相关联的状态参数,可实施具有IndexSize字段的单个SetIndexBuffer ()方法。2.基元拓扑在传统方法中,基元拓扑并未被作为处理器状态的一部分而包括在硬件中。因此,对于每个绘图命令来说,与该绘图命令相关联的基元拓扑(例如,三角形、三角形带、线等等)将需要被包括在该绘图命令中。根据本发明的实施例,基元拓扑被作为状态参数而添加,不需要将其作为绘图命令的一部分来包括。然而,当处理单元接收绘图命令时,该处理单元可能不知道基元拓扑参数的当前设置。因此,本发明的实施例实施单个方法SetPrimitiveTopology()以设置基元拓扑,而不需要驱动器将该基元拓扑作为绘图命令的一部分(或Begin方法的一部分)来加以包括。3.用户裁剪平面使能处理顶点的某些可编程着色单元支持用户写入高达N个不同的裁剪距离输出。例如,N可以等于8。为了执行裁剪,着色单元可估计顶点相对于特定裁剪平面的位置。每个裁剪平面都将屏幕分离为应该绘制顶点的区域和应该切除且不绘制顶点的区域。如果顶点相对于裁剪平面具有正值,那么顶点在平面的“正确的”一侧,并且应该被绘制。如果顶点相对于裁剪平面具有负值,那么顶点在平面“错误的”一侧,并且不应被绘制。如一个实施例所述,几何处理管线中的一个或多个着色阶段可以写裁剪距离。将由最后被使能的着色阶段所写的裁剪距离用于裁剪;由之前阶段所写的裁剪距离被简单输出给它们的随后阶段。当实现跨命令列表的状态继承时,不同的线程可“跨接(hook up)”或使用不同的着色器。相应地,本发明的实施例提供用于自动确定哪一个是最后使用的着色器的技术。基于与该着色器相关联的裁剪信息,硬件可确定已经写入哪个裁剪距离(即,候选用于被裁剪为该距离)。使用跨命令列表的状态继承,当驱动器正创建命令列表时,该驱动器不知道哪个阶段被使能。这样,驱动器不知道最后被使能的阶段是什么。因此,该驱动器不能告知硬件哪个阶段的裁剪距离用于剪切。此外,在一些实施例中,使能位可以与N个不同的裁剪距离输出中的每一个相关联,所述N个不同的裁剪距离输出与特定命令相关联。可将这一组N个使能位和用于配置着色器的、与最后一个着色器相关联的裁剪信息进行逻辑与。例如,可编程处理管线可包括处理点并且确定顶点位置的顶点着色器,以及操作全部基元的几何着色器。在第一配置中,可编程处理管线可被配置以使得在管线中几何着色器在顶点着色器之后被调用。相应地,由最后一个阶段即几何着色器来设置裁剪距离。在第二配置中,可编程处理管线可被配置为在管线中在顶点着色器之后不调用几何着色器(即,空的几何着色器)。在没有几何着色器的第二配置中,由顶点着色器设置裁剪距离。因此,本发明的实施例实施包括用于每个用户裁剪平面的单独使能位的单个方法SetUserClipEnable O。如所述的,这一组N个使能位可以和与最后被使用的着色器相关联的裁剪信息进行逻辑与。4.预测渲染重写(override)有时驱动器需要入栈/出栈(push/pop)预测状态,用于诸如着色器/纹理数据头(texheader) /采样器上传的“内部”位块,或者用于应该忽略预测的操作。例如,驱动 器可能需要进行内部绘图调用,以完成并非对应于来自应用程序绘图命令的某些动作。相应地,为了在内部操作之后恢复当前的预测状态,需要知道该状态。本发明的实施例将SetRenderEnableOverride ()方法添加到API以重写当前预测状态,提供一级堆栈用于预测状态的入栈/出栈。图8为根据本发明一个实施例的,用于具有跨命令列表状态继承的多线程处理的方法步骤的流程图。本技术领域的技术人员应该理解,虽然与图1-7中的系统结合来描述方法800,被配置为以任意顺序执行所述方法步骤的任意系统都包括在本发明实施例的范围内。如图所示,方法800从步骤802开始,其中由处理器执行的驱动器接收包括多个并行线程的应用程序。如图5中所示,应用程序可以由程序开发人员编写。在步骤804中,驱动器为每个线程生成一个命令列表。如上述图7中的描述,每个命令列表都在指向应用程 序命令的缓冲区的指针和指向补丁方法的缓冲区的指针之间交替变化。下面在图9中详细描述步骤804。在步骤806,处理单元执行被包括在与第一线程相关联的第一命令列表中的命令。在一些实施例中,处理单元利用包括在处理管线中的一个或多个处理阶段来执行这些命令。例如,如图7所示,处理单元接收被包括在各缓冲区702、704中的命令。处理单元可首先执行来自缓冲区702的块A中的应用程序命令,然后执行来自缓冲区704的块Xtl的补丁方法,然后执行来自缓冲区702的块B中的应用程序命令,等等。在该命令列表结束时,处理单元停止执行来自第一线程的命令列表的命令,并切换为执行来自第二线程的命令列表的命令。在步骤808,当处理单元停止执行来自第一线程的命令列表的命令时,驱动器保持该处理器状态。如所述的,将处理器状态定义为与执行命令的处理单元相关联的参数集。被包括在处理器状态中的参数的示例尤其包括顶点着色器、几何着色器、像素着色器等的选择、一组绑定到像素着色器的不同纹理,对如何执行混合进行定义的参数,目标渲染表面列表。在步骤810中,处理单元执行被包括在与第二线程相关联的第二命令列表中的命令。步骤810与上述步骤806基本上类似。从而,处理器实现跨命令列表的状态继承。图9为根据本发明一个实施例的,用于生成命令列表的方法步骤的流程图。本技术领域的技术人员应该理解,虽然与图1-7中的系统结合来描述方法900,被配置为以任意顺序执行所述方法步骤的任意系统都包括在本发明实施例的范围内。如图所示,方法900从步骤902开始,其中驱动器接收被包括在应用程序命令的线程中的命令。如图5中所述,应用程序可以由应用程序开发人员编写,并且可以包括多个并行线程。如图8中所述,在步骤804,为每个并行线程生成命令列表。在步骤904,驱动器确定仅使用处理器的已知状态是否能编码命令。问题在于驱动器是否知道有关执行时间(execution-time)处理器状态的足够信息来生成方法(即,命令的硬件表示)。一些方法可以在不知道任何其他的处理器状态的情况下被写得。其他方法依赖于其他的处理器状态,但该处理器状态是在驱动器建立命令列表时被获知的。在命令列表构建期间,这两种情况之一可被立即写入到命令缓冲区中。如果方法的编码依赖于其他状态,并且当构建命令列表时该状态是未知的,那么此时该方法不能被写到命令缓冲区——必须被延迟到命令列表被执行并且执行时间状态已知。
如果驱动器确定仅使用处理器已知的状态就可编码命令,那么方法900进入步骤906。在步骤906,驱动器将命令插入与应用程序命令相关联的第一命令缓冲区。如图7所示,第一命令缓冲区即缓冲区702,可被分为应用程序命令块。随后将指向适当的应用程序命令块的指针增加到命令列表中。在步骤908,驱动器确定线程中是否包括其他的命令。如果线程中包括其他的命令,那么方法900转回到步骤902,如上所述。当生成命令列表时,方法900遍历被包括在线程中的每个应用程序命令。如果线程中不包括其他的命令,那么方法900结束。在步骤904中,如果驱动器确定仅使用处理器已知的状态不能编码命令,那么方法900进入步骤910。在步骤910,驱动器将有关需要什么补丁方法的信息存储到边带队列中。之后,处理该队列,并且当执行命令列表时写入补丁方法。例如,将索引大小作为非独立的状态参数避免了对于补丁的需求。当在绘图方法中编码索引大小时,则索引大小未知时所发送的任意绘图命令随后都将需要打补丁。其目的在于减小补丁的数量。 总而言之,本发明实施例提供用于实现跨命令列表的状态继承的技术。每个命令列表在指向应用程序命令的指针和指向补丁方法的指针之间交替变化。在命令列表构建期间,在任何遇到依赖于未知的处理器状态的应用程序命令的时候,将补丁方法插入命令列表。有利地,相对于不提供跨命令列表的状态继承的现有技术,获得了更高的处理效率。因为每次执行不同的线程时,不需要重新设置处理器为“空白状态”,所以需要的处理开销更少。UnbindAll (全部释放)方法如上所述,DXll不允许跨命令列表的状态继承。相反,处理器状态在每个命令列表开始时被重置为所谓的“空白状态”。也就是指,每个用户模式驱动器线程在命令列表开始时在处理器中设置所有的状态参数。在DXll中,使用几十或几百的命令来将处理器状态重置为空白状态所增加的处理开销降低了系统的效率,因此,降低了整体性能。在一个实施例中,空白状态实质上是一组用于所有类方法状态的初始条件,其中没有资源被绑定,例如,没有纹理数据头、没有纹理采样器、没有常量缓冲区以及没有渲染目标。在DXll中,在每个命令列表开始时,驱动器将插入所有的状态设置方法以设置初始条件。在DXll中,采用819个单独的方法将所有资源逐位置(slot-by-slot)地释放(5种着色类型)*((每种着色类型的128个纹理数据头绑定方法)+(每种着色类型16个采样器绑定方法)+(每种着色类型18个常量缓冲区绑定方法))+(9个目标“绑定”方法)=819 个方法每次执行不同的命令列表时都执行819个方法会占用大量的处理资源。相应地,本发明实施例实施UnbindAlU )方法,其使用一种方法来释放所有内容。实施这一方法提高了驱动器的性能,并且减少了 GPU中方法所需的带宽。在一个实施例中,将诸如纹理数据头的每个状态参数存储在存储器单元的不同行中。为了实现UnbindAlU )方法,有效位被附加到存储单元的每一行。为了释放所有的状态参数,将每个有效位设置为无效状态。
在另一个实施例中,如果状态参数被存储在高速缓存存储器中,则可通过归零该高速缓存存储器中的一个或多个高速缓存线来实现UnbindAlU )方法。而在另一个实施例中,如果状态参数被存储在存储体存储器(banked memory)中,通过立即清空一个或多个存储体来实现UnbindAlU )方法。图10为根据本发明一个实施例的,使用UnbindAlU )方法实现多线程处理的方法步骤的流程图。本技术领域的技术人员应该理解,虽然与图1-7中的系统结合来描述方法1000,被配置为以任意顺序执行所述方法步骤的任意系统都包括在本发明实施例的范围内。如图所示,方法1000从步骤1002开始,其中驱动器接收包括多个并行线程的应用程序。在步骤1004中,驱动器为每个线程生成命令列表。在步骤1006,处理器执行与第一 命令列表相关联的命令,所述第一命令列表与第一线程相关联。步骤1002、1004、1006分别与如上所述的步骤802、804、806基本上相似。在步骤1008,处理器执行被包括在与第二线程相关联的第二命令列表中的UnbindAlK )方法。如上所述,UnbindAll ()方法采用一个方法来释放所有状态参数。在一个实施例中,UnbindAlU )方法可作为第一个方法来被插入每个命令列表中。在另一个实施例中,UnbindAlU )方法可作为最后一个方法来被插入每个命令列表中。在步骤1008中,处理器执行与第二命令列表相关联的其余命令。步骤1010可以与如上所述的步骤810基本上相似。本发明的一个实施例可以被实现为与计算机系统一同使用的程序产品。程序产品的程序对实施例的功能(包括在此描述的方法)进行定义,并且可被包含在各种各样的计算机可读存储介质内。说明性的计算机可读存储介质包括但不限于(i)信息在其上永久保存的非可写存储介质(例如,计算机内的只读存储装置,诸如对CD-ROM驱动器可读的CD-ROM盘、闪存、ROM芯片或者任意类型的固态非易失性半导体存储器);以及(ii)其上存储有可改变的信息的可写存储介质(例如,软盘驱动器内的软盘,或硬盘驱动器,或任意类型的固态随机存取半导体存储器)。以上已经参考具体实施例对本发明进行了描述。然而,本技术领域的技术人员应该理解,可以进行各种修改和变化,而不脱离如所附权利要求所阐释的本发明的较宽精神和范围。相应地,前面的描述和附图应被视为是示例性的而非限制性的。
权利要求
1.一种用于为多线程处理环境提供初始默认状态的方法,所述方法包括 接收包括多个并行线程的应用程序; 为所述多个并行线程的每个线程生成命令列表; 将释放方法插入到与所述多个并行线程的第一线程相关联的第一命令列表中以由处理单元执行,其中所述释放方法是将由所述处理单元所执行的命令; 使所述释放方法由所述处理单元执行,使得处理单元的状态的每个参数被重置;以及, 在执行所述释放方法之后,使包括在所述第一命令列表中的命令由所述处理单元执行。
2.根据权利要求I所述的方法,其中所述处理单元包括图形处理单元。
3.根据权利要求I所述的方法,其中所述处理单元包括中央处理单元的内核。
4.根据权利要求I所述的方法,其中所述释放方法按顺序是在将由所述处理单元所执行的第一命令列表中的第一个命令。
5.根据权利要求I所述的方法,其中存储器单元的一个或多个行被配置为存储所述处理单元的状态,并且进一步包括,将与所述一个或多个行的每一者相关联的一个或多个位设置为无效状态。
6.根据权利要求I所述的方法,其中重置所述处理单元的所述状态包括,清空与所述处理单元的所述状态相关联的高速缓存存储器中的一个或多个高速缓存线。
7.根据权利要求I所述的方法,其中重置所述处理单元的所述状态包括,清空与所述处理单元的所述状态相关联的存储体存储器的一个或多个存储体。
8.一种用于在多线程处理环境中提供跨命令列表的状态继承的方法,所述方法包括 接收包括多个并行线程的应用程序; 为所述多个并行线程的每个线程生成命令列表; 使与所述多个并行线程的第一线程相关联的第一命令列表由处理单元执行;以及, 使与所述多个并行线程的第二线程相关联的第二命令列表由所述处理单元执行,其中所述第二命令列表从所述第一命令列表继承与所述处理单元相关联的状态。
9.根据权利要求8所述的方法,其中所述第一命令列表包括在命令缓冲区中的方法和补丁方法缓冲区中的方法之间交替变化的令牌,所述命令缓冲区中的方法于命令列表构建期间被写入,所述补丁方法缓冲区中的方法于提交命令列表用于执行期间被写入。
10.根据权利要求9所述的方法,其中每个令牌包括指向存储器单元的指针,所述存储器单元被配置为存储由所述处理单元所要执行的命令。
11.根据权利要求9所述的方法,其中索引大小是与所述处理单元相关联的状态的参数,并且将基于所述索引大小的绘图命令包括在所述命令缓冲区中,而无需相应的补丁方法。
12.根据权利要求9所述的方法,其中基元拓扑是与所述处理单元相关联的状态的参数,并且将基于所述基元拓扑的绘图命令包括在所述命令缓冲区中,而无需相应的补丁方法。
13.根据权利要求9所述的方法,其中在几何处理管线中的每个着色阶段都具有相关联的一组裁剪平面使能位,并且所述处理单元被配置为使用与最后一个被使能的着色阶段相关联的所述裁剪平面使能位。
14.根据权利要求8所述的方法,其中所述处理单元包括图形处理单元。
15.一种计算机系统,包括 处理器,以及 存储指令的存储器,当所述指令由所述处理器执行时,使得所述处理器通过执行以下步骤,在多线程处理环境中提供跨命令列表的状态继承 接收包括多个并行线程的应用程序; 为所述多个并行线程的每个线程生成命令列表; 使与所述多个并行线程的第一线程相关联的第一命令列表由处理单元执行;以及, 使与所述多个并行线程的第二线程相关联的第二命令列表由所述处理单元执行,其中所述第二命令列表从所述第一个命令列表继承与所述处理单元相关联的状态。
全文摘要
本发明提供一种用于在多线程处理环境中提供跨命令列表的状态继承方法。所述方法包括接收包括多个并行线程的应用程序;为多个并行线程的每个线程生成命令列表;使与多个并行线程的第一线程相关联的第一命令列表由处理单元执行;以及使与多个并行线程的第二线程相关联的第二命令列表由处理单元执行,其中第二命令列表从第一命令列表继承与处理单元相关联的状态。
文档编号G06F9/30GK102648450SQ201080053155
公开日2012年8月22日 申请日期2010年9月23日 优先权日2009年9月23日
发明者亨利·帕尔德·莫顿, 帕特里克·R·布朗, 杰罗姆·F·小杜鲁克, 杰西·大卫·豪 申请人:辉达公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1