基于神经网络双重稀疏性矩阵乘法运算电路、方法和装置与流程

文档序号:33543277发布日期:2023-03-22 09:31阅读:80来源:国知局
基于神经网络双重稀疏性矩阵乘法运算电路、方法和装置与流程

1.本技术涉及神经网络技术领域,具体地涉及基于神经网络双重稀疏性矩阵乘法运算电路、方法和装置。


背景技术:

2.首先,现有技术在神经网络加速运算过程中,加速器单元顺序从内存单元中读取数据,而且,图像或者特征图在内存中的存贮按照预设规则存贮,而神经网络的运算是通过滑窗操作以此对图像取数,此时加速器读取的数据在图像上是不连续的,即从内存行中数据是不连续的,而我们知道,指令索址阶段跨行索址在时间和功耗方面都会提高,同时缓存命中率也会大大降低,不利于ai处理器对数据加速处理; 同时在神经网络滑窗运算过程中,滑窗部分数据以及各输入通道的数据会被重新利用,而传统加速计算过程中未能很好的利用可重复数据,这就进步一提高的内存与处理器计算内核之间的带宽和资源占用;其次,卷积神经网络具有卷积核和激活输出双重稀疏性,大量的零元素占用了大量的内存空间,同时无效的零运算降低了加速器芯片的运算效率;并且,嵌入式aiot设备内存空间较为紧张,在神经网络推理运算时需要存储当前计算节点的激活、权重等相关依赖数据,因此亟需减少神经网络在模型推理时的内存消耗。现有的一种方案是在神经网络的模型推理过程中采用动态分配内存的方法,根据每个计算节点生命周期所需内存大小动态分配内存块,该方法可以减少大量内存消耗,但是需要在每一次推理过程中频繁的分配和释放内存空间,不可避免地影响到模型推理时的执行效率,增加了模型推理的时间消耗,同时常见的内存分配算(firstfit/bestfit等)会造成内存碎片化问题。有的方法是根据各计算节点生命周期所需内存容量的下限静态的分配内存,然后基于每个计算节点生命周期动态分配内存空间,但这种方法融合造成个计算节点间的内存间隙。三是基于每个计算节点激活输出的稀疏性质对其进行压缩,从而减少存储空间,但是当前针对稀疏激活压缩的物理电路具体实现效率低下,灵活性不足,尤其针对长向量或者大矩阵的稀疏数据压缩比较低,同时目前大部分的稀疏压缩均是基于cpu实现,压缩效率低下,无法满足神经网络推理计算的实时性要求。
3.本背景技术描述的内容仅为了便于了解本领域的相关技术,不视作对现有技术的承认。


技术实现要素:

4.因此,本发明实施例意图提供基于神经网络双重稀疏性矩阵乘法运算电路、方法和装置。
5.在第一方面,本发明实施例提供了基于神经网络双重稀疏性矩阵乘法运算电路,包括:主控制器、矩阵计算阵列、数据输入输出缓存单元、存储器;主控制器,用于执行程序指令;数据输入输出缓存单元,用于缓存卷积核权重编码数据、特征编码数据;
存储器,用于存储程序和数据;所述矩阵计算阵列根据程序指令接收输入矩阵或向量数据,执行对应的计算;所述矩阵计算阵列包含若干个pe计算单元,用于执行具体乘累加、池化、激活运算;所述矩阵计算阵列根据预设程序或配置指令,将矩阵数据分解为向量段,发送至对应的所述pe计算单元执行。
6.在其中一个实施例中,所述矩阵计算阵列对卷积核及激活输出数据进行重排,最大限度实现内存行内搜索。
7.在其中一个实施例中,所述电路采用预设稀疏编码规则对稀疏卷积核进行压缩,所述存储器只存储非零元素及其索引位置的编码信息。
8.在其中一个实施例中,所述电路还包括专用稀疏激活压缩编码电路,所述专用稀疏激活压缩编码电路对计算节点的稀疏激活特征输出进行压缩编码处理。
9.在其中一个实施例中,所述电路还包括非稀疏权重编码数据缓存队列单元,用于接收缓存输入的非稀疏权重向量编码数据,所述非稀疏权重编码数据缓存队列单元判断所述非稀疏权重向量编码数据的存储格式配置为双fifo模式还是单fifo模式,若所述非稀疏权重向量编码数据的存储格式配置为双fifo模式,则一个fifo存储权重数据,另一个fifo存储对应权重数据的位置编码信息;若所述非稀疏权重向量编码数据的存储格式配置为单fifo模式,则每个fifo存储单元格中存储权重数据和位置编码信息。
10.在其中一个实施例中,所述电路还包括解码器,所述解码器将权重数据和位置编码数据分离,其中所述位置编码信息用于计算非零权重对应特征数据的位置。
11.在其中一个实施例中,所述pe计算单元至少包括第一解码器和第二解码器,所述第二解码器通过位置选择信号,从解压后的稀疏特征激活向量中选择输出与非零权重对应的特征激活数据,所述第一解码器根据位置选择信号将压缩的特征激活数据解压为稀疏特征激活向量,所述稀疏特征激活向量为第二解码器的输入。
12.在第二方面,本发明实施例提供了基于神经网络双重稀疏性矩阵乘法运算方法,包括:根据程序指令接收输入矩阵或向量数据,执行对应的计算;执行具体乘累加、池化、激活运算;根据预设程序或配置指令,将矩阵数据分解为向量段,发送至对应的pe计算单元执行。
13.在其中一个实施例中,包括:对卷积核及激活输出数据进行重排,最大限度实现内存行内搜索。
14.在第三方面,本发明实施例提供了基于神经网络双重稀疏性矩阵乘法运算装置,包括:第一模块,用于根据程序指令接收输入矩阵或向量数据,执行对应的计算;第二模块,用于执行具体乘累加、池化、激活运算;第三模块,用于根据预设程序或配置指令,将矩阵数据分解为向量段,发送至对应的pe计算单元执行。
15.本发明实施例使用的基于神经网络双重稀疏性矩阵乘法运算电路、方法和装置,能够避免跨行搜索,提高缓存命中率,使得特征向量与权重向量更高效的执行矩阵乘法运
算,通过专用稀疏激活压缩编码电路对其进行压缩编码处理,只存储非零特征元素及对应的位置编码信息,进一步降低内存占用。
16.本发明实施例的其他可选特征和技术效果一部分在下文描述,一部分可通过阅读本文而明白。
附图说明
17.以下,结合附图来详细说明本发明的实施例,所示出的元件不受附图所显示的比例限制,附图中相同或相似的附图标记表示相同或类似的元件,其中:图1示出了根据本发明实施例的基于神经网络双重稀疏性矩阵乘法运算电路的稀疏激活编码器的示意图;图2示出了根据本发明实施例的第一解码器架构原理图;图3示出了根据本发明实施例的稀疏权重向量数据压缩编码原理图;图4示出了根据本发明实施例的第二解码器架构原理图;图5示出了根据本发明实施例的第二解码器互联交换网络架构原理图;图6示出了根据本发明实施例的稀疏激活压缩解码步骤流程图。
具体实施方式
18.为使本发明的目的、技术方案和优点更加清楚明白,下面结合具体实施方式和附图,对本发明做进一步详细说明。在此,本发明的示意性实施方式及其说明用于解释本发明,但并不作为对本发明的限定。
19.在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
20.首先,现有技术在神经网络加速运算过程中,加速器单元顺序从内存单元中读取数据,而且,图像或者特征图在内存中的存贮按照预设规则存贮,而神经网络的运算是通过滑窗操作以此对图像取数,此时加速器读取的数据在图像上是不连续的,即从内存行中数据是不连续的,而我们知道,指令索址阶段跨行索址在时间和功耗方面都会提高,同时缓存命中率也会大大降低,不利于ai处理器对数据加速处理; 同时在神经网络滑窗运算过程中,滑窗部分数据以及各输入通道的数据会被重新利用,而传统加速计算过程中未能很好的利用可重复数据,这就进步一提高的内存与处理器计算内核之间的带宽和资源占用;其次,卷积神经网络具有卷积核和激活输出双重稀疏性,大量的零元素占用了大量的内存空间,同时无效的零运算降低了加速器芯片的运算效率;并且,嵌入式aiot设备内存空间较为紧张,在神经网络推理运算时需要存储当前计算节点的激活、权重等相关依赖数据,因此亟需减少神经网络在模型推理时的内存消耗。现有的一种方案是在神经网络的模型推理过程中采用动态分配内存的方法,根据每个计算节点生命周期所需内存大小动态分配内存块,该方法可以减少大量内存消耗,但是需要在每一次推理过程中频繁的分配和释放内存空间,不可避免地影响到模型推理时的执行效
率,增加了模型推理的时间消耗,同时常见的内存分配算(firstfit/bestfit等)会造成内存碎片化问题。有的方法是根据各计算节点生命周期所需内存容量的下限静态的分配内存,然后基于每个计算节点生命周期动态分配内存空间,但这种方法融合造成个计算节点间的内存间隙。三是基于每个计算节点激活输出的稀疏性质对其进行压缩,从而减少存储空间,但是当前针对稀疏激活压缩的物理电路具体实现效率低下,灵活性不足,尤其针对长向量或者大矩阵的稀疏数据压缩比较低,同时目前大部分的稀疏压缩均是基于cpu实现,压缩效率低下,无法满足神经网络推理计算的实时性要求。
21.为了解决上述问题,本技术提出了一种基于神经网络双重稀疏性矩阵乘法运算电路、方法和装置。
22.在卷积神经网络计算具体实现时,需将卷积运算转换为矩阵乘法运算以便于神经网络加速器并行计算能力被高效利用,但在实际计算过程中受数据结构、读写方式、存储空间大小、通信带宽等诸多方面因素影响很难实现理想的高效卷积加速,因此为获得接近最佳的卷积神经网络加速计算性能,需要在宏观层面上对操作进行分层、对数据进行重新排列,并在微观层面上设计高性能内核。改进1:设计了一种基于神经网络双重稀疏性的矩阵乘法运算电路架构;改进2:对推理过程中的卷积核及激活输出数据进行重排,使其最大限度实现内存行内搜索,避免跨行搜索,提高缓存命中率,同时通过预取技术进一步提高数据处理效率;进一步的对于部分输入特征图通道大于某一阈值的卷积核(输入特征图通道数等于卷积核维度),在卷积核展开成向量形式后,就会出现权重数据构成的宽远远少于其对应的高度(举例来说:对于一个大小为32
×3×
3的卷积核,有32个维度,每个维度展开后的权重向量长度为9,而高度为32,
……
),在对其重排后使得特征向量与权重向量跟高效的执行矩阵乘法运算;改进3:对于稀疏卷积核采用预设稀疏编码规则进行压缩,只存储非零元素及其索引位置编码信息(对于神经网络推理计算,卷积核的结构性是确定的,只需要在编译初始化时对其编码即可,因此不会引入额外计算);对于每个计算节点的稀疏激活特征输出,通过专用稀疏激活压缩编码电路对其进行压缩编码处理,只存储非零特征元素及对应的位置编码信息,进一步降低内存占用;改进4:基于神经网络推理时各计算节点内存空间需求属性(节点依赖数据的计算生命周期、数据大小、数据稀疏性等),采用动静结合的内存分配方式,减少内存消耗;上述4点改进相互依存,互为补充,首先改进点1是后续各改进的物理实行,基于卷积神经网络权重及激活输出的稀疏性对其进行压缩处理,并对中间计算输出结果重排,最后采用动静结合的内存分配方式,降低内存空间消耗、提高访存读写效率及缓存命中率,从而提高ai处理器的计算效率。
23.本技术提出的基于神经网络双重稀疏性矩阵乘法运算电路,包括主控制器、矩阵计算阵列、数据输入输出缓存单元、存储器;主控制器,用于执行程序指令;数据输入输出缓存单元,用于缓存卷积核权重编码数据、特征编码数据;存储器,用于存储程序和数据;所述矩阵计算阵列根据程序指令接收输入矩阵或向量数据,执行对应的计算;所述矩阵计算阵列包含若干个pe计算单元,用于执行具体乘累加、池化、激活运算;所述矩阵计算阵列根据预设程序或配置指令,将矩阵数据分解为向量段,发送至对应的所述pe计算单元执行。此外,本实施例还包括总线,用各单元间通信。
24.其中,所述矩阵计算阵列对卷积核及激活输出数据进行重排,最大限度实现内存
行内搜索。
25.本技术的电路采用预设稀疏编码规则对稀疏卷积核进行压缩,所述存储器只存储非零元素及其索引位置的编码信息。
26.如图1所示,本实施例的稀疏激活编码器包括非稀疏权重编码数据缓存队列单元(fifo),用于接收缓存输入的非稀疏权重向量编码数据,其中:该fifo可根具权重编码数据的存储格式配置为双fifo模式或单fifo模式;其中双fifo模式,一个fifo存储权重数据,另一个fifo存储对应权重数据的位置编码信息;若单fifo,则每个fifo存储单元格中存储权重数据+位置编码信息,在计算时可通过解码器将权重数据和位置编码数据分离,其中位置编码信息用于计算非零权重对应特征数据的位置。同理由于特征数据也是经过编码压缩后的数据,因此亦可通过设置不同的fifo模式将数据载入至pe中,其中图2示例中特征数据经过压缩处理被编码为特征数据+位置编码信息的存储格式,经过数据解码器可将特征数据和位置编码信息分离,并通过下述的第一解码器基于位置编码信息将特征数据解压还原,并输出稀疏特征向量数据。
27.本发明实施例使用的基于神经网络双重稀疏性矩阵乘法运算电路、方法和装置,能够避免跨行搜索,提高缓存命中率,使得特征向量与权重向量更高效的执行矩阵乘法运算,通过专用稀疏激活压缩编码电路对其进行压缩编码处理,只存储非零特征元素及对应的位置编码信息,进一步降低内存占用。
28.需要说明的是,经过压缩编码后的权重数据和特征数数据为不定长状态,尤其特征数据,不同原始输入在各计算节点输出、重排、向量化、及压缩后长短不一,因此在加载至fifo中的数据按原始向量所在的数组长度加载,由于压缩原因导致的空闲fifo存储单元格可对其进行屏蔽或者零填充处理,从而使得其在整个计算过程中权重向量数据和对应的特征向量数据能够对齐,从而减少基于来自软件程序控制的复杂度。
29.可选的,每个pe可包含多个乘累加器,用于接收并行输入的多个非零权重数据与对应特征数据执行并行向量乘加计算,基于此上述fifo则可通过串并转换实现并行输出;多个pe可执行多个向量数据间的乘累加运算,从而实现前述所说的矩阵乘法运算,相关输出结果经过其他计算节点处理输出重排后,生成卷积运算的结果,并对其激活输出的特征向量数据进行压缩编码处理,从而减少存储空间。
30.例如,pe计算单元至少包括第一解码器和第二解码器,所述第二解码器通过位置选择信号,从解压后的稀疏特征激活向量中选择输出与非零权重对应的特征激活数据,所述第一解码器根据位置选择信号将压缩的特征激活数据解压为稀疏特征激活向量,所述稀疏特征激活向量为第二解码器的输入。
31.此外,本实施例的所述电路还包括至少两个解码器,所述解码器将权重数据和位置编码数据分离,其中所述位置编码信息用于计算非零权重对应特征数据的位置。
32.图2示出了根据本发明实施例的第一解码器架构原理图,如图2所示,第一解码器,用于解压特征编码数据;其中第一解码器接收来自非稀疏特征编码数据缓存队列单元(fifo)的位置编码信息和对应的非零激活特征数据,经过第一解码器解码后将非零激活数据解压还原为稀疏向量数据,并作为第二解码器的输入数据,然后通过对应权重向量中非零权重的第一位置信息作为选择信号输出至乘累加器中,执行向量乘法运算。
33.图3为稀疏权重向量数据压缩编码原理图,图4示出了根据本发明实施例的第二解
码器架构原理图,如图3和图4所示,第二解码器包括多个级联加法器、多路复用器mux;具体包括,编码器的级联加法器接收非稀疏权重编码数据缓存队列单元(fifo)的位置编码数据,经过级联加法运算后输出权重数据在权重向量中的对应第一位置信息,然后将该第一位置信息作为选择信号,通过mux从对应解压后的稀疏特征数据向量中选择输出对应的特征数据,作为乘累加器的特征输入数据。
34.对比来看,第一解码器和第二解码器架构上有些类似,不同的是第二解码器通过位置选择信号,从还解压原后的稀疏特征激活向量中选择输出与非零权重对应的特征激活数据,而第一解码器是基于第二位置选择信号将压缩的特征激活数据进行解压为稀疏特征激活向量,作为第二解码器的输入;具体的第二解码器通过mux完成数据选择输出,第一解码器通过级联的加法器解码还原出压缩的非零激活数据在原稀疏激活向量数据中的第二位置信息,并将其作为选择信号通过一个互联交换网络实现解码处理。
35.需要说明的是,本说明书仅列举两个编码器的情况,不对编码器的数量构成不当限定,即本技术的编码器可以包含第一编码器、第二编码器、第三编码器等多种数量。
36.可选地,本实施例的电路还包括专用稀疏激活压缩编码电路,所述专用稀疏激活压缩编码电路对计算节点的稀疏激活特征输出进行压缩编码处理。
37.可选地,本实施例的电路还包括非稀疏权重编码数据缓存队列单元,用于接收缓存输入的非稀疏权重向量编码数据,所述非稀疏权重编码数据缓存队列单元判断所述非稀疏权重向量编码数据的存储格式配置为双fifo模式还是单fifo模式,若所述非稀疏权重向量编码数据的存储格式配置为双fifo模式,则一个fifo存储权重数据,另一个fifo存储对应权重数据的位置编码信息;若所述非稀疏权重向量编码数据的存储格式配置为单fifo模式,则每个fifo存储单元格中存储权重数据和位置编码信息。
38.图5为第二解码器互联交换网络架构原理图,如图5所示,互联交换网络功能主要用于根据激活数据的位置编码解码后的第二位置信息作为控制信号,将待解压的非激活数据通过端口映射,分别映射到原稀疏激活向量中对应的端口位置。
39.举例来说,非零激活数据a的位置编码为2,其经过级联加法器解码后的第二位置为信息2,表示其原位置位于稀疏激活向量的第二个位置,现a元素位于端口1,因此需要通过互联网络通过端口映射将a元素从端口1映射到输出端口2;同理元素d的位置编码为2,经过级联加法器解码后的第二位置为8,表示其原位置位于稀疏激活向量的第8的位置,因此需要通过互连网络通过端口映射将d元素从端口4映射到出处端口8。经过上述过程实现压缩激活数据的解压,对应无数据的映射输出的端口采用零填充或屏蔽即可。
40.本实施例的互联交换网络具体实现过程包括:首先将第二位置信息作为选择信号,经过第一译地址码器生成输出端口选择信号,使能对应的多路选择器,然后将非零元素fifo输出端口编号通过第二译码器生成输入端口选择信号,通过上述输入、输出端口信号,使能对应的多路输出选择器输出对应输入端口选择信号对应的数据。距离来说对于元素b,其输入端口选择信号为2、输出端口选择信号为5,因此首先使能输出端口为5的多路选择器,然后基于输入端口选择信号2使能对应数据通路,从而完成数据解压;进一步的可通过时分复用的方式完成端口映射控制或通过在输入输出端口设置fifo队列实现异步端口映射功能。
41.可选的,在另一种实现方式中,可以通过采用双端口ram存储器寻址的方式实现数
据输入输出端口映射功能,即首先读取压缩数据对应的位置编码经过解码后获得对应的压缩数据的转移存储地址信息作为第二位置的地址信息,将压缩数据从原地址转存至转移存储地址然后读出,并输入至第二解码器;需要说明的是,第一解码器和第二解码器中的级联加法器可以共享复用(即只使用一个级联加法器完成第一解码器和第二解码器第一位置信息和第二位置信息的解码工作),主要是因为在神经网络推理计算过程中权重的结构是固定的,只需要在初始化时通过级联加法器完成原第一位置信息解码即可,因此本发明附图中第一解码器和第二解码器均设置级联加法器,只是为了跟好的理解本发明具体实现过程。
42.同时需要说明的是,在一般的实际计算过程中特征数据和权重数据为长向量,若采用直接位置编码的方法(即直接记录非零元素在向量数组中的位置,会降低压缩效率,如对于长度为1024位的数组,第1000、1008、第1024位为非零元素,之间均为零元素,若采用直接位置编码,则该非零元素的位置编码信息为1000、1008、1024,需要10位二进制编码来实现,若采用本发明方案只需要记录该非零元素与前一非零元素之间的零间隔数据即可,即1008位的位置编码为8,1024位的位置编码为16,只需要4位二进制编码即可实现,因此本发明的编码方式可大大减少因额外存储位置编码信息带来的存储空间消耗。
43.经过矩阵计算阵列计算后,经过数据重排,可获得稀疏的特征矩阵数据;若直接存储稀疏特征矩阵则会消耗大量的存储空间,因此本发明通过设置稀疏激活编码器,对输出的特征矩阵激活数据按照预设向量长度进行编码压缩。本技术的稀疏激活压缩编码单元包括:(1)稀疏激活队列(fifo):用于装载稀疏的特征矩阵向量数据。
44.零检测器(多输或门阵列):用于检测数据是否为“零”,零检测器可以由或门阵列构成,用于对输入的二进制数据各位进行或运算,若输入为零则输出0,若输入非零,则输出1;并将其输出作为控制信号用于筛选非零数据。
45.(2)“0”计数器:用于在有效的计数周期内统计零数据个数count_0,且默认初始值count_0=1,即若在连续周期内统计的零个数为2,则计数器实际输出值为count_0=3,作为当前非零元素的位置编码。
46.(3)延时位寄存器1:用于缓存前一周期零检测器输出状态。
47.(4)异或门:用于接收零检测器前后周期输出状态位数据,若零检测器前后周期输出状态未发生反转,则说明当前输出的是连续零或者连续非零数据;若发生反转则说明当前输出由非零数据变为零数据,或由零变为非零数据;其中异或门输出状态信号为“0”时,表示前后状态未翻转,为“1”时前后状态发生翻转。
48.(5)数据选择器(mux1、mux2):如图6所示,mux1根据零检测器的输出状态信号选择数据通路;若输出状态信号为1,则说明当前的输入数据为非零元素,则控制mux1数据通路使得非零元素输出至非零激活缓存队列(fifo);若若输出状态信号为0,则说明当前的输入数据为零元素,则控制数据通路使得“0”输出至“0”计数器;mux2根据零检测器信号状态判断是否输出当前计数器值;当控制信号为1时,则将当前计数器中的值count_0作为位置编码;其中对于连续的非零元素,每个周期均输出1作为各连续非零元素的位置编码(因为连续非零元素间的“0”数量为0);若控制信号为0,则当前的输入元素为零,并由计数器加一,直至输入数据为非零元素,即控制信号变为1,时将以前若干周期同的零个数count_0作为
当前非零元素的位置编码;并对计数器清零。
49.此外,本技术还提供了一种基于神经网络双重稀疏性矩阵乘法运算方法,包括:根据程序指令接收输入矩阵或向量数据,执行对应的计算;执行具体乘累加、池化、激活运算;根据预设程序或配置指令,将矩阵数据分解为向量段,发送至对应的pe计算单元执行。
50.本实施例的方法还包括对卷积核及激活输出数据进行重排,最大限度实现内存行内搜索。
51.此外,本技术还提供了一种基于神经网络双重稀疏性矩阵乘法运算装置,包括:第一模块,用于根据程序指令接收输入矩阵或向量数据,执行对应的计算;第二模块,用于执行具体乘累加、池化、激活运算;第三模块,用于根据预设程序或配置指令,将矩阵数据分解为向量段,发送至对应的pe计算单元执行。
52.上述实施例阐明的系统、装置、模块或单元,可以由计算机或其关联部件实现。计算机例如可以为移动终端、智能电话、个人计算机、膝上型计算机、车载人机交互设备、个人数字助理、媒体播放器、导航设备、游戏控制台、平板电脑、可穿戴设备、智能电视、物联网系统、智能家居、工业计算机、服务器或者其组合。
53.尽管未示出,在本发明实施例中,提供一种存储介质,所述存储介质存储有计算机程序,所述计算机程序配置成被运行时执行任一本发明实施例的基于文件差异的编译方法。
54.在本发明的实施例的方法、程序、系统、装置等,可以在单个或多个连网的计算机中执行或实现,也可以在分布式计算环境中实践。在本说明书实施例中,在这些分布式计算环境中,可以由通过通信网络而被连接的远程处理设备来执行任务。
55.本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本领域技术人员可想到,上述实施例阐明的功能模块/单元或控制器以及相关方法步骤的实现,可以用软件、硬件和软/硬件结合的方式实现。
56.除非明确指出,根据本发明实施例记载的方法、程序的动作或步骤并不必须按照特定的顺序来执行并且仍然可以实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
57.在本文中,针对本发明的多个实施例进行了描述,但为简明起见,各实施例的描述并不是详尽的,各个实施例之间相同或相似的特征或部分可能会被省略。在本文中,“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”意指适用于根据本发明的至少一个实施例或示例中,而非所有实施例。上述术语并不必然意味着指代相同的实施例或示例。在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
58.已参考上述实施例具体示出并描述了本发明的示例性系统及方法,其仅为实施本系统及方法的最佳模式的示例。本领域的技术人员可以理解的是可以在实施本系统及/或方法时对这里描述的系统及方法的实施例做各种改变而不脱离界定在所附权利要求中的本发明的精神及范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1