基于神经网络的计算方法及装置与流程

文档序号:11063738阅读:267来源:国知局
基于神经网络的计算方法及装置与制造工艺

本发明涉及图像处理领域,更具体地涉及一种基于神经网络的计算方法及装置。



背景技术:

神经网络(Neural Networks,NNs)也称为人工神经网络(Artificial Neural Networks,ANNs)或连接模型(Connection Model),是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。神经网络依靠系统的复杂程度,通过调整内部大量计算节点之间相互连接的关系,从而达到处理信息的目的。

神经网络在语音识别、文字识别、以及图像视频识别等许多领域中已经有了广泛而成功的应用。传统的神经网络采用双精度或单精度浮点数乘/加计算作为基本计算单元,然而,传统的神经网络的算法架构会导致大计算量需求、高内存(或显存)占用、以及高带宽要求等问题,对硬件的要求较高。



技术实现要素:

考虑到上述问题而提出了本发明。本发明提供了一种基于神经网络的计算方法,对硬件的要求较低。

根据本发明的第一方面,提供了一种基于神经网络的计算方法,包括:

接收原始图像;

提取所述原始图像的特征张量;

基于训练好的定点神经网络对所述特征张量进行处理,以产生图像热力图。

示例性地,所述训练好的定点神经网络通过如下方法训练得到:

对初始神经网络进行至少一次浮点训练,并将所述浮点训练之后的神经网络的参数定点化;

如果所述定点化后的神经网络的参数不满足训练指标,则将所述初始神经网络替换为所述定点化后的神经网络并重复执行上述步骤;

如果所述定点化后的神经网络的参数满足所述训练指标,则将所述定点化后的神经网络作为所述训练好的定点神经网络。

示例性地,所述训练好的定点神经网络为二值神经网络,所述基于训练好的定点神经网络对所述特征张量进行处理包括:

所述二值神经网络中的每一个计算节点执行以下操作:

对输入数据进行卷积操作;

将所述卷积操作的卷积输出二值化。

示例性地,所述将所述卷积操作的卷积输出二值化,包括:

使用非线性函数将所述卷积输出映射为[-0.5,0.5]闭区间之内的数;

对所述映射后的数进行舍入操作,以实现中间表示的二值化。

示例性地,所述对所述映射后的数进行舍入操作包括:

使用公式Y=floor(y+1)-0.5对所述映射后的数进行舍入操作,

其中,y表示所述映射后的数,Y表示二值化后的中间表示,floor表示向下取整。

示例性地,所述对输入数据进行卷积操作,包括:

通过公式M=bitcount(W xor A)实现矩阵W与矩阵A之间的内积操作,

其中,xor为按位异或操作,bitcount计算一个二值串中1的个数并返回,M为二值卷积的结果,W为权重矩阵,A为激活量输入。

示例性地,所述训练指标为测试集的测试函数最小化。

示例性地,所述方法由位于摄像头内的包括FPGA的SoC实现。

根据本发明的第二方面,提供了一种基于神经网络的计算装置,包括:

接收模块,用于接收原始图像;

特征提取模块,用于提取所述原始图像的特征张量;

热力图产生模块,用于基于已经训练好的定点神经网络对所述特征张量进行处理,以产生图像热力图。

示例性地,还包括训练模块,用于:

对初始神经网络进行至少一次浮点训练,并将所述浮点训练之后的神经网络的参数定点化;

如果所述定点化后的神经网络的参数不满足训练指标,则将所述初始神经网络替换为所述定点化后的神经网络并重复执行上述步骤;

如果所述定点化后的神经网络的参数满足所述训练指标,则将所述定点化后的神经网络作为所述训练好的定点神经网络。

示例性地,所述训练好的定点神经网络为二值神经网络,所述热力图产生模块包括卷积操作子模块和二值化子模块,

对于所述二值神经网络中的每一个计算节点:

所述卷积操作子模块,用于对输入数据进行卷积操作;

所述二值化子模块,用于将所述卷积操作的卷积输出二值化。

示例性地,所述二值化子模块包括映射子单元和舍入子单元:

所述映射子单元,用于使用非线性函数将所述卷积输出映射为[-0.5,0.5]闭区间之内的数;

所述舍入子单元,用于对所述映射后的数进行舍入操作,以实现中间表示的二值化。

示例性地,所述舍入子单元,具体用于:

使用公式Y=floor(y+1)-0.5对所述映射后的数进行舍入操作,

其中,y表示所述映射后的数,Y表示二值化后的中间表示,floor表示向下取整。

示例性地,所述卷积操作子模块,具体用于:

通过公式M=bitcount(W xor A)实现矩阵W与矩阵A之间的内积操作,

其中,xor为按位异或操作,bitcount计算一个二值串中1的个数并返回,M为二值卷积的结果,W为权重矩阵,A为激活量输入。

示例性地,所述训练指标为测试集的测试函数最小化。

示例性地,所述装置为位于摄像头内的包括FPGA的SoC。

第二方面所述的该装置能够用于实现前述第一方面的基于神经网络的计算方法。

根据本发明的第三方面,提供了一种计算机芯片,该计算机芯片包括处理器和存储器。所述存储器存储有指令代码,所述处理器用于执行所述指令代码,且当所述处理器执行指令代码时,能够实现前述第一方面所述的基于神经网络的计算方法。

本发明实施例的采用定点化方法实现神经网络的计算的方法,由于采用了定点计算,计算量小,占用资源少,从而对硬件的要求较低,可以在FPGA上运行。

附图说明

通过结合附图对本发明实施例进行更详细的描述,本发明的上述以及其它目的、特征和优势将变得更加明显。附图用来提供对本发明实施例的进一步理解,并且构成说明书的一部分,与本发明实施例一起用于解释本发明,并不构成对本发明的限制。在附图中,相同的参考标号通常代表相同部件或步骤。

图1是本发明实施例的电子设备的一个示意性框图;

图2是本发明实施例的基于神经网络的计算方法的一个示意性流程图;

图3是本发明实施例的得到训练好的神经网络的方法的一个示意性流程图;

图4是本发明实施例的FPGA与其他装置的连接关系的一个示意图;

图5是本发明实施例的基于神经网络的计算装置的一个示意性框图;

图6是本发明实施例的基于神经网络的计算装置的另一个示意性框图。

具体实施方式

为了使得本发明的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本发明的示例实施例。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是本发明的全部实施例,应理解,本发明不受这里描述的示例实施例的限制。基于本发明中描述的本发明实施例,本领域技术人员在没有付出创造性劳动的情况下所得到的所有其它实施例都应落入本发明的保护范围之内。

传统的神经网络的一般算法架构如下:(1)将输入图片提取成张量的形式,传入已经训练好的浮点计算神经网络。(2)浮点计算神经网络中的每一个计算节点,通过以浮点乘加为基础单元的卷积操作,并将浮点计算结果传送至下一层计算节点。(3)经过多层的计算节点运算后,最终神经网络的输出层产生图像分割热力图(heatmap),然后在其基础上对原图进行相关标注。然而,这样的架构往往导致大计算量需求、高内存(或显存)占用、以及高带宽要求等问题,从而对硬件的要求较高。由于现场可编程门阵列(Field-Programmable Gate Array,FPGA)平台的计算、存储能力和带宽都非常有限,因此传统的神经网络很难在FPGA平台上运行。

本发明实施例提出了一种采用定点化方法实现神经网络的计算的方法,由于采用了定点计算,计算量小,占用资源少,从而对硬件的要求较低,可以在摄像头内的包括FPGA的片上系统(system-on-a-chip,SoC)上运行。

本发明实施例可以应用于电子设备,图1所示为本发明实施例的电子设备的一个示意性框图。图1所示的电子设备10包括一个或多个处理器102、一个或多个存储装置104、输入装置106、输出装置108、图像传感器110以及一个或多个非图像传感器114,这些组件通过总线系统112和/或其它形式互连。应当注意,图1所示的电子设备10的组件和结构只是示例性的,而非限制性的,根据需要,所述电子设备也可以具有其他组件和结构。

所述处理器102可以包括中央处理单元(Central Processing Unit,CPU)1021和/或图像处理单元(Graphics Processing Unit,GPU)1022,或者包括具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制所述电子设备10中的其它组件以执行期望的功能。

所述存储装置104可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器1041和/或非易失性存储器1042。所述易失性存储器1041例如可以包括随机存取存储器(Random Access Memory,RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器1042例如可以包括只读存储器(Read-Only Memory,ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器102可以运行所述程序指令,以实现各种期望的功能。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如所述应用程序使用和/或产生的各种数据等。

所述输入装置106可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或多个。

所述输出装置108可以向外部(例如用户)输出各种信息(例如图像或声音),并且可以包括显示器、扬声器等中的一个或多个。

所述图像传感器110可以拍摄用户期望的图像(例如照片、视频等),并且将所拍摄的图像存储在所述存储装置104中以供其它组件使用。

当注意,图1所示的电子设备10的组件和结构只是示例性的,尽管图1示出的电子设备20包括多个不同的装置,但是根据需要,其中的一些装置可以不是必须的,其中的一些装置的数量可以更多等等,本发明对此不限定。

图2是本发明实施例的基于神经网络的计算方法的一个示意性流程图,图2所示的方法包括:

S101,接收原始图像。

具体地,可以接收由摄像头所采集的原始图像。示例性地,该原始图像也可以称为输入图像。

S102,提取所述原始图像的特征张量。

具体地,可以将原始图像提取成张量的形式从而得到原始图像的特征张量。

S103,基于训练好的定点神经网络对所述特征张量进行处理,以产生图像热力图。

示例性地,在S103中,训练好的定点神经网络中的每一个计算节点执行:(a)对输入数据进行卷积操作;(b)将所述卷积操作的卷积输出定点化。其中,在(a)中进行的卷积操作可以为一次或多次,本发明对此不限定。

示例性地,训练好的定点神经网络可以为二值神经网络。

那么,在S103中,二值神经网络中的每一个计算节点执行以下操作:(a1)对输入数据进行卷积操作;(b1)将所述卷积操作的卷积输出二值化。其中,在(a1)中进行的卷积操作可以为一次或多次,本发明对此不限定。

由于卷积可以被视为权重矩阵W的乘法,因此可以采用bitcount函数用位运算进行矩阵乘中最耗时的内积操作。也就是说,上述(a1)可以包括通过公式M=bitcount(W xor A)实现矩阵W与矩阵A之间的内积操作。

示例性地,上述(a1)可以包括二值卷积操作,所述二值卷积操作通过公式M=bitcount(W xor A)实现矩阵W与矩阵A之间的内积操作。

其中,bitcount函数用于计算一个二值串中1的个数并返回。xor表示异或操作,即xor为按位异或操作。M为二值卷积的结果,W为权重矩阵,A为激活量(activation)输入。可见,该公式M=bitcount(W xor A)与内积等价。

示例性地,上述(b1)可以包括:使用非线性函数将所述卷积输出映射为[-0.5,0.5]闭区间之内的数;对所述映射后的数进行舍入操作,以实现中间表示的二值化。

非线性函数可以为y=Tanh(x)×0.5。其中,x表示卷积输出,y表示映射后的数。可理解,非线性函数也可以为其他的函数形式,本发明对此不限定。

示例性地,所述对所述映射后的数进行舍入操作可以包括:使用公式Y=floor(y+1)-0.5对所述映射后的数进行舍入操作。其中,y表示所述映射后的数,Y表示二值化后的中间表示,floor表示向下取整函数。floor有时候也写做Floor,其功能是“向下取整”,或者说“向下舍入”,floor(y)表示取不大于y的最大整数。

应理解,本发明实施例中,小写字母表示的x和y一般为浮点数,大写字母表示的Y为定点数,具体地,Y=0或1。

由此可见,上述的(a1)操作可以通过公式M=bitcount(W xor A)实现矩阵W与矩阵A之间的内积操作;上述的(b1)操作可以使用非线性函数将卷积输出映射为[-0.5,0.5]闭区间之内的数并对映射后的数进行舍入操作。

在二值神经网络中,参数仅取值0或1,且中间表示也仅取值0或1。二值网络是对原有网络的近似,其所有操作在计算机中可快速实现,从而能减少所占用的存储空间,降低对计算资源的需求。

示例性地,S103中的训练好的定点神经网络可以是通过如下方法训练得到的:

对初始神经网络进行至少一次浮点训练,并将所述浮点训练之后的神经网络的参数定点化;

如果所述定点化后的神经网络的参数不满足训练指标,则将所述初始神经网络替换为所述定点化后的神经网络并重复执行上述步骤;

如果所述定点化后的神经网络的参数满足所述训练指标,则将所述定点化后的神经网络作为所述训练好的定点神经网络。

在本发明各实施例中,神经网络的参数可以包括权重W、定点化判定阈值、卷积结果的偏移量等参数,具体根据实际情况确定,在此并不进行限定。

具体地,该过程可以如图3所示,包括:

S201,对初始神经网络进行至少一次浮点训练。

S202,将所述浮点训练之后的神经网络的参数定点化。

S203,判断所述定点化后的神经网络的参数是否满足训练指标。

如果S203判断的结果为是,则执行S205;如果S203判断的结果为否,则执行S204。

S204,将初始神经网络替换为定点化后的神经网络。

具体地,在S204中,将S202得到的定点化后的神经网络作为S201中的初始神经网络,然后重复执行S201和S202。

S205,将所述定点化后的神经网络作为所述训练好的定点神经网络。

这样,通过如图3所示的训练过程,便可以得到训练好的定点神经网络。

示例性地,其中的训练指标为测试集的测试函数最小化。

本发明实施例中,浮点训练的过程可以参见普通神经网络的训练过程,即本发明实施例中的浮点训练过程与普通神经网络的训练过程类似。具体地,可以在测试集的基础上构建训练集,基于lost函数,通过最速梯度方法或共轭梯度方法等,确定使得测试集最小化的神经网络参数。

作为一个实施例,训练好的定点神经网络为二值神经网络,那么该训练好的二值神经网络可以通过以下方法进行训练得到:

对初始神经网络进行至少一次浮点训练,并将所述浮点训练之后的神经网络的参数二值化;

如果所述二值化后的神经网络的参数不满足训练指标,则将所述初始神经网络替换为所述二值化后的神经网络并重复执行上述步骤;

如果所述二值化后的神经网络的参数满足所述训练指标,则将所述二值化后的神经网络作为所述训练好的二值神经网络。

也就是说,在对二值神经网络训练过程中,可以包括:在经过一轮训练之后,将训练之后的参数进行二值化,然后再进行下一轮训练。其中一轮训练包括至少一次浮点训练。这样,可以将训练过程的中间结果实现二值化,从而能够减小所占用的存储空间。

示例性地,训练过程中可以使用独热编码(one-hot encoding)的真实值。例如训练任务为5分类,若某一个像素属于第四类,则可将该像素的分类在五个频道(channel)上表示为00010。

另外,可以将有K个值的目标热力图拆分为K个二值的热力图。其中,K个值的目标热力图是预先进行人工标识的热力图,且人工标注的K个值可以为浮点数。

示例性地,可以使用非线性函数将上一层卷积层的输出映射为[-0.5,0.5]闭区间之内的数;对所述映射后的数进行舍入操作,以实现中间表示的二值化。

非线性函数可以为y=Tanh(x)×0.5。其中,x表示上一层卷积层的输出,y表示映射后的数。可理解,非线性函数也可以为其他的函数形式,本发明对此不限定。

所述对所述映射后的数进行舍入操作可以包括:使用公式Y=floor(y+1)-0.5对所述映射后的数进行舍入操作。其中,y表示所述映射后的数,Y表示二值化后的中间表示,floor表示向下取整。

由于卷积可以被视为矩阵W的乘法,因此可以采用bitcount函数用位运算进行矩阵乘中最耗时的内积操作。示例性地,可以通过公式M=bitcount(W xor A)实现矩阵W与矩阵A之间的内积操作。其中,xor为按位异或操作,bitcount计算一个二值串中1的个数并返回,M为二值卷积的结果,W为权重矩阵,A为激活量输入。

可理解,图3所示的训练的方法可以是在S101之前执行的。另外,可选地,在S103之后,还可以包括:利用所述图像热力图对所述原始图像进行标注。举例来说,可以对所述原始图像进行二值标注。例如,可以根据S103得到的图像热力图,将原始图像中的活体区域显示为1,其他非活体区域显示为0。

相比于之前最耗时的32位浮点卷积操作,本发明实施例的方法只在二值中间表示和二值参数间进行,理论上来讲,本发明实施例的方法可以获得32倍运算速度的提升,并能节省32倍的中间表示的存储空间。

示例性地,本发明实施例的方法可以由位于摄像头内的包括FPGA的片上系统(System-on-a-chip,SoC)实现。具体地,本发明实施例的采用定点化方法实现神经网络的计算的方法,由于采用了二值计算,计算量小,占用资源少,从而对硬件的要求较低,因此可以在FPGA上运行。摄像头所采集的信息可以直接输入到FPGA而非CPU,将二值神经网络运行在该FPGA上,由FPGA与CPU进行交互,这样可以提升图像处理速度。与直接用CPU处理图像相比,性能有数倍的提升。

如图4所示,FPGA可以从摄像头获取输入图像,并基于二值神经网络对该输入图像进行处理。之后,FPGA可以将处理结果进行输出,或者可以将处理结果存储在双倍速率同步动态随机存储器(Double Data Rate,DDR)中,或者可以与CPU进行通信。

本发明实施例中,由于可以将中间结果实现二值化,因此占用较小的存储空间,可以允许FPGA与DDR或者FPGA与CPU间的高速通信。

图5是本发明实施例的基于神经网络的计算装置的一个示意性框图。图5所示的装置50包括接收模块501、特征提取模块502和热力图产生模块503。

接收模块501,用于接收原始图像;

特征提取模块502,用于提取所述原始图像的特征张量;

热力图产生模块503,用于基于已经训练好的定点神经网络对所述特征张量进行处理,以产生图像热力图。

示例性地,如图6所示,还包括训练模块504,用于:

对初始神经网络进行至少一次浮点训练,并将所述浮点训练之后的神经网络的参数定点化;

如果所述定点化后的神经网络的参数不满足训练指标,则将所述初始神经网络替换为所述定点化后的神经网络并重复执行上述步骤;

如果所述定点化后的神经网络的参数满足所述训练指标,则将所述定点化后的神经网络作为所述训练好的定点神经网络。

示例性地,所述训练好的定点神经网络为二值神经网络。如图6所示,所述热力图产生模块503包括卷积操作子模块5031和二值化子模块5032,

对于所述二值神经网络中的每一个计算节点:

所述卷积操作子模块5031,用于对输入数据进行卷积操作;

所述二值化子模块5032,用于将所述卷积操作的卷积输出二值化。

示例性地,所述二值化子模块5032包括映射子单元和舍入子单元。所述映射子单元,用于使用非线性函数将所述卷积输出映射为[-0.5,0.5]闭区间之内的数。所述舍入子单元,用于对所述映射后的数进行舍入操作,以实现中间表示的二值化。

示例性地,所述舍入子单元,具体用于:使用公式Y=floor(y+1)-0.5对所述映射后的数进行舍入操作。其中,y表示所述映射后的数,Y表示二值化后的中间表示,floor表示向下取整。

示例性地,所述卷积操作子模块5031,具体用于:通过公式M=bitcount(W xor A)实现矩阵W与矩阵A之间的内积操作。其中,xor为按位异或操作,bitcount计算一个二值串中1的个数并返回,M为二值卷积的结果,W为权重矩阵,A为激活量输入。

示例性地,所述训练指标为测试集的测试函数最小化。

示例性地,所述装置为位于摄像头内的包括FPGA的SoC。

图5和图6所示的装置50能够用于实现前述图2和图3所示的基于神经网络的计算方法。

另外,本发明实施例还提供了另一种基于神经网络的计算装置,该装置可以包括处理器和存储器,其中,存储器用于存储指令代码,处理器执行该指令代码时,可以实现前述图2和图3所示的基于神经网络的计算方法。

另外,本发明实施例还提供了一种电子设备,该电子设备可以包括图5或图6所示的装置50。

本发明实施例的采用定点化方法实现神经网络的计算的方法,由于采用了定点计算,计算量小,占用资源少,从而对硬件的要求较低,可以在FPGA上运行。

尽管这里已经参考附图描述了示例实施例,应理解上述示例实施例仅仅是示例性的,并且不意图将本发明的范围限制于此。本领域普通技术人员可以在其中进行各种改变和修改,而不偏离本发明的范围和精神。所有这些改变和修改意在被包括在所附权利要求所要求的本发明的范围之内。

本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。

在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。例如,以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个设备,或一些特征可以忽略,或不执行。

在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。

类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该本发明的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如相应的权利要求书所反映的那样,其发明点在于可以用少于某个公开的单个实施例的所有特征的特征来解决相应的技术问题。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。

本领域的技术人员可以理解,除了特征之间相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。

此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。

本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的物品分析设备中的一些模块的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。

应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。

以上所述,仅为本发明的具体实施方式或对具体实施方式的说明,本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。本发明的保护范围应以权利要求的保护范围为准。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1