数据运算的加速方法、装置、终端及可读存储介质与流程

文档序号:15695527发布日期:2018-10-19 18:58阅读:192来源:国知局
数据运算的加速方法、装置、终端及可读存储介质与流程

本发明涉及人工智能技术领域,尤其涉及一种数据运算的加速方法、装置、终端及可读存储介质。



背景技术:

随着ai(artificialintelligence,人工智能)技术的飞速发展,许多ai项目开始在终端上落地。目前,大多数的ai项目是基于前馈神经网络的,前馈神经网络有一个输入层和一个输出层,从输入层开始,经过一系列的计算层,最后产生输出。在计算过程中,每个神经元只与前一层的神经元相连,接收前一层的输出,并输出给下一层.各层间没有反馈,因此前馈神经网络的性能瓶颈主要集中在各个层的运算上。

目前,业界主要是基于cpu(centralprocessingunit,中央处理器)来实现各个层的运算,但对于数据规模较大、网络模型较复杂的高计算强度场景,利用cpu则运算速度比较慢,并且运算过程还会大量的占用cpu,影响终端的正常运行。



技术实现要素:

本发明实施例的主要目的在于提供一种数据运算的加速方法、装置、终端及可读存储介质,可以解决现有技术中前馈神经网络的运算过程速度较慢,且会影响终端正常运行的技术问题。

为实现上述目的,本发明实施例第一方面提供一种数据运算的加速方法,该方法包括:

读取各存储单元内待运算的数据组,单个所述存储单元中已存储待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组;

将读取的所述数据组缓存至gpu(graphicsprocessingunit,图形处理器);

调用所述gpu对所述数据组进行并行运算。

为实现上述目的,本发明实施例第二方面提供一种数据运算的加速装置,该装置包括:

读取模块,用于读取各存储单元内待运算的数据组,单个所述存储单元中已存储待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组;

存储模块,用于将读取的所述数据组缓存至gpu;

运算模块,用于调用所述gpu对所述数据组进行并行运算。

为实现上述目的,本发明实施例第三方面提供一种终端,包括存储器、处理器及存储在所述存储器上且在所述处理器上运行的计算机程序,该计算机程序为数据运算的加速程序,所述处理器执行所述计算机程序时,实现本发明实施例第一方面提供的数据运算的加速方法中的各个步骤。

为实现上述目的,本发明实施例第四方面提供一种存储介质,其上存储有计算机程序,该计算机程序为数据运算的加速程序,所述计算机程序被处理器执行时,实现本发明实施例第一方面提供的数据运算的加速方法中的各个步骤。

本发明实施例所提供的数据运算的加速方法,包括:读取各存储单元内待运算的数据组,将读取的数据组缓存至gpu,调用该gpu对上述数据组进行并行运算,其中,上述单个存储单元中已存储待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组。相较于现有技术而言,由于本发明实施例在运算过程中,能够同时读取待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组,而不是分别读取各个矩阵数据中的各个数据元素,从而减少了运算过程中数据读取的次数,同时由于gpu具有极佳的并行计算能力,利用gpu对上述数据组进行并行运算能够有效缩短计算时间,因此本发明实施例可以有效的提升前馈神经网络的运算速度,另外由于本发明实施例将运算过程从cpu转移到了gpu上,因此可以降低cpu的占用率,保障终端的正常运行。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1a为本发明实施例中前馈神经网络的结构示意图;

图1b为本发明实施例中数据运算的加速方法的系统架构示意图;

图2a为本发明实施例中数据运算的加速方法的应用场景示意图;

图2b为本发明实施例中数据运算的加速方法在视频聊天中的应用场景示意图;

图3为本发明实施例中数据运算的加速方法的步骤流程示意图;

图4为本发明实施例中数据运算的加速方法的另一步骤流程示意图;

图5为本发明实施例中数据元素的存储方式示意图;

图6为本发明实施例中数据运算的加速装置的程序模块示意图;

图7为本发明实施例中数据运算的加速装置的另一程序模块示意图;

图8为本发明实施例中终端80的结构示意图。

具体实施方式

为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而非全部实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

在现有技术中,受cpu本身的结构特点,基于cpu来实现对前馈神经网络各个层的运算时,存在运算速度较慢,且cpu占有率较高的技术问题。

为了解决上述问题,本发明实施例提供了一种数据运算的加速方法,该方法在前馈神经网络的运算过程中,能够同时读取待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组,而不是分别读取各个矩阵数据中的各个数据元素,从而减少了运算过程中数据读取的次数,同时由于gpu具有极佳的并行计算能力,利用gpu对上述数据组进行并行运算能够有效缩短计算时间,因此可以有效的提升前馈神经网络的运算速度,另外通过将运算过程从cpu转移到了gpu上,还可以降低cpu的占用率,保障终端的正常运行。

其中,前馈神经网络是一种较简单的神经网络,各神经元分层排列,其中第一层称为输入层,最后一层为输出层.中间为隐含层,简称隐层,隐层可以是一层,也可以是多层。为了更好的理解本发明,请参照图1a、图1a为本发明实施例中前馈神经网络的结构示意图。其中,每个神经元只与前一层的神经元相连,各神经元从输入层开始,接收前一层的输入,并输出给下一层.各层间没有反馈。

常见的前馈神经网络包括感知器网络、bp(backpropagation,反向传播)网络、rbf(radialbasisfunction,径向基函数)网络。其中,感知器网络是最简单的前馈神经网络,它主要用于模式分类,也可用在基于模式分类的学习控制和多模态控制中,其可分为单层感知器网络和多层感知器网络;bp网络是指连接权调整采用了反向传播学习算法的前馈网络,与感知器网络不同之处在于,bp网络的神经元变换函数采用了s形函数(sigmoid函数),因此输出量是0~1之间的连续量,可实现从输入到输出的任意的非线性映射;rbf网络是指隐含层神经元由rbf神经元组成的前馈网络,rbf神经元是指神经元的变换函数为rbf(radialbasisfunction,径向基函数)的神经元,典型的rbf网络由三层组成:一个输入层,一个或多个由rbf神经元组成的rbf层(隐含层),一个由线性神经元组成的输出层。

鉴于gpu是针对向量计算进行了优化的高度并行的数据流处理器,有着cpu无法比拟的强大浮点运算能力,适合于算法密集、高度并行、控制简单、分多个阶段执行的运算过程。其工作原理是通过纹理或全局存储器读入数据,然后触发gpu产生大量片段,每个片段都可以被并行处理,结果另保存于输出纹理中,因此,本发明实施例中,可以将上述前馈神经网络各个层中的运算转移到gpu,从而达到提高运算速度的目的。

本发明实施例中,需要利用opencl调用gpu来完成前馈神经网络的运算过程,具体的,本实施例提供一个用于实现前馈神经网络运算过程的sdk(softwaredevelopmentkit,软件开发工具包),该sdk由一个作为动态库的so文件以及一系列执行计算的opencl(opencomputinglanguage,开放运算语言)文件组成。参照图1b,图1b为本发明实施例中数据运算的加速方法的系统架构示意图,本发明实施例中,上述sdk由三层级组成,第一层级为wrapper层级,负责为终端提供对外的接口。第二层级是控制层级,它包含三个模块:net模块、layers模块和extractor模块,其中,net模块用于加载运算所需要的模型和模型对应的参数;layers模块则用于根据模型和参数创建运算所需的各个layer(层),并且建立各layer之间的关系;extractor模块则用于在运算时,根据输入数据,利用各个layer之间的关系控制运算过程,从而得到输出数据。第三层级是各个layer的实现工具,具体有三种实现工具:第一种是通过c++实现,速度较慢,但适应性较强;第二种是通过none(arm架构处理器扩展结构)实现;第三种是通过opencl实现。

其中,none是基于一种simd(singleinstructionmultipledata,单指令多数据流)体系的扩展结构,可以实现内存的访问、在neon寄存器和传统寄存器之间的数据拷贝、数据类型的转化及数据的处理等功能;opencl是一种面向异构系统通用目的并行编程的开放式、免费标准,适用于gpu等并行处理器。

本发明实施例可以应用于视频、音频及图像处理领域,例如可以应用于手势识别。其中,手势识别是人机交互的一种重要手段,也是人机交互、虚拟现实中的重要组成部分,利用前馈神经网络算法进行手势识别时,对采集到的彩色图像进行基于肤色的提取后,从复杂背景的彩色图像中划分出手部图像,然后输入前馈神经网络进行识别。在开始识别时,将手部图像按照像素值用数字矩阵的形式表示,每幅手部图像可由一个或多个数字矩阵表示,在识别过程中,读取前馈神经网络的各个数据通道中的矩阵数据,将各个矩阵数据中位于相同位置的数据元素作为一个数据组存储在预置存储阵列中的同一存储单元,然后读取各存储单元内待运算的数据组,将读取的数据组缓存至图形处理器,并调用图形处理器对上述数据组进行并行运算,根据运算结果即可识别出手势变化。而在识别出手势变化之后,终端即可根据识别出的手势执行相关的指令。参照图2a,图2a为本发明实施例中数据运算的加速方法的应用场景示意图,图2a中,终端通过前馈神经网络识别出用户的手势之后,即可根据用户的手势添加相应的特效,如在拍照过程中,终端可以根据用户的手势,在指尖添加“☆”,使图像显得更加有趣、生动。

另外,本发明实施例还可以用在视频聊天或者网络直播中,终端可以根据用户的手势,生成部分特效,使视频聊天过程或者网络直播过程显得更加有趣、生动。为了更好的理解本发明,请参照图2b,图2b为本发明实施例中数据运算的加速方法在视频聊天中的应用场景示意图。在视频聊天或者网络直播中,当终端识别到用户“竖立大拇指”的手势时,则可以在显示界面中为对方自动“点赞”或者显示预设的图案。

基于上述架构,参照图3,图3为本发明实施例中数据运算的加速方法的步骤流程示意图,本发明实施例中,上述数据运算的加速方法包括:

步骤301、读取各存储单元内待运算的数据组,其中,单个存储单元中已存待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组。

本发明实施例中,前馈神经网络中的待运算的数据可以用数组表示,该数组中的每个元素都为具有相同宽和高的矩阵,上述数组的长度则称为通道数。目前现有的数据存储格式是按通道存储的,即每个通道存储一个矩阵,且矩阵内的数据都存储在一起,等一个通道存储完后再存储下一个通道。这种排列在做卷积计算时,会造成跳跃读取,影响数据的读取速度。本发明实施例中,基于现有技术中存在的缺点,将各个矩阵数据中位于相同位置的数据元素构成的数据组存储在同一个存储单元,在运算过程中,直接读取存储单元内存储的数据组,而不是分别读取各个矩阵数据中的数据元素,从而减少了运算过程中数据读取的次数。

步骤302、将读取的数据组缓存至gpu。

本发明实施例中,在每执行完一次读取操作之后,便将读取到的数据组一次性缓存至gpu内。

步骤303、调用gpu对上述数据组进行并行运算。

本发明实施例中,在将各存储单元内的数据组全部缓存至gpu内之后,即可调用gpu对缓存至gpu内的数据组进行并行运算,得到输出数据。

本发明实施例所提供的数据运算的加速方法,包括:读取各存储单元内待运算的数据组,将读取的数据组缓存至gpu,调用该gpu对上述数据组进行并行运算,其中,上述单个存储单元中已存储待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组。相较于现有技术而言,由于本发明实施例在运算过程中,能够同时读取待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组,而不是分别读取各个矩阵数据中的各个数据元素,从而减少了运算过程中数据读取的次数,同时由于gpu具有极佳的并行计算能力,利用gpu对上述数据组进行并行运算能够有效缩短计算时间,因此本发明实施例可以有效的提升前馈神经网络的运算速度,另外由于本发明实施例将运算过程从cpu转移到了gpu上,因此可以降低cpu的占用率,保障终端的正常运行。

进一步地,基于上述实施例,参照图4,图4为本发明实施例中数据运算的加速方法的另一步骤流程示意图,本发明实施例中,上述数据运算的加速方法包括以下步骤:

步骤401、读取前馈神经网络的各个数据通道中的矩阵数据;

本发明实施例中,首先需要终端的型号加载opencl库,并初始化opencl库的运行环境,然后再读取前馈神经网络的各个数据通道中的矩阵数据,该矩阵数据即为前馈神经网络中待运算的数据。

步骤402、将各个矩阵数据中位于相同位置的数据元素作为一个数据组存储在预置存储阵列中的同一存储单元;

为了更好的理解本发明实施例,参照图5,图5为本发明实施例中数据元素的存储方式示意图,本发明实施例中,假设前馈神经网络包括两个4×4的矩阵,第一个矩阵内的数据元素为数字1至16,第二个矩阵内的数据元素为字母a至p,则可以将数字1和字母a作为一个数据组存储在同一个存储单元内、将数字2和字母b作为一个数据组存储在同一个存储单元内、……、将数字16和字母p作为一个数据组存储在同一个存储单元内。

步骤403、读取各存储单元内待运算的数据组,单个所述存储单元中已存储待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组;

步骤404、将读取的所述数据组缓存至gpu;

步骤405、调用所述gpu对所述数据组进行并行运算。

其中,步骤403至步骤405描述的内容与上述实施例中的步骤301至步骤303描述的内容一致,在此不再赘述。

本发明实施例所提供的数据运算的加速方法,包括:读取前馈神经网络的各个数据通道中的矩阵数据,将各个矩阵数据中位于相同位置的数据元素作为一个数据组存储在预置存储阵列中的同一存储单元。相较于现有技术而言,由于本发明实施例在运算过程中,能够同时读取前馈神经网络的各个矩阵数据中,位于相同位置的数据元素构成的数据组,而不是分别读取各个矩阵数据中的数据元素,从而减少了运算过程中数据读取的次数,因此有助于提升前馈神经网络的运算速度。

进一步地,基于上述实施例,本发明实施例中,上述步骤301中读取各存储单元内待运算的数据组,具体包括以下步骤:

步骤一、在执行读取操作时,从所述存储阵列中选择连续的n个存储单元,n为正整数;

步骤二、读取已选择的n个存储单元内存储的数据组。

本发明实施例中,在执行读取操作时,可以从存储阵列中选择连续的n(n为正整数)个存储单元,然后读取已选择的n个存储单元内存储的数据组。其中,n的取值包括1、2、4、8、16。例如可以选择存储阵列中位于同一行内连续的4个存储单元,并同时读取这4个存储单元内存储的数据组。

具体的,在从存储阵列中选择连续的n个存储单元的步骤之前还包括以下步骤:

步骤a、确定所述存储阵列的各行存储单元中待选择的存储单元的数量;

步骤b、当所述存储阵列的各行存储单元中待选择的存储单元的数量不为n的倍数时,在各行存储单元的尾部添加若干数量的空白存储单元,使所述存储阵列的各行存储单元中待选择的存储单元的数量为n的倍数。

本发明实施例中,在从存储阵列中选择连续的n个存储单元之前,先确定存储阵列的各行存储单元中待选择的存储单元的数量是否为n的倍数,如果是,则继续执行从存储阵列中选择连续的n个存储单元的步骤;如果不是,则在各行存储单元的尾部添加若干数量的空白存储单元,使存储阵列的各行存储单元中待选择的存储单元的数量为n的倍数,从而保证每一次读取操作,都能读取n个存储单元。例如,假设n=4,上述存储阵列的各行存储单元中待选择的存储单元的数量为6个,则在各行存储单元的尾部添加2个空白存储单元。

其中,上述空白存储单元可以理解为未存储任何数据的存储单元,或者存储的数据元素全为“0”的数据单元。

本发明实施例所提供的数据运算的加速方法,在执行读取操作时,从存储阵列中选择连续的n个存储单元,然后读取已选择的n个存储单元内存储的数据组。相较于现有技术而言,不仅可以进一步减少数据读取与缓存的次数,还可以利用opencl的向量化优势,提升数据运算速度。

进一步地,基于上述实施例,本发明实施例中,上述步骤303中调用gpu对数据组进行并行运算,具体包括以下步骤:

步骤一、加载预置的opencl库;

步骤二、利用opencl库调用预置的核函数,并基于调用的核函数对缓存至gpu的各个数据组进行并行运算。

本发明实施例中,在将各存储单元内前馈神经网络的数据组缓存至gpu后,即可加载预置的opencl库,利用opencl调用预置的核函数,设置核函数的函数参数,并创建工作空间,然后触发opencl执行命令,即可对缓存至gpu的各个数据组进行并行运算,得到计算结果。

其中,预先针对前馈神经网络每一个的layer(层),设置其对应的核函数,然后利用opencl调度各layer对应的核函数,对缓存至gpu的各个数据组进行并行运算,上述核函数的函数参数可以通过训练典型的前馈神经网络模型来得到。

为了更好的理解本发明实施例,现以scale操作为例,阐述本发明的并行运算原理。scale是前馈神经网络中比较常见的一种layer(层),它进行的运算操作是对输入数据作线性变换,例如给定一个宽为w,高为h的矩阵lij作为输入数据,给定缩放因子a和平移量b,通过如下公式计算出输出元素oij:

oij=alij+b

由于在现有技术中,都是利用cpu串行地遍历矩阵lij中的各个元素,然后对每个元素进行线性变换。而opencl则不同,计算时,先创建一个工作空间,工作空间内有w×h个工作项,每个工作项计算一个输出元素,并且这些工作项是并行调度的,从而极大的提升了计算的并行度,因此可以有效的提高运算速度。

本发明实施例所提供的数据运算的加速方法,在调用gpu对数据组进行并行运算时,加载预置的opencl库,然后利用opencl库调用预置的核函数,并基于调用的核函数对缓存至gpu的各个数据组进行并行运算,由于gpu具有极佳的并行计算能力,利用gpu对上述数据组进行并行运算能够有效缩短计算时间,因此本发明实施例可以有效的提升前馈神经网络的运算速度,并且由于本发明实施例将前馈神经网络的运算过程从cpu转移到了gpu上,因此还可以降低cpu的占用率,保障终端的正常运行。

进一步地,基于上述实施例,本发明实施例中,在利用核函数对缓存至gpu的各个数据组进行并行运算之后,还包括以下步骤:

步骤一、读取gpu中各个数据组运算后的输出数据;

步骤二、转换读取到的输出数据的格式,使读取到的输出数据的格式与前馈神经网络中的各个矩阵数据的格式相同。

本发明实施例中,在对gpu的各个数据组进行并行运算之后,还需要将运算后的输出数据的格式还原为输入数据的格式,从而确保终端能够识别输出数据,进而执行相应的操作。

本发明实施例所提供的数据运算的加速方法,利用核函数对缓存至gpu的各个数据组进行并行运算之后,读取gpu中各个数据组运算后的输出数据,然后转换读取的输出数据的格式,使读取的输出数据的格式与前馈神经网络中的各个矩阵数据的格式相同,从而可以确保终端能够识别输出数据,进而执行相应的操作。

进一步的,本发发明实施例还提供了一种数据运算的加速装置,参照图6,图6为本发明实施例中数据运算的加速装置的程序模块示意图,本发明实施例中,上述数据运算的加速装置包括:

读取模块601,用于读取各存储单元内待运算的数据组,单个存储单元中已存储待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组;

存储模块602,用于将读取的数据组缓存至gpu;

运算模块603,用于调用gpu对数据组进行并行运算。

本发明实施例所提供的数据运算的加速装置,包括:读取模块,用于读取各存储单元内待运算的数据组;存储模块,用于将读取的数据组缓存至gpu;运算模块,用于调用gpu对上述数据组进行并行运算,其中,上述单个存储单元中已存储待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组。相较于现有技术而言,由于本发明实施例在运算过程中,能够同时读取待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组,而不是分别读取各个矩阵数据中的数据元素,从而减少了运算过程中数据读取的次数,同时由于gpu具有极佳的并行计算能力,利用gpu对上述数据组进行并行运算能够有效缩短计算时间,因此本发明实施例可以有效的提升前馈神经网络的运算速度,另外由于本发明实施例将前馈神经网络的运算过程从cpu转移到了gpu上,因此可以降低cpu的占用率,保障终端的正常运行。

进一步地,基于上述实施例,参照图7,图7为本发明实施例中数据运算的加速装置的另一程序模块示意图,本发明实施例中,上述数据运算的加速装置包括:

初始数据读取模块701,用于读取前馈神经网络的各个数据通道中的矩阵数据。

排列存储模块702,用于将各个矩阵数据中位于相同位置的数据元素作为一个数据组存储在预置存储阵列中的同一存储单元。

读取模块601,用于读取各存储单元内待运算的数据组,单个存储单元中已存储待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组;

存储模块602,用于将读取的数据组缓存至gpu;

运算模块603,用于调用gpu对数据组进行并行运算。

本发明实施例所提供的数据运算的加速装置,包括:初始数据读取模块,用于读取待运算的各个数据通道中的矩阵数据;排列存储模块,用于将各个矩阵数据中位于相同位置的数据元素作为一个数据组存储在预置存储阵列中的同一存储单元。相较于现有技术而言,由于本发明实施例在运算过程中,能够同时读取前馈神经网络的各个矩阵数据中,位于相同位置的数据元素构成的数据组,而不是分别读取各个矩阵数据中的数据元素,从而减少了运算过程中数据读取的次数,因此有助于提升前馈神经网络的运算速度。

进一步地,基于上述实施例,本发明实施例中,上述读取模块601具体包括:

选择模块,用于在执行读取操作时,从所述存储阵列中选择连续的n个存储单元,n为正整数。

读取子模块,用于读取已选择的n个存储单元内存储的数据组。

具体的,上述数据运算的加速装置还包括:

确定模块,用于在从存储阵列中选择连续的n个存储单元之前,确定存储阵列的各行存储单元中待选择的存储单元的数量;

添加模块,用于当存储阵列的各行存储单元中待选择的存储单元的数量不为n的倍数时,在各行存储单元的尾部添加若干数量的空白存储单元,使存储阵列的各行存储单元中待选择的存储单元的数量为n的倍数。

本发明实施例所提供的数据运算的加速装置,在执行读取操作时,从存储阵列中选择连续的n个存储单元,然后读取已选择的n个存储单元内存储的数据组。相较于现有技术而言,不仅可以进一步减少数据读取的次数,还可以利用opencl的向量化优势,提升数据运算速度。

进一步地,基于上述实施例,本发明实施例中,上述运算模块603包括:

加载模块,用于加载预置的opencl库;

运算执行模块,用于利用opencl库调用预置的核函数,并基于调用的核函数对缓存至gpu的各个数据组进行并行运算。

本发明实施例所提供的数据运算的加速装置,在调用gpu对数据组进行并行运算时,加载预置的opencl库,然后利用opencl库调用预置的核函数,并基于调用的核函数对缓存至gpu的各个数据组进行并行运算,由于gpu具有极佳的并行计算能力,利用gpu对上述数据组进行并行运算能够有效缩短计算时间,因此本发明实施例可以有效的提升前馈神经网络的运算速度,并且由于本发明实施例将前馈神经网络的运算过程从cpu转移到了gpu上,因此还可以降低cpu的占用率,保障终端的正常运行。

进一步地,基于上述实施例,本发明实施例中,数据运算的加速装置还包括:

输出数据读取模块,用于读取gpu中各个数据组运算后的输出数据;

转换模块,用于转换读取的输出数据的格式,使读取的输出数据的格式与前馈神经网络中的各个矩阵数据的格式相同。

本发明实施例所提供的数据运算的加速装置,利用核函数对缓存至gpu的各个数据组进行并行运算之后,读取gpu中各个数据组运算后的输出数据,然后转换读取的输出数据的格式,使读取的输出数据的格式与前馈神经网络中的各个矩阵数据的格式相同,从而可以确保终端能够识别输出数据,进而执行相应的操作。

可以理解的是,在本发明实施例中,上述数据运算的加速装置可以是一种终端,请参阅图8,图8为本发明实施例中终端80的结构示意图。该终端80包括处理器801、存储器802和收发器803,存储器802可以包括只读存储器和随机存取存储器,并向处理器801提供操作指令和数据。存储器802的一部分还可以包括非易失性随机存取存储器(nvram)。

在一些实施方式中,存储器802存储了如下的元素:可执行模块或者数据结构,或者他们的子集,或者他们的扩展集。

在本发明实施例中,通过调用存储器802存储的操作指令(该操作指令可存储在操作系统中),执行以下过程:

读取各存储单元内待运算的数据组,其中,单个存储单元中已存储待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组;将读取的所述数据组缓存至gpu;调用gpu对所述数据组进行并行运算。

与现有技术相比,由于本发明实施例在运算过程中,能够同时读取前馈神经网络的各个矩阵数据中,位于相同位置的数据元素构成的数据组,而不是分别读取各个矩阵数据中的数据元素,从而减少了运算过程中数据读取的次数,同时由于gpu具有极佳的并行计算能力,利用gpu对上述数据组进行并行运算能够有效缩短计算时间,因此本发明实施例可以有效的提升前馈神经网络的运算速度,另外由于本发明实施例将前馈神经网络的运算过程从cpu转移到了gpu上,因此可以降低cpu的占用率,保障终端的正常运行。

其中,处理器801控制终端80的操作,处理器801还可以称为cpu(centralprocessingunit,中央处理单元)。存储器802可以包括只读存储器和随机存取存储器,并向处理器801提供指令和数据。存储器802的一部分还可以包括非易失性随机存取存储器(nvram)。具体的应用中终端80的各个组件通过总线系统804耦合在一起,其中总线系统804除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清楚说明起见,在图中将各种总线都标为总线系统804。

上述本发明实施例揭示的方法可以应用于处理器801中,或者由处理器801实现。处理器801可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器801中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器801可以是通用处理器、数字信号处理器(dsp)、专用集成电路(asic)、现成可编程门阵列(fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器802,处理器801读取存储器802中的信息,结合其硬件完成上述方法的步骤。

在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。

另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。

所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、磁碟或者光盘等各种可以存储程序代码的介质。

需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本发明所必须的。

在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。

以上为对本发明所提供的一种数据运算的加速方法、装置、终端及存储介质的描述,对于本领域的技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本发明的限制。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1