基于可配置卷积层的卷积神经网络的算法优化方法及装置与流程

文档序号:17290907发布日期:2019-04-03 03:57阅读:411来源:国知局
基于可配置卷积层的卷积神经网络的算法优化方法及装置与流程

本发明涉及图像处理、视频监控以及卷积神经网络,特别涉及基于可配置卷积层的卷积神经网络的算法优化方法及装置。



背景技术:

随着人工智能的快速发展,深度学习技术被越来越多地引入到图像处理、视频分析领域中,如人机交互,环境感知,智慧商业分析,自动驾驶以及安防监控等应用场景,它们通常是嵌入式视觉的应用,要求智能分析的实时处理。其中,卷积神经网络(convolutionalneuralnetworks,简称cnn)作为深度学习的一种模型结构,尤其擅长处理图像特别是大图像的相关机器学习问题,已被广泛应用,得到最深入研究。然而深度学习算法,计算量非常大,这就对前端嵌入式运行提出了非常高的要求,这也成为嵌入式视觉的机遇与挑战。因此,深度学习针对嵌入式平台的优化,即提供客户硬件+算法一体化的最优性价比的解决方案,就成为了嵌入式视觉解决方案的核心竞争力。如何对cnn算法在嵌入式arm平台进行效率优化,提高算法性能,就成为本领域技术人员需要解决的关键技术问题。

目前cnn在嵌入式平台方面的优化,主要有网络结构优化,定点化(如模型量化),二值化,simd(如neon),缓存(如cache命中率),多线程,异构计算等方法。其中任何一种方法都其自身的优势与局限性,在实际的cnn算法优化过程中,仅使用一种方法进行优化,其效率提升情况达到一定瓶颈,已经很难满足性能优化需求。

neon指令是适用于armcortex-a系列处理器的一种128位simd(singleinstruction,multipledata,单指令、多数据)扩展结构。从智能手机和移动计算设备到hdtv,它已被公认为是多媒体应用领域中最为优越的处理器之一。neon指令采用专门设计,简化了软件在不同平台之间的移植,为类似dolbymobile的密集型多媒体应用提供了低能耗和灵活的加速功能。

综上所述,目前需要提出一种能够提升性能优化的基于可配置卷积层的卷积神经网络的算法优化方法。



技术实现要素:

有鉴于此,本发明的主要目的在于降低计算资源消耗,实现卷积神经网络的算法优化。

为达到上述目的,按照本发明的第一个方面,提供了基于可配置卷积层的卷积神经网络的算法优化方法,该方法包括:

第一步骤,对卷积神经网络的每个卷积层,分别采用基于neon指令的定点化卷积滤波优化法,对卷积层进行优化处理,获取对应卷积层的第一性能评测数据;

第二步骤,对卷积神经网络的每个卷积层,分别采用基于neon指令的定点化卷积矩阵乘优化法,对卷积层进行优化处理,获取对应卷积层的第二性能评测数据;

第三步骤,针对卷积神经网络的每个卷积层,如果第一性能评测数据优于第二性能评测数据,则认为对应的卷积层最佳配置为基于neon指令的定点化卷积滤波优化法,否则认为对应的卷积层最佳配置为基于neon指令的定点化卷积矩阵乘优化法;

第四步骤,根据卷积神经网络的每个卷积层的最佳配置,对卷积神经网络进行优化处理。

进一步地,所述第一步骤中基于neon指令的定点化卷积滤波优化法包括:对每个卷积层,基于neon指令,使用定点的加载指令进行数据的并行加载操作,使用定点的乘加指令进行数据的乘加操作,获取累加数据,使用定点的存储指令对累加数据进行并行存储。

进一步地,所述第二步骤中基于neon指令的定点化卷积矩阵乘优化法包括:

a矩阵获取步骤,将卷积层的卷积核图像进行矩阵化处理,获取对应的a矩阵,并将a矩阵列数按照4×n倍数对齐;

b矩阵获取步骤,输入待卷积图像,将待卷积输入图像进行矩阵化处理,获取对应的b矩阵,并将b矩阵行数按照4×n倍数对齐;

转置矩阵bt获取步骤,对b矩阵进行转置变换,获取转置矩阵bt;

行与行点积计算步骤,计算a矩阵和bt矩阵的行与行点积;

neon指令处理步骤,采用neon指令进行定点化并行优化处理。

进一步地,所述a矩阵获取步骤包括:对于卷积层中cnum个卷积核大小为n×n的卷积核图像,依次将每个卷积核图像作为一行矩阵数据,获取行数为cnum、列数为n×n的a矩阵;将a矩阵的列数扩展为4×n的倍数,扩展的每列矩阵内数值为0。

进一步地,所述b矩阵获取步骤包括:输入需要卷积层处理的待卷积图像;根据n×n的卷积核依次进行卷积滑窗处理,以获取mnum个经过卷积滑窗处理后的卷积特征子图像;依次将每个卷积特征子图像作为一列矩阵数据,获取行数为n×n、列数为mnum的b矩阵。将b矩阵的行数扩展为4×n的倍数,扩展的每行矩阵内数值为0。

进一步地,所述转置矩阵bt获取步骤包括:将b矩阵的行与列进行转置变换,以获得行数为mnum、列数为n×n扩展成4×n倍数对齐的bt矩阵。

进一步地,所述neon指令处理步骤包括:在neon指令中,采用定点的加载指令进行数据的并行加载操作;采用定点的乘法指令进行数据的并行乘法或乘加运算操作;采用定点的拆分指令进行结果数据的拆分获取;采用定点的加法指令进行数据的并行加法操作;采用定点的按对加法指令进行相邻数据的并行累加;采用定点的存储指令对累加数据进行并行存储。

按照本发明的另一个方面,提供了基于可配置卷积层的卷积神经网络的算法优化装置,该装置包括:

定点化卷积滤波优化评测模块,用于对卷积神经网络的每个卷积层,分别采用基于neon指令的定点化卷积滤波优化模块,对卷积层进行优化处理,获取对应卷积层的第一性能评测数据;

定点化卷积矩阵乘优化评测模块,用于对卷积神经网络的每个卷积层,分别采用基于neon指令的定点化卷积矩阵乘优化模块,对卷积层进行优化处理,获取对应卷积层的第二性能评测数据;

优化最佳配置获取模块,用于针对卷积神经网络的每个卷积层,如果第一性能评测数据优于第二性能评测数据,则认为对应的卷积层最佳配置为基于neon指令的定点化卷积滤波优化模块,否则认为对应的卷积层最佳配置为基于neon指令的定点化卷积矩阵乘优化模块;

卷积神经网络优化处理模块,用于根据卷积神经网络的每个卷积层的最佳配置,对卷积神经网络进行优化处理。

进一步地,所述定点化卷积滤波优化评测模块中基于neon指令的定点化卷积滤波优化模块包括:用于对每个卷积层,基于neon指令,使用定点的加载指令进行数据的并行加载操作,使用定点的乘加指令进行数据的乘加操作,获取累加数据,使用定点的存储指令对累加数据进行并行存储。

进一步地,所述基于neon指令的定点化卷积矩阵乘优化模块包括:

a矩阵获取模块,用于将卷积层的卷积核图像进行矩阵化处理,获取对应的a矩阵,并将a矩阵列数按照4×n倍数对齐;

b矩阵获取模块,用于输入待卷积图像,将待卷积输入图像进行矩阵化处理,获取对应的b矩阵,并将b矩阵行数按照4×n倍数对齐;

转置矩阵bt获取模块,用于对b矩阵进行转置变换,获取转置矩阵bt;

行与行点积计算模块,用于计算a矩阵和bt矩阵的行与行点积;

neon指令处理模块,用于采用neon指令进行定点化并行优化处理。

进一步地,所述a矩阵获取模块包括:用于对于卷积层中cnum个卷积核大小为n×n的卷积核图像,依次将每个卷积核图像作为一行矩阵数据,获取行数为cnum、列数为n×n的a矩阵;将a矩阵的列数扩展为4×n的倍数,扩展的每列矩阵内数值为0。

进一步地,所述b矩阵获取模块包括:用于输入需要卷积层处理的待卷积图像;根据n×n的卷积核依次进行卷积滑窗处理,以获取mnum个经过卷积滑窗处理后的卷积特征子图像;依次将每个卷积特征子图像作为一列矩阵数据,获取行数为n×n、列数为mnum的b矩阵。将b矩阵的行数扩展为4×n的倍数,扩展的每行矩阵内数值为0。

所述转置矩阵bt获取模块包括:用于将b矩阵的行与列进行转置变换,以获得行数为mnum、列数为n×n扩展成4×n倍数对齐的bt矩阵。

进一步地,所述neon指令处理模块包括:用于在neon指令中,采用定点的加载指令进行数据的并行加载操作;采用定点的乘法指令进行数据的并行乘法或乘加运算操作;采用定点的拆分指令进行结果数据的拆分获取;采用定点的加法指令进行数据的并行加法操作;采用定点的按对加法指令进行相邻数据的并行累加;采用定点的存储指令对累加数据进行并行存储。

与现有的卷积神经网络算法优化方法相比,本发明的基于可配置卷积层的卷积神经网络优化方法分别采用基于neon指令的定点化卷积滤波优化法和基于neon指令的定点化卷积矩阵乘优化法,对每个卷积层进行优化处理,计算对应的性能评测数据,根据性能评测数据获取各卷积层的最佳配置,按照最佳配置,对卷积神经网络进行优化处理,实现了最优的性能优化,保证了cnn算法在嵌入式arm平台的实时性。

附图说明

图1示出了按照本发明的基于可配置卷积层的卷积神经网络的算法优化方法的实施例的流程图。

图2示出了按照本发明的基于可配置卷积层的卷积神经网络的算法优化装置的实施例的结构示意图。

具体实施方式

为使本领域的技术人员能进一步了解本发明的结构、特征及其他目的,现结合所附较佳实施例详细说明如下,所说明的较佳实施例仅用于说明本发明的技术方案,并非限定本发明。

图1给出了按照本发明的基于可配置卷积层的卷积神经网络的算法优化方法的流程图。如图1所示,按照本发明的基于可配置卷积层的卷积神经网络的算法优化方法包括:

第一步骤s1,对卷积神经网络的每个卷积层,分别采用基于neon指令的定点化卷积滤波优化法s10,对卷积层进行优化处理,获取对应卷积层的第一性能评测数据;

第二步骤s2,对卷积神经网络的每个卷积层,分别采用基于neon指令的定点化卷积矩阵乘优化法s20,对卷积层进行优化处理,获取对应卷积层的第二性能评测数据;

第三步骤s3,针对卷积神经网络的每个卷积层,如果第一性能评测数据优于第二性能评测数据,则认为对应的卷积层最佳配置为基于neon指令的定点化卷积滤波优化法s10,否则认为对应的卷积层最佳配置为基于neon指令的定点化卷积矩阵乘优化法s20;

第四步骤s4,根据卷积神经网络的每个卷积层的最佳配置,对卷积神经网络进行优化处理。

进一步地,所述第一步骤s1中基于neon指令的定点化卷积滤波优化法s10包括:对每个卷积层,基于neon指令,使用定点的加载指令进行数据的并行加载操作,使用定点的乘加指令进行数据的乘加操作,获取累加数据,使用定点的存储指令对累加数据进行并行存储。

其中,所述定点的加载指令为neon指令中的整型的加载指令,包括:vld1_s8、vld1_s16等指令。所述定点的乘加指令为neon指令中的整型的乘加指令,包括:vmlal_s8、vmlal_s16等指令。所述定点的存储指令为neon指令中的整型的存储指令,包括:vst1q_s16、vst1q_s32等指令。

示例性地,如果卷积层采用的是3×3卷积核,卷积核图像为[k1k2k3k4k5k5k7k8k9],针对每个卷积核,分别获取由8个char型数据组成的向量,即k1=[k1k1k1k1k1k1k1k1],k2=[k2k2k2k2k2k2k2k2],…,k9=[k9k9k9k9k9k9k9k9]。对于待卷积图像,按照3×3卷积核对应位置,使用定点的加载指令vld1_s8分别加载9个向量的图像数据,即a=[a1a2a3a4a5a6a7a8],b=[b1b2b3b4b5b6b7b8],…,i=[i1i2i3i4i5i6i7i8]。然后使用定点的乘加指令vmlal_s8进行8个char型数据向量的乘加运算:先进行乘法运算,即k1×a=[k1×a1k1×a2k1×a3k1×a4k1×a5k1×a6k1×a7k1×a8]、k2×b=[k2×b1k2×b2k2×b3k2×b4k2×b5k2×b6k2×b7k2×b8],…,k9×i=[k9×i1k9×i2k9×i3k9×i4k9×i5k9×i6k9×i7k9×i8];再进行累加求和运算result=k1×a+k2×b+…+k9×i,result即为卷积运算结果。最后使用定点的存储指令vst1q_s16对卷积结果result进行存储。

进一步地,所述第一性能评测数据包括:运算耗时。

示例性地,对卷积神经网络的卷积层conv1、conv2、conv3等,分别采用基于neon指令的定点化卷积滤波优化法,对卷积层进行优化处理,依次计算卷积层conv1、conv2、conv3等的运算耗时conv1_time1a、conv2_time2a、conv3_time3a等,将运算耗时conv1_time1a、conv2_time2a、conv3_time3a等分别作为卷积层conv1、conv2、conv3等的第一性能评测数据。

进一步地,所述第二步骤s2中基于neon指令的定点化卷积矩阵乘优化法s20包括:

a矩阵获取步骤s21,将卷积层的卷积核图像进行矩阵化处理,获取对应的a矩阵,并将a矩阵列数按照4×n倍数对齐;

b矩阵获取步骤s22,输入待卷积图像,将待卷积输入图像进行矩阵化处理,获取对应的b矩阵,并将b矩阵行数按照4×n倍数对齐;

转置矩阵bt获取步骤s23,对b矩阵进行转置变换,获取转置矩阵bt;

行与行点积计算步骤s24,计算a矩阵和bt矩阵的行与行点积;

neon指令处理步骤s25,采用neon指令进行定点化并行优化处理。

进一步地,所述a矩阵获取步骤s21包括:对于卷积层中cnum个卷积核大小为n×n的卷积核图像,依次将每个卷积核图像作为一行矩阵数据,获取行数为cnum、列数为n×n的a矩阵;将a矩阵的列数扩展为4×n的倍数,扩展的每列矩阵内数值为0。

其中,所述参数n表示倍率,所述n的取值包括:1,2,4。进一步地,当处理int型数据时,n取为1;当处理short型数据时,n取为2;当处理char型数据时,n取为2或者4。

示例性地,对于卷积层中16个3×3的卷积核图像,分别将第i个卷积核图像作为第i行的矩阵数据,i={0,1,2,…,15},则可以得到行数为16、列数为9的a矩阵。当n为1时,将a矩阵的列数扩展为4的倍数,即将a矩阵的列数由原来的9扩展为12,扩展的第10~12列矩阵内数值都为0;当n为2、4时,分别将a矩阵的列数扩展为8、16的倍数,即将a矩阵的列数由原来的9扩展为16,扩展的第10~16列矩阵内数值都为0。

进一步地,所述b矩阵获取步骤s22包括:输入需要卷积层处理的待卷积图像;根据n×n的卷积核依次进行卷积滑窗处理,以获取mnum个经过卷积滑窗处理后的卷积特征子图像;依次将每个卷积特征子图像作为一列矩阵数据,获取行数为n×n、列数为mnum的b矩阵。将b矩阵的行数扩展为4×n的倍数,扩展的每行矩阵内数值为0。

示例性地,对输入图像进行3×3的卷积核滑窗处理,以获取经过卷积滑窗处理后的卷积特征子图像;分别将第j个卷积特征子图像作为第j列的矩阵数据,j={0,1,2,…,mnum},则可以得到列数为mnum、行数为9的b矩阵。当n为1时,将b矩阵的行数扩展为4的倍数,即将b矩阵的行数由原来的9扩展为12,扩展的第10~12列矩阵内数值为0;当n为2、4时,分别将b矩阵的行数扩展为8、16的倍数,即将b矩阵的行数由原来的9扩展为16,扩展的第10~16列矩阵内数值为0。

进一步地,所述转置矩阵bt获取步骤s23包括:将b矩阵的行与列进行转置变换,以获得行数为mnum、列数为n×n扩展成4×n倍数对齐的bt矩阵。

进一步地,所述neon指令处理步骤s25包括:在neon指令中,采用定点的加载指令进行数据的并行加载操作;采用定点的乘法指令进行数据的并行乘法或乘加运算操作;采用定点的拆分指令进行结果数据的拆分获取;采用定点的加法指令进行数据的并行加法操作;采用定点的按对加法指令进行相邻数据的并行累加;采用定点的存储指令对累加数据进行并行存储。

其中,所述定点的加载指令为neon指令中的整型的加载指令,包括:vld1_s8、vld1_s16、vld1q_s16、vld1q_s32等指令。所述定点的乘加指令为neon指令中的整型的乘加指令,包括:vmlal_s8、vmull_s8等指令。所述定点的拆分指令为neon指令中的整型的拆分指令,包括:vget_low_s16、vget_high_s16、vget_low_s32、vget_high_s32等指令。所述定点的加法指令为neon指令中的整型的加法指令,包括:vqadd_s16、vqadd_s32等指令。所述定点的按对加法指令为neon指令中的整型的按对加法指令,包括:vpadd_s16、vpadd_s32等指令。所述定点的存储指令为neon指令中的整型的存储指令,包括:vst1q_s16、vst1q_s32等指令。

示例性地,对于8×8的a矩阵和bt矩阵,a矩阵的第一行向量为[a1a2a3…a8],bt矩阵的第一行向量为[b1b2b3…b8],在neon指令中,采用定点的加载指令vld1_s8可以并行取数,一次指令同时实现8个char型数据的加载,如64位寄存器va分别用于存储a1、a2、a3、a4、a5、a6、a7、a8上述8个char型数据,64位寄存器vb分别用于存储b1、b2、b3、b4、b5、b6、b7、b8上述8个char型数据。采用定点的乘加指令vmlal_s8实现8个char型数据的乘法运算操作va×b=[a1×b1a2×b2a3×b3a4×b4a5×b5a6×b6a7×b7a8×b8]。采用定点的拆分指令vget_low_s16获取a1×b1、a2×b2、a3×b3、a4×b4上述4个short型数据,采用定点的拆分指令vget_high_s16获取a5×b5、a6×b6、a7×b7、a8×b8上述4个short型数据。首先采用定点的加法指令vqadd_s16分别实现以下4个short型数据的相加:a1×b1+a5×b5、a2×b2+a6×b6、a3×b3+a7×b7、a4×b4+a8×b8;然后采用定点的按对加法指令vpadd_s16分别实现以下2个short型数据的相邻累加:a1×b1+a5×b5+a2×b2+a6×b6、a3×b3+a7×b7+a4×b4+a8×b8;再对2个short型数据相邻累加结果进行求和,得到累加数据result=a1×b1+a5×b5+a2×b2+a6×b6+a3×b3+a7×b7+a4×b4+a8×b8。最后采用定点的存储指令vst1q_s16对累加数据result进行存储。

进一步地,所述第二性能评测数据包括:运算耗时。

示例性地,所述性能评测数据采用运算耗时。对卷积神经网络的卷积层conv1、conv2、conv3等,分别采用基于neon指令的定点化卷积矩阵乘优化法,对卷积层进行优化处理,依次计算卷积层conv1、conv2、conv3等的运算耗时conv1_time1b、conv2_time2b、conv3_time3b等,将运算耗时conv1_time1b、conv2_time2b、conv3_time3b等分别作为卷积层conv1、conv2、conv3等的第二性能评测数据。

示例性地,所述第三步骤s3包括:所述性能评测数据采用运算耗时。对卷积神经网络的卷积层conv1、conv2、conv3,对应的第一性能评测数据分别为conv1_time1a、conv2_time2a、conv3_time3a,对应的第二性能评测数据分别为conv1_time1b、conv2_time2b、conv3_time3b,如果conv1_time1a<conv1_time1b、conv2_time2a>conv2_time2b、conv3_time3a<conv3_time3b,则认为卷积层conv1和卷积层conv3的最佳配置为基于neon指令的定点化卷积滤波优化法,卷积层conv2的最佳配置为基于neon指令的定点化卷积矩阵乘优化法。

示例性地,所述第四步骤s4包括:对卷积神经网络的卷积层conv1、conv2、conv3,如果卷积层conv1和卷积层conv3的最佳配置为基于neon指令的定点化卷积滤波优化法,卷积层conv2的最佳配置为基于neon指令的定点化卷积矩阵乘优化法,则分别对卷积神经网络的卷积层conv1采用基于neon指令的定点化卷积滤波优化法、卷积神经网络的卷积层conv2采用基于neon指令的定点化卷积矩阵乘优化法、卷积神经网络的卷积层conv3采用基于neon指令的定点化卷积滤波优化法进行优化处理。

图2给出了按照本发明的基于可配置卷积层的卷积神经网络的算法优化装置的第一实施例的结构示意图。如图2所示,按照本发明的基于可配置卷积层的卷积神经网络的算法优化装置包括:

定点化卷积滤波优化评测模块1,用于对卷积神经网络的每个卷积层,分别采用基于neon指令的定点化卷积滤波优化模块10,对卷积层进行优化处理,获取对应卷积层的第一性能评测数据;

定点化卷积矩阵乘优化评测模块2,用于对卷积神经网络的每个卷积层,分别采用基于neon指令的定点化卷积矩阵乘优化模块20,对卷积层进行优化处理,获取对应卷积层的第二性能评测数据;

优化最佳配置获取模块3,用于针对卷积神经网络的每个卷积层,如果第一性能评测数据优于第二性能评测数据,则认为对应的卷积层最佳配置为基于neon指令的定点化卷积滤波优化模块,否则认为对应的卷积层最佳配置为基于neon指令的定点化卷积矩阵乘优化模块;

卷积神经网络优化处理模块4,用于根据卷积神经网络的每个卷积层的最佳配置,对卷积神经网络进行优化处理。

进一步地,所述定点化卷积滤波优化评测模块1中基于neon指令的定点化卷积滤波优化模块10包括:用于对每个卷积层,基于neon指令,使用定点的加载指令进行数据的并行加载操作,使用定点的乘加指令进行数据的乘加操作,获取累加数据,使用定点的存储指令对累加数据进行并行存储。

其中,所述定点的加载指令为neon指令中的整型的加载指令,包括:vld1_s8、vld1_s16等指令。所述定点的乘加指令为neon指令中的整型的乘加指令,包括:vmlal_s8、vmlal_s16等指令。所述定点的存储指令为neon指令中的整型的存储指令,包括:vst1q_s16、vst1q_s32等指令。

进一步地,所述第一性能评测数据和第二性能评测数据包括:运算耗时。

进一步地,所述定点化卷积矩阵乘优化评测模块2中基于neon指令的定点化卷积矩阵乘优化模块20包括:

a矩阵获取模块21,用于将卷积层的卷积核图像进行矩阵化处理,获取对应的a矩阵,并将a矩阵列数按照4×n倍数对齐;

b矩阵获取模块22,用于输入待卷积图像,将待卷积输入图像进行矩阵化处理,获取对应的b矩阵,并将b矩阵行数按照4×n倍数对齐;

转置矩阵bt获取模块23,用于对b矩阵进行转置变换,获取转置矩阵bt;

行与行点积计算模块24,用于计算a矩阵和bt矩阵的行与行点积;

neon指令处理模块25,用于采用neon指令进行定点化并行优化处理。

进一步地,所述a矩阵获取模块21包括:用于对于卷积层中cnum个卷积核大小为n×n的卷积核图像,依次将每个卷积核图像作为一行矩阵数据,获取行数为cnum、列数为n×n的a矩阵;将a矩阵的列数扩展为4×n的倍数,扩展的每列矩阵内数值为0。

其中,所述参数n表示倍率,所述n的取值包括:1,2,4。进一步地,当处理int型数据时,n取为1;当处理short型数据时,n取为2;当处理char型数据时,n取为4。

进一步地,所述b矩阵获取模块22包括:用于输入需要卷积层处理的待卷积图像;根据n×n的卷积核依次进行卷积滑窗处理,以获取mnum个经过卷积滑窗处理后的卷积特征子图像;依次将每个卷积特征子图像作为一列矩阵数据,获取行数为n×n、列数为mnum的b矩阵。将b矩阵的行数扩展为4×n的倍数,扩展的每行矩阵内数值为0。

所述转置矩阵bt获取模块23包括:用于将b矩阵的行与列进行转置变换,以获得行数为mnum、列数为n×n扩展成4×n倍数对齐的bt矩阵。

进一步地,所述neon指令处理模块25包括:用于在neon指令中,采用定点的加载指令进行数据的并行加载操作;采用定点的乘法指令进行数据的并行乘法或乘加运算操作;采用定点的拆分指令进行结果数据的拆分获取;采用定点的加法指令进行数据的并行加法操作;采用定点的按对加法指令进行相邻数据的并行累加;采用定点的存储指令对累加数据进行并行存储。

其中,所述定点的加载指令为neon指令中的整型的加载指令,包括:vld1_s8、vld1_s16、vld1q_s16、vld1q_s32等指令。所述定点的乘加指令为neon指令中的整型的乘加指令,包括:vmlal_s8、vmull_s8等指令。所述定点的拆分指令为neon指令中的整型的拆分指令,包括:vget_low_s16、vget_high_s16、vget_low_s32、vget_high_s32等指令。所述定点的加法指令为neon指令中的整型的加法指令,包括:vqadd_s16、vqadd_s32等指令。所述定点的按对加法指令为neon指令中的整型的按对加法指令,包括:vpadd_s16、vpadd_s32等指令。所述定点的存储指令为neon指令中的整型的存储指令,包括:vst1q_s16、vst1q_s32等指令。

与现有的卷积神经网络算法优化方法相比,本发明的基于可配置卷积层的卷积神经网络优化方法分别采用基于neon指令的定点化卷积滤波优化法和基于neon指令的定点化卷积矩阵乘优化法,对每个卷积层进行优化处理,计算对应的性能评测数据,根据性能评测数据获取各卷积层的最佳配置,按照最佳配置,对卷积神经网络进行优化处理,实现了最优的性能优化,保证了卷积神经网络算法在嵌入式arm平台的实时性。

以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围,应当理解,本发明并不限于这里所描述的实现方案,这些实现方案描述的目的在于帮助本领域中的技术人员实践本发明。任何本领域中的技术人员很容易在不脱离本发明精神和范围的情况下进行进一步的改进和完善,因此本发明只受到本发明权利要求的内容和范围的限制,其意图涵盖所有包括在由所附权利要求所限定的本发明精神和范围内的备选方案和等同方案。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1