卷积神经网络压缩方法及人脸检测方法与流程

文档序号:16211564发布日期:2018-12-08 07:48阅读:228来源:国知局
卷积神经网络压缩方法及人脸检测方法与流程
本发明涉及计算机视觉领域,具体涉及卷积神经网络压缩方法及人脸检测方法。
背景技术
随着计算能力的发展和可用数据集的扩充,深度卷积神经网络在计算机视觉、语音识别、自然语言处理等领域获得了广泛的应用,但是深度卷积神经网络通常具有大量的参数,复杂的计算和存储压力限制了深度学习的应用和发展。为了解决这个问题,除了对硬件性能的提升外,还可以从算法层面上考虑实现对网络模型本身的压缩,从而达到减少计算和存储成本的目的。近年来,人脸识别技术在安防领域越来越流行,而人脸检测技术作为人脸识别等一系列工作的前置任务,如何在拍摄环境复杂、目标尺度多变的情况下实现对人脸的实时检测是很值得研究的问题。目前基于卷积神经网络的检测算法基本已经能够在高端gpu上实现实时的高精度人脸检测。下面简要介绍和本发明相关的两个
背景技术
:人脸检测问题和卷积网络压缩。人脸检测属于目标检测的又一细分领域,因此人脸检测算法可以基于通用目标检测框架展开,其与通用的目标检测方案不同之处在于:特征简单——早期的haar特征就可以作为人脸分类器的特征,而通用目标检测却需要使用复杂的hog特征;尺度变化大——这点在监控场景较为明显,行人在镜头下由远及近地走过,其脸部面积在整个视频帧中的占比也会由小变大;目标尺寸小且密集——这同样也是监控场景下人脸检测要面对的主要问题,例如假日的街头天网摄像监控、下班高峰期的地铁监控等等,在这些场景中,单个1080p视频帧可能包含上百个目标,而大部分人脸目标都在50像素长宽的范围内。总而言之,在设计人脸检测方案时,我们可以利用其特征简单的特点对特征提取器进行适当的裁剪和压缩,同时也需要克服尺度变化大、目标尺寸小、目标密集的困难。深度学习检测算法按候选区域生成方式的不同可以分为一阶段检测算法和二阶段检测算法,两类算法最大的不同在于,一阶段检测算法通过卷积计算本身的滑窗过程产生候选区域,二阶段检测算法通过别的方式(例如rpn)产生候选区域。ssd是典型的一阶段检测算法。另一方面,深度卷积网络具有大量的参数,而这些参数实际可能存在大量的冗余,这样的冗余通常会造成计算和存储上的浪费,因此神经网络的压缩算法也是近几年的研究热点。这些算法可以根据执行压缩的对象不同而分为两大类:第一类是基于结构的压缩算法——通过直接改动神经网络的结构以实现压缩的目的;第二类是基于数值的压缩算法——神经网络通常都是运行在32-bit的单精度浮点下,用16-bit的半精度浮点数存储网络权值即可将网络运行时的内存消耗极大地减少,更进一步的压缩就会有8-bit、4-bit,最激进的压缩就是1-bit二值化压缩——这是本发明压缩方案研究的重点。二值压缩,是将模型中原本使用的单精度浮点表示的权值和输入使用{0,1}二值表示,即将原本32-bit的信息用1-bit来表示,这样表示参数有两点好处:1.极大减小了模型在磁盘和内存中的空间消耗;2.可以用xor(或xnor)运算符和popcnt指令替代浮点数的乘法运算。特别说明一下第二点,以向量相乘为例:设列向量a,b∈{-1,1}n(在实际存储时用0表示-1,因为1-bit没有符号位),那么:atb=n-2×popcnt(xor(a,b))假设我们能够成功将数据存储压缩到1-bit,那么整个网络中复杂的浮点运算开销将被简单的位运算和popcnt所替代。不过从32-bit到1-bit信息量的损失很大,将整个卷积网络中所有的参数都二值化会对网络的容量造成很大影响,进而又会影响到网络的泛化性能。卷积网络巨大的计算需求限制了这项技术应用的场合。高端gpu上的实时高精度人脸检测可以提供类似数据中心模式的检测识别云平台,面向天网等监控视频服务。但是在公共安全、警用装备领域除了天网,还有对便携式装备的需求,例如执法记录仪等。为了满足这样的需求,我们迫切地需要对模型的压缩和计算的精简。技术实现要素:本发明所要解决的技术问题是在公共安全、警用装备领域除了天网,还有对便携式装备的需求,例如执法记录仪等。为了满足这样的需求,我们迫切地需要对模型的压缩和计算的精简,目的在于提供卷积神经网络压缩方法及人脸检测方法,解决上述问题。本发明通过下述技术方案实现:卷积神经网络压缩方法,包括以下步骤:s1:对卷积神经网络结构中各卷积层的权值集中度进行统计;s2:将权值集中度超过阈值的网络进行二值化;s3:重新训练神经网络至收敛。现有技术中,卷积网络巨大的计算需求限制了这项技术应用的场合。高端gpu上的实时高精度人脸检测可以提供类似数据中心模式的检测识别云平台,面向天网等监控视频服务。但是在公共安全、警用装备领域除了天网,还有对便携式装备的需求,例如执法记录仪等。为了满足这样的需求,我们迫切地需要对模型的压缩和计算的精简。本发明应用时,如果对整个网络使用二值化卷积,会不可避免地造成精度损失。因此本发明提出混合精度压缩方案,考虑对网络结构中的卷积进行选择性地二值化,这样在一个完整的结构中浮点卷积和异或卷积并存。对神经网络结构中各卷积层的权值集中度进行统计,不同的层次,数值的相对分布也不同,可以用数值的方差来衡量这种集中度,数值方差越小,说明权重数值更集中;数值方差越大,说明权重数值波动大。因此,可以统计已训练好的浮点卷积网络的卷积层集中度,选择集中度大的网络进行二值化。本发明在网络中使用混合精度推理,即一个完整的网络结构中,浮点卷积和异或卷积同时存在,选择权值集中度更高的层次进行二值压缩,保留权值较为分散的层次,从而使得网络的精度能够更大程度地保留。进一步的,步骤s1还包括以下子步骤:卷积层中第i层的权重集中度ci根据下式得到:式中,wi为该卷积层的权重向量;n为该卷积层权重的个数。本发明应用时,定义c表示一个卷积层的数值集中度,w是该层卷积的权重向量,n是该卷积层权重的个数(权重向量的维度)。c越大,数值方差越小,说明权重数值更集中;c越小,数值方差越大,说明权重数值波动大。进一步的,步骤s2包括以下子步骤:所述对网络进行二值化包括对卷积核权值进行二值化和对卷积层输入特征的二值化。本发明应用时,对一个卷积层而言,主要处理两类数据:卷积核的权值以及卷积层的输入特征。进一步的,对卷积核权值进行二值化包括以下步骤:将卷积核权值中32-bit的信息用1-bit来表示;对用1-bit表示后的二值卷积使用异或运算和popcnt指令近似原本的卷积运算。进一步的,对卷积层输入特征进行二值化包括以下步骤:将卷积层输入特征进行逐通道的归一化;将归一化后的卷积层输入特征用1-bit来表示;对用1-bit表示后的二值卷积使用异或运算和popcnt指令近似原本的卷积运算。本发明应用时,对卷积层输入特征进行二值近似,如果只是单纯优化目标求解极值点,那依然无法完全摆脱浮点数的卷积运算,所以本发明中考虑再对卷积层的输入做一个特殊处理:逐通道的归一化(normalization),在输入特征图i中每个通道的特征图上分别做归一化,再完成卷积层输入的二值化;不过这里改变了输入特征的分布,因此必须重新训练整个网络才能减少精度的损失。在单个卷积层的运算中,完全使用异或卷积替代浮点卷积。早期二值压缩还需要保留一部分浮点卷积计算,用以求出输入数据的缩放系数。本发明的方案使用了一种逐通道的归一化方法,使得缩放系数近似为1,从而避免浮点卷积运算。人脸检测方法,包括以下步骤:s1:由剪切后的vgg网络产生卷积特征;s2:在指定的特征层上使用卷积预测器预测人脸目标的置信度和人脸目标框的位置;s3:将每一层得到的结果集中到一起,通过置信度筛选、非极大值抑制得到预测结果。本发明应用时,zfacepro总共使用了包括conv4_3、fc7、conv6_2、conv7_2、conv8_2、conv9_2在内六层卷积特征,分别对应了尺寸为63×63,32×32,16×16,8×8,6×6,4×4的特征。每一层特征都对应了一个独立的卷积预测器,这个卷积预测器由两个并行的卷积层构成,分别是输出通道数为2(人脸和非人脸)的目标分类卷积层和输出通道数等于4倍先验目标框(bbox)种类(对应先验目标框的两点坐标的偏移量)的坐标回归卷积层。本发明通过减少vgg16中网络层的特征通道数以及替换更小的基础网络来实现结构层面的压缩,通过引入基于iou的置信度惩罚来实现软化的非极大值抑制,对于密集目标的检测场景有一定正面影响。进一步的,步骤s2包括以下子步骤:在特征图上设置预设框作为先验框,所述先验框采用正方形;卷积预测器基于先验框给出人脸目标的置信度并回归人脸目标框的位置。本发明应用时,通用目标检测为了应对不同目标的不同形态,往往会设定多个不同长宽比的先验框,本发明认为在人脸检测中,只需要正方形作为先验框——尽管人脸并不一定都是正方形的,但通常是非常接近正方形形态的,因此一个正方形的先验就足以使神经网络收敛。先验框的种类少就意味着每次推断产生的候选框数量少,候选框数量少意味着需要处理的数据少,这是本发明比原始ssd更快的直接原因。进一步的,步骤s2还包括以下子步骤:根据目标在原图中的占比和特征所对应的感受野尺寸得出先验框尺寸;所述感受野尺寸以vgg作为基础特征提取器得出。本发明应用时,先验框的设置除了考虑长宽比之外,还需要考虑其尺寸。原始ssd仅仅根据经验设置先验框尺寸,取输入尺寸的0.2~0.95按比例分配到几个不同的卷积特征层上,本设计方案考虑从目标在原图中的占比和特征所对应的感受野大小两个方面入手。值得注意的是,除了前置摄像头等少数场景外,在大多数场景中,单个人脸目标面积在视频帧中的占比是非常小的,因此大可不必按照输入图片尺寸的0.95这样大的比例去设置先验框。另外,本发明使用了vgg作为基础特征提取器,可以计算出某一层卷积特征的感受野,即某一特征cell所对应的原图上的尺寸——我们可以根据这个尺寸来估算该层特征cell所能表示的人脸尺寸,然后将先验框设置为这个尺寸,有效提高了人脸检测效率。进一步的,还包括以下步骤:使用随机尺寸的正方形框在原始图像上截取训练数据;对截取后的图像进行缩放;当进行图像放大时,只保留原尺寸区域的内容,舍去超出原尺寸区域的部分;当进行图像缩小时,使用0值填充图像周围,保持原图的尺寸不变。本发明应用时,除了适合人脸检测的网络结构之外,本人脸检测方案还提出了一种更适应于人脸形态的数据扩充方法。yolo提出的随机裁剪(randomcrop)是最流行的检测数据扩充方法,这个方法是指用随机尺寸和长宽比在原始图片上截取矩形区域,保留包含目标(部分或者全部目标)的矩形图片作为送入网络的训练数据。这种方法能极大地增强数据集的多样性,但是考虑到送入网络的数据还要缩放到固定大小的正方形,这种方法也有很大的可能性会扭曲目标的形态——这种扭曲可能会增强网络在多种类型目标检测中的鲁棒性,但是对于单一类型目标反而可能产生更多的误检。为了更符合人脸的形态,本发明只使用随机尺寸的正方形框在原始图像上截取训练数据。另外,为了增加样本尺度的多样性,本发明也会对截取后的图像进行缩放——与传统的缩放不同,本发明所使用的缩放会保留原图的尺寸,而缩放属于原图的内容:放大的时候只保留原尺寸区域的内容,舍去超出原尺寸区域的部分;缩小的时候使用0值填充图像周围,保持原图的尺寸不变,通过这种方式能产生尺度(目标在图像中的占比)更多样的训练数据。进一步的,所述特征提取层采用tensorrt进行软件加速;步骤s3采用caffe进行训练。本发明应用时,tensorrt是nvidia推出的深度学习推理解决方案,相对于通用的训练框架例如caffe、tensorflow等,精简的tensorrt更适用于网络的部署。假设zface使用caffe进行训练,考虑到特征提取层可以由tensorrt进行软件加速,因此可以在推理运行时使用tensorrt+caffe的方式。本发明通过替换计算引擎、优化内存分配等工程上的手段可以极大地提升算法的运行速度并减小算法的资源消耗。本发明与现有技术相比,具有如下的优点和有益效果:1、本发明卷积神经网络压缩方法,在网络中使用混合精度推理,即一个完整的网络结构中,浮点卷积和异或卷积同时存在,选择权值集中度更高的层次进行二值压缩,保留权值较为分散的层次,从而使得网络的精度能够更大程度地保留;2、本发明人脸检测方法,通过减少vgg16中网络层的特征通道数以及替换更小的基础网络来实现结构层面的压缩,通过引入基于iou的置信度惩罚来实现软化的非极大值抑制,对于密集目标的检测场景有一定正面影响。附图说明此处所说明的附图用来提供对本发明实施例的进一步理解,构成本申请的一部分,并不构成对本发明实施例的限定。在附图中:图1为本发明实施例示意图;图2为本发明实施例示意图;图3为本发明实施例示意图;图4为本发明实施例示意图;图5为本发明实施例示意图;图6为本发明实施例示意图。具体实施方式为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为对本发明的限定。实施例1本发明卷积神经网络压缩方法,包括以下步骤:s1:对卷积神经网络结构中各卷积层的权值集中度进行统计;s2:将权值集中度超过阈值的网络进行二值化;s3:重新训练神经网络至收敛。本实施例实施时,如果对整个网络使用二值化卷积,会不可避免地造成精度损失。因此本发明提出混合精度压缩方案,考虑对网络结构中的卷积进行选择性地二值化,这样在一个完整的结构中浮点卷积和异或卷积并存。对神经网络结构中各卷积层的权值集中度进行统计,不同的层次,数值的相对分布也不同,可以用数值的方差来衡量这种集中度,数值方差越小,说明权重数值更集中;数值方差越大,说明权重数值波动大。因此,可以统计已训练好的浮点卷积网络的卷积层集中度,选择集中度大的网络进行二值化。本发明在网络中使用混合精度推理,即一个完整的网络结构中,浮点卷积和异或卷积同时存在,选择权值集中度更高的层次进行二值压缩,保留权值较为分散的层次,从而使得网络的精度能够更大程度地保留。不同的层次,数值的相对分布也不同,可以用数值的方差来衡量这种集中度,卷积层中第i层的权重集中度ci根据下式得到:式中,wi为该层卷积的权重向量;n为该卷积层权重的个数。定义c表示一个卷积层的数值集中度,w是该层卷积的权重向量,n是该卷积层权重的个数(权重向量的维度)。c越大,数值方差越小,说明权重数值更集中;c越小,数值方差越大,说明权重数值波动大。因此,可以统计已训练好的浮点卷积网络的卷积层集中度,选择集中度大的网络进行二值化。具体计算算法流程如下:net是一个已经训练好的浮点参数卷积神经,具有n层卷积层和浮点参数w,ci是第i层权值的集中度,k是指定压缩的层数,压缩后网络的近似参数为wb(包含缩方系数α和二值向量b)。1、统计net各卷积层的权值集中度ci2、对ci排序,选出topk,其对应的卷积层作为二值压缩的候选层;3、替换net中候选卷积层的浮点卷积单元为训练二值卷积单元(训练二值卷积单元包含一份浮点权重w和一份二值权重wb);4、重新训练神经网络net直到收敛;5、替换net中的训练二值卷积单元为推理二值单元(推理二值单元只做前向计算,仅包含一份二值权重wb)。步骤s2包括以下子步骤:所述对网络进行二值化包括对卷积核权值进行二值化和对卷积层输入特征的二值化。对一个卷积层而言,主要处理两类数据:卷积核的权值以及卷积层的输入特征。对卷积核权值进行二值化包括以下步骤:将卷积核权值中32-bit的信息用1-bit来表示;对用1-bit表示后的二值卷积使用异或运算和popcnt指令近似原本的卷积运算。对卷积层输入特征进行二值化包括以下步骤:将卷积层输入特征进行逐通道的归一化;将归一化后的卷积层输入特征用1-bit来表示;对用1-bit表示后的二值卷积使用异或运算和popcnt指令近似原本的卷积运算。对卷积层输入特征进行二值近似,如果只是单纯优化目标求解极值点,那依然无法完全摆脱浮点数的卷积运算,所以本发明中考虑再对卷积层的输入做一个特殊处理:逐通道的归一化(normalization),在输入特征图i中每个通道的特征图上分别做归一化,再完成卷积层输入的二值化;不过这里改变了输入特征的分布,因此必须重新训练整个网络才能减少精度的损失。在单个卷积层的运算中,完全使用异或卷积替代浮点卷积。早期二值压缩还需要保留一部分浮点卷积计算,用以求出输入数据的缩放系数。本发明的方案使用了一种逐通道的归一化方法,使得缩放系数近似为1,从而避免浮点卷积运算。卷积核权值的二值化通过下面算法实现:设w表示一个卷积层的权值,该卷积层卷积核大小为k×k,输入通道数为cin,输出通道数为cout,那么令wi表示w中第i个输出通道对应的权值组成的列向量,显然有考虑二值先验:令用带入式(1)得到求解αi,bi的优化目标:atb=n-2×popcnt(xor(a,b))(1)直接将j展开得到:因为所以在这里n显然是一个常数,代入公式(3)得到:与bi有关的只有第三项又因为αi∈r+,显然:将代回式(4),然后对αi求偏导,并令偏导等于0,可解得用相同的方法可以得到卷积层输入的二值近似。假设输入数据的第j个卷积窗口对应范围内的输入为ij∈rn,其中n=k×k×cin,令xj∈{-1,1}n,βj∈r+,考虑近似那么可以得到优化目标:s.t.xj∈{-1,1}n,βj∈r+解得极值点式(8)计算||ij||l1本质上是对卷积的输入层提前计算一个输出通道为1的卷积,如图1所示。很容易可以得出这个特殊中间卷积的卷积核大小为k×k,输入通道为cin,且卷积核中任意的参数都等于即如果用式(8)求解那依然无法完全摆脱浮点数的卷积运算。所以本发明中考虑再对卷积层的输入做一个特殊处理——逐通道的归一化(normalization)。在输入特征图i中每个通道的特征图上分别做归一化,使得||ij||l1≈n,则那么就可以只用式(9)的结果来完成卷积层输入的二值化——不过这里改变了输入特征的分布,因此必须重新训练整个网络才能减少精度的损失。得到二值卷积的量化方式后,就可以使用异或运算xnor和popcnt指令近似原本的卷积运算:i*w≈(sign(i)*sign(w))⊙α(10)式(10)中第一个*表示包含乘法和加法的浮点数卷积,第二个*表示由xnor和popcnt组成的卷积;⊙表示一种按位的乘法,把α的每一位,即每个输出通道的权值缩放系数乘到对应的特征图上。再加上输入数据的归一化层和sign函数,就构成了一个基本的二值化卷积层,如图2所示。实施例2本发明人脸检测方法,包括以下步骤:s1:由剪切后的vgg网络产生卷积特征;s2:在指定的特征层上使用卷积预测器预测人脸目标的置信度和人脸目标框的位置;s3:将每一层得到的结果集中到一起,通过置信度筛选、非极大值抑制得到预测结果。本实施例实施时,zfacepro总共使用了包括conv4_3、fc7、conv6_2、conv7_2、conv8_2、conv9_2在内六层卷积特征,分别对应了尺寸为63×63,32×32,16×16,8×8,6×6,4×4的特征。每一层特征都对应了一个独立的卷积预测器,这个卷积预测器由两个并行的卷积层构成,分别是输出通道数为2(人脸和非人脸)的目标分类卷积层和输出通道数等于4倍先验目标框(bbox)种类(对应先验目标框的两点坐标的偏移量)的坐标回归卷积层。本发明通过减少vgg16中网络层的特征通道数以及替换更小的基础网络来实现结构层面的压缩,通过引入基于iou的置信度惩罚来实现软化的非极大值抑制,对于密集目标的检测场景有一定正面影响,工作流程如图3所示,步骤s2包括以下子步骤:在特征图上设置预设框作为先验框,所述先验框采用正方形;卷积预测器基于先验框给出人脸目标的置信度并回归人脸目标框的位置。通用目标检测为了应对不同目标的不同形态,往往会设定多个不同长宽比的先验框,本发明认为在人脸检测中,只需要正方形作为先验框——尽管人脸并不一定都是正方形的,但通常是非常接近正方形形态的,因此一个正方形的先验就足以使神经网络收敛。先验框的种类少就意味着每次推断产生的候选框数量少,候选框数量少意味着需要处理的数据少,这是本发明比原始ssd更快的直接原因。步骤s2还包括以下子步骤:根据目标在原图中的占比和特征所对应的感受野尺寸得出先验框尺寸;所述感受野尺寸以vgg作为基础特征提取器得出。先验框的设置除了考虑长宽比之外,还需要考虑其尺寸。原始ssd仅仅根据经验设置先验框尺寸,取输入尺寸的0.2~0.95按比例分配到几个不同的卷积特征层上,本设计方案考虑从目标在原图中的占比和特征所对应的感受野大小两个方面入手。值得注意的是,除了前置摄像头等少数场景外,在大多数场景中,单个人脸目标面积在视频帧中的占比是非常小的,因此大可不必按照输入图片尺寸的0.95这样大的比例去设置先验框。另外,本发明使用了vgg作为基础特征提取器,可以计算出某一层卷积特征的感受野,即某一特征cell所对应的原图上的尺寸——我们可以根据这个尺寸来估算该层特征cell所能表示的人脸尺寸,然后将先验框设置为这个尺寸,有效提高了人脸检测效率,先验框设置如下表1所示:表1各卷积特征层的先验框设置特征层名先验框尺寸感受野尺寸conv4_33092fc7120416conv6_2150452conv7_2180516conv8_2210644conv9_2240772同样的设置另一种检测方式,如图4所示,基础特征提取层是一个有24层卷积并包含8个残差单元(residualblock)的神经网络。使用了conv3、conv4、conv5、conv6、conv7等5层卷积特征,这5层特征都是包含不同感受野特征线性叠加的残差单元输出,因此我们不能通过类似的分析得到符合目标占比及感受野大小的先验尺寸,所以这里的先验框设置同原始ssd一样。还包括以下步骤:使用随机尺寸的正方形框在原始图像上截取训练数据;对截取后的图像进行缩放;当进行图像放大时,只保留原尺寸区域的内容,舍去超出原尺寸区域的部分;当进行图像缩小时,使用0值填充图像周围,保持原图的尺寸不变。除了适合人脸检测的网络结构之外,本人脸检测方案还提出了一种在网络的训练过程中更适应于人脸形态的数据扩充方法,因为数据扩充是针对网络训练的,并不应用在实际检测时,但描述人脸检测方法都会指出训练和检测两部分的一些内容。在这里这样加指明数据扩充是训练时的。yolo提出的随机裁剪(randomcrop)是最流行的检测数据扩充方法,这个方法是指用随机尺寸和长宽比在原始图片上截取矩形区域,保留包含目标(部分或者全部目标)的矩形图片作为送入网络的训练数据。这种方法能极大地增强数据集的多样性,但是考虑到送入网络的数据还要缩放到固定大小的正方形,这种方法也有很大的可能性会扭曲目标的形态——这种扭曲可能会增强网络在多种类型目标检测中的鲁棒性,但是对于单一类型目标反而可能产生更多的误检。为了更符合人脸的形态,本发明只使用随机尺寸的正方形框在原始图像上截取训练数据。另外,为了增加样本尺度的多样性,本发明也会对截取后的图像进行缩放——与传统的缩放不同,本发明所使用的缩放会保留原图的尺寸,而缩放属于原图的内容:放大的时候只保留原尺寸区域的内容,舍去超出原尺寸区域的部分;缩小的时候使用0值填充图像周围,保持原图的尺寸不变,通过这种方式能产生尺度(目标在图像中的占比)更多样的训练数据,如图5所示。所述特征提取层采用tensorrt进行软件加速;步骤s3采用caffe进行训练。本发明应用时,tensorrt是nvidia推出的深度学习推理解决方案,相对于通用的训练框架例如caffe、tensorflow等,精简的tensorrt更适用于网络的部署。假设zface使用caffe进行训练,考虑到特征提取层可以由tensorrt进行软件加速,因此可以在推理运行时使用tensorrt+caffe的方式。本发明通过替换计算引擎、优化内存分配等工程上的手段可以极大地提升算法的运行速度并减小算法的资源消耗,图6展示了tensorrt和caffe的分工。以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1