一种采用优化初始权重的量子神经网络压缩计算全息图的方法与流程

文档序号:16064329发布日期:2018-11-24 12:30阅读:462来源:国知局

本发明提供一种采用优化初始权重的量子神经网络压缩计算全息图的方法,具体涉及到计算全息图的压缩传输技术领域。

技术背景

计算全息图方法具有灵活、简单、方便等特点,避免了传统的光学全息复杂的光路系统和繁琐的制备过程,可以得到人为设计光学全息难以达到的效果。计算全息图上每一点的值皆为衍射波与参考光之间干涉的结果,涵盖了物体全部信息,每张全息图包含大量冗余的信息,这对信息的存储传输产生了较高的要求,也限制了计算全息图的发展。

张超[1]等人在“chaozhang,guanglinyangandhaiyanxie,"informationcompressionofcomputer-generatedhologramusingbpneuralnetwork,"inbiomedicalopticsand3-dimaging,osatechnicaldigest(cd)(opticalsocietyofamerica),paperjma2,2010.”中使用传统逆向(backpropagation,bp)神经网络进行数字全息图的压缩传输,验证了使用人工神经网络压缩传输全息信息的可行性。然而,由于传统bp神经网络具有在信息量大的情况下处理速度过慢、记忆容量有限等缺陷,这些缺陷限制了这种技术应用于数字全息图像压缩传输的效果与应用价值。刘梦佳[2]等人在“mengjialiu,guanglinyang,andhaiyanxie,"methodofcomputer-generatedhologramcompressionandtransmissionusingquantumback-propagationneuralnetwork."opticalengineering,vol.56,no.2,pp.023104-1-6,february2017.”中提供了一种量子逆向传播神经网络(qbp)[3-5]的数字全息压缩传输方法,实验发现相比于传统bp神经网络,利用qbp神经网络对计算全息图进行压缩传输能够使用更少的迭代训练次数完成压缩传输网络结构的训练,提高计算全息图的压缩传输速度,同时保证了图像的恢复质量。但其存在的问题是:量子bp神经网络为随机初始化,这会使网络初始权值与最优权值相差较远,网络依然需要较多的迭代次数才能收敛。



技术实现要素:

本发明提出了一种采用优化初始权重的量子神经网络压缩计算全息图的方法,可以有效地加快对计算全息图压缩传输的速度。

本发明的原理是:基于量子理论态叠加原理的量子bp神经网络具有比传统bp神经网络更快的并行处理速度和更强的存储数据的能力,在此基础上对计算全息图进行压缩可以获得较快的压缩速度。同时由于在菲涅耳离轴计算全息图压缩传输问题中,计算全息图皆为菲涅耳衍射与参考光干涉的结果,参考光的参数以及衍射过程中物体出射光波参数在整个过程保持不变,使得不同图像在全息平面生成的计算全息图存在较大的相似性,这保证了可以使用全息图训练集合预训练出有较好泛化能力的网络模型。由于预训练过程获得的优化初始网络权重有较好的泛化能力,且处于最优值附近,可以加速针对待压缩图像(不包含在全息图训练集合中)的二次训练中网络对数据的适应过程,从而提高二次训练的收敛速度,且网络只需要训练很少的次数即可提升图像压缩效果;同时由于预训练可以离线进行,从而极大缩少了计算全息图像的压缩时间。

本发明提供的技术方案是:

一种采用优化初始权重的量子神经网络压缩计算全息图的方法,具体步骤如下:

1)选择普通图像数据集进行归一化预处理,根据菲涅耳离轴全息原理生成菲涅耳离轴计算全息图训练集合;

2)利用量子神经元构建三层的量子bp神经网络,包含输入层、隐含层与输出层,同层神经元之间无连接,层与层之间各个量子神经元实现相互连接;

3)对步骤2)中构建的量子bp神经网络通过设置零均值的均匀分布对各网络参数进行初始化,将步骤1)制作完成的菲涅耳计算全息图训练集合中每一幅全息图像分割成多个非重叠且大小相同的像素块并转换为一维向量,作为步骤2)中构建的量子bp神经网络的输入进行预训练,获得预训练的网络模型,即优化的初始权重;

4)针对待压缩的计算全息图,在步骤3)获得的预训练网络模型上进行二次训练,直到网络输出误差满足设定值获得最终压缩网络,利用该网络对待压缩的计算全息图进行压缩传输与解压缩,再重构获得全息图。

进一步地,步骤1)所述的菲涅耳离轴计算全息图由式1和2计算:

式1中u0(x0,y0)为物体上的点的坐标,u(x,y)为全息平面位置的物光波前,d为物平面与全息平面之间的距离,λ为波长,k-2π/λ,f表示傅里叶变换,当参考光r(x,y)照射到全息平面并与物光波前产生干涉,在全息平面上形成的干涉条纹即为全息图h(x,y),当入射参考光与入射的物光波前存在一定的夹角时即为离轴参考光干涉,如式2所示:

式2中ur*包含了物光波的振幅与相位信息,u*r为孪生像部分,|u|2+|r|2为零级衍射亮斑,r*与u*分别为r与u的共轭项,利用上述原理离散化后将生成物体对应的菲涅耳离轴计算机全息图,将选择的普通图像数据集进行归一化等预处理后,利用上述方法制作成菲涅耳计算全息图数据集。

进一步地,步骤2)具体包括如下步骤:

21)搭建由一位相移门和两位受控非门组成的量子神经元的数学模型,在量子神经元模型中,存在着两种类型的参数形式,一种是对应于相移门相位的权值参数θ和阈值参数λ;另一种是对应于控制非门的翻转控制参数δ。

22)利用量子神经元构建一个三层的量子神经网络,包含输入层、隐含层与输出层,同层神经元之间无连接,层与层之间各个量子神经元实现相互连接,由于需要保证输入输出数据的一致性,即需要使用神经网络尝试学习一个y=f(x)的函数,所以网络的目标输出等于网络输入。而为了达到数据压缩的目的,隐含层的神经元个数小于输入层神经元的个数。

23)利用反向传播算法对步骤22)中构建的量子神经网络中的参数进行求解,当网络输出误差达到设定的值时停止网络训练。

进一步地,步骤3)具体包括如下步骤:

31)在预训练前利用零均值的较大方差(大于1/3)的零均值的均匀分布对各网络参数进行初始化,这样可以获得更快的预训练收敛速度。

32)将步骤1)制作完成的菲涅耳计算全息图训练集合中每一幅全息图像分割成多个非重叠且大小相同的像素块并转换为一维向量,作为步骤2)中构建的量子bp神经网络的输入进行预训练。针对不同的压缩比(由隐含层神经元个数控制)的神经网络,分别进行预训练获得网络模型,即不同压缩比下的优化初始权重,由于预训练可以离线进行,不同大小的全息图训练集合并不会影响图像的压缩时间。

步骤4)具体包括如下步骤:

41)使用自适应估计学习率来设置压缩网络中参数的更新方式,在训练的过程中使每个参数都有其自己的自适应学习率,本发明分析和比较了自适应次梯度方法(adagrad)和自适应矩估计方法(adam)自适应估计学习率来对压缩网络进行二次训练的效果。

42)将待压缩的计算全息图(不包含在步骤1)制作完成的全息图训练集合中)分割成多个非重叠且大小相同的像素块并转换为一维向量,在步骤3)获得的预训练网络模型上进行二次训练,直到网络输出误差满足设定值获得最终压缩网络,由于预训练过程获得的优化初始网络权重处于最优值附近,网络只需要训练很少的次数即可完成图像压缩网络的训练。

43)将待压缩计算全息图输入42)训练完成的图像压缩网络,网络隐含层的输出结果为图像压缩的结果,而网络输出层的输出为解压缩的结果。

进一步地,可以通过离轴参考光照射过程和菲涅尔衍射过程实现菲涅尔离轴全息图再现,通过与未压缩的全息图再现像来比较图像质量。

本发明提供一种采用优化初始权重的量子神经网络压缩计算机全息图的方法。本发明在量子bp神经网络压缩传输计算全息图的方案基础上,利用计算全息图训练集合预训练获取量子bp神经网络优化初始权重,通过设置预训练的参数随机初始化方差来加速预训练网络的收敛过程,再针对给定的全息压缩数据利用预训练获得的优化初始权重进行二次网络微调训练,同时在优化过程中动态调整网络学习速率以加速量子bp神经网络压缩传输过程。该方案在不改变原有量子bp神经网络的基础结构上能够使用更少的迭代次数完成压缩传输网络结构的训练,加快了量子bp神经网络对计算全息图的压缩速度并可以保证全息图再现像的质量。

与现有技术相比,本发明的有益效果是:

本发明在量子bp神经网络对计算全息图压缩传输的基础上通过在网络初始化、学习速率等方面的分析,提供了一个较为完善的加速改进的方法。本发明的优点主要体现在以下几方面:

(一)将基于量子bp神经网络对计算全息压缩的过程分解为预训练和二次训练两个过程。其中预训练过程利用全息图训练集合获得广泛的计算全息图的特征,为二次训练提供了一种有效的参数初始化的方式。再针对特定的全息压缩数据进行量子bp神经网络二次训练,可以有效减少网络的迭代次数。由于预训练过程可以离线进行,并不会增加传输过程的计算量;

(二)通过设置预训练过程中参数的随机初始化方差来加速预训练网络的收敛过程。

(三)在计算全息图的压缩过程中利用自适应矩估计的方法动态调整网络学习速率,进一步提高了量子bp神经网络训练的速度,并且可以保证全息图再现图像的质量。

附图说明

图1为利用预训练获得优化初始权重的量子神经网络压缩计算机全息图流程框图;

图2为量子神经元数学模型框图;

图3为网络预训练过程中(100epochs)不同的参数随机初始化方差对预训练过程误差的影响曲线图,网络输入层输出层神经元皆为64,图(a)隐含层神经元为32,图(b)隐含层神经元为16,图(c)隐含层神经元为8,图(d)隐含层神经元为4;

图4为网络预训练过程(100epochs)中,在α=1.8、学习速率为0.2下和在α=1.0、学习速率为0.2*1.8下进行网络参数随机初始化后网络的输出误差曲线图,网络输入层输出层神经元皆为64,图(a)隐含层神经元为32,图(b)隐含层神经元为16,图(c)隐含层神经元为8,图(d)隐含层神经元为4;

图5为实验所使用数据:(a)原始图像;(b)菲涅尔计算机制全息图;(c)全息图再现像;

图6为各方法对应的计算全息图与其再现像:(a)(b)直接随机初始化方案(random+gd)处理后的全息图和再现图像;(c)(d)本发明提出的方案(pre-trained+gd)处理后的全息图和再现图像;(e)(f)预训练加上adagrad优化方法(pre-trained+adagrad)处理后的全息图和再现图像;(g)(h)预训练加上adam优化方法(pre-trained+adam)处理后的全息图和再现图像。

实施实例

下面结合附图,通过实施实例进一步描述本发明,但不以任何方式限制本发明的范围。

本发明提供的采用优化初始权重的量子神经网络压缩计算全息图的方法的流程框图附图1所示。在本发明实施例中,本发明提供方法具体包括如下步骤:

1)利用菲涅耳衍射原理,将物体记录为菲涅耳离轴全息图;

物体(此处为图像)上每一个点u0(x0,y0)的光波通过近场区域的菲涅耳衍射到达全息平面,在全息平面叠加,可以获得物体在全息记录平面上的物光波前u(x,y):

式1中d为物平面与全息平面之间的距离,λ为波长,k=2π/λ,表示傅里叶变换。当参考光r(x,y)照射到全息平面并与物光波前产生干涉,在全息平面上形成的干涉条纹即为全息图h(x,y),当入射参考光与入射的物光波前存在一定的夹角时即为离轴参考光干涉,如式2所示:

式2中ur*包含了物光波的振幅与相位信息,u*r为孪生像部分,|u|2+|r|2为零级衍射亮斑,r*与u*分别为r与u的共轭项,利用上述原理离散化后可以生成物体对应的菲涅耳离轴计算机全息图。

2)构建量子bp神经网络模型;

本发明使用量子神经元搭建的量子神经网络模型进行计算全息图的压缩处理。

2.1量子神经元模型

量子神经元数学模型如附图2所示,它由一位相移门和两位受控非门组成的基本计算单元。设yl(l=1,2,...,l)为第l个输入到神经元的量子态xi=f(yi)(i=1,2,...,l)的相位,量子神经元模型可以写成如下的数学模型:

o=f(y)(式5)

式3、5中f(θ)=cosθ+isinθ。式4中g(x)为sigmoid函数,arg表示取数据的相位。在量子神经元模型中,存在着两种类型的参数形式,一种是对应于相移门相位的权值参数θ和阈值参数λ;另一种是对应于控制非门的翻转控制参数δ。

2.2构建基于量子神经元的量子bp神经网络

利用神经网络对图像进行压缩时,需要保证输入输出的一致性,即需要使用神经网络尝试学习一个y=f(x)的函数,所以设定目标等于输入。当隐层网络神经元的个数小于输入层神经元时,可以利用这种反向传播神经网络学习算法来进行图像压缩。结合量子比特神经元,可以构建量子神经网络模型来进行全息图像的压缩。

在量子神经元里,量子态可以表示为|ψ>=cosθ|0>+sinθ|1>,|0>的概率幅用复数函数的实部表示,|1>的概率幅用复数函数的虚部表示。量子态|1>相当于神经元的激活态,量子态|0>相当于神经元的抑制态,即任意一个神经元的量子态被定义为激活态和抑制态的叠加态。设定网络输出层神经元的最终输出为激活态|1>时的概率:

output=|im(o)|2(式6)

式6中im表示数据的虚部。设网络输入为tn(n=1,2,...,n),共p个输入图像块,则整个网络的误差函数定义为:

本发明使用三层网络,包含一个输入层、一个隐含层和一个输出层,同层神经元之间无连接,层与层之间各个量子神经元实现相互连接。将第一层输入层的神经元设置为原始待压缩全息图像,则第二层隐含层的神经元为全息图像压缩结果,第三层输出层的神经元为解压后的全息图像。利用反向传播算法对构建的量子神经网络进行求解,每次的参数(t+1时刻)更新量如式8-10所示:

式8-10中,η为学习速率。

3)对量子bp神经网络进行预训练,即获得优化的网络初始化结果;

基于神经网络的图像数据压缩方法中,通过设置隐含层神经元个数少于输入和输出层神经元个数来获得数据压缩效果。网络中输入层与隐含层构成了编码器,而隐含层与输出层构成了解码器,隐含层神经元输出的数据即为压缩数据。这种方法需要使用待压缩数据来进行网络的训练,使得网络泛化能力弱,重复可利用性不高。每次压缩不同的图像数据都需要从被随机初始化的网络开始,使用较多的迭代次数去训练网络再进行压缩,增加了压缩图像数据过程的计算量。而直接利用训练集图像训练获得的压缩网络模型在测试集上并不能获得很好的压缩效果[6],神经网络图像压缩系统具有压缩未训练图像的能力,但压缩性能低于使用训练图像时的能力,因为给定训练好的神经网络,无法保证在未经训练的测试集图像上达到同样的性能水平。为了权衡压缩速度与图像压缩效果,可以将量子神经网络对计算全息图像进行压缩的过程分为预训练和二次训练两个过程,如附图1所示。

预训练过程中,利用大量的训练集数据对设定的网络进行训练获得泛化的网络权值,这些网络权值能够被提取出来,再迁移到二次训练的神经网络中,即对二次训练过程的网络进行初始化。由于在菲涅耳离轴计算全息图压缩传输问题中,计算全息图皆为菲涅耳衍射与参考光干涉的结果,参考光的参数以及衍射过程中物体出射光波参数在整个过程保持不变,使得不同图像在全息平面生成的计算全息图存在较大的相似性,这保证了可以预训练出有较好泛化能力的网络模型。因此这种网络权值迁移方式可以有效初始化网络,保证在二次训练前网络已经处在最优解附近,初始化后的参数处于一个更好的基准位置,能够避开明显的局部最小值。

预训练给二次训练提供了一种参数初始化的方式[7],但在预训练过程之前,神经网络中权值矩阵和阈值的初始化仍然依靠经验和尝试。在普通bp神经网络中,为了使得网络中信息更好的流动,遵从每一层输出的方差应该尽量相等的准则,glorot与bengio[8]提出一种通过输入和输出神经元的数目来自动确定权值矩阵初始化的方法,称之为normalizedinitialization,可以有效地保证消息的传播。而针对由一位相移门和两位受控非门组成基本计算单元的量子神经网络,它区别于普通神经网络,由对应于相移门相位的权值参数θ和阈值参数λ以及对应于控制非门的翻转控制参数δ组成学习参数,同时网络中并不包含传统意义上的激活函数。网络参数与网络输入并不是简单的相乘而是通过门进行运算。这里设置对网络初始化的分布为

w=u[-α,α](式11)

式11中a为设置的均匀分布u的边界,则方差var-α2/3,通常的初始化方法是将α设置为1。由于参数值的初始化对精度的要求并不高,可以使用实验分析来获取初始化时权值方差的取值。由附图3可以发现当使用常用的初始化方式时(α=1,var=1/3),量子bp神经网络下降较为缓慢。当使用较小方差的均匀分布(如α=0.6,var=0.1200)初始化量子神经网络时,网络输出误差下降地更为缓慢。而使用较大初始化方差的均匀分布时(如α=1.4,var=0.6533),在不同的隐层神经元下皆可以有效地加速量子神经网络的收敛。

由于参数初始化分布是在w~u[-1,1]的均匀分布上乘以α因子获得的,而从式8-10中可以发现网络参数更新量也是在梯度的基础上乘以学习速率η得到的,这里简要分析两者之间的不同之处。附图4比较了在α=1.8、学习速率η=0.2下和在α=1.0、学习速率η=0.2*1.8下进行网络参数随机初始化后网络的输出误差。可以发现通过增大随机初始化方差可以获得比增大学习速率相当甚至更快的下降速度,即通过增加参数随机初始化时的方差可以达到增加学习速率类似的作用,但是增大网络中的学习速率易导致代价函数振荡,而设置较大的参数随机初始化方差只是改变了网络的初始状态,使网络一开始便处于一个不稳定的状态,这种不稳定的状态更利于后续的网络预训练。因此在本发明中,在预训练的过程中通过修改参数的随机初始化方差来对网络参数进行初始化,这样可以获得更快的预训练收敛速度。

4)针对待压缩的计算全息图(不包含在全息图训练集合中),在步骤3)获得的预训练网络模型上进行二次训练,直到网络输出误差满足设定值,获得最终压缩网络。利用该网络对待压缩的计算全息图进行压缩传输与解压缩,再重构获得全息图;

二次训练过程则是利用待压缩图像在经过预训练初始化后的网络上继续进行训练,此时需要网络尽可能地拟合输入数据而不是在一定程度上保证其泛化能力。由于预训练过程获得的优化初始网络权重有较好的泛化能力,且处于最优值附近,可以加速二次训练中网络对数据的适应过程,从而提高训练的收敛速度,网络只需要训练很少的次数即可提升图像压缩效果。由于预训练可以离线进行,从而极大较少了计算全息图像的压缩时间。

本发明包含对二次训练过程中网络训练的学习速率的分析与设置。学习速率是基于梯度的优化网络方法中超参数之一,它决定了参数的下降步长。本发明分析和比较了自适应次梯度方法[9](adagrad)和自适应矩估计方法[10](adam)自适应估计学习率来对压缩网络进行二次训练的效果。

5)对压缩后的重构全息图进行再现,与原始全息图再现图像比较,采用评价标准评判压缩算法质量。

为了测试本方案的压缩率与再现图像质量,采用峰值信噪比(psnr)衡量再现图像的质量。峰值信噪比(psnr)用于衡量丢失压缩编码后的图像重建质量,其计算方法为:

式12中mse代表均方误差,xpeak是图像的峰峰值。式13中m×n是再现图像的大小,f(i,j)是原始计算全息图的再现图像,f(i,j)是压缩后的计算全息图的再现图像。

本发明中设定量子神经网络的输入输出为64,隐含层神经元个数k取值在[14]变化。实验使用live1数据集[11]来进行预训练以获取压缩网络初始权重,使用lena图像进行基于量子bp神经网络的压缩传输,预训练过程使用的量子bp神经网络与压缩传输过程使用的神经网络一致。实验从live1数据集中随机选择图像集合(20幅)灰度化并归一化到[0,255]之间,将每一幅图像的大小调整为128×128并制成菲涅耳离轴计算全息图,把每一幅全息图划分为大小为8×8的不重叠训练样本,再转换为1×64的向量(每幅图1024个,1024×64),共20×1024×64的数据作为量子神经网络的输入,进行网络的预训练。实验相关的参数设置如表1所示。

表1制作菲涅耳离轴计算全息图的相关参数设置

预训练完成后获得的网络权值作为压缩网络权值的初值。附图5为原始lena图像的计算全息图及其再现像。图5(a)为原始lena图像(128×128像素);图5(b)为lena图像的计算全息图(256×256像素);图5(c)为lena图像的全息再现像。与预训练的训练数据处理方法相同,使用图4(b)中的数字全息图,经过归一化,划分为大小为8×8的不重叠训练样本,再转换为1×64的向量(共1024个,1024×64)作为量子神经网络的输入进行压缩。

文献2中的方案随机初始化量子神经网络后,直接使用上述数据利用梯度下降(gd)的方法进行网络训练(记为random+gd)。本发明的方案则是利用预训练的结果作为数据压缩网络的初值,在此基础上进行网络训练(记为pre-trained+gd)。

在实验中需要确定网络的最大截止误差来停止网络的训练过程,为避免不必要的计算时间消耗并保证网络基本收敛,设置如表2的网络最大截止误差。在不同的压缩比率和网络最大截止误差下确定的文献2的直接随机初始化方案(random+gd)和本发明提出的方案(pre-trained+gd)的最优学习速率如表2所示。

表2实验过程中网络最大截止误差与最优学习率设置

实验统计最优学习速率下达到最大截止误差时所需的迭代次数和再现像的质量。直接随机初始化方案中,由于文献2的随机初始化导致最终结果不稳定,这里使用多次平均来减小误差。同时,本发明比较了利用adagrad和adam优化方法在预训练的基础上进行数据压缩网络训练的结果。

表3不同压缩率下本发明方案再现图像psnr质量曲线图

表3比较了在相同的网络最大截止误差下,各方案在停止训练时网络的迭代次数和再现像的psnr。表中一个epoch表示所有输入数据经过了一个正向传递和一个反向传递。从表3中可以发现,使用本发明所述的方案需要极少的epochs,可以很好的适应新数据的网络压缩,并基本保证了压缩数据再现像的质量,而在预训练的基础上利用adagrad方法进一步加速迭代过程(pre-trained+adagrad)。图6(a)(b)为直接随机初始化方案(random+gd)处理后的全息图和再现图像;图6(c)(d)为本发明提出的方案(pre-trained+gd)处理后的全息图和再现图像;图6(e)(f)为预训练加上adagrad优化方法(pre-trained+adagrad)处理后的全息图和再现图像;图6(g)(h)为预训练加上adam优化方法(pre-trained+adam)处理后的全息图和再现图像。

表4、5、6、7比较了在相同迭代次数下各方案进行压缩全息图后再现像的质量。可以发现利用预训练获得优化初始权重的方案从一开始便可以获得较好的压缩像再现的质量,说明在此初值在最优解附近。而利用adam的优化方法在隐含层神经元为32、16、8的情况下皆有最好的再现像质量,因此在限制压缩计算全息图时间的情况下,利用adam的自适应学习率的方法可以获得更好的效果。

表4隐含层神经元为32时各方案在相同迭代次数下再现图像的psnr比较

表5隐含层神经元为16时各方案在相同迭代次数下再现图像的psnr比较

表6隐含层神经元为8时各方案在相同迭代次数下再现图像的psnr比较

表7隐含层神经元为4时各方案在相同迭代次数下再现图像的psnr比较

本发明提出了一种采用优化初始权重的量子神经网络压缩计算机全息图的方法,在此方案中,使用初始样本进行初始化模型的预训练,通过微调和改进训练学习率进一步提高编解码的效率。这表明了本方案在三维全息信息压缩传输中的应用前景。

需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换和修改都是可能的。因此,本发明不应局限于实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。

参考文献

1)guanglinyang,chaozhang,andhaiyanxie,"informationcompressionofcomputer-generatedhologramusingbpneuralnetwork,"indigitalholographyandthree-dimensionalimaging(opticalsocietyofamerica),paper.jma2,2010.

2)mengjialiu,guanglinyang,andhaiyanxie,"methodofcomputer-generatedhologramcompressionandtransmissionusingquantumback-propagationneuralnetwork,"opticalengineering,vol.56,no.2,pp.023104,2017.

3)noriakikouda,nobuyukimatsui,andharuhikonishimura,"imagecompressionbylayeredquantumneuralnetworks,"neuralprocessingletters,vol.16,no.1,pp.67-80,2002.

4)noriakikouda,nobuyukimatsui,andharuhikonishimura,"learningperformanceofneuronmodelbasedonquantumsuperposition,"inrobotandhumaninteractivecommunication,2000.ro-man2000.proceedings.9thieeeinternationalworkshopon(ieee),pp.112-117,2000.

5)noriakikouda,nobuyukimatsui,haruhikonishimura,andferdinandpeper,"qubitneuralnetworkanditslearningefficiency,"neuralcomputing&applications,vol.14,no.2,pp.114-121,2005.

6)omaimanaal-allaf,"improvingtheperformanceofbackpropagationneuralnetworkalgorithmforimagecompression/decompressionsystem,"journalofcomputerscience,vol.6,no.11,pp.1347-1354,2010.

7)周佳俊and欧智坚,"深层神经网络预训练的改进初始化方法,"电讯技术,vol.53,no.7,pp.895-898,2013.

8)xavierglorotandyoshuabengio,"understandingthedifficultyoftrainingdeepfeedforwardneuralnetworks,"inproceedingsofthethirteenthinternationalconferenceonartificialintelligenceandstatistics,pp.249-256,2010.

9)johnduchi,eladhazan,andyoramsinger,"adaptivesubgradientmethodsforonlinelearningandstochasticoptimization,"journalofmachinelearningresearch,vol.12,pp.2121-2159,2011.

10)diederikpkingmaandjimmyba,"adam:amethodforstochasticoptimization,"computerscience,2014.

11)hamidrahimsheikh,zhouwang,lawrencecormack,andalanc.bovik,"liveimagequalityassessmentdatabaserelease2",

http://live.ece.utexas.edu/research/quality,2005。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1