应用于面部表情识别的量子前馈神经网络构造方法与流程

文档序号:25880595发布日期:2021-07-16 18:32阅读:154来源:国知局
应用于面部表情识别的量子前馈神经网络构造方法与流程

1.本发明属于量子机器学习领域,尤其涉及量子神经网络领域,具体为一种量子前馈神经网络构造方法。


背景技术:

2.在近二十年间,机器学习快速崛起,已经成为大数据时代下的技术基石,而在量子信息科学领域,机器学习与量子计算技术的结合也受到越来越多研究者的关注。机器学习与量子计算相结合的一个主要思路是利用量子状态的叠加和量子算法的加速,来解决当前数据科学中数据量巨大,训练过程缓慢的困难,而量子神经网络是量子机器学习中研究得最早及最深入的一个子领域。
3.量子神经网络(quantum neural network,qnn)是将人工神经网络(artificial neural network,ann)与量子计算(quantum computation)的基本原理相结合的一种新颖计算模型,理论上量子神经网络相较于经典神经网络更加智能化,具有更有效的学习和泛化能力。相较于经典人工神经网络,一些量子神经网络都表现出更好的性能,但问题在于这些量子化方案都引入了非线性算符,非线性算符是否可以量子实现仍存在很大争议,所以如何构建更一般的量子神经网络并使其能够向深度学习领域迈进,这一直是一个难点问题。
4.在量子神经网络实际应用方面,世界各国学者已经提出了各种不同的量子神经网络模型应用于现实生活中的不同领域,并都展现出一定的优势。例如在计算机视觉领域,各种经典神经网络及其对应的深度模型占据着主导地位,而量子神经网络相较于经典神经网络在数据存储方面有着指数级的优势,同时在运算速率方面也有着平方级的提升,使得量子神经网络成为未来该领域的研究重点。


技术实现要素:

5.本发明旨在解决以上现有技术的问题。提出了一种应用于面部表情识别的量子前馈神经网络构造方法。本发明的技术方案如下:
6.一种应用于面部表情识别的量子前馈神经网络构造方法,其包括以下步骤:
7.1)、构造量子神经元模型:将输入与权重都编码至量子计算基态上,量子计算基态是指与经典比特0和1对应的量子比特状态,然后通过受控酉门将输入与权重量子态相互作用的结果写在系统状态的本征值的相位上,量子态是指描述量子系统所有量子比特所对应的状态,然后通过相位估计得出估计值作为神经元的输出;
8.2)、将已构造的量子神经元模型组建成单隐层的量子前馈神经网络,其输入层、输出层及中间隐层都由量子态表示,而输入层、输出层及中间隐层之间相应的连接权重则是由受控酉门的形式表示;
9.3)、将量子单隐层前馈神经网络向量子多隐层神经网络组建,与单隐层模型一样,量子多隐层前馈神经网络的每一层都由量子态表示,每层之间的连接权重也由受控酉门的
形式表示;
10.4)、将改进后的量子搜索算法作为量子前馈神经网络的学习算法,将所有权重值空间作为搜索空间,其中最优权重值参数作为搜索问题的解,然后通过量子搜索算法将这组最优参数搜索出来作为训练所得的结果,即在网络可调参数空间中,寻找一组最优参数使得神经网络输出的误差最小;将构造的量子前馈神经网络应用于面部表情识别任务中,可以将数据集作为输入到量子神经网络中,通过量子搜索算法不断迭代搜索得最优权重参数后,可从实际输入得到期望输出,从而得出面部表情识别结果。
11.进一步的,所述步骤1)量子神经元模型中,设输入向量为x=(x1;x2;

;x
n
),对应权重向量为w=(w1;w2;

;w
n
),都编码至计算基态上为:
[0012][0013]
其中|x>表示输入量子态,|w>表示权重量子态,表示张量积。然后权重向量的值将会作为参数写入受控幺正门该酉门作用可以写为其中|k>表示量子神经元模型中计数量子比特状态。在此引入神经元阈值量子态|θ>,并通过辅助量子比特|0>引入,则输入与权重相互作用的结果为:
[0014][0015]
为了简单起见,设变量最后通过量子相位估计算法可得
[0016][0017]
其中|k>表示量子神经元模型中计数量子比特状态,t为其包含得量子比特数,得估计值状态由此神经元的输出为
[0018]
进一步的,步骤2)量子单隐层前馈神经网络中,输入层的量子态表示为|x>=|x1x2…
x
m
>,中间隐层的量子态表示为|h>=|h1h2…
h
q
>,其中量子比特|h
p
>表示中间隐层第p个处理神经元n
p
所得输出,输入层量子态与中间隐层神经元之间的连接线为隐层神经元的权重向量量子态|w
p
>与输入量子态|x>的相互作用,则其相互作用可表示为受控幺正门作用于输入量子态上输出层的量子态表示为|y>=|y1y2…
y
n
>,而中间隐层量子态与输出层神经元之间的连线为输出层神经元的权重向量量子态|v
j
>与隐层值量子态|h>的相互作用,同理可表示为
[0019]
进一步的,所述步骤3)量子多隐层前馈神经网络中,其输入层量子态为|x>=|x1x2…
x
m
>,输出层量子态为|y>=|y1y2…
y
n
>,中间层含有多个隐层,假设中间第r隐层包含q个功能神经元,则该层量子态表示为隐层的权重向量量子态与该层输入量子态|h
r
‑1>的相互作用可表示为而中间隐层量子态|h
s
>与输出层神经元的权重向量量子态|v
j
>之间相互作用同理也可表示为
[0020]
进一步的,所述步骤4)改进量子搜索算法中,理想权重向量的量子态为|w
d
>,其对应的标签为|d>,而搜索空间中其他参数对应的权重向量对应的标签为|d

>,则初态其中n表示权重值搜索空间的元素数,g的两次反射作用在|ψ>上可以表示为
[0021][0022]
所以反复应用grover迭代,会把初态旋转得接近|d>,此时在计算基态上进行测量就会以很高得概率产生与|d>重叠的输出,即最优参数也就是理想得权重向量。
[0023]
进一步的,所述将构造的量子前馈神经网络应用于面部表情识别,得出面部表情识别结果,具体包括:
[0024]
进行面部表情识别任务,首先将该面部表情数据集进行预处理,目的是为了消除图形及光照等影响。然后提取特征向量作为量子前馈神经网络的输入向量,运用改进后的量子搜索算法作为该网络的学习算法,先将生成的随机权重值向量作为搜索空间,将能够使输入得到对应输出的权重值作为搜索问题的解,之后不断进行算法迭代得到权重值的最优参数组,使实际输入得到期望的输出,从而得到面部表情识别的结果。
[0025]
本发明的优点及有益效果如下:
[0026]
本发明提出了一种量子前馈神经网络构造方法,包括量子前馈神经网络模型及其学习算法。如权力要求1所述的构造方法步骤,先具体构造量子神经元模型,然后将该神经元模型向量子前馈神经网络组建,以及最后该网络将改进的量子搜索算法作为其学习算法。如权利要求2所述量子神经元模型,该模型满足经典神经元基本计算功能且严格遵守量子计算的基本原则,代表该神经元可以处理量子数据。如权利要求3所述的量子单隐层前馈神经网络,该网络的每个网络层都可由其对应的量子态表示,所以该网络模型也可利用量子计算的特性来提高其性能。如权利要求4所述的量子多隐层前馈神经网络,其利用量子叠加行表示多个数据来节约存储资源,并利用量子并行性提高数据处理速度,计算能力的提高也促使神经网络训练效率的提高,使得该量子神经网络模型相较于经典神经网络具有更高效的学习能力。如权利要求5所述的量子前馈神经网络学习算法,其由改进的量子搜索算法实现,该算法相较于经典搜索算法其本身就具有平方级加速的能力,所以作为该量子前馈神经网络的算法则会在神经网络的训练上更有优势。
附图说明
[0027]
图1是本发明提供优选实施例中量子神经元结构图;
[0028]
图2为本发明中量子单隐层前馈神经网络结构图;
[0029]
图3为本发明中量子多隐层前馈神经网络结构图。
具体实施方式
[0030]
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详
细地描述。所描述的实施例仅仅是本发明的一部分实施例。
[0031]
本发明解决上述技术问题的技术方案是:
[0032]
本发明结合人工神经元与量子计算,先构造了一种量子神经元模型如图1所示,这里将量子神经元内部结构用n表示,该模型既满足神经计算功能又严格遵守量子计算原则。设量子神经元n接收到的输入向量为x=(x1;x2;...;x
n
),x
i
∈{

1,1},而相应的权重向量为w=(w1;w2;...;w
n
),w
i
∈(

1,1),其中i=1,2,

,n,将输入向量x与权重向量w分别编码至量子计算基态上有
[0033][0034]
然后权重向量w的值将会作为参数写入受控幺正门中,其中指数中的k

w
i
表示计数量子比特寄存器状态值为k及权重量子态值为w
i
时,则幺正门u
k
(w
i
)应用到输入量子比特|x
i
>上,这里u
k
(w
i
)表示算子u(w
i
)的k次幂,而神经元阈值θ也将写入受控幺正门c
θ
(u)中通过辅助量子比特|0>引入。若此时暂时忽略量子神经元线路中计数量子寄存器的状态,则受控幺正门作用在输入量子比特上可写为通过上述输入与权重相互作用,可得结果
[0035][0036]
其中w
·
x表示向量w与x的内积运算,而是由输入及权重向量确定的变量值,由于后续对应于输出的估计值具有周期性,引入其目的是为了使结果能够落入一个稳定的区间。由此输入与权重相互作用结果写入了整个神经元状态的本征值的相位上,接下来应用逆量子傅里叶变换到计数量子比特寄存器(若含t个量子比特,其状态为),为了简单起见,设变量可得
[0037][0038]
若通过在量子计算基态下测量读出计数量子比特寄存器状态为|l>=|l1l2…
l
t
>,则可得估计值由此神经元的输出为若对应与经典感知机输出y∈{

1,1},则可设当|l1>=|0>时神经元输出|y>=|0>,当|l1>=|1>时神经元输出|y>=|1>。
[0039]
结合已有的量子神经元模型,则由此组成的单隐层前馈神经网络如图2所示,
[0040]
在量子单隐层前馈神经网络结构图左边为直接将量子神经元组建为神经网络的结构,由|x
i
>表示的是输入层接收到的第i个输入量子比特,i=1,2,

,m,n
p
表示中间隐层的第p个处理神经元,p=1,2,

,q,|y
j
>表示的是输出层处理后的得到的第j个输出量子
比特,j=1,2,

,n,其中输入层和隐层之间的连接线为第一层权重值与输入量子比特相互作用,可表示为受控幺正门作用于输入量子比特上而隐层与输出层之间的连线为下一层权重值与中间隐层值所得输出的量子比特相互作用,同理可表示为而图中右边为将输入、输出及中间隐层值表示为量子态形式的神经网络结构,输入层的量子态表示为|x>=|x1x2…
x
m
>,中间隐层的量子态表示为|h>=|h1h2…
h
q
>,其中量子比特|h
p
>表示中间隐层第p个处理神经元n
p
所得输出,输出层的量子态表示为|y>=|y1y2…
y
n
>,其中输入层量子态与中间隐层神经元之间的连接线为隐层神经元的权重向量量子态|w
p
>与输入量子态|x>的相互作用,可表示为受控幺正门作用于输入量子态上而中间隐层量子态与输出层神经元之间的连线为输出层神经元的权重向量量子态|v
j
>与隐层值量子态|h>的相互作用,同理可表示为图中这两种结构形式是等价的,而右边的量子态表示形式更能体现其量子特性。
[0041]
若增加单隐层前馈神经网络的中间隐层数目,由此可得多隐层前馈神经网络结构如图3所示,其中每一层相当于一个量子单隐层前馈神经网络,多隐层结构的中间隐层所包含的神经元数目表示形成了该数目维数的超平面,对该层的输入模式进行线性分类,而由于其多层组合最终可以实现对输入模式的较复杂的分类,可得量子多隐层前馈神经网络结构如图3所示。量子多隐层前馈神经网络结构图中,输入层、输出层及中间隐层值都以量子态的形式表示,输入层量子态为|x>=|x1x2…
x
m
>,输出层量子态为|y>=|y1y2…
y
n
>,中间含有多个隐层,第r层的量子态(假设该层包含q个功能神经元)表示为其中量子比特表示中间隐层第r层的第p个处理神经元所得输出,则该隐层的权重向量量子态与该层输入量子态|h
r
‑1>的相互作用可表示为而中间隐层最后第s层量子态|h
s
>与输出层神经元的权重向量量子态|v
j
>之间相互作用同理也可表示为
[0042]
前馈神经网络能够以任意精度逼近任意复杂的连续函数及平方可积函数,而其算法可看作一个参数寻优过程,即在参数空间中,寻找一组最优参数使得神经网络输出的误差最小。本文提出的量子前馈神经网络使用改进的量子搜索算法作为其学习算法,主要思想是在一个包含权重值的搜索空间中,搜索被标记的(这里被标记可以看作是从输入能够得到对应的期望输出)元素,而搜索出来的元素就是量子前馈神经网络对应的最优参数,这些最优参数便是神经元对应训练后的权重向量,所以量子前馈神经网络的学习算法可以看作是搜索最优参数算法。假设有n个元素的搜索空间w=(w0,w1,

,w
n
‑1),其中w
i
表示神经元可能的权重向量,i表示神经元权重向量对应的标签且有i=1,2,

,n,若搜索空间元素的数目n=2
n
,则标签信息可以存储在这n个量子比特中。这里搜索问题可以表示为搜索出来
的权重向量能否使输入得到期望的输出,那么识别函数f可以定义为:若标签i对应的权重向量能够得到搜索问题的解,也就是输入与其相互作用能够得到期望输出,即则f(i)=1;若标签i对应的权重向量不能得到搜索问题的解,即估计输出状态|y>不等于期望输出状态|d>,则f(i)=0。然后设有一个oracle可以识别搜索问题的解,识别的结果由oracle内部相应的量子比特给出,若将其内部量子比特状态初始化为(|0>

|1>)/2,则这些量子比特在计算过程中状态不会改变,所以在后续讨论的过程中可以忽略。这个oracle是一个幺正算子o,其作用可以表示为
[0043][0044]
其中|i>是一个指标寄存器,用于存储搜索空间对应元素的标签,即对应的权重向量的标签,这里oracle操作让搜索空间中最优权重向量的标签相位进行了翻转。由上述oracle的定义,量子前馈神经网络学习算法对应与量子搜索算法的grover迭代记作g,其作用表示为
[0045]
g=(2|ψ><ψ|

i)o
[0046]
其中i为单位幺正算子,而o代表oracle对应的幺正算子。
[0047]
若定义最优参数也就是理想权重向量的量子态为|w
d
>,其对应的标签为|d>,而搜索空间中其他参数对应的权重向量对应的标签为则初态|ψ>可以表示为
[0048][0049]
故系统初态属于|d>和|d

>张成的空间。上述运算o对|d>和|d

>定义的平面上向量|d

>进行一次反射,即o(a|d

>+b|d>)=a|d

>

b|d>,类似地,2|ψ><ψ|

i也执行了该平面|ψ>上的一次反射,两次反射的积是一个旋转。令g的两次反射作用在|ψ>上可以表示为
[0050][0051]
于是其旋转角实际为θ,由此连续应用g,则有
[0052][0053]
所以反复应用grover迭代,会把初态旋转得接近|d>,此时在计算基态上进行测量就会以很高得概率产生与|d>重叠得输出,即最优参数也就是理想得权重向量。
[0054]
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要
素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
[0055]
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1