基于量子态振幅变换的量子卷积神经网络构建方法及系统

文档序号:33543181发布日期:2023-03-22 09:31阅读:23来源:国知局
基于量子态振幅变换的量子卷积神经网络构建方法及系统

1.本发明属于量子模型计算技术领域,特别涉及一种基于量子态振幅变换的量子卷积神经网络构建方法及系统。


背景技术:

2.量子机器学习库tensorflow quantum(tfq)可用于快速构建经典或量子数据的混合量子经典模型,支持高性能量子电路模拟器,其量子卷积神经网络模型,但存在以下问题:纯量子模型在实验中的训练时间长,难以收敛;构建模型的量子线路参数多、线路深度较深。由于目前仍处于嘈杂的中尺度量子(nisq)时代,量子神经网络的构建需要更少的量子成本,例如:符合预期的量子参数化线路的线路深度和参数数量。


技术实现要素:

3.本发明提供一种基于量子态振幅变换的量子卷积神经网络构建方法及系统,利用低深度量子电路即可实现量子卷积神经网络模型的构建,使构建的网络模型训练效率和收敛速度均能够得到较大提升,便于量子数据和经典数据分类处理中的应用。
4.按照本发明所提供的设计方案,提供一种基于量子态振幅变换的量子卷积神经网络构建方法,包含如下内容:
5.依据卷积神经网络中卷积层和池化层的局部连通性和参数共享属性,将卷积层和池化层的属性扩展到量子域,组建由量子卷积层、量子池化层和量子全连接层构成的量子卷积神经网络,其中,量子卷积层和量子池化层通过量子比特的酉变换来提取输入量子态的结构化特征,量子全连接层利用量子线路将结构化特征映射到对应标签空间;
6.依据量子位集群状态生成量子数据集,利用生成的量子数据集对量子卷积神经网络进行训练,并在训练过程中将模型输出和标签之间的均方误差作为测量量子比特以得到期望值的成本函数。
7.作为本发明中基于量子态振幅变换的量子卷积神经网络构建方法,进一步地,量子卷积神经网络由酉变换乘积来表示,其中,分别表示量子卷积层、量子池化层和量子全连接层的酉矩阵,其中,l≤log2n,n=2n,n∈n
*
,l表示第l层量子卷积层和池化层,n是模型中的量子位数。θ表示量子位绕布洛赫球体的y轴旋转的角度,表示网络模型输出。
8.作为本发明中基于量子态振幅变换的量子卷积神经网络构建方法,进一步地,量子卷积神经网络中的酉变换中,通过单量子位旋转门和双量子位受控非门的附加和/或重复操作来构建量子卷积神经网络中的酉变换运算过程。
9.作为本发明中基于量子态振幅变换的量子卷积神经网络构建方法,进一步地,量子卷积层通过两个量子比特的酉运算w
l
来提取输入数据特征,其中,酉运算过程表示为:uent
表示双量子位受控非门操作,u表示单量子位旋转门,n表示量子比特个数,θ表示量子位绕布洛赫球体的x轴旋转的角度。
10.作为本发明基于量子态振幅变换的量子卷积神经网络构建方法,进一步地,量子池化层通过两个量子比特的酉变换来完成特征的多量子比特到单量子比特的投影,其中,酉变换过程表示为:
11.作为本发明基于量子态振幅变换的量子卷积神经网络构建方法,进一步地,量子全连接层采用函数映射效果的量子线路结构,其中,x为卷积层池化层的最终输出,b为预设偏差值,w为通过调整旋转角度进行训练的参数。
12.作为本发明基于量子态振幅变换的量子卷积神经网络构建方法,进一步地,量子全连接层中,量子线路利用酉变换来进行输入输出映射,其中,n表示量子比特个数,cnot表示双量子位受控非门。
13.作为本发明基于量子态振幅变换的量子卷积神经网络构建方法,进一步地,量子卷积神经网络中的全连接层,通过测量相应量子线路中量子位来获取量子位期望值,并将期望值映射到分类标签。
14.作为本发明基于量子态振幅变换的量子卷积神经网络构建方法,进一步地,依据量子位集群状态生成量子数据集中,首先,对相邻量子位执行受控z门操作来生成量子位上正确集群状态;接着,将量子位绕布洛赫球体x轴旋转来模拟集群状态中的误差,生成量子位错误集群状态;然后,随机生成符合训练量大小的若干量子态。
15.进一步地,本发明还提供一种基于量子态振幅变换的量子卷积神经网络构建系统,包含:模型组建模块和模型训练模块,其中,
16.模型组建模块,用于依据卷积神经网络cnn中卷积层和池化层的局部连通性和参数共享特性,将卷积层和池化层的属性扩展到量子域,组建由量子卷积层、量子池化层和量子全连接层构成的量子卷积神经网络,其中,量子卷积层和量子池化层通过量子比特的酉变换来提取输入量子态的结构化特征,量子全连接层利用量子线路将结构化特征映射到对应标签空间;
17.模型训练模块,用于依据量子位集群状态生成量子数据集,利用生成的量子数据集对量子卷积神经网络进行训练,并在训练过程中将模型输出和标签之间的均方误差作为测量量子比特以得到期望值的成本函数。
18.本发明的有益效果:
19.本发明基于低深度量子电路来构建量子卷积神经网络atqcnn,通过网络中的量子卷积层、量子池化层与量子全连接层来实现量子态输入数据的提取和分类应用,提升纯量子卷积神经网络模型训练效率和收敛速度。并进一步通过实验结果验证,与google的qcnn模型相比,能够减少大约30%的参数数量,收敛更快更稳定,训练效率提升35%,证明了本案模型更具有优越性,减少量子成本开销,例如电路深度和参数数量,能够适用于处理量子数据与经典数据的分类问题,例如图像识别、量子态分类、恶意代码检测等,为量子计算机在nisq时代的应用提供可能。
附图说明:
20.图1为实施例中量子卷积神经网络构建流程示意;
21.图2为实施例中8-量子比特atqcnn模型架构示意;
22.图3为实施例中量子全连接层的线路结构示意;
23.图4为实施例中样本在训练和测试过程中的损失函数曲线、测试准确率和训练时间示意。
具体实施方式:
24.为使本发明的目的、技术方案和优点更加清楚、明白,下面结合附图和技术方案对本发明作进一步详细的说明。
25.本发明实施例,参见图1所示,提供一种基于量子态振幅变换的量子卷积神经网络构建方法,包含:
26.s101、依据卷积神经网络中卷积层和池化层的局部连通性和参数共享属性,将卷积层和池化层的属性扩展到量子域,组建由量子卷积层、量子池化层和量子全连接层构成的量子卷积神经网络,其中,量子卷积层和量子池化层通过量子比特的酉变换来提取输入量子态的结构化特征,量子全连接层利用量子线路将结构化特征映射到对应标签空间;
27.s102、依据量子位集群状态生成量子数据集,利用生成的量子数据集对量子卷积神经网络进行训练,并在训练过程中将模型输出和标签之间的均方误差作为测量量子比特以得到期望值的成本函数。
28.与其他神经网络不同,cnn由多个卷积层和池化层组成。这两个独特的层具有局部连通性和参数共享的特性,允许cnn以相对较少的参数提取结构化特征。在卷积层中,每个神经元只连接到输入神经元的一部分,这种局部连接确保了学习的滤波器可以对局部输入特征做出积极响应。神经元计算中使用的滤波器共享相同的深度,可以显着减少需要求解的参数。本案实施例中,将这些关键属性扩展到量子域,来构建量子卷积神经网络atqcnn模型。atqcnn的输入是量子态的数据,逐层提取特征后,通过对特定量子比特的量子测量得到期望值并计算损失函数;然后执行优化更新,直到学习到适当的参数,以便编码的量子态可以正确地映射到相应的标签。
29.如图2所示的8-量子比特atqcnn模型的框架,(a)为框架结构示意,由三个量子卷积、池化层和一个量子全连接层组成;(b)为量子卷积层和量子池层的量子线路,其中,w和v的下标表示酉变换作用于哪两个量子位。(c)分别为用于量子卷积层和量子池层的双量子比特酉变换。模型可以写成酉变换的乘积:
[0030][0031]
其中分别是量子卷积层、量子池化层和量子全连接层的酉矩阵。具体来说,如果输入量子态为|q0q1...qk》,在进行一次卷积池化操作后,量子比特数减半:
[0032][0033]
进行l次卷积池化操作后:其中,
k为奇数。
[0034]
作为优选实施例,进一步地,量子卷积神经网络中的酉变换中,通过单量子位旋转门和双量子位受控非门的附加和/或重复操作来构建量子卷积神经网络中的酉变换运算过程。
[0035]
量子卷积层和量子池化层的酉变换可通过在{ry,cnot}中附加和重复来构建的。ry是一个单量子位旋转门(围绕bloch球体的y轴旋转),而cnot是一个双量子位受控非门。执行ry门操作后,只有量子态的振幅发生变化。因此,最初需要探索整个布洛赫球以获得解向量,但现在只需要探索围绕y轴的表面。此外,使用cnot门构建量子比特之间的纠缠关系。具有高度纠缠态的低深度电路在捕获量子数据和数据分类之间的关系方面具有潜在优势。
[0036]
卷积层的主要目的是从输入数据中提取特征,而量子卷积具有增强映射的优势。图2中的(b)显示了量子卷积层是通过使用两个量子比特的酉运算w
l
实现的,其中l表示第l个量子卷积层,可以写成酉变换的乘积:
[0037][0038]
其中,u
ent
=cnot,这个幺正运算作用于相邻的量子比特,并且一层中所有应用的幺正运算具有相同的参数,这反映了与经典cnn相同的两个特征局部连通性和参数共享。虚线框会重复多次以增加该层的深度,从而增加参数的数量。
[0039]
量子池化层通过使用两个量子比特的酉变换v
l
来实现的,其中l表示第l个量子池化层,可以写成酉变换的乘积:
[0040][0041]
它允许将信息从两个量子比特投影到单个量子比特,以达到降低特征图维数的效果。如图2(c)所示,两个量子比特的幺正运算应用于m和m+k/2
l
,其中k是模型中包含的量子比特数,m是第m个量子比特。与量子卷积层相同,它在层内具有相同的参数。
[0042]
在卷积和池化层之后,数据的维数降低了。量子全连接层将剩余比特保留的特征信息映射到对应的样本标签空间。量子全连接层电路可如图3所示。基于经典全连接层的定义,利用可以实现函数效果的量子线路结构。输入x是最终卷积池化层的输出,b是设定的偏差值。w和b的参数训练是通过调整ry门的角度来完成的,其中输出测量的维度与输入x的维度相同。它可以写成酉变换的乘积:
[0043][0044]
其中,最后,对特定的量子位进行测量并将获得的预期值映射到分类标签。
[0045]
作为优选实施例,进一步地,依据量子位集群状态生成量子数据集及量子态中,首先,对相邻量子位执行受控z门操作来生成量子位上正确集群状态;接着,将量子位绕布洛赫球体x轴旋转来模拟集群状态中的误差,生成量子位错误集群状态;然后,随机生成符合训练量大小的若干量子态。
[0046]
进一步地,基于上述的方法,本发明实施例还提供一种基于量子态振幅变换的量子卷积神经网络构建系统,包含:模型组建模块和模型训练模块,其中,
[0047]
模型组建模块,用于依据卷积神经网络cnn中卷积层和池化层的局部连通性和参数共享特性,将卷积层和池化层的属性扩展到量子域,组建由量子卷积层、量子池化层和量子全连接层构成的量子卷积神经网络,其中,量子卷积层和量子池化层通过量子比特的酉变换来提取输入量子态的结构化特征,量子全连接层利用量子线路将结构化特征映射到对应标签空间;
[0048]
模型训练模块,用于依据量子位集群状态生成量子数据集,利用生成的量子数据集对量子卷积神经网络进行训练,并在训练过程中将模型输出和标签之间的均方误差作为测量量子比特以得到期望值的成本函数。
[0049]
为验证本案方案有效性,下面结合试验数据并通过训练效率和准确性来评估本案实施例中构建的atqcnn模型的有效性:
[0050]
实验主要采用谷歌开发的tensorflow quantum框架。在具有inter
r core
tm i7-8700 cpu(3.2ghz)和32gb ram的pc上实施我们的实验。软件环境为windows 10系统中的python 3.6。实验内容为:辨别量子簇态是否被激发。
[0051]
量子数据集由8个量子位上正确和错误准备的集群状态的集合。首先,通过对相邻量子位执行cz门操作来生成正确的集群状态。其次,通过将量子位绕布洛赫球体的x轴旋转一定量0≤θ≤2π来模拟集群状态中的误差。被认为是激发并标记为1,否则为-1。随机生成400个量子态进行实验。
[0052]
对比atqcnn和谷歌的纯量子cnn。两个模型都是8-qubit层次结构,重复3次量子卷积和量子池化的应用。不同的是,与谷歌的纯量子cnn相比,atqcnn多了一个量子全连接层。google的纯量子cnn包含63个需要训练的参数,而atqcnn仅包含44个参数。最后,使用模型输出和标签之间的均方误差作为成本函数来测量最后一个量子比特的pauli-z期望。
[0053]
在相同的实验条件下,训练epochs设置为25,batch size设置为16,学习率为0.025。每个样本在训练和测试过程中的损失函数曲线、测试准确率和训练时间如图4所示,(a)为两个模型在训练和测试过程中的损失函数曲线;(b)为测试精度;(c)每轮epoch中每个样本的平均训练时间。
[0054]
根据实验结果,损失函数有明显的下降趋势,最终趋于稳定,在0.2左右收敛。atqcnn模型在训练过程中收敛速度更快,平均在第五个epoch达到收敛,准确率高达100%。google模型的单个样本在模拟处理器上的平均训练时间约为55ms,atqcnn模型可提升约40%,达到约35ms。得出结论,atqcnn模型收敛速度更快,训练时间更短,同时准确率也不逊色。这个结果有两个原因。一方面,atqcnn模型的参数比google的模型少了近三分之一。另一方面,google的量子线路路同时改变了量子态的相位和振幅。但是,atqcnn只改变振幅,减少了探索解集的空间,提高了训练效率,类似“空间换时间”,减少了量子成本开销,为量子计算机在nisq时代的应用提供了可能,可进一步研究以便充分发挥量子优势。
[0055]
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对步骤、数字表达式和数值并不限制本发明的范围。
[0056]
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说
明即可。
[0057]
结合本文中所公开的实施例描述的各实例的单元及方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已按照功能一般性地描述了各示例的组成及步骤。这些功能是以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域普通技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不认为超出本发明的范围。
[0058]
本领域普通技术人员可以理解上述方法中的全部或部分步骤可通过程序来指令相关硬件完成,所述程序可以存储于计算机可读存储介质中,如:只读存储器、磁盘或光盘等。可选地,上述实施例的全部或部分步骤也可以使用一个或多个集成电路来实现,相应地,上述实施例中的各模块/单元可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。本发明不限制于任何特定形式的硬件和软件的结合。
[0059]
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1