存储介质和数据处理方法与流程

文档序号:22242950发布日期:2020-09-15 19:58阅读:150来源:国知局
存储介质和数据处理方法与流程

本文讨论的实施方式涉及存储介质和数据处理方法。



背景技术:

在电路设计中,通过组合表示电路参数的设计变量来设置设计空间。设计变量用于描述目标函数,使得将优化问题公式化。在设计空间中,执行搜索处理,其搜索用于优化目标函数的最优解(全局解)。

然而,当设计变量之间存在相互作用时,作为设计空间中的目标函数的曲面的解空间是多模态的。在解空间中可能会存在多个峰和谷。在这种情况下,通过根据简单梯度方法的搜索处理,搜索结果容易陷入局部解而不是全局解。

因此,数学规划、元启发式算法、响应面方法等已经用于寻找全局解。元启发式算法包括模拟退火、遗传算法等。

关于电路设计,已知一种电路参数设计方法,该方法不仅考虑到所制造的产品电路的性能的变化,而且考虑到由于变化引起的损失的最小化(例如,参见日本公开特许公报第2000-293556号)。还已知一种信息处理设备,该信息处理设备利用递归神经网络和变分自动编码器(variationalautoencoder,vae)的组合来执行机器学习。作为相关技术,例如,公开了日本公开特许公报第2000-293556号和日本公开特许公报第2018-152004号。



技术实现要素:

在诸如数学规划、元启发式算法和响应面方法之类的常规方法中的共同特征是:通过在设计空间中设计搜索处理来减少寻找全局解的迭代次数。但是,由于通过使用设计变量来描述目标函数,因此解空间的结构得以维持,并且解空间中仍然存在多个峰和谷。因此,搜索全局解的时间可能不会减少。

上述问题不仅发生在电路设计中,而且还发生在针对各种分析目标的用于获取参数的全局解的搜索处理中。

根据实施方式的一个方面,提供了一种非暂态计算机可读存储介质,其存储有使计算机执行处理的程序,该处理包括:基于通过对使用变量的值的组合而生成的数据集进行学习处理而获取的并且对数据的维数进行压缩的压缩模型,获取压缩空间内的与通过使用变量的值的预定组合而生成的数据相对应的点;基于与通过使用预定组合而生成的数据相对应的点、所述空间内的与根据变量的值而改变的特性的目标值相对应的目标点以及所述空间内的针对变量中的预定变量的回归模型,获取预定变量的改变量;以及通过使用改变量来改变包括在预定组合中的预定变量的值。

发明的有益效果

根据实施方式,可以搜索对分析目标的特性有贡献的多个变量的值的适当组合。

附图说明

图1是数据处理设备的功能配置图;

图2是数据处理的流程图;

图3是数据处理设备的特定示例的功能配置图;

图4是示出电源电路的电路设计中的vae的图;

图5是示出在隐空间(latentspace)中绘制的图像的图;

图6是示出在vae上进行的学习处理的图;

图7a和图7b是示出斜坡函数和s形函数(sigmoidfunction)的图;

图8是学习处理的流程图;

图9是搜索处理的流程图;

图10是示出电源电路的图;

图11是示出电压波形的图像的图;

图12是示出针对电路参数的确定性的系数(acoefficientofdetermination)的图;以及

图13是信息处理设备的配置图。

具体实施方式

下文中,将参照附图详细描述实施方式。

图1示出了根据实施方式的数据处理设备的功能配置示例。图1中的数据处理设备101包括存储单元111和改变单元112。存储单元111存储压缩模型121,压缩模型121是通过对使用多个变量的值的组合而生成的数据集执行学习处理而获取的并且对数据的维数进行压缩。改变单元112通过使用压缩模型121执行数据处理。

图2是示出由图1中的数据处理设备101执行的数据处理的示例的流程图。首先,改变单元112基于压缩模型121获取压缩空间内的与通过使用多个变量的值的预定组合而生成的数据相对应的点(步骤201)。

接着,基于与通过使用预定组合而生成的数据相对应的点、压缩空间内的目标点以及压缩空间内的回归模型,改变单元112获取所述多个变量中的预定变量的改变量(步骤202)。压缩空间内的目标点是与根据所述多个变量的值而变化的特性的目标值相对应的点,并且压缩空间内的回归模型是针对预定变量的回归模型。

接着,改变单元112通过使用所获取的改变量来改变包括在预定组合中的预定变量的值(步骤203)。

利用图1中的数据处理设备101,可以有效地搜索对分析目标的特性有贡献的多个变量的值的适当组合。

图3示出了图1中的数据处理设备101的特定示例。图3中的数据处理设备301包括存储单元311、模拟器312、图像生成单元313、学习单元314、回归分析单元315、搜索单元316和输出单元317。存储单元311和搜索单元316分别对应于图1中的存储单元111和改变单元112。

数据处理设备301通过使用人工智能来执行用于使分析目标的参数优化的数据处理。例如,电路设计中的分析目标是电气电路、电子电路等,并且电路设计中的参数是电阻值、电容、电感等。

数据处理设备301还可以执行诸如结构分析、电磁场分析、流体分析和图像分析之类的数据处理。结构分析中的分析目标是建筑物、产品等,而电磁场分析中的分析目标是无线通信电路、天线等。流体分析中的分析目标是空气、水等,而图像分析中的分析目标是各种对象中的任何一个的图像。

存储单元311存储参数集321和初始参数329。参数集321和初始参数329包括表示分析目标的多个参数的变量的值。参数集321是用于学习处理的多个变量的值的多个组合的集合。初始参数329包括多个变量的指示用于搜索处理的初始值的值的组合。

在学习处理中,模拟器312通过使用参数集321对分析目标执行模拟以生成表示模拟结果的时间序列数据的集合(asetoftime-seriesdata)并将其存储在存储单元311中作为时间序列数据集322。

模拟器312生成与多个时间序列数据片相对应的分析目标的特性值的集合并将其存储在存储单元311中作为特性值集323。分析目标的特性根据多个参数的值而变化,并且使用包括在参数集321中的组合的模拟确定与组合相对应的特性值。例如,作为电源电路的电路设计的特性,可以使用电源电路的效率。

图像生成单元313生成表示包括在时间序列数据集322中的时间序列数据片的图像,并且将根据多个时间序列数据片生成的图像的集合存储在存储单元311中作为图像集324。图像集324对应于要学习的数据片的集合。

学习单元314对图像集324执行学习处理以生成变分自动编码器(vae)325并将其存储在存储单元311中。vae325对应于图1中的压缩模型121。

自动编码器(autoencoder,ae)是一种压缩模型,其通过使用神经网络来生成隐空间表示,该隐空间表示是由于输入数据的维数的压缩而具有减少的信息量的特性表示。隐空间表示压缩之后的低维数空间。vae是将概率分布应用于表示ae的隐空间的隐变量的压缩模型。

图4示出了电源电路的电路设计中的vae325的示例。图4中的vae325包括编码器401和解码器402并且根据输入图像411生成输出图像412。输入图像411表示通过对电源电路进行电路模拟而生成的在电源电路内的节点处的电压(电压波形)的时间序列数据。

基于具有平均值μ和分布σ的概率分布来计算隐变量z的值。编码器401将输入图像411转换为μ和σ,并且解码器402将基于μ和σ计算的z转换为输出图像412。

学习单元314通过使用采用参数集321作为用于训练的输入图像411而通过电路模拟生成的电压波形的图像来学习编码器401和解码器402的参数。

回归分析单元315通过使用图像集324和vae325来生成表示分析目标的参数的变量的回归模型326,并将回归模型326存储在存储单元311中。回归模型326的目标变量是表示分析目标的参数的变量,并且回归模型326的解释变量(explanatoryvariables)是表示vae325的隐空间的多个隐变量。

接着,回归分析单元315通过使用图像集324、vae325以及回归模型326来获取回归模型326的确定性的系数327,并将确定性的系数327存储在存储单元311中。确定性的系数327是表示回归模型326的可靠性的示例,并且回归模型326的可靠性随着确定性的系数327的增加而增加。

回归分析单元315获取与特性的目标值相对应的每个隐变量的目标平均值328,并将目标平均值328存储在存储单元311中。多个隐变量中的每个隐变量的目标平均值328表示隐空间内的目标点。

在学习处理中获取回归模型326、确定性的系数327和目标平均值328以及vae325,使得基于信息实现有效的搜索处理。

在搜索处理中,模拟器312通过使用初始参数329执行模拟来生成时间序列数据并且计算时间序列数据的特性值。图像生成单元313生成表示所生成的时间序列数据的图像。

搜索单元316通过使用vae325从通过使用初始参数329生成的图像中获取隐变量中的每一个的初始平均值。多个隐变量中的每一个的初始平均值表示隐空间内的搜索起始点。搜索单元316通过使用针对变量的回归模型326从初始平均值和目标平均值328获取变量中的每一个的改变量,并且通过使用改变量来改变包括在初始参数329中的变量的值。

例如,搜索单元316使用回归模型326从目标平均值328获取变量中的每一个的第一值并从初始平均值获取变量中的每一个的第二值,并且通过使用第一值与第二值之间的差以及确定性的系数327来获取改变量。因此,改变量反映了隐空间内的搜索起始点与目标点之间的差异以及回归模型326的可靠性。

接着,模拟器312通过使用变量的改变后的值执行模拟来生成时间序列数据并且计算时间序列数据的特性值。

如果计算出的特性值与目标值之差大于阈值,则图像生成单元313生成表示所生成的时间序列数据的图像。接着,搜索单元316通过使用vae325从生成的图像获取隐变量中的每一个的平均值。多个隐变量中的每一个的平均值表示隐空间内的当前搜索点。

搜索单元316通过使用针对变量的回归模型326从表示当前搜索点的平均值和目标平均值328获取变量中的每一个的改变量,并且通过使用改变量来进一步改变改变后的变量的值。在这种情况下,搜索单元316以与处理来自初始参数329的改变量相同的方式,通过使用表示当前搜索点的平均值而不是初始平均值来从改变后的值获取改变量。因此,改变量反映了隐空间内的当前搜索点与目标点之间的差异以及回归模型326的可靠性。

模拟器312、图像生成单元313和搜索单元316重复改变变量的值的处理,直到特性值与目标值之间的差变得低于阈值。当该差低于阈值时,搜索单元316将变量的值存储在存储单元311中作为适当参数330,并且输出单元317输出适当参数330。

例如,在数据处理是电路设计的情况下,数据处理设备301通过使用由适当参数330表示的电路参数来生成电气电路或电子电路的电路图。在数据处理是结构分析的情况下,数据处理设备301通过使用适当参数330生成建筑物、产品等的设计图。

在数据处理是电磁场分析的情况下,数据处理设备301通过使用适当参数330生成无线通信电路、天线等的设计图。在数据处理是流体分析的情况下,数据处理设备301通过使用适当参数330生成关于空气、水等的流动的分析结果。在数据处理是图像分析的情况下,数据处理设备301通过使用适当参数330生成关于目标的图像的分析结果。

图5示出了在图4中的vae325的隐空间中绘制的图像的示例。图5中的隐空间是二维平面,并且两个隐变量表示平面上的二维坐标。在该示例中,在由vae325生成的隐变量的值所指示的位置处绘制示出了电源电路内的节点处的电压波形的图像。

由于vae325的特性,彼此相似的电压波形被绘制在平面上彼此更靠近的位置处。对于绘制在相互靠近的位置处的电压波形,用于生成电压波形的电路参数也是类似的。因此,可以认为,在隐空间内沿特定方向排列的多个电压波形的电路参数沿该方向连续地(serially)改变。

通过使用vae325的特性来搜索隐空间内的隐变量的适当值,电路设计的优化问题中的目标函数的结构发生改变,并且可以减少搜索处理中的电路参数的改变次数。因此,可以快速且容易地优化电路参数。

接着,将更详细地描述由图3中的数据处理设备301执行的学习处理和搜索处理。下文中,分析目标的第i个参数(i=1至m)由变量p(i)表示。参数集321由以下表达式表示。

π={p1,p2,...,pk}(1)

pj=(pj(1),pj(2),...,pj(m))(2)

pj(j=1至k)是表示参数集π的第j个元素的向量,并且k表示参数集π的元素的数目。pj(i)(i=1至m)表示包括在向量pj中的变量p(i)的值,并且m表示分析目标的参数的数目。时间序列数据集322由以下表达式表示。

γ={ω1,ω2,...,ωk}(3)

ωj=(v1,v2,...,vo)(4)

va=(va(1),va(2),...,va(t))(5)

ωj表示时间序列数据集γ的第j个元素,并且o表示分析目标的焦点(focuspoints)的数目。在电路模拟的情况下,焦点对应于电路内的节点。在诸如结构分析和流体分析之类的有限元素方法的情况下,焦点对应于计算网格的节点。va(a=1至o)表示时间序列数据ωj中包括的第a个焦点的时间序列向量。va(b)(b=1至t)表示时间序列向量va的第b个元素(在时间b处),并且t表示时间序列向量va的维数。特性集323由以下表达式表示。

λ={η1,η2,...,ηk}(6)

ηj表示特性集λ的第j个元素(特性值)。图像集324由以下表达式表示。

ξ={x1,x2,...,xk}(7)

xj=(g1,g2,...,go)(8)

ga=(ra(1),ra(2),...,ra(u))(9)

xj表示图像集ξ的第j个元素,并且ga(a=1至o)表示xj中包括的第a个焦点的灰度图像。ra(c)(c=1至u)表示图像ga的第c个像素的像素值,并且u表示图像ga的维数(像素数)。下文中,图像g1至go可以统称为“图像xj”。

图6示出了在vae325上进行的学习处理。图6中的vae325包括编码器601和解码器602并根据输入图像x生成输出图像x'。输入图像x对应于表达式(8)中的图像xj。

编码器601具有概率分布q,并且解码器602具有概率分布r。编码器601和解码器602是通过使用分级神经网络来生成的并且包括作为参数的权重和偏差。

隐变量z等效于从平均值μ和分布∑的n维正态分布n(μ,∑)随机采样的n维向量,并且由以下表达式表示。

z=μ+∑1/2⊙ε=(z1,z2,...,zn)(10)

ε表示从n维标准正态分布n(0,i)随机采样的n维向量,并且⊙是两个向量的每个元素的乘积(哈达玛(hadamard)乘积)。zd(d=1至n)表示隐变量z的第d个元素。

编码器601将输入图像x转换为μ和σ,并且解码器602将通过由表达式(10)使用μ和σ计算的隐变量z转换为输出图像x'。输入图像x具有o×u维,并且隐变量z具有n维。因此,通过将输入图像x输入至编码器601,将o×u维数据压缩为n维数据。vae325的损失l由以下表达式表示。

l=dkl(q(z|x)||n(0,i))-e[logr(x|z)](11)

表达式(11)的右侧的第一项表示正则化损失,并且第二项表示重构损失。dkl(pa||pb)是用于测量概率分布pa与概率分布pb之间的差的标量并且被称为“kullback-leibler散度”。仅当pa与pb完全匹配时,kullback-leibler散度才等于零,否则等于正值。e[a]表示a的期望值。使用输入图像x与输出图像x'之间的平方和误差、交叉熵误差等作为重构损失的近似。

学习单元314针对表达式(7)中的图像集ξ来学习编码器601和解码器602的参数,使得表达式(11)中的损失l最小化。正则化损失的最小化使得彼此相似的图像能够转换为隐空间内彼此靠近的点。

通过使用表达式(7)中的图像集ξ和包括通过学习处理确定的参数的vae325,回归分析单元315对每个变量pi执行回归分析以生成回归模型326。首先,回归分析单元315将图像集ξ输入至编码器601并生成隐变量z的平均值的集合m。平均值的集合m由以下表达式表示。

m={μ1,μ2,...,μk}(12)

μj=(μj(1),μj(2),...,μj(n))(13)

μj是表示根据图像xj生成的隐变量z的平均值的n维向量,并且μj(d)(d=1至n)表示向量μj的第d个元素。接着,回归分析单元315针对每个变量p(i)生成如下的正规方程(normalequation)。

αi和βi(d)(i=1至m,d=1至n)是多元线性回归模型的参数。回归分析单元315通过最小二乘法求解正规方程以获取αi和βi(d)。由αi和βi(d)确定的n维隐空间内的回归超平面的方程由以下表达式表示。

yi(z1,z2,...,zn)=αi+βi(1)z1+βi(2)z2+...+βi(n)zn(15)

表达式(15)的回归超平面表示变量p(i)的回归模型326。接着,回归分析单元315通过使用表达式(7)的图像集ξ、vae325和表达式(15)的回归超平面来获取回归模型326的确定性的系数327。首先,通过使用表达式(15),回归分析单元315根据表达式(12)的平均值的集合m来计算pj(i)的估计值yj(i)(j=1至k)。

yj(i)=αi+βi(1)μj(1)+βi(2)μj(2)+...+βi(n)μj(n)(16)

回归分析单元315计算针对变量p(i)的回归模型326的确定性的系数ri2

pave(i)表示p1(i)至pk(i)的平均值。随着表达式(17)的ri2与1之间的距离减小,回归分析中的相对残差减小,这意味着回归模型326很好地适合于平均值的集合m。因此,随着ri2增加,回归模型326的可靠性增加。

存在ri2随着解释变量的数目的增加而增加的趋势。因此,为了通过改变隐空间的维数来比较ri2的值,优选地执行诸如使用具有调整的自由度的ri2的操作。

接着,回归分析单元315将表达式(6)的特性值集λ中包括的特性值ηj和平均值的集合m中包括的平均值μj相关联,选择与分析目标的特性的目标值ηt相对应的平均值μj,并且将平均值μj记录为目标平均值μt。

在搜索处理中,模拟器312通过使用p(1)至p(m)的当前值执行模拟来生成时间序列数据并且计算时间序列数据的特性值ηc。图像生成单元313生成表示所生成的时间序列数据的图像xc。

搜索单元316将图像xc输入至编码器601并生成隐变量z的平均值μc。接着,通过使用表达式(15),搜索单元316根据平均值μt计算p(i)的估计值yi(μt)并根据平均值μc计算p(i)的估计值yi(μc)。通过使用yi(μt)与yi(μc)之间的差δyi,搜索单元316通过以下表达式计算改变量δp(i)。

δp(i)=f(ri2)δyi(21)

δyi=yi(μt)-yi(μc)(22)

f(ri2)表示确定性的系数ri2的单调递增函数。在表达式(21)中,将δyi乘以f(ri2)以反映对δp(i)的多元线性回归(multiplelinearregression)的可能性。通过使用表达式(21)的δp(i),搜索单元316通过以下表达式将p(1)的当前值更新为p(m)。

p(i)=p(i)+δp(i)(23)

通过由表达式(23)更新变量p(i)的值,可以使分析目标的参数更接近实现目标值ηt的值。

模拟器312通过使用更新后的p(i)的值执行模拟来生成时间序列数据并且计算时间序列数据的特性值ηc。图像生成单元313生成表示所生成的时间序列数据的图像xc。因此,根据更新后的p(i)的值,更新特性值ηc和图像xc。搜索单元316重复p(i)的更新,直到更新后的特性值ηc与目标值ηt之间的差低于阈值。

例如,作为函数f(x),可以使用如以下表达式中的斜坡函数。

作为函数f(x),可以使用以下表达式中的s形函数。

表达式(24)和表达式(25)中的g表示增益,并且θ表示阈值。因为回归模型326的可靠性随着确定性的系数ri2的减小而减小,所以期望的是,当确定性的系数ri2低于预定值时不更新p(i)的值。因此,在表达式(24)和表达式(25)中,当x低于阈值θ时,函数f(x)的值被设置为0。具有与s形函数的特性类似的特性的其它函数也可以用作函数f(x)。

图7a和图7b示出了针对增益g的多个值的斜坡函数和s形函数。图7a示出了表达式(24)的斜坡函数的示例。在图7a的斜坡函数中,θ=0.3,并且示出了g=1.4、g=0.7和g=0.3三种函数类型。

图7b示出了表达式(25)的s形函数的示例。在图7b的s形函数中,θ=0.3,并且示出了g=5、g=2和g=0.5三种函数类型。

例如,在搜索处理的前半部分中,将大的值设置为增益g可以迅速地使p(i)的值更接近最优值的方向。另一方面,在搜索处理的后半部分中,将小的值设置为增益g可以逐渐使p(i)的值更接近最优值的方向。

图8是示出由图3中的数据处理设备301执行的学习处理的示例的流程图。首先,模拟器312生成参数集321(步骤801)并使用参数集321执行模拟使得生成时间序列数据集322和特性值集323(步骤802)。

接着,图像生成单元313根据时间序列数据集322生成图像集324(步骤803),并且学习单元314对图像集324执行学习处理以生成vae325(步骤804)。

接着,回归分析单元315将图像集324输入至vae325并生成隐变量z的平均值的集合(步骤805)。回归分析单元315通过使用平均值的集合来针对每个变量p(i)生成正规方程并求解该正规方程以获取隐空间内的回归超平面的方程,使得生成回归模型326(步骤806)。

接着,回归分析单元315通过使用图像集324、vae325以及回归模型326来获取回归模型326的确定性的系数327(步骤807)。

回归分析单元315将特性值集323中所包括的特性值与隐变量z的平均值的集合中所包括的平均值相关联(步骤808),并且获取与特性的目标值相对应的目标平均值328(步骤809)。

通过执行图8中的学习处理,针对参数集321中包括的p(1)至p(m)的值的每个组合生成时间序列数据,并且针对每个时间序列数据生成作为多维数据的图像。因此,可以使vae325对表现分析目标的随着时间的推移而改变的状态的图像进行学习。

图9是示出由图3中的数据处理设备301执行的搜索处理的示例的流程图。首先,数据处理设备301将初始参数329输入至模拟器312(步骤901)。模拟器312通过使用初始参数329中包括的p(1)至p(m)的值执行模拟来生成时间序列数据并计算该时间序列数据的特性值(步骤902)。

接着,搜索单元316将计算的特性值与目标值之间的差δη与阈值th进行比较(步骤903)。如果δη大于th(步骤903中为否),图像生成单元313生成表示所生成的时间序列数据的图像(步骤904)。

接着,搜索单元316通过使用vae325根据生成的图像获取隐变量z的平均值(步骤905)。搜索单元316通过使用隐变量z的平均值、回归模型326、确定性的系数327和目标平均值328来计算p(1)至p(m)的改变量(步骤906),并且通过使用改变量来更新p(1)至p(m)的值(步骤907)。

接着,数据处理设备301通过使用更新后的p(1)至p(m)的值来重复步骤902和后续步骤中的处理。如果δη等于或小于th(步骤903中为是),则搜索单元316记录p(1)至p(m)的当前值作为适当参数330,并且输出单元317输出适当参数330(步骤908)。

通过执行图9中的搜索处理,在将当前特性值与目标值之间的差δη与阈值th进行比较时,重复用于更新p(1)至p(m)的值的更新处理。从而,p(1)至p(m)的值肯定会更接近最优值。因为p(i)的m个值通过一个更新处理同时被更新,所以可以比在更新p(i)的值中的一个的情况下更短的时间段内获取适当参数330。

接着,参照图10至图12,将描述电源电路的电路设计中的学习处理的特定示例。

图10示出了分析目标的电源电路的示例。图10中的电源电路包括电阻器1001至1019、电容器1021至1023、寄生电感1031至1033和电感器1034。电源电路还包括9v电压源1041(vi)、二极管1042、集成电路1043、场效应晶体管(fet)1044和fet1045。电阻器1019表现为负载电阻rload。

表示电阻器1001至1018的电阻值的电路参数是:电阻器1001rp1、电阻器1002rp3、电阻器1003rsim3、电阻器1004rsim1、电阻器1005rsim2、电阻器1006rg1、电阻器1007rgs1、电阻器1008rg2、电阻器1009rgs2、电阻器1010rp2、电阻器1011rp4、电阻器1012rp5、电阻器1013rp6、电阻器1014rp7、电阻器1015rl1、电阻器1016rp10、电阻器1017rp9、电阻器1018rp11。

表示电容器1021至1023的电容的电路参数是:电容器1021c3、电容器1022c22、电容器1023c8。

表现寄生电感1031至1033和电感器1034的电感的电路参数是:寄生电感1031lp1、寄生电感1032lp2、寄生电感1033lp3、电感器1034lf1。

其中,12个电路参数lp1、lp2、lp3、rg1、rg2、rgs1、rgs2、rl1、rsim2、rsim3、c8被用作p(1)至p(12)。因此,m=12。图10中的电源电路内的节点n1至n9被用作焦点。因此,o=9。

图11示出了节点n1至n9处的电压波形的图像的示例。表达式(5)中的t是1313,并且图像中的每一个的大小是120×120。像素数等于14400个像素。因此,u=14400。

在学习处理中,基于p(1)至p(12)的值的36个组合,对组合中的每一个施加100个扰动。九个电流值被设置为电源电路的输出电流。从而,生成参数集∏。在一个扰动中,执行操作以在-5%至+5%之间随机地改变变量的值。在这种情况下,通过以下表达式计算参数集∏的元素的数目k。

k=36×100×9=32400(26)

对应于32400个组合中90%的29160个组合被用作学习处理中的训练数据,而对应于其余10%的3240个组合被用作验证数据。尽管对于vae325的配置和学习算法的选择存在任意性,但是在该特定示例中使用标准配置和学习算法。

在图6的vae325中,编码器601是4步骤卷积神经网络(cnn)和2步骤全连接层(fullyconnectedlayer,fc)的组合,并且解码器602是1步骤fc和2步骤cnn的组合。

批量大小(batchsize)是16,并且波次(epochs)的数目是100。nadam用作优化器。因此,o=9和u=14400的16个图像x被集体输入至编码器601。作为表达式(11)中的重构损失的近似,使用输入图像x与输出图像x'之间的交叉熵误差。

图12示出了针对12个电路参数的确定性的系数ri2,确定性的系数ri2是通过使用n=2、4、8、12、16、32、64的7个隐变量z来计算的。针对12个电路参数中的lp1、lp2、rg1、rg2和rl1的ri2的计算结果包括高于0.5的值。从针对电路参数的计算结果发现,可以在具有与分析目标的电路参数的数目(m=12)相当的维数(n)的隐空间中获取确定性的良好系数。

因此,由于生成的vae325具有与m个维度相当的隐空间,表达式(24)和(25)中的x可以等于或高于阈值θ,并且可以避免f(x)=0。因此,由于促进了在搜索处理中p(i)的更新,所以可以通过较少次数的更新来获取适当参数330。

图1中的数据处理设备101的配置和图3中的数据处理设备301的配置仅仅是示例,并且根据数据处理设备的使用或条件,可以省略或改变一些部件。例如,当在外部设备中执行学习处理时,在图3的数据处理设备301中可以省略学习单元314和回归分析单元315。当不需要对分析目标进行模拟时,可以省略模拟器312。当不需要输出适当参数330时,可以省略输出单元317。

图2、图8和图9的流程图中的每一个仅是示例,并且可以根据数据处理设备的配置或条件省略或修改处理中的一些部分。例如,当由外部设备执行学习处理时,可以省略图8中的学习处理。当不需要对分析目标执行模拟时,可以省略图8中的步骤802和图9中的步骤902中的处理。

在图9的搜索处理中,当通过一次更新处理更新p(i)值中的任一个时,在步骤906中计算p(i)的改变量,并且在步骤907中仅更新p(i)值。

图4和图6中示出的vae325仅是示例,并且编码器和解码器的配置可以根据数据处理设备的使用或条件而改变。压缩数据的维数的压缩模型121可以是除vae325以外的任何其他模型。

图5所示的隐空间仅是示例,并且隐空间的维数根据分析目标而改变。图7a和图7b中所示的函数f(x)仅仅是示例,并且任何其它单调递增函数可以用作函数f(x)。图10至图12中所示的学习处理仅仅是示例,并且分析目标根据数据处理设备的使用而改变。

表达式(1)至(26)中的每一个仅仅是示例,并且数据处理设备可以通过使用其它表达式来执行学习处理和搜索处理。例如,代替表达式(17)中的确定性的系数ri2,可以使用指示回归模型326的可靠性的另一指数来计算表达式(21)的δp(i)。代替表达式(24)中的斜坡函数和表达式(25)中的s形函数,可以使用任何其他单调递增函数作为函数f(x)。

图13示出了用作图1中的数据处理设备101和图3中的数据处理设备301的信息处理设备的配置示例。图13中的信息处理设备包括中央处理单元(cpu)1301、存储器1302、输入装置1303、输出装置1304、辅助存储装置1305、介质驱动装置1306和网络耦接装置1307。这些部件通过总线1308彼此耦接。

例如,存储器1302是诸如只读存储器(rom)、随机存取存储器(ram)、闪存之类的半导体存储器,并且存储用于处理的程序和数据。存储器1302可以用作图1中的存储单元111或图3中的存储单元311。

例如,通过使用存储器1302执行程序,cpu1301(处理器)作为图1中的改变单元112来进行操作。通过使用存储器1302执行程序,cpu1301还作为图3中的模拟器312、图像生成单元313、学习单元314、回归分析单元315和搜索单元316来进行操作。

输入装置1303是键盘、定点装置等,并且用于输入例如来自操作者或用户的指令或信息。输出装置1304例如是显示装置、打印机、扬声器等,并且用于将询问或指令和处理结果输出至操作者或用户。处理结果可以是适当参数330或者可以是电路图、设计图、分析结果等。输出装置1304可以用作图3中的输出单元317。

辅助存储装置1305是例如磁盘装置、光盘装置、磁光盘装置、磁带装置等。辅助存储装置1305可以是硬盘驱动器或闪存。信息处理设备可以使辅助存储装置1305存储程序和数据,并将程序和数据加载到存储器1302中以供使用。辅助存储装置1305可以用作图1中的存储单元111或图3中的存储单元311。

介质驱动装置1306驱动便携式记录介质1309并访问记录的内容。便携式记录介质1309是存储器装置、软盘、光盘、磁光盘等。便携式记录介质1309可以是光盘只读存储器(cd-rom)、数字多功能盘(dvd)、通用串行总线(usb)存储器等。操作者或用户可以使便携式记录介质1309存储程序和数据并将程序和数据加载到存储器1302中以供使用。

这样,存储用于处理的程序和数据的计算机可读记录介质是物理(非暂态)记录介质,例如存储器1302、辅助存储装置1305或便携式记录介质1309。

网络耦接装置1307是耦接至诸如局域网(lan)和广域网(wan)之类的通信网络的通信接口电路,并且执行数据转换以用于通信。信息处理设备可以通过网络耦接装置1307从外部装置接收程序和数据并将程序和数据加载至存储器1302中以供使用。网络耦接装置1307可以用作图3中的输出单元317。

信息处理设备可以不包括图13中的所有部件,并且还可以根据使用或条件省略一些部件。例如,当不需要与用户或操作者的接口时,可以省略输入装置1303和输出装置1304。在不使用便携式记录介质1309或通信网络的情况下,可以省略介质驱动装置1306或网络耦接装置1307。

虽然已经详细描述了所公开的实施方式及其优点,但是本领域技术人员可以在不脱离权利要求书的范围中明确阐述的实施方式的范围的情况下进行各种修改、添加和省略。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1