计算机实现的方法、设备和计算机程序产品与流程

文档序号:33203394发布日期:2023-02-07 20:05阅读:49来源:国知局
计算机实现的方法、设备和计算机程序产品与流程

1.本公开的实施例总体涉及计算机领域,具体涉及计算机实现的方法、设备和计算机程序产品。


背景技术:

2.在人工智能领域中,计算机视觉、信息检索和语言处理等多种技术已经得到显著发现,并且具有广泛应用。在使用机器学习模型,例如神经网络模型来处理信息,诸如进行图像识别之前,通常会采用大规模的数据集来对该机器学习模型进行预训练。已经提出了各种方法来使用数据集训练机器学习模型,例如,可以使用具有标注信息的数据集来训练机器学习模型。然而,所获得的机器学习模型的准确性有待进一步提高。


技术实现要素:

3.本公开的实施例提供了计算机实现的方法、设备和计算机程序产品。
4.在本公开的第一方面,提供了一种计算机实现的方法。该方法包括基于由特征提取模型从输入样本所提取的一组样本特征,确定输入样本的置信度以及一组样本特征之间的相似程度;基于置信度、一组样本特征和输入样本的标注信息,确定第一损失,该第一损失与标注信息的质量有关;基于一组样本特征之间的相似程度,确定第二损失,该第二损失与一组样本特征的质量有关;以及基于第一损失和第二损失,训练特征提取模型。
5.在本公开的第二方面,提供了一种电子设备。该电子设备包括至少一个处理单元和至少一个存储器。至少一个存储器被耦合到至少一个处理单元并且存储用于由至少一个处理单元执行的指令。该指令当由至少一个处理单元执行时使得电子设备执行动作,该动作包括基于由特征提取模型从输入样本所提取的一组样本特征,确定输入样本的置信度以及一组样本特征之间的相似程度;基于置信度、一组样本特征和输入样本的标注信息,确定第一损失,该第一损失与标注信息的质量有关;基于一组样本特征之间的相似程度,确定第二损失,该第二损失与一组样本特征的质量有关;以及基于第一损失和第二损失,训练特征提取模型。
6.在本公开的第三方面,提供了一种计算机程序产品。该计算机程序产品被有形地存储在非瞬态计算机存储介质中并且包括机器可执行指令。该机器可执行指令在由设备执行时使该设备执行根据本公开的第一方面所描述的方法的任意步骤。
7.提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。
附图说明
8.通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,在本公开示例性实施例中,相同的参考标号通常代表相
同部件。
9.图1示出了根据本公开的一些实施例能够在其中实现的示例环境的示意性框图;
10.图2示出了根据本公开的一些实施例的计算机实现的示例方法的流程图;
11.图3示出了根据本公开的一些实施例的势能曲线的示意图;
12.图4示出了根据本公开的一些实施例的特征提取模型的示例训练过程;
13.图5示出了根据本公开的一些实施例的特征提取模型的示例输出结果与常规方案的输出结果的示意图;以及
14.图6示出了可以用来实施本公开内容的实施例的示例设备的示意性框图。
15.在各个附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
16.下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
17.在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
18.在本公开的实施例中,术语“模型”能够处理输入并且提供相应输出。以神经网络模型为例,其通常包括输入层、输出层以及在输入层与输出层之间的一个或多个隐藏层。在深度学习应用中使用的模型(也称为“深度学习模型”)通常包括许多隐藏层,从而延长网络的深度。神经网络模型的各个层按顺序相连以使得前一层的输出被用作后一层的输入,其中输入层接收神经网络模型的输入,而输出层的输出作为神经网络模型的最终输出。神经网络模型的每个层包括一个或多个节点(也称为处理节点或神经元),每个节点处理来自上一层的输入。在本文中,术语“神经网络”、“模型”、“网络”和“神经网络模型”可互换使用。
19.如上所述,已经提出了一些方案来使用数据集来训练机器学习模型,例如特征提取模型。在一些常规方案中,通常使用带有标注信息的数据集来训练机器学习模型。例如,亚马逊(amazon)公司的mechanical turk数据集数据集中存储着所收集的数据的标注信息,该数据集可以被用来训练机器学习模型。然而,现有的数据集中常常存在一些错误标注(也成为噪声标注)的数据样本。这些噪声标注的数据样本往往会对模型的训练造成严重的影响,甚至会使经训练的模型输出与输入样本不匹配的输出特征值。
20.针对噪声标注的问题,已经提出了一些方案以尝试降低噪声标注对模型训练的影响。例如,使用监督学习或半监督学习利用标注翻新(refurbishment)、快速适应等多种复杂的算法来降低噪声标注的影响。然而,这些方案均无法很好地提高经训练的模型的准确度。此外,这些方案均涉及复杂的算法,需要大量的计算,并且需要较长的处理时间。
21.本公开的实施例提出了一种计算机实现的方法,以解决上述问题和/或其他潜在问题中的一个或多个。在该方案中,基于由特征提取模型从输入样本所提取的一组样本特
征,确定该组样本特征的相似程度以及该输入样本的置信度。该方案还包括至少基于置信度,确定与输入样本的标注信息的质量有关的第一损失,以及基于该组样本特征之间的相似程度,确定与该组样本特征的质量有关的第二损失。该方案还包括基于所确定的第一损失和第二损失,训练特征提取模型。
22.以此方式,能够在对特征提取模型的训练过程中考虑输入样本的置信度,进而避免因噪声标注的不可信样本而影响特征提取模型的训练结果。以这样,所获得的特征提取模型能够提供更准确的特征信息。
23.下面将参考附图来详细描述本公开的基本原理和若干示例实施例。
24.图1示出了根据本公开的一些实施例的用于训练特征提取模型的环境100的示意图。应当理解,图1示出的实体、元素和模块的数目和布置仅是示例,环境100中可以包括不同数目和不同布置方式的实体、元素和模块。
25.在图1的环境100中,计算系统120基于输入样本110来对特征提取模型130进行训练。在本文中,输入样本110可以是图像、音频、视频、文本等多种类型的输入样本。输入样本110可以是具有标注信息的样本。特征提取模型130可以使用未经训练或经训练的基于机器学习的模型,例如未经训练的或经训练的神经网络模型等。
26.应当理解,特征提取模型130可以使用其他的机器学习模型。特征提取模型130可以被应用于各种领域。例如,在机器视觉领域中,特征提取模型130可以被用于提取图像的特征信息。在信息检索领域中,特征提取模型130可以被用于提取文本的特征信息等。
27.如图1所示,在一些实施例中,特征提取模型130基于输入样本110,输出一组样本特征140。例如,如果输入样本110是图像,则一组样本特征140可以是该图像的特征信息。一组样本特征140可以以向量的形式表示,也可以采用其他形式的数据形式表示。应当理解,在一些实施例中,特征提取模型130也可以输出针对输入样本110的多于一组的样本特征140,每组样本特征140具有一定的相似的特征。例如,所输出的各组样本特征140可以分别具有不同的颜色特征。
28.一组样本特征140可以被提供给分类器150。此外,该输入样本110的标注信息也可以被提供给分类器(图中未示出)。分类器150可以确定输入样本110的置信度以及一组样本特征140的相似程度。分类器150还可以基于输入样本110的置信度以及一组样本特征140的相似程度等信息,根据损失函数,确定损失160。通过将损失160返回给特征提取模型130,可以对特征提取模型130的参数进行调整,从而训练特征提取模型130。
29.以上结合图1描述了根据本公开的一些实施例的示例环境100。下面将参考图2来描述在根据本公开的一些实施例的用于训练特征提取模型130的方法200的流程图。方法200可以由图1的计算系统120实现。应当理解,方法200还可以被其他适当的设备或装置执行。方法200可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。为便于说明,将参考图1来描述方法200。
30.如图2所示,在210处,计算系统120基于由特征提取模型130从输入样本110所提取的一组样本特征140,确定输入样本110的置信度以及一组样本特征140之间的相似程度。例如,计算系统120可以通过计算一组样本特征140中的各个样本特征之间的欧氏距离的总和,来确定一组样本特征140的相似程度。例如,当欧式距离的总和超过某一阈值距离,则表示相似程度较低。与之相反,当欧式距离的总和未超过某一阈值距离,则表示相似程度较
高。
31.在一些实施例中,基于该相似程度,计算系统120可以确定输入样本110的置信度。例如,如果所确定的相似程度较高,则该输入样本110的置信度较高,反正则较低。
32.附加地或备选地,在一些实施例中,可以基于特征空间中的点与一组样本特征140之间的总相似程度,在该特征空间中确定一组样本特征140的聚合点。在确定了聚合点之后,进而可以确定一组样本特征140与聚合点之间的聚合相似程度。
33.例如,可以通过使用势能最小化(pem)算法,来确定一组样本特征140的聚合点。图3示出了根据本公开的一些实施例的势能曲线的示意图。如图3所示,在曲线310上,在320处的势能具有最小值。当势能具有最小值时,所对应的距离r0为最稳定的距离。图3的示例曲线可以使用式(1)来计算势能e(或称为e
p
)。
[0034][0035]
在式(1)中,e表示势能,r表示两个分子之间的距离。
[0036]
结合式(1),将势能应用于一组样本特征140,可以使用式(2)来计算一组样本特征140的相似程度。
[0037][0038]
在式(2)中,d
ij
表示一组样本特征140中的两个特征值,例如xi与xj之间的距离,例如欧氏距离。对于同一组样本特征140中的两个特征值,可以将式(2)中的λ设置为较大的值,例如1。对于多组样本特征的情形,可以在计算属于不同组样本特征的两个特征值之间的势能时,将λ设置为较小的值,例如0。应当理解,以上所描述的示例值0与1仅是示例性的,不以任何方式限制本公开。式(2)中的l
ptm
表示第二损失函数,将在下文结合图2更详细的描述第二损失函数。
[0039]
通过使用式(2)所示的势能计算公式,可以利用pem,在特征空间中确定一组样本特征140的聚合点c。该聚合点c能够使得与一组样本特征140之间的总势能最小。
[0040]
在确定了聚合点c之后,可以确定一组样本特征140与聚合点c之间的聚合相似程度(也成为距离)。在一些实施例中,可以具有多组样本特征以及多个聚合点。可以通过式(3)和式(4)来确定一组或多组样本特征140与一个或多个聚合点c之间的聚合相似程度。
[0041]dn,i
=exp(-||(x
n-ci)||2)
ꢀꢀꢀꢀꢀꢀ
(3)在式(3)中,xn表示输入样本n的特征,ci表示第i个聚合点。exp(
·
)表示指数函数,d
n,i
表示输入样本n与聚合点ci之间的距离(或称为聚合相似程度)。
[0042][0043]
可以将式(3)的距离d
n,i
转换为式(4)的距离d
n,i
。在式(4)中,cn表示所有聚合点的集合。n(...)表示高斯分布。
[0044]
在一些实施例中,可以基于聚合相似程度和相似程度阈值,来确定置信度。例如,当聚合相似程度(或距离)超过相似程度阈值,则置信度确定为较低。反之,当聚合相似程度
(或距离)未超过相似程度阈值,则置信度确定为较高。例如,可以将较低的置信度设置为0,并且将较高的置信度设置为1。应当理解,也可以将置信度设置为其他适当的数值。
[0045]
附加地或备选地,可以使用例如线性方程等根据聚合相似程度计算置信度,例如将距离(也成为聚合相似程度)为0的置信度设置为1,而将距离(也成为聚合相似程度)为相似程度阈值的置信度设置为0。通过设置这两点的置信度,其他距离(或聚合相似程度)所对应的置信度可以通过线性方程而被计算得出。
[0046]
附加地或备选地,在一些实施例中,分类器150可以是基于距离的分类器。例如,分类器150可以输出如式(3)或式(4)所确定的距离d
n,i
。分类器150还可以输出如上所描述的置信度。通过使用上述基于距离的分类器,该分类器是可解释的,结构简单,更容易实现。
[0047]
返回到图2,在220处,计算系统120基于置信度、一组样本特征140和输入样本110的标注信息,确定第一损失。第一损失与标注信息的质量有关。应当理解,与输入样本110相关联的标注信息可以是一个标注信息,也可以是一组标注信息。标注信息可以以向量的形式,或者以其他类似的数据表达形式。例如,可以采用交叉熵函数来确定第一损失,其中可以将置信度用作该交叉熵函数的权重。
[0048]
在230处,计算系统120基于一组样本特征140之间的相似程度,确定第二损失。第二损失与一组样本特征140的质量有关。例如,当一组样本特征140较集中,即相似程度高时,则表示一组样本特征140的质量较高。质量较高的一组样本特征140的第二损失较低。例如,可以通过计算一组样本特征140之间的总距离,来确定第二损失。又如,可以使用以上所描述的式(2)来确定第二损失。
[0049]
在240处,计算系统120基于第一损失和第二损失,训练特征提取模型130。例如,可以通过下式(5)来计算第一损失和第二损失的总损失(即损失160),并将损失160返回给特征提取模型130。
[0050][0051]
在式(5)中,t表示特征提取模型130所执行的迭代次数,l
(t)
表示第t次迭代的总损失,即损失160。表示输入样本n第t次迭代的权重,该权重可以由置信度来确定。xn表示输入样本n的所特提的特征向量,yn表示输入样本n的标注信息。l
clf
表示第一损失函数,其可以是例如均方误差等函数。b表示在第t次迭代中,所使用的一批次的样本总数,例如,可以选择32个输入样本作为一个批次进行处理。经加权的第一函数所得到的值即为第一损失。式(5)中的l
ptm
(c)即表示式(2)中详细描述的第二损失函数。
[0052]
在一些实施例中,式(5)中所示出的在第t次迭代时的输入样本n的权重可以由前次迭代,即第(t-1)次迭代中所确定的置信度来确定。例如,当前次迭代确定了输入样本n的置信度为低,则可以将第t次迭代时的输入样本n的权重设置为较低的值,例如设置为0.2。与之相比,当前次迭代确定了输入样本n的置信度为高,则可以将第t次迭代时的
输入样本n的权重没置为较高的值,例如设置为0.8。应当理解,以上所列举的权重值仅是示意性的,可以将权重设置为任何适当的数值。
[0053]
应当理解,当标注信息为错误标注信息或者噪声标注信息时,其根据式(5)中的第一损失函数计算得到的值可能较大。通过以上描述的对其采用较低的权重,可以使所得到的将加权的第一损失的值较低。通过这样,可以将错误标注信息或者噪声标注信息的损失值对特征提取模型130的训练的影响降低。
[0054]
在一些实施例中,在将损失160提供给特征提取模型130之后,可以对特征提取模型130的参数进行调整,从而训练特征提取模型130。例如,可以通过反向传播方法,来对特征提取模型130的参数进行调整。附加地或备选地,还可以利用损失160,来对分类器150的参数进行调整,进而训练分类器150。
[0055]
通过这样的方式,能够在损失160中考虑输入样本的置信度,并且将不可信的输入样本所对应的第一损失的权重降低。通过这样,可以将错误标注信息或者噪声标注信息的第一损失值对特征提取模型130的训练的影响降低。以这样的方式,能够更好地训练特征提取模型130。所获得的特征提取模型能够得出更准确的特征值。
[0056]
此外,本公开的实施例使用了基于距离的、可解释的分类器。模型结构简单,容易使用和优化。此外,该分类器运行所需的时间非常短,与特征提取模型130提取特征的时间相比可以忽略不记。本公开的训练特征提取模型的方案结构简单,易于控制,因此可以应用于不同的任务中。例如,可以将其应用于图像特征提取、文本特征提取、语言特征提取、视频特征提取等等方面。
[0057]
图4示出了根据本公开的一些实施例的示例过程400。如图4所式,计算系统120使用了带有噪声的样本集{z,y},其中z表示输入样本,y表示标注信息。特征提取模型f
θ
(即特征提取模型130)具有初始化的模型参数θ。损失函数具有初始化的权重w
(1)
。执行t次迭代过程来训练特征特权模型130。t可以设置为任何适当的整数值。在每次迭代中,选择一批次(数目为b,其可以被设置为任何适当的整数值)的输入样本进行处理。
[0058]
针对每个批次,由特征提取模型130提取特征x。由分类器150(也可以由计算系统120的其他设备或组件)根据式(3)计算距离d。根据前次迭代结果更新权重w
(t)
。基于w
(t)
计算加权的交叉熵损失,作为第一损失。根据式(2)计算第二损失。根据式(5)计算出第二损失和第二损失的和,作为损失160。基于损失160,使用反向传播,更新特征提取模型130的参数θ。
[0059]
通过图4所示的示例过程,能够在损失160中考虑输入样本的置信度,并且将不可信的输入样本所对应的第一损失的权重降低。通过这样,可以将错误标注信息或者噪声标注信息的第一损失值对特征提取模型130的训练的影响降低。以这样的方式,能够更好地训练特征提取模型130。所获得的特征提取模型能够得出更准确的特征值。
[0060]
图5示出了根据本公开的一些实施例的特征提取模型的示例输出结果与常规方案的输出结果的示意图。图5中的结果510为使用常规方案的利用带有噪声标注的数据集所得出的特征提取结果,而结果520为使用本公开的方案的利用带有噪声标注的数据集所得出的特征提取结果。通过比较结果510和结果520可以看出,使用本公开的方案所得到的特征提取结果能够更好地对不同特征进行分辨,所得出的结果更加集中。
[0061]
图5中的结果530为使用常规方案的利用无噪声标注的数据集所得出的特征提取
结果,而结果540为使用本公开的方案的利用无噪声标注的数据集所得出的特征提取结果。通过比较结果530和结果540可以看出,使用本公开的方案所得到的特征提取结果能够更好地对不同特征进行分辨,所得出的结果更加集中。
[0062]
表1示出了对于具有不同噪声比值的数据集,使用常规方案与本方案分别经过20代训练和200代训练,所得出的结果的准确度对比。从表1中可以看出,使用本方案所训练的特征提取模型能够得出更准确的特征提取结果。特别是对于经过更多代训练,例如200代训练之后,本方案的特征提取模型所得到的特征提取结果的准确度显著得提高了。
[0063]
表1准确度对比
[0064] 20代训练200代训练常规方案,噪声5%89.52%90.35%本方案,噪声5%85.01%89.31%常规方案,噪声25%84.00%78.14%本方案,噪声25%79.68%86.18%常规方案,噪声50%75.36%52.18%本方案,噪声50%65.08%77.11%
[0065]
图6示出了可以用来实施本公开内容的实施例的示例设备600的示意性框图。例如,如图1所示的计算系统120可以由设备600实施。如图6所示,设备600包括中央处理单元(cpu)601,其可以根据存储在只读存储器(rom)602中的计算机程序指令或者从存储单元608加载到随机访问存储器(ram)603中的计算机程序指令,来执行各种适当的动作和处理。在ram 603中,还可存储设备600操作所需的各种程序和数据。cpu 601、rom 602以及ram 603通过总线604彼此相连。输入/输出(i/o)接口605也连接至总线604。
[0066]
设备600中的多个部件连接至i/o接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。在一些实施例中,输入样本可以经由输入单元606而被输入到设备600。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
[0067]
上文所描述的各个过程和处理,例如方法200和/或过程400,可由处理单元601执行。例如,在一些实施例中,方法200和/或过程400可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由rom 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序被加载到ram 603并由cpu 601执行时,可以执行上文描述的方法200和/或过程400的一个或多个动作。
[0068]
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
[0069]
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是——但不限于——电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、静态随机存取存储器(sram)、便携式
压缩盘只读存储器(cd-rom)、数字多功能盘(dvd)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
[0070]
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
[0071]
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(isa)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如smalltalk、c++等,以及常规的过程式编程语言—诸如“c”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(fpga)或可编程逻辑阵列(pla),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
[0072]
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
[0073]
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
[0074]
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
[0075]
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代
表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0076]
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1