一种数据处理方法、装置及计算机可读存储介质与流程

文档序号:17374685发布日期:2019-04-12 23:10阅读:226来源:国知局
一种数据处理方法、装置及计算机可读存储介质与流程

本发明涉及机器学习领域,尤其涉及一种数据处理方法、装置及计算机可读存储介质。



背景技术:

目前,随着人工智能技术的快速发展,机器学习有了广泛应用。深度学习是一种实现机器学习的技术,它是一种监督学习,即需要通过设置一些参数,比如学习速率,对识别模型进行训练。通常,深度学习算法工程师会根据自身经验,对学习速率的值动态调整,以对识别模型进行训练。

但上述方式需要深度学习算法工程师反复尝试,以调整学习速率,这样,对识别模型进行训练的迭代次数较多,训练周期较长,识别模型达到收敛的速度较慢。



技术实现要素:

有鉴于此,本发明实施例期望提供一种数据处理方法、装置及计算机可读存储介质,能够自适应调整学习速率以加快识别模型的收敛速度。

本发明实施例的技术方案是这样实现的:

本发明实施例提供一种数据处理方法,所述方法包括:

利用预设识别模型输出的预测数据,以及样本数据对应的标签数据,得到梯度数据;所述梯度数据表征所述预设数据与所述标签数据的差异的变化;所述预测数据是利用训练集中的样本数据,并基于所述预设识别模型得到的;所述标签数据用于表征所述样本数据的类别;

基于所述梯度数据,确定pid控制参数;

利用确定的pid控制参数,以及所述梯度数据,对所述预设识别模型的学习速率进行更新,以调整所述预设识别模型的收敛速度。

上述方案中,所述基于所述梯度数据,确定pid控制参数,包括:

利用所述梯度数据,基于梯度的平方运算,确定pid控制参数中的积分控制参数;

利用所述梯度数据,基于梯度的差值运算,确定pid控制参数中的微分控制参数。

上述方案中,所述利用确定的pid控制参数,以及所述梯度数据,对所述预设识别模型的学习速率进行更新,包括:

利用所述pid控制参数中比例放大控制参数、积分控制参数、微分控制参数,得到第四参数;

利用所述第四参数,对训练步长进行更新;

基于更新后的训练步长,以及所述梯度数据,对所述预设识别模型的学习速率进行更新。

上述方案中,所述利用所述pid控制参数中比例放大控制参数、积分控制参数、微分控制参数,得到第四参数,包括:

确定第一系数、第二系数;

计算所述第一系数与所述积分控制参数的数值的乘积,得到第一数值;

计算所述第二系数与所述微分控制参数的数值的乘积,得到第二数值;

计算所述第一数值、第二数值、比例放大控制参数的第三数值的数值之和,得到第四参数。

上述方案中,所述方法还包括:

判断所述梯度数据的数值是否等于预设阈值;

当确定所述梯度数据的数值等于预设阈值时,停止对所述预设识别模型的学习速率进行更新。

本发明实施例提供一种数据处理装置,所述装置包括:

梯度计算单元,利用预设识别模型输出的预测数据,以及样本数据对应的标签数据,得到梯度数据;所述梯度数据表征所述预设数据与所述标签数据的差异的变化;所述预测数据是利用训练集中的样本数据,并基于所述预设识别模型得到的;所述标签数据用于表征所述样本数据的类别;

确定单元,用于基于所述梯度数据,确定pid控制参数;

更新单元,利用确定的pid控制参数,以及所述梯度数据,对所述预设识别模型的学习速率进行更新,以调整所述预设识别模型的收敛速度。

上述方案中,所述确定单元,具体用于:

利用所述梯度数据,基于梯度的平方运算,确定pid控制参数中的积分控制参数;利用所述梯度数据,基于梯度的差值运算,确定pid控制参数中的微分控制参数。

上述方案中,所述更新单元,具体用于:

利用所述pid控制参数中比例放大控制参数、积分控制参数、微分控制参数,得到第四参数;利用所述第四参数,对训练步长进行更新;基于更新后的训练步长,以及所述梯度数据,对所述预设识别模型的学习速率进行更新。

上述方案中,所述更新单元,具体用于:

确定第一系数、第二系数;计算所述第一系数与所述积分控制参数的数值的乘积,得到第一数值;计算所述第二系数与所述微分控制参数的数值的乘积,得到第二数值;计算所述第一数值、第二数值、比例放大控制参数的第三数值的数值之和,得到第四参数。

本发明实施例提供一种计算机存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上面所述任一项所述数据处理方法的步骤。

本发明实施例提供的数据处理方法、装置及计算机可读存储介质,利用预设识别模型输出的预测数据,以及样本数据对应的标签数据,得到梯度数据;所述梯度数据表征所述预设数据与所述标签数据的差异程度;所述预测数据是利用训练集中的样本数据,并基于所述预设识别模型得到的;所述标签数据用于表征所述样本数据的类别;基于所述梯度数据,确定pid控制参数;利用确定的pid控制参数,以及所述梯度数据,对所述预设识别模型的学习速率进行更新,以调整所述预设识别模型的收敛速度。本发明实施例中,通过确定的pid控制参数、梯度数据,对所述预设识别模型的学习速率进行更新,换句话说,由于学习速率的变化受pid控制参数控制,因此所述预设识别模型的收敛速度也会随着学习速率的变化而变化,如此,提供预设识别模型的收敛效果。

附图说明

图1为相关技术中学习速率曲线的示意图;

图2为本发明实施例数据处理方法的实现流程示意图;

图3为本发明实施例基于pid控制参数调整学习速率的具体实现流程示意图;

图4为本发明实施例误差函数的曲线示意图;

图5为本发明实施例数据处理装置的组成结构示意图一;

图6为本发明实施例数据处理装置的组成结构示意图二。

具体实施方式

相关技术中,深度学习一种实现机器学习的技术,它是一种监督学习,即需要采用带有标注的样本数据,根据梯度下降的原理,采用反向传导算法进行优化训练。训练过程中需要设置一些参数,例如网络初始化参数、模型的学习速率(lr,learningrate)、训练样本的尺寸、下降优化函数及其相关参数等等。目前,深度算法工程师更为学习速率的优化,因为学习速率会直接影响神经网络模型收敛的好坏。

图1为相关技术中学习速率曲线的示意图,如图1所示,纵轴是需要优化的损失函数,也是误差函数,用loss表示,损失函数的数值可以用损失值表示;其中,损失值等于神经网络模型输出的预测值与目标值的差值;横轴是迭代步数,用epoch表示。从图1可看出,随着迭代步数的增加,loss函数的损失值会逐渐减小;非常高的学习速率会导致损失函数的损失值发散,如曲线1;非常低的学习速率会使得收敛速度非常缓慢,如曲线2;稍高的学习速率会使得网络陷入局部最优解,如曲线3。

其中,基于loss梯度的自适应下降算法,如rmspro算法,会依loss函数微分的变化对学习速率进行调整,所述loss函数微分的变化可以使用反比于梯度平方和的平方根实现,这样,从训练开始就积累梯度平方会导致学习速率过早的减小,如曲线3。通过控制理论的积分原理,可以防止神经网络模型的发散,但会导致学习速率下降得很慢,如曲线2。

基于此,本发明实施例中,利用预设识别模型输出的预测数据,以及样本数据对应的标签数据,得到梯度数据;所述梯度数据表征所述预设数据与所述标签数据的差异程度;所述预测数据是利用训练集中的样本数据,并基于所述预设识别模型得到的;所述标签数据用于表征所述样本数据的类别;基于所述梯度数据,确定pid控制参数;利用确定的pid控制参数,以及所述梯度数据,对所述预设识别模型的学习速率进行更新,以调整所述预设识别模型的收敛速度。

为了能够更加详尽地了解本发明实施例的特点与技术内容,下面结合附图对本发明实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本发明。

本发明实施例提供一种数据处理方法,如图2所示,所述方法包括:

步骤201:利用预设识别模型输出的预测数据,以及样本数据对应的标签数据,得到梯度数据。其中,所述梯度数据表征所述预设数据与所述标签数据的差异程度;所述预测数据是利用训练集中的样本数据,并基于所述预设识别模型得到的;所述标签数据用于表征所述样本数据的类别。所述预设识别模型可以为神经网络模型。

本发明实施例提供的数据处理方法可以应用在机器学习领域,具体可以是神经网络学习领域。

实际应用时,当样本数据为带有标签数据的样本数据时,可以通过监督式学习对所述预设识别模型进行训练,当样本数据为未带有标签数据的样本数据时,可以通过非监督学习对所述预设识别模型进行训练。

基于此,当所述训练集中的样本数据与标签数据对应时,这样,当所述预设识别模型得到预测数据后,可以利用所述样本数据对应的标签数据对所述预测数据进行修正,以通过监督式学习实现对所述预设识别模型的训练。

这里,在通过监督式学习实现对所述预设识别模型的训练时,可以通过梯度下降算法,基于学习速率以及误差函数的梯度,对所述预设识别模型的参数进行优化更新,以使所述预设识别模型的误差函数的值达到最小值。其中,误差函数用于表征预测数据与标签数据的不一致程度。

对所述预设识别模型的参数进行更新,可以用公式(1)表示,如下:

由公式(1)可知,误差函数的梯度,可以用公式(2)表示,如下:

其中,θ为所述预设识别模型的参数,i的取值范围为[1,m];θi+1为所述预设识别模型对于第i个样本数据的更新后的参数,θi表示所述预设识别模型对于第i个样本数据的更新前的参数;α为学习速率,也称为训练步长;hθ为误差函数,为误差函数的梯度。(x0(j),x1(j),...xm(j))表示第j个样本的样本数据总数为m+1个;yj表示第j个样本中的样本数据对应的标签数据;表示第j个样本中的第i个样本数据。

可看出,对所述预设识别模型的参数进行优化时,需要确定所述预设识别模型的误差函数的梯度。

基于此,当利用预设识别模型得到输出的预测数据后,可以基于所述预设数据以及样本数据对应的标签数据,得到表征所述预设数据与所述标签数据的差异变化的梯度数据。

步骤202:基于所述梯度数据,确定pid控制参数。

根据公式(2)可知,在对所述预设识别模型的参数进行优化时,还需要确定学习速率。其中,学习速率表示所述预设识别模型的参数更新的幅度大小。考虑到非常大的学习速率会导致所述预设识别模型的误差函数的值发散;非常小的学习速率会导致所述预设识别模型达到收敛的速度较慢;稍微高的学习速率会导致所述预设识别模型仅在一部分样本数据上实现收敛,因此,需要对学习速率进行控制。

基于此,可以通过控制理论中的pid控制对学习速率进行更新,以提高所述预设识别模型的收敛速度,减小迭代次数。具体地,需要确定比例放大控制参数,以便通过比例放大参数,控制所述预测数据的预测值与所述标签数据的标签值的差值大小;需要确定积分控制参数,以便通过积分控制参数,增加收敛过程的鲁棒性;需要确定微分控制参数,以便通过微分控制参数,提高所述预设识别模式的收敛速度。

基于此,在一实施例中,所述基于所述梯度数据,确定pid控制参数,包括:利用所述梯度数据,基于梯度的平方运算,确定pid控制参数中的积分控制参数;利用所述梯度数据,基于梯度的差值运算,确定pid控制参数中的微分控制参数。

其中,所述pid控制参数中的比例放大控制参数可以为一个常数,并可以根据实际经验进行设置。

步骤203:利用确定的pid控制参数,以及所述梯度数据,对所述预设识别模型的学习速率进行更新,以调整所述预设识别模型的收敛速度。

这里,在确定pid控制参数之后,可以通过pid控制参数对所述预设识别模型的学习速率进行更新,以在迭代过程中控制学习速率的变化,使得学习速率不会太大,也不会太小。

基于此,在一实施例中,所述利用确定的pid控制参数,以及所述梯度数据,对所述预设识别模型的学习速率进行更新,包括:利用所述pid控制参数中比例放大控制参数、积分控制参数、微分控制参数,得到第四参数;利用所述第四参数,对训练步长进行更新;基于更新后的训练步长,以及所述梯度数据,对所述预设识别模型的学习速率进行更新。

其中,学习速率可以表征所述预设识别模型的参数的更新幅度,如果更新后的学习速率较大,则所述预设识别模型的更新后的参数的幅值较小,所述预设识别模型输出的预测数据的预测值与标签数据的标签值的差值越小;如果更新后的学习速率较小,则所述预设识别模型的更新后的参数的幅值较大,所述预设识别模型输出的预测数据的预测值与标签数据的标签值的差值越大。

基于此,为了保证所述预设识别模型的收敛速度不是太快,也不是太慢,可以通过pid控制参数对学习速率进行更新。通过pid控制参数中的比例放大控制参数,可以保证在开始迭代时所述预设识别模型的参数的更新幅度不会太大,随着迭代步数的增加,所述误差函数的数值不会下降太快,如此,可使学习速率曲线在开始迭代时有个好的收敛效果。随着迭代次数的增加,通过pid控制参数中的微分控制参数,可以使所述预设识别模型的收敛速度加快。通过pid控制参数中的积分控制参数,可以保证在加快收敛速度的同时减小收敛过程中的振荡,增强稳定性。

对于学习速率的更新,可以用公式(3)表示,如下:

其中,αk表示在第k次迭代时的学习速率,k表示比例放大控制参数

实际应用时,如果pid控制参数中的微分控制参数的值太大,则会使所述预设识别模型的收敛速度过快,因此,需要对微分控制参数的值进行控制。如果pid控制参数中的积分控制参数的值太小,则会使所述预设识别模型的稳定性不强,因此,需要对积分控制参数的值进行控制。

基于此,在一实施例中,所述利用所述pid控制参数中比例放大控制参数、积分控制参数、微分控制参数,得到第四参数,包括:确定第一系数、第二系数;计算所述第一系数与所述积分控制参数的数值的乘积,得到第一数值;计算所述第二系数与所述微分控制参数的数值的乘积,得到第二数值;计算所述第一数值、第二数值、比例放大控制参数的第三数值的数值之和,得到第四参数。

这里,通过所述第一系数对所述积分控制参数的值进行控制,通过所述第二系数对所述微分控制参数的值进行控制。其中,所述第一系数和第二系数的取值可以根据实际得到的收敛效果进行调整。

对于学习速率的更新,可以用公式(3)表示,如下:

其中,αk表示在第k次迭代时的学习速率,αk-1表示在第k-1次迭代时的学习速率,k表示比例放大控制参数,表示积分控制参数,表示微分控制参数。

根据公式(3)可知,第四参数可以用公式(4)表示,如下:

其中,c表示第四参数,l1表示第一系数,l2表示第二系数。

积分控制参数用公式(5)表示,微分控制参数用公式(6)表示,

其中,表示第k次迭代时针对第i个样本数据得到的梯度数据;表示第k-1次迭代时针对第i个样本数据得到的梯度数据。

实际应用时,当所述预设识别模式输出的预测数据与标签数据之间的差异不大时,换句话说,所述预测数据与所述标签数据接近一致时,则停止对所述预设识别模型的训练。

基于此,在一实施例中,所述方法还包括:判断所述梯度数据的数值是否等于预设阈值;当确定所述梯度数据的数值等于预设阈值时,停止对所述预设识别模型的学习速率进行更新。其中,所述预设阈值可以为零。

这里,当确定所述梯度数据的数值等于预设阈值比如零时,确定所述预设识别模型的预测数据与标签数据接近一致,并停止对所述预设识别模型的学习速率进行更新。

采用本发明实施例的技术方案,本发明实施例中,通过确定的pid控制参数、梯度数据,对所述预设识别模型的学习速率进行更新,换句话说,由于学习速率的变化受pid控制参数控制,因此所述预设识别模型的收敛速度也会随着学习速率的变化而变化,如此,提供预设识别模型的收敛效果。

另外,能够根据梯度数据,设置微分控制参数、积分控制参数和比例放大参数,并根据pid控制参数自适应调整学习速率,可以省去深度学习算法工程师的人为参与,加快预设识别模型迭代更新的速度。

下面以具体实施例详细说明数据处理方法的具体实现过程。

图3为基于pid控制参数调整学习速率的具体实现过程,如图3所示,包括以下步骤:

步骤301:设置预设识别模型的网络初始化参数。

这里,所述网络初始化参数可以用上述公式(1)中θi表示。还可以设置迭代步数,并用k表示,且k=1。

步骤302:利用预设识别模型输出的预测数据,以及样本数据对应的标签数据,得到梯度数据。

假设,训练集的第j个样本中包含m个样本数据,可以用集合{xi|x1,x2,...,xm}表示,其中,m为大于或等于1的正整数。与每个样本数据对应的标签数据可以用yj表示。可以按照上述公式(2)得到第k次迭代时针对第i个样本数据的梯度数据,并用表示。

步骤303:基于所述梯度数据,确定pid控制参数;并利用pid控制参数对学习速率进行更新。

具体地,根据实际经验,确定pid控制参数中的比例放大控制参数的值可以为1.1,并按照上述公式(5)、(6)确定pid控制参数中的积分控制参数、微分控制参数。最后,按照上述公式(3)对学习速率进行更新。

步骤304:对预设识别模型的网络初始化参数进行更新。

按照上述公式(1)对预设识别模型的网络初始化参数进行更新,得到θi+1。

并更新迭代步数k,使得k=k+1;

在步骤304之后,继续执行步骤302。

按照图3所示的步骤,可以得到图4所示的误差函数的曲线,如曲线4所示,通过pid控制参数对学习速率进行更新,并通过更新后的学习速率、梯度数据,对所述预设识别模型的参数进行更新后,可以实现较好的收敛效果。

需要说明的是,pid控制参数中的积分控制参数,可以增加收敛过程的鲁棒性,减少系统收敛过程中的震荡;pid控制参数中的微分器控制参数,可以加速模型的收敛,但是需要适量,否则容易引起系统的不稳定。

为实现本发明实施例的方法,本发明实施例还提供了一种数据处理装置,如图5所示,所述装置包括:

梯度计算单元51,利用预设识别模型输出的预测数据,以及样本数据对应的标签数据,得到梯度数据;所述梯度数据表征所述预设数据与所述标签数据的差异的变化;所述预测数据是利用训练集中的样本数据,并基于所述预设识别模型得到的;所述标签数据用于表征所述样本数据的类别;

确定单元52,用于基于所述梯度数据,确定pid控制参数;

更新单元53,利用确定的pid控制参数,以及所述梯度数据,对所述预设识别模型的学习速率进行更新,以调整所述预设识别模型的收敛速度。

实际应用时,当样本数据为带有标签数据的样本数据时,可以通过监督式学习对所述预设识别模型进行训练,当样本数据为未带有标签数据的样本数据时,可以通过非监督学习对所述预设识别模型进行训练。

基于此,当所述训练集中的样本数据与标签数据对应时,这样,当所述预设识别模型得到预测数据后,可以利用所述样本数据对应的标签数据对所述预测数据进行修正,以通过监督式学习实现对所述预设识别模型的训练。

这里,在通过监督式学习实现对所述预设识别模型的训练时,可以通过梯度下降算法,基于学习速率以及误差函数的梯度,对所述预设识别模型的参数进行优化更新,以使所述预设识别模型的误差函数的值达到最小值。其中,误差函数用于表征预测数据与标签数据的不一致程度。

实际应用时,可以通过控制理论中的pid控制对学习速率进行更新,以提高所述预设识别模型的收敛速度,减小迭代次数。具体地,需要确定比例放大控制参数,以便通过比例放大参数,控制所述预测数据的预测值与所述标签数据的标签值的差值大小;需要确定积分控制参数,以便通过积分控制参数,增加收敛过程的鲁棒性;需要确定微分控制参数,以便通过微分控制参数,提高所述预设识别模式的收敛速度。

基于此,在一实施例中,所述确定单元52,具体用于:利用所述梯度数据,基于梯度的平方运算,确定pid控制参数中的积分控制参数;利用所述梯度数据,基于梯度的差值运算,确定pid控制参数中的微分控制参数。

这里,在确定pid控制参数之后,可以通过pid控制参数对所述预设识别模型的学习速率进行更新,以在迭代过程中控制学习速率的变化,使得学习速率不会太大,也不会太小。

基于此,在一实施例中,所述更新单元53,具体用于:利用所述pid控制参数中比例放大控制参数、积分控制参数、微分控制参数,得到第四参数;利用所述第四参数,对训练步长进行更新;基于更新后的训练步长,以及所述梯度数据,对所述预设识别模型的学习速率进行更新。

其中,学习速率可以表征所述预设识别模型的参数的更新幅度,如果更新后的学习速率较大,则所述预设识别模型的更新后的参数的幅值较小,所述预设识别模型输出的预测数据的预测值与标签数据的标签值的差值越小;如果更新后的学习速率较小,则所述预设识别模型的更新后的参数的幅值较大,所述预设识别模型输出的预测数据的预测值与标签数据的标签值的差值越大。

基于此,为了保证所述预设识别模型的收敛速度不是太快,也不是太慢,可以通过pid控制参数对学习速率进行更新。通过pid控制参数中的比例放大控制参数,可以保证在开始迭代时所述预设识别模型的参数的更新幅度不会太大,随着迭代步数的增加,所述误差函数的数值不会下降太快,如此,可使学习速率曲线在开始迭代时有个好的收敛效果。随着迭代次数的增加,通过pid控制参数中的微分控制参数,可以使所述预设识别模型的收敛速度加快。通过pid控制参数中的积分控制参数,可以保证在加快收敛速度的同时减小收敛过程中的振荡,增强稳定性。

实际应用时,如果pid控制参数中的微分控制参数的值太大,则会使所述预设识别模型的收敛速度过快,因此,需要对微分控制参数的值进行控制。如果pid控制参数中的积分控制参数的值太小,则会使所述预设识别模型的稳定性不强,因此,需要对积分控制参数的值进行控制。

基于此,在一实施例中,所述更新单元53,具体用于:确定第一系数、第二系数;计算所述第一系数与所述积分控制参数的数值的乘积,得到第一数值;计算所述第二系数与所述微分控制参数的数值的乘积,得到第二数值;计算所述第一数值、第二数值、比例放大控制参数的第三数值的数值之和,得到第四参数。

这里,通过所述第一系数对所述积分控制参数的值进行控制,通过所述第二系数对所述微分控制参数的值进行控制。其中,所述第一系数和第二系数的取值可以根据实际得到的收敛效果进行调整。

实际应用时,当所述预设识别模式输出的预测数据与标签数据之间的差异不大时,换句话说,所述预测数据与所述标签数据接近一致时,则停止对所述预设识别模型的训练。

基于此,在一实施例中,所述装置还包括:判断单元,用于判断所述梯度数据的数值是否等于预设阈值;当确定所述梯度数据的数值等于预设阈值时,停止对所述预设识别模型的学习速率进行更新。其中,所述预设阈值可以为零。

这里,当确定所述梯度数据的数值等于预设阈值比如零时,确定所述预设识别模型的预测数据与标签数据接近一致,并停止对所述预设识别模型的学习速率进行更新。

需要说明的是:上述实施例提供的数据处理装置在进行数据处理时,仅以上述各程序模块的划分进行举例说明,实际应用中,可以根据需要而将上述处理分配由不同的程序模块完成,即将装置的内部结构划分成不同的程序模块,以完成以上描述的全部或者部分处理。另外,上述实施例提供的数据处理装置与数据处理方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。

在实际应用中,梯度计算单元51、确定单元52、更新单元53、判断单元可由位于数据处理装置上的处理器比如中央处理器(cpu,centralprocessingunit)、微处理器(mpu,microprocessorunit)、数字信号处理器(dsp,digitalsignalprocessor)、或现场可编程门阵列(fpga,fieldprogrammablegatearray)等实现。

图6是本发明实施例数据处理装置的结构示意图,图6所示的数据处理装置600设置在所述终端上,包括:至少一个处理器601、存储器602、用户接口603、至少一个网络接口604。数据处理装置600中的各个组件通过总线系统605耦合在一起。可理解,总线系统605用于实现这些组件之间的连接通信。总线系统605除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图6中将各种总线都标为总线系统605。

其中,用户接口603可以包括显示器、键盘、鼠标、轨迹球、点击轮、按键、按钮、触感板或者触摸屏等。

本发明实施例中的存储器602用于存储各种类型的数据以支持数据处理装置600的操作。这些数据的示例包括:用于在数据处理装置600上操作的任何计算机程序,如操作系统6021和应用程序6022;其中,操作系统6021包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序6022可以包含各种应用程序,用于实现各种应用业务。实现本发明实施例方法的程序可以包含在应用程序6022中。

上述本发明实施例揭示的方法可以应用于处理器601中,或者由处理器601实现。处理器601可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器601中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器601可以是通用处理器、数字信号处理器,或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。处理器601可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本发明实施例所公开的方法的步骤,可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于存储介质中,该存储介质位于存储器602,处理器601读取存储器602中的信息,结合其硬件完成前述方法的步骤。

可以理解,存储器602可以是易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(rom,readonlymemory)、可编程只读存储器(prom,programmableread-onlymemory)、可数据处理装置可编程只读存储器(eprom,erasableprogrammableread-onlymemory)、电可数据处理装置可编程只读存储器(eeprom,electricallyerasableprogrammableread-onlymemory)、磁性随机存取存储器(fram,ferromagneticrandomaccessmemory)、快闪存储器(flashmemory)、磁表面存储器、光盘、或只读光盘(cd-rom,compactdiscread-onlymemory);磁表面存储器可以是磁盘存储器或磁带存储器。易失性存储器可以是随机存取存储器(ram,randomaccessmemory),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的ram可用,例如静态随机存取存储器(sram,staticrandomaccessmemory)、同步静态随机存取存储器(ssram,synchronousstaticrandomaccessmemory)、动态随机存取存储器(dram,dynamicrandomaccessmemory)、同步动态随机存取存储器(sdram,synchronousdynamicrandomaccessmemory)、双倍数据速率同步动态随机存取存储器(ddrsdram,doubledataratesynchronousdynamicrandomaccessmemory)、增强型同步动态随机存取存储器(esdram,enhancedsynchronousdynamicrandomaccessmemory)、同步连接动态随机存取存储器(sldram,synclinkdynamicrandomaccessmemory)、直接内存总线随机存取存储器(drram,directrambusrandomaccessmemory)。本发明实施例描述的存储器602旨在包括但不限于这些和任意其它适合类型的存储器。

基于本申请各实施例提供的数据处理装置方法,本申请还提供一种计算机可读存储介质,参照图6所示,所述计算机可读存储介质可以包括:用于存储计算机程序的存储器602,上述计算机程序可由数据处理装置600的处理器601执行,以完成前述方法所述步骤。计算机可读存储介质可以是fram、rom、prom、eprom、eeprom、flashmemory、磁表面存储器、光盘、或cd-rom等存储器。

需要说明的是:本发明实施例所记载的技术方案之间,在不冲突的情况下,可以任意组合。

以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1