神经网络模型的训练方法、语音去噪方法及装置与流程

文档序号:16929355发布日期:2019-02-22 20:07阅读:1206来源:国知局
神经网络模型的训练方法、语音去噪方法及装置与流程

本发明涉及数据处理领域,尤其涉及神经网络模型的训练方法、语音去噪方法及装置。



背景技术:

目前主流的去噪方法有如下几种:

(1)小波去噪,这种方法把信号的频带进行多层次划分,然后自适应地选择相应的频段,使之与信号频谱相匹配,因此在保留数据的细微信息方面有很好的效果。

(2)基于正则化的方法,通过在降噪处理过程中加入合适的约束条件,能够把病态过程转变为良态的过程。噪声来源的多样化与噪声分布的差异化导致噪声种类各不相同,因此噪声模型将变得复杂,降噪过程的解态将呈现病态。基于正则化的方法对噪声分布的依赖性较低。该类方法可以分为基于全局的正则化和局部的自适应正则化两种方式。

(3)基于伪逆的方法,在基于伪逆的方法中,基于广义逆及奇异值分解(singularvaluedecomposition,svd)的方法最为常用。广义逆方法是指我们使用输入信号的先验知识来解得退化矩阵的广义逆。然而我们待处理的信号数据通常十分庞大,甚至有的数据超出了一般规模,达到了海量的级别,退化矩阵包括的信息远超过原始数据。对于这种规模的矩阵进行广义逆求解需要消耗大量的时间和精力,在人力物力成本上都得不偿失,因此该方法并不具有普适性。

(4)基于统计学的方法,该方法的核心理论是贝叶斯准则,其基本思想是使条件概率最大化从而达到去除噪声的目的。在众多基于统计学的去噪方法中,最大似然估计法与最大后验概率法是最具代表性的方法。在基于统计学的方法中,我们使用一种模型作为条件概率模型。条件概率模型根据噪声分布与种类包括泊松分布模型和高斯分布模型等。先验模型主要包括马尔科夫概率模型与广义高斯概率模型。虽然目前理论上有许多可选的模型,但选择的模型需要与噪声分布进行良好的匹配,否则就会得到不理想的去噪效果。正是由于模型选取的苛刻要求,基于统计学的去噪方法也不是用于噪声源比较复杂的情形,因此该方法在实际应用中具有一定的局限性。

现有的去噪方法中,多数的方法都需要人工进行参数的调节,即在待去噪的数据输入之后,人工对去噪方法中的参数进行调节,从而当其它待去噪的数据输入该去噪方法时,还需要再次调节参数才能达到去噪的效果。例如使用小波去噪的方法,在使用小波去噪的方法时需要根据输入的数据的具体应用场合进行小波基的选择,在选定了小波基之后,该方法只能用于这一输入数据的应用场合,而不能用于其它场合。从而现有技术中至少存在以下技术问题:

输入不同的待去噪数据时,现有的去噪方法需要根据输入数据的具体情况进行人工调整,从而去噪方法通用性差。



技术实现要素:

本发明实施例通过提供神经网络模型的训练方法、语音去噪方法及装置,用于解决现有技术中的输入不同的待去噪数据时,现有的去噪方法需要根据输入数据的具体情况进行人工调整,从而去噪方法通用性差的技术问题。

第一方面,本发明一实施例提供了一种神经网络模型的训练方法,所述方法包括:

获取语音样本集,其中,所述语音样本集包括若干个语音样本;

获取场景噪声样本集,其中,所述场景噪声样本集包括若干个场景噪声样本;

将所述语音样本集中的任一语音样本与所述场景噪声样本集中的任一场景噪声样本组合,直至所述语音样本集中的所有语音样本和所述场景噪声样本集中的所有场景噪声样本都完成组合,从而获取若干个混合声音样本、和包括所述若干个混合声音样本的混合声音样本集;

提取所述混合声音样本集中各混合声音样本的时频特征;

将所述各混合声音样本的时频特征输入待训练的神经网络模型,训练所述神经网络模型,从而获取噪声分离神经网络模型,其中,所述噪声分离神经网络模型能够获取输入其的测试声音样本中的场景噪音数据或语音数据。

可选的,所述提取所述混合声音样本集中各混合声音样本的时频特征,具体包括:

分别对所述各混合声音样本进行短时傅里叶变换,从而获取所述各混合声音样本的时频特征。

可选的,所述将所述各混合声音样本的时频特征输入待训练的神经网络模型,训练所述神经网络模型,从而获取噪声分离神经网络模型,具体包括:

将所述各混合声音样本的时频特征输入待训练的卷积神经网络,训练所述卷积神经网络,并获取各混合声音样本的分类特征;

将所述各混合声音样本的分类特征输入待训练的循环神经网络,训练所述循环神经网络,从而获取基于所述卷积神经网络和所述循环神经网络的噪声分离神经网络模型。

可选的,所述循环神经网络为lstm神经网络。

第二方面,本发明一实施例提供了一种语音去噪方法,所述方法包括:

提取测试声音样本的时频特征;

将所述测试声音样本的时频特征输入如第一方面中所述的噪声分离神经网络模型,获取所述测试声音样本中的场景噪声数据或语音数据;

去除所述测试声音样本中的所述场景噪声数据,获取所述测试声音样本的语音数据;或者,去除所述测试声音样本中的所述语音数据,获取所述测试声音样本的场景噪声数据。

可选的,所述提取测试声音样本的时频特征,具体包括:

对所述测试声音样本进行短时傅里叶变换,从而获取所述测试声音样本的时频特征。

第三方面,本发明一实施例提供了一种神经网络模型的训练装置,所述训练装置包括:

第一获取单元,用于获取语音样本集,其中,所述语音样本集包括若干个语音样本;

第二获取单元,用于获取场景噪声样本集,其中,所述场景噪声样本集包括若干个场景噪声样本;

组合单元,用于将所述语音样本集中的任一语音样本与所述场景噪声样本集中的任一场景噪声样本组合,直至所述语音样本集中的所有语音样本和所述场景噪声样本集中的所有场景噪声样本都完成组合,从而获取若干个混合声音样本、和包括所述若干个混合声音样本的混合声音样本集;

提取单元,用于提取所述混合声音样本集中各混合声音样本的时频特征;

第三获取单元,用于将所述各混合声音样本的时频特征输入待训练的神经网络模型,训练所述神经网络模型,从而获取噪声分离神经网络模型,其中,所述噪声分离神经网络模型能够获取输入其的测试声音样本中的场景噪音数据或语音数据。

可选的,所述提取模块,具体用于:

分别对所述各混合声音样本进行短时傅里叶变换,从而获取所述各混合声音样本的时频特征。

可选的,所述第三获取单元,具体包括:

第一获取子单元,用于将所述各混合声音样本的时频特征输入待训练的卷积神经网络,训练所述卷积神经网络,并获取各混合声音样本的分类特征;

第二获取子单元,用于将所述各混合声音样本的分类特征输入待训练的循环神经网络,训练所述循环神经网络,从而获取基于所述卷积神经网络和所述循环神经网络的噪声分离神经网络模型。

可选的,所述循环神经网络为lstm神经网络。

第四方面,本发明一实施例提供了一种语音去噪装置,所述语音去噪装置包括:

提取单元,用于提取测试声音样本的时频特征;

获取单元,用于将所述测试声音样本的时频特征输入如第一方面或第三方面中所述的噪声分离神经网络模型,获取所述测试声音样本中的场景噪声数据或语音数据;

去除单元,用于去除所述测试声音样本中的所述场景噪声数据,获取所述测试声音样本的语音数据;或者,去除所述测试声音样本中的所述语音数据,获取所述测试声音样本的场景噪声数据。

可选的,所述提取单元,具体用于:

对所述测试声音样本进行短时傅里叶变换,从而获取所述测试声音样本的时频特征。

第五方面,本发明一实施例提供了一种计算机装置,包括:

至少一个处理器,以及与所述至少一个处理器连接的存储器;

其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述至少一个处理器通过执行所述存储器存储的指令,执行如上述第一方面或第二方面中所述的方法。

第六方面,本发明一实施例提供了一种计算机可读存储介质,包括:

所述计算机可读存储介质上存储有计算机指令,当所述计算机指令被所述计算机装置的至少一个处理器执行时,实现如上述第一方面或第二方面中所述的方法。

本发明实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:

在本发明实施例中,神经网络的训练装置通过执行神经网络的训练方法对神经网络进行训练,获取噪声分离神经网络模型;语音去噪装置通过执行语音去噪方法、利用噪声分离神经网络获取测试语音样本中的场景噪声数据或语音数据;最后去除测试声音样本中的场景噪声数据或语音数据,从而解决现有技术中存在的输入不同的待去噪数据时,现有的去噪方法需要根据输入数据的具体情况进行人工调整,从而去噪方法通用性差的技术问题,达到可以对不同的输入数据使用同一去噪方法,从而提高去噪方法的通用性的技术效果。

附图说明

图1为本发明实施例提供的一种神经网络模型的训练方法的流程图;

图2为本发明实施例提供的神经网络模型的训练、语音去噪的过程示意图;

图3为本发明实施例提供的一种语音去噪方法的流程图;

图4为本发明实施例提供的一种计算机装置的物理结构示意图。

具体实施方式

为了解决上述技术问题,本发明实施例中的技术方案的总体思路如下:

提供了神经网络模型的训练方法、语音去噪方法及装置。

具体的,对于神经网络模型的训练方法和装置:

获取语音样本集,其中,所述语音样本集包括若干个语音样本;

获取场景噪声样本集,其中,所述场景噪声样本集包括若干个场景噪声样本;

将所述语音样本集中的任一语音样本与所述场景噪声样本集中的任一场景噪声样本组合,直至所述语音样本集中的所有语音样本和所述场景噪声样本集中的所有场景噪声样本都完成组合,从而获取若干个混合声音样本、和包括所述若干个混合声音样本的混合声音样本集;

提取所述混合声音样本集中各混合声音样本的时频特征;

将所述各混合声音样本的时频特征输入待训练的神经网络模型,训练所述神经网络模型,从而获取噪声分离神经网络模型,其中,所述噪声分离神经网络模型能够获取输入其的测试声音样本中的场景噪音数据或语音数据。

对于语音去噪方法和装置:

提取测试声音样本的时频特征;

将所述测试声音样本的时频特征输入如权利要求1所述的噪声分离神经网络模型,获取所述测试声音样本中的场景噪声数据或语音数据;

去除所述测试声音样本中的所述场景噪声数据,获取所述测试声音样本的语音数据;或者,去除所述测试声音样本中的所述语音数据,获取所述测试声音样本的场景噪声数据。

为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明,应当理解本发明实施例以及实施例中的具体特征是对本发明技术方案的详细的说明,而不是对本发明技术方案的限定,在不冲突的情况下。

请参见图1,本发明实施例一提供了一种神经网络模型的训练方法,所述方法包括以下步骤:

步骤s100,获取语音样本集,其中,所述语音样本集包括若干个语音样本。

步骤s110,获取场景噪声样本集,其中,所述场景噪声样本集包括若干个场景噪声样本。

步骤s120,将所述语音样本集中的任一语音样本与所述场景噪声样本集中的任一场景噪声样本组合,直至所述语音样本集中的所有语音样本和所述场景噪声样本集中的所有场景噪声样本都完成组合,从而获取若干个混合声音样本、和包括所述若干个混合声音样本的混合声音样本集。

步骤s130,提取所述混合声音样本集中各混合声音样本的时频特征。

步骤s140,将所述各混合声音样本的时频特征输入待训练的神经网络模型,训练所述神经网络模型,从而获取噪声分离神经网络模型,其中,所述噪声分离神经网络模型能够获取输入其的测试声音样本中的场景噪音数据或语音数据。

首先执行步骤s100,获取语音样本集,其中,所述语音样本集包括若干个语音样本。

具体的,语音样本中的语音是由人的发声器官发出的然后经过处理(例如录音并存储)得到的语音样本中的语音数据,包括音高、音强、音长和音色的声音。例如语音样本是演讲者演讲的录音、歌手唱歌的录音等。语音样本可以是音频数据、视频数据。语音样本中仅包括语音,不包括其它种类的声音。

继续执行步骤s110,获取场景噪声样本集,其中,所述场景噪声样本集包括若干个场景噪声样本。

具体的,场景噪声样本中场景噪声可以是除了语音之外的任何种类的声音,也可以是用户根据需求设定的、包括部分语音和部分其它种类的声音。例如,场景噪声为马路上的汽车行驶的声音、相声专场中观众的鼓掌声。再比如,用户设定除了一特定说话者发出的语音之外,其它所有的声音均为场景噪声;这种情况下除了该特定说话者发出的语音,其它说话者发出的语音也会被认定为场景噪声;比如一场综艺节目中,特定说话者为主持人,除了该主持人发出的语音,其它声音均为场景噪声。

进一步的,获取场景噪声样本的方法可以是通过现有的小波去噪的方法对某些音频进行处理,例如,对相声专场的音频使用小波去噪的方法,从而提取出场景噪声。场景噪声样本的来源可以是相声专场的音频、综艺节目等。

进一步的,语音样本的格式和场景噪声样本的格式包括cd、wave、aiff、mpeg、mp3、mpeg-4、midi、wma、realaudio、vqf、oggvorbis、amr、ape、flac或aac等其它任何音频格式。

在执行完步骤s110之后,执行步骤s120,将所述语音样本集中的任一语音样本与所述场景噪声样本集中的任一场景噪声样本组合,直至所述语音样本集中的所有语音样本和所述场景噪声样本集中的所有场景噪声样本都完成组合,从而获取若干个混合声音样本、和包括所述若干个混合声音样本的混合声音样本集。

具体的,语音样本集中的语音样本数量可以有数万个,场景噪声样本集中的场景噪声样本数量可以有数万个。请参见图2,混合声音样本中的声音为组成该混合声音样本的语音样本和场景噪声样本的中的声音的组合;例如,组成混合声音样本的语音样本和场景噪声样本中的声音分别是歌手唱歌和相声专场中的喝彩声,则该混合声音样本的声音为伴随着相声专场中的喝彩声存在歌手唱歌的声音。

例如,语音样本集中共有100个语音样本,100个语音样本的编号分别为1号、2号、3号、……、100号;场景噪声样本集中共有150个场景噪声样本,150个场景噪声样本的编号分别为1号、2号、3号、……、150号;将1号语音样本分别和1号、2号、3号、……、150号场景噪声样本组合,再将2号语音样本分别和1号、2号、3号、……、150号场景噪声样本组合,直至将100号语音样本分别和1号、2号、3号、……、150号场景噪声样本组合;最终获取15000个混合声音样本以及包括这15000个混合声音样本的混合声音样本集。

再比如,语音样本集中共有2万个语音样本,2万个语音样本的编号分别为1号、2号、3号、……、2万号;场景噪声样本集中共有4万个场景噪声样本,4万个场景噪声样本的编号分别为1号、2号、3号、……、4万号;将1号语音样本分别和1号、2号、3号、……、4万号场景噪声样本组合,再将2号语音样本分别和1号、2号、3号、……、4万号场景噪声样本组合,直至将2万号语音样本分别和1号、2号、3号、……、4万号场景噪声样本组合;最终获取8亿个混合声音样本以及包括这8亿个混合声音样本的混合声音样本集。

继续执行步骤s130,提取所述混合声音样本集中各混合声音样本的时频特征。

可选的,所述提取所述混合声音样本集中各混合声音样本的时频特征,具体包括:

分别对所述各混合声音样本进行短时傅里叶变换,从而获取所述各混合声音样本的时频特征。

具体的,混合声音样本的时频特征可以是混合声音样本的频谱或功率谱。

继续执行步骤s140,将所述各混合声音样本的时频特征输入待训练的神经网络模型,训练所述神经网络模型,从而获取噪声分离神经网络模型,其中,所述噪声分离神经网络模型能够获取输入其的测试声音样本中的场景噪音数据或语音数据。

可选的,所述将所述各混合声音样本的时频特征输入待训练的神经网络模型,训练所述神经网络模型,从而获取噪声分离神经网络模型,具体包括:

将所述各混合声音样本的时频特征输入待训练的卷积神经网络,训练所述卷积神经网络,并获取各混合声音样本的分类特征;

将所述各混合声音样本的分类特征输入待训练的循环神经网络,训练所述循环神经网络,从而获取基于所述卷积神经网络和所述循环神经网络的噪声分离神经网络模型。

具体的,请参见图2虚线框内部分,将混合声音样本的时频特征输入待训练的卷积神经网络,从而训练该卷积神经网络对混合声音样本中的语音部分和场景噪声部分进行区分,该卷积神经网络还会输出混合声音样本的分类特征;

将混合声音样本的分类特征输入循环神经网络,训练该循环神经网络;从而基于训练好的卷积神经网络和训练好的循环神经网络,就可以得到噪声分离神经网络模型。训练卷积神经网络和训练循环神经网络的方法和现有的训练神经网络的方法一致,在此不进行描述。

进一步的,请继续参见图2,该噪声分离神经网络模型包括全连接层,全连接层可以整合神经网络中上一层的具有配别区分性的局部信息,从而提升神经网络的性能。本发明实施例中,全连接层能够将输入噪声分离神经网络的测试声音样本中的场景噪音数据或语音数据输出。

可选的,请参见图2,所述循环神经网络为lstm(longshort-termmemory,长短期记忆)神经网络。

请参见图3,基于同一发明构思,本发明实施例二提供了一种语音去噪方法,所述方法包括一下步骤:

步骤s200,提取测试声音样本的时频特征。

步骤s210,将所述测试声音样本的时频特征输入如权利要求1所述的噪声分离神经网络模型,获取所述测试声音样本中的场景噪声数据或语音数据。

步骤s220,去除所述测试声音样本中的所述场景噪声数据,获取所述测试声音样本的语音数据;或者,去除所述测试声音样本中的所述语音数据,获取所述测试声音样本的场景噪声数据。

首先执行步骤s200,提取测试声音样本的时频特征。

可选的,所述提取测试声音样本的时频特征,具体包括:

对所述测试声音样本进行短时傅里叶变换,从而获取所述测试声音样本的时频特征。

具体的,测试声音样本的时频特征可以是测试声音样本的频谱或功率谱。例如,提取到测试声音样本的时频特征是该测试声音样本的频谱。

继续执行步骤s210,将所述测试声音样本的时频特征输入如权利要求1所述的噪声分离神经网络模型,获取所述测试声音样本中的场景噪声数据或语音数据。

例如,将测试声音样本的频谱输入如上述方法实施例中所述的噪声分离神经网络模型,然后该噪声分离神经网络模型输出该测试声音样本中的场景噪声数据。

执行完步骤s210之后执行步骤s220,去除所述测试声音样本中的所述场景噪声数据,获取所述测试声音样本的语音数据;或者,去除所述测试声音样本中的所述语音数据,获取所述测试声音样本的场景噪声数据。

具体的,请参见图2,根据步骤s210输出的结果,选择去除测试声音样本中的场景噪声数据或者语音数据。例如,步骤s210输出的是测试声音样本中的场景噪声数据,则去除测试声音样本中的场景噪声数据;步骤s210输出的是测试声音样本中的语音数据,则去除测试声音样本中的语音数据。

进一步的,去除测试声音样本中的场景噪声数据或者语音数据的方法可以是对测试声音样本的时频特征、测试声音样本中的场景噪声数据或者语音数据进行求差运算。例如,将测试声音样本的时频特征减去测试声音样本中的场景噪声数据,从而得到测试声音样本中语音数据。

进一步的,对测试声音样本的场景噪声数据或语音数据进行短时傅里叶逆变换,从而得到测试声音样本场景噪声部分或语音部分;例如,对测试声音样本的场景噪声数据进行短时傅里叶逆变换,从而得到测试声音样本场景噪声部分。

基于同一发明构思,本发明实施例三提供了一种神经网络模型的训练装置,所述训练装置包括:

第一获取单元,用于获取语音样本集,其中,所述语音样本集包括若干个语音样本;

第二获取单元,用于获取场景噪声样本集,其中,所述场景噪声样本集包括若干个场景噪声样本;

组合单元,用于将所述语音样本集中的任一语音样本与所述场景噪声样本集中的任一场景噪声样本组合,直至所述语音样本集中的所有语音样本和所述场景噪声样本集中的所有场景噪声样本都完成组合,从而获取若干个混合声音样本、和包括所述若干个混合声音样本的混合声音样本集;

提取单元,用于提取所述混合声音样本集中各混合声音样本的时频特征;

第三获取单元,用于将所述各混合声音样本的时频特征输入待训练的神经网络模型,训练所述神经网络模型,从而获取噪声分离神经网络模型,其中,所述噪声分离神经网络模型能够获取输入其的测试声音样本中的场景噪音数据或语音数据。

可选的,所述提取模块,具体用于:

分别对所述各混合声音样本进行短时傅里叶变换,从而获取所述各混合声音样本的时频特征。

可选的,所述第三获取单元,具体包括:

第一获取子单元,用于将所述各混合声音样本的时频特征输入待训练的卷积神经网络,训练所述卷积神经网络,并获取各混合声音样本的分类特征;

第二获取子单元,用于将所述各混合声音样本的分类特征输入待训练的循环神经网络,训练所述循环神经网络,从而获取基于所述卷积神经网络和所述循环神经网络的噪声分离神经网络模型。

可选的,所述循环神经网络为lstm神经网络。

基于同一发明构思,本发明实施例四提供了一种语音去噪装置,所述语音去噪装置包括:

提取单元,用于提取测试声音样本的时频特征;

获取单元,用于将所述测试声音样本的时频特征输入如第一方面或第三方面中所述的噪声分离神经网络模型,获取所述测试声音样本中的场景噪声数据或语音数据;

去除单元,用于去除所述测试声音样本中的所述场景噪声数据,获取所述测试声音样本的语音数据;或者,去除所述测试声音样本中的所述语音数据,获取所述测试声音样本的场景噪声数据。

可选的,所述提取单元,具体用于:

对所述测试声音样本进行短时傅里叶变换,从而获取所述测试声音样本的时频特征。

请参见图4,基于同一发明构思,本发明实施例五提供了一种计算机装置,包括:

至少一个处理器401,以及与所述至少一个处理器连接的存储器402;

其中,所述存储器402存储有可被所述至少一个处理器401执行的指令,所述至少一个处理器401通过执行所述存储器402存储的指令,执行如上述方法实施例中所述的方法的步骤。

可选的,处理器401具体可以包括中央处理器(centralprocessingunit,cpu)、特定应用集成电路(applicationspecificintegratedcircuit,asic),可以是一个或多个用于控制程序执行的集成电路,可以是使用现场可编程门阵列(fieldprogrammablegatearray,fpga)开发的硬件电路,可以是基带处理器。

可选的,处理器401可以包括至少一个处理核心。

可选的,该装置还包括存储器402,存储器402可以包括只读存储器(readonlymemory,rom)、随机存取存储器(randomaccessmemory,ram)和磁盘存储器。存储器402用于存储处理器401运行时所需的数据。

基于同一发明构思,本发明实施例六提供了一种计算机可读存储介质,包括:

所述计算机可读存储介质上存储有计算机指令,当所述计算机指令被所述计算机装置线控器的至少一个处理器执行时,实现如上述方法实施例中所述的方法。

上述本发明实施例中的技术方案,至少具有如下的技术效果或优点:

在本发明实施例中,神经网络的训练装置通过执行神经网络的训练方法对神经网络进行训练,获取噪声分离神经网络模型;语音去噪装置通过执行语音去噪方法、利用噪声分离神经网络获取测试语音样本中的场景噪声数据或语音数据;最后去除测试声音样本中的场景噪声数据或语音数据,从而解决现有技术中存在的输入不同的待去噪数据时,现有的去噪方法需要根据输入数据的具体情况进行人工调整,从而去噪方法通用性差的技术问题,达到可以对不同的输入数据使用同一去噪方法,从而提高去噪方法的通用性的技术效果。

尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。

本领域内的技术人员应明白,本发明实施例可提供为方法、设备、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。

本发明实施例是参照根据本发明实施例的方法、设备、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1