一种数据操作方法和装置与流程

文档序号:16972466发布日期:2019-02-26 18:41阅读:105来源:国知局
一种数据操作方法和装置与流程

本发明涉及聚类算法领域,尤其涉及一种数据操作方法和装置。



背景技术:

近年来,存储硬件不断演化,产生出基于nandflash的ssd(solidstatedisk)、pcm到基于3d-xpointoptane等新的存储介质。这些新的存储介质展现出远超过磁盘的数据访问性能。

为提高数据访问效率,比较常用的方式是将多个io操作并行处理,从而最大化的利用ssd内部的高并发能力,提升索引效率。然而,这种方式采用同步io的方式进行数据块的读写操作,需要同时运行大量的索引线程,造成显著的进程切换代价和操作系统线程调度代价。造成了大量的cpu浪费,数据读写效率很低。



技术实现要素:

本发明实施例通过提供一种数据操作方法和装置,解决了现有技术中,无法利用新的存储介质的高并发能力,导致整个数据访问过程效率低的问题。

本发明实施例提供一种数据操作方法,所述方法包括:

确定当前时刻是否到达nvme接口的完成队列的查询时刻;所述nvme接口的完成队列中存储有nvme接口处理io访问请求后的处理结果;若未到达所述查询时刻,则从nvme接口的待提交队列中获取第一io访问请求;所述待提交队列中存储有状态为就绪状态的数据操作请求的io访问请求;

将所述第一io访问请求发给所述nvme接口,并将所述第一io访问请求对应的第一数据操作请求的状态标记为等待状态;

返回确定当前时刻是否到达nvme接口的完成队列的查询时刻的步骤,直至到达所述查询时刻或所述nvme接口的待提交队列中无io访问请求。

一种可能的实现方式,所述方法还包括:

若到达所述查询时刻,则从所述nvme接口的完成队列中查询是否有io访问请求的处理结果;

若存在n个io访问请求的处理结果,且所述nvme接口的待提交队列中包括m个io访问请求,则从所述nvme接口的待提交队列中获取至少n个io访问请求;m大于等于n;n,m为正整数;

将所述至少n个io访问请求发给所述nvme接口,并将所述至少n个io访问请求对应的数据操作请求的状态标记为等待状态。

一种可能的实现方式,所述方法还包括,针对所述n个io访问请求的处理结果中的每个io访问请求的处理结果,执行:

确定第二io访问请求对应的第二数据操作请求是否执行完毕,若未执行完毕,则将所述第二数据操作请求的状态设置为就绪状态;所述第二io访问请求为所述n个io访问请求中的任一个;

根据所述第二io访问请求的处理结果和所述第二数据操作请求,生成第三io访问请求;

将所述第三io访问请求放入所述nvme接口的待提交队列中。

一种可能的实现方式,所述数据操作请求为针对b+树的索引访问请求;所述确定第二io访问请求对应的第二数据操作请求是否执行完毕,包括:

确定所述第二io访问请求的处理结果是否为b+树中的叶子节点;若是,则确定所述第二io访问请求对应的第二数据操作请求执行完毕;若否,则确定所述第二io访问请求对应的第二数据操作请求未执行完毕。

一种可能的实现方式,所述查询时刻是根据预设时间段向所述nvme接口提交的io访问请求的数量,以及线性回归模型确定的。

本发明实施例提供一种数据操作装置,所述装置包括:

处理单元,用于确定当前时刻是否到达nvme接口的完成队列的查询时刻;所述nvme接口的完成队列中存储有nvme接口处理io访问请求后的处理结果;若未到达所述查询时刻,则从nvme接口的待提交队列中获取第一io访问请求;所述提交队列中存储有状态为就绪状态的数据操作请求的io访问请求;

收发单元,用于将所述第一io访问请求发给所述nvme接口;

所述处理单元,还用于将所述第一io访问请求对应的第一数据操作请求的状态标记为等待状态;返回确定当前时刻是否到达nvme接口的完成队列的查询时刻的步骤,直至到达所述查询时刻或所述nvme接口的待提交队列中无io访问请求。

一种可能的实现方式,所述处理单元还用于:

若到达所述查询时刻,则从所述nvme接口的完成队列中查询是否有io访问请求的处理结果;若存在n个io访问请求的处理结果,且所述nvme接口的待提交队列中包括m个io访问请求,则从所述nvme接口的待提交队列中获取至少n个io访问请求;m大于等于n;n,m为正整数;将所述至少n个io访问请求发给所述nvme接口,并将所述至少n个io访问请求对应的数据操作请求的状态标记为等待状态。

一种可能的实现方式,所述处理单元还用于,针对所述n个io访问请求的处理结果中的每个io访问请求的处理结果,执行:

确定第二io访问请求对应的第二数据操作请求是否执行完毕,若未执行完毕,则将所述第二数据操作请求的状态设置为就绪状态;所述第二io访问请求为所述n个io访问请求中的任一个;根据所述第二io访问请求的处理结果和所述第二数据操作请求,生成第三io访问请求;将所述第三io访问请求放入所述nvme接口的待提交队列中。

一种可能的实现方式,所述数据操作请求为针对b+树的索引访问请求;所述处理单元,具体用于:

确定所述第二io访问请求的处理结果是否为b+树中的叶子节点;若是,则确定所述第二io访问请求对应的第二数据操作请求执行完毕;若否,则确定所述第二io访问请求对应的第二数据操作请求未执行完毕。

一种可能的实现方式,所述查询时刻是根据预设时间段向所述nvme接口提交的io访问请求的数量,以及线性回归模型确定的。

本发明实施例提供了一种数据查询装置,所述装置包括:

至少一个处理器,以及

与所述至少一个处理器连接的存储器;

其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述至少一个处理器通过执行所述存储器存储的指令,执行如第一方面实施例所述的方法。

本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面实施例所述方法的步骤。

本发明实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:

本发明实施例中的nvme接口,可以将接收io访问请求的提交队列和处理完io访问请求的完成队列分离开来,通过设置数据操作请求的状态,若未到达所述查询时刻,可以将多个就绪状态的数据操作请求生成io访问请求,并将提交io访问请求的数据操作请求的状态设置为等待状态,实现了异步的io访问请求的提交,在到达查询时刻后,到nvme接口的完成队列中确定完成的io访问请求的处理结果,进而确定对应的数据操作请求的下一步处理。从而使得pa-tree在只需要一个或少数几个索引线程,在单位时间内向nvme接口提交大量的io访问请求,并根据查询时刻,异步处理多个数据操作请求。在降低io访问cpu消耗的同时,避免引入进程切换代价,从而显著降低cpu开销、有效的提升索引的性能、充分发挥新硬件巨大的io并行处理能力,进而提升了数据操作的性能。

附图说明

图1为本发明实施例提供的数据操作方法的流程示意图;

图2为本发明实施例提供的数据操作方法的流程示意图;

图3为本发明实施例提供的数据操作方法的流程示意图;

图4为本发明实施例提供的数据操作方法的流程示意图;

图5a为本发明实施例提供的数据操作方法的流程示意图;

图5b为本发明实施例提供的数据操作方法的流程示意图;

图6为本发明实施例提供的数据操作方法的流程示意图;

图7为本发明实施例提供的数据操作装置的结构示意图;

图8为本发明实施例提供的数据访问装置的结构示意图。

具体实施方式

为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。

b+树索引是计算机领域内常见的数据索引结构,用来对数据或者文件进行有序的组织,从而提供高效的数据查询。b+树是由若干个节点组成的树状结构,其中最底层的节点叫做叶子节点,负责按照数据的key值有序的存储实际的数据;其余的节点称为非叶节点,每一个非叶节点存储着下一层孩子节点的key值边界。当要插入、删除或者查询时,根据涉及的key值,索引算法从b+树的最顶层节点(称为root节点)开始,根据节点中key值得边界,逐步访问对应的子节点,直至访问到叶子节点,从而完成对应的插入、删除或者查询。随着数据的插入或者删除,索引算法会对交空的节点进行合并,对溢出的节点进行分裂,从而保证b+树的平衡。

查询操作所引起的io操作以及定位key值的计算代价决定了查询性能;而删除、插入操作所引起的节点合并和分裂所引起的额外的io操作代价决定了删除和插入的性能。因此,查询和数据更新的性能,是b+技术的关键指标。

近年来,存储硬件不断演化,产生出nandflash、pcm到基于3d-xpointoptane等新的存储介质,展现出远超过磁盘的数据访问性能。为了最大化使用这项存储介质的数据访问带宽,nvme成为这些新硬件的标准接口。与传统的接口不同,nvme接口的io队列的数目巨大,可以同时处理大量的io操作,并发能力很强。

为提高b+树的索引的性能,在数据结构方面,可以采用基于日志的机制,将更新操作转为以追加的方式写日志,从而避免在flash中昂贵的替换更新(in-placeupdate)代价。在访问方式方面,常用的方式是将若干个io操作拼装到一起,同步进行,从而最大化的利用flash内部的高并发能力,提升索引效率。b+树索引中通过批量更新的方式,提升索引的更新性能,然而在批量更新之前,待更新的数据是没法通过索引访问的,限制了批量更新的在实际系统中适用范围。

然而,上述两种方式都属于图1中的concurrentb+tree,采用同步io的方式进行数据块的读写操作。需要引入大量线程,以充分发挥nvme接口下的存储介质的内部io处理的并行能力。而同时运行大量的索引线程,通常会超过cpu物理核数目,进而在cpu处理不同线程时,需要频繁的进行进程的切换,造成显著的进程切换代价和操作系统线程调度的代价。既造成大量的cpu浪费,又不能恰当通过nvme接口发挥存储介质的内部并行io能力,导致数据访问接口成为了显著的性能瓶颈。

基于上述问题,本发明实施例提供了一种数据操作方法,如图2所示,所述方法包括:

步骤201:确定当前时刻是否到达nvme接口的完成队列的查询时刻;

其中,所述nvme接口的完成队列中存储有nvme接口处理io访问请求后的处理结果;

步骤202:若未到达所述查询时刻,则从nvme接口的待提交队列中获取第一io访问请求;

其中,所述提交队列中存储有状态为就绪状态的数据操作请求的io访问请求;

步骤203:将所述第一io访问请求发给所述nvme接口,并将所述第一io访问请求对应的第一数据操作请求的状态标记为等待状态;

步骤204:返回确定当前时刻是否到达nvme接口的完成队列的查询时刻的步骤,直至到达所述查询时刻或所述nvme接口的待提交队列中无io访问请求。

需要说明的是,所述数据操作请求可以包括查询操作请求、插入操作请求、更新操作请求和删除操作请求等。

本发明实施例中的nvme接口,将提交队列和完成队列分离开来。通过设置数据操作请求的状态,若未到达所述查询时刻,可以将多个就绪状态的数据操作请求生成io访问请求,并将提交io访问请求的数据操作请求的状态设置为等待状态,实现了异步的io访问请求的提交,在到达查询时刻后,到nvme接口的完成队列中确定完成的io访问请求的处理结果,进而确定对应的数据操作请求的下一步处理。从而使得pa-tree在只需要一个或少数几个索引线程,在单位时间内可向nvme接口提交大量的io访问请求,并根据查询时刻,异步处理多个数据操作请求。在降低io访问cpu消耗的同时,在不引入进程切换代价时,显著降低cpu开销,有效的提升了索引的性能,充分发挥新硬件巨大的io并行处理能力,进而提升了数据操作的性能。

如图3所示,本发明实施例中,对数据操作请求引入了状态,以便对数据操作请求实行的进行调度。通过状态的设置,可以将数据操作请求的执行过程划分为若干个状态的转化过程。每一个转化过程都实现数据操作请求从一个状态到另外一个状态的转化。数据操作请求可以包括:就绪状态,等待状态,完成状态。

当未到达查询时刻时,索引线程可以连续处理多个处于就绪状态的数据操作请求,并将该数据操作请求从当前的就绪状态转移到下一个状态(等待状态或完成状态)。

当一个数据操作请求需要io访问时,线程会向nvme接口的提交队列发送一个io访问请求,并将这个数据操作请求的状态设置为等待状态。

如图4所示,在具体实施过程中,等待状态的数据操作请求可以通过为数据操作请求加锁的方式设置,例如获取特定索引节点的锁的过程中,该数据操作请求可以认为处于等待状态。

通过上述方法,当一个数据操作请求提交了io访问请求,进入等待状态后,线程会转而执行其他处于就绪状态的数据操作请求,从而使得在到达查询时刻之前的同一时间段内,同一线程可以提交多个异步地io访问请求,既能充分发挥nvm的并行数据处理能力,又可以避免多线程所引起的加锁和线程切换代价。

若到达所述查询时刻,则从所述nvme接口的完成队列中查询是否有io访问请求的处理结果;

若存在n个io访问请求的处理结果,且所述nvme接口的待提交队列中包括m个io访问请求,则从所述nvme接口的待提交队列中获取至少n个io访问请求;m大于等于n;n,m为正整数;

将所述至少n个io访问请求发给所述nvme接口,并将所述至少n个io访问请求对应的数据操作请求的状态标记为等待状态。

在一种具体的实施方式中,针对所述n个io访问请求的处理结果中的每个io访问请求的处理结果,执行:

确定第二io访问请求对应的第二数据操作请求是否执行完毕,若未执行完毕,则将所述第二数据操作请求的状态设置为就绪状态;所述第二io访问请求为所述n个io访问请求中的任一个;根据所述第二io访问请求的处理结果和所述第二数据操作请求,生成第三io访问请求;将所述第三io访问请求放入所述nvme接口的待提交队列中。

如图3所示,在一种具体的实施方式中,所述数据操作请求为针对b+树的索引访问请求;所述确定第二io访问请求对应的第二数据操作请求是否执行完毕,包括:

确定所述第二io访问请求的处理结果是否为b+树中的叶子节点;若是,则确定所述第二io访问请求对应的第二数据操作请求执行完毕;若否,则确定所述第二io访问请求对应的第二数据操作请求未执行完毕。

在到达查询时刻,探测nvme接口的完成队列,确定完成的io访问请求对应的等待状态的数据操作请求已经完成的,则将对应的索引操作设置为完成状态;或者,等待状态的索引操作对应的io访问请求完成且io访问请求的结果为非叶子节点,需要生成新的io访问请求,则将该数据操作请求的状态修改为可被执行的就绪状态。

下面以数据操作请求为b+树索引操作请求为例,图5a示意性的示出了一个索引操作请求从创建到执行完毕的状态转化过程,包括:

步骤501:根据索引操作请求,将该索引搜索操作的状态设置为初始状态;

步骤502:通过定位根节点,该索引操作从初始状态i状态转化为nvme读就绪状态p;

步骤503:通过执行处于p状态的索引操作请求,向nvme接口提交第一io访问请求,并将所述索引操作请求的状态设置为等待状态s;

在具体实施过程中,等待状态的索引操作可以通过为索引操作加锁的方式设置,例如获取特定索引节点的锁的过程中,该索引操作可以认为处于等待状态。当io访问请求发到提交队列后,索引线程不会等待,而是直接执行下一个索引操作,从而会向提交队列提交更多的io访问请求。

步骤504:当到达查询时刻,索引线程通过访问nvme接口的完成队列探测到所述索引操作请求对应的io访问请求已经完成,从而将所述索引操作转为为nvme读完成状态c;

步骤505:索引线程继续执行该索引操作,若确定io访问请求的处理结果为访问到的节点为叶子节点,则索引线程搜索该叶子节点,从而完成整个索引搜索,将所述索引操作请求的状态设置为完成状态t;

步骤506:索引线程继续执行该索引操作,若确定io访问请求的处理结果为访问到的节点为非叶子节点,则索引线程搜索所述非叶子节点,并定位下一层的孩子节点,并将所述索引操作请求的状态转化为nvme读就绪状态p。

如图5b所示,c1,c2…cn为n个不同的操作请求;就绪状态可以包括上述实施例中的初始状态i,nvme读就绪状态p,nvme读完成状态c;当未到达查询时刻时,索引线程会对就绪状态下的索引操作请求进行处理,不处理等待状态的索引操作请求。

由于nvme采用的是poll-mode,因此索引线程需要主动探测完成队列以发现已经完成的io访问请求。选择恰当探测操作的频率,是pa-tree的关键。如果探测地过于频繁,会有大量的探测会不获得任何完成的io,之后浪费cpu、干扰nvme的执行;反之,如果探测不及时,则会有已经完成的io得不到及时响应,增加索引操作的延迟、降低索引的吞吐量。

为提升数据操作的性能,本发明实施例提供一种确定查询时刻的方法,包括:

所述查询时刻是根据预设时间段向所述nvme接口提交的io访问请求的数量以及线性回归模型确定的。

当然,也可以根据其他模型实现对查询时刻的预测,在此不做限定。

在具体实施过程中,可以采用线性回归的方法来预测nvme接口的完成队列上有已经完成的io访问请求的查询时刻,使得只有当完成队列中存在io访问请求时,线程才对nvme的完成队列进行查询。

举例来说,预设时间段可以为最近t微秒;将最近t微秒切分为k个分片,定义一个向量w=[w1,w2,…,wk],其中wi是在第i个时间分片中向nvme提交的写io访问请求的数量。定义一个向量r=[r1,r2,…,rk],其中ri表示在第i个时间分片内向nvme提交的读io访问请求的数量。

线性回归模型将t=r||w作为输入,预测当前时刻出现在完成队列上的写io访问请求的数目w0和读io访问请求的数目r0:

(w0,r0)=t·β

其中β是是一个2k×2维的参数矩阵。一种可能的实现方式,t=1000,n=20。

一种可能的实现方式,可以将查询时刻确定为预测写io访问请求的数目w0和/或读io访问请求的数目r0都大于n的时刻。n的取值可以根据实际需要确定,在此不做限定。

本发明实施例提供一种数据操作的方法,如图6所示,包括:

步骤601:执行一个处于就绪状态的数据操作请求,直至该数据操作请求执行完毕或者进入等待状态;

步骤602:根据模型确定是否到达查询时刻,如果有执行步骤603;否则执行步骤605;

当然,还可以根据模型判断当前时刻是否有执行完成的io访问请求,若确定预测值大于0,则执行步骤603;否则执行步骤605;

步骤603:探测nvme的完成队列,并将完成的io对应的数据操作请求标记为完成状态;执行步骤604;

步骤604:判断是否有处于就绪状态的数据操作请求;如果有,则执行步骤601;否则执行步骤605;

步骤605:根据模型,预测在下一查询时刻,若下一查询时刻超过预设阈值,则执行步骤606;否则,执行步骤601;

一种可能的实现方式,可以根据模型,预测在未来预设阈值的时刻是否有完成的io访问请求,如果有,则执行步骤601;否则执行步骤606;

步骤606:休眠cput毫秒后,执行步骤601。

本发明实施例中,通过nvme接口,实现了异步的b+tree索引的数据操作。相比现有技术,由于采用了异步的io提交方式,从而使得pa-tree在只需要一个或少数几个索引线程的同时,即可以向nvme接口提交大量的io访问请求,在不引入进程切换代价时,显著降低cpu开销,有效的提升了索引的性能,进而提升了数据操作的性能。

在异步的b+tree访问技术中,通过一个索引线程交替性的执行多个索引操作,并在当为正在执行的索引操作提交io访问请求后,立即切换到处理下一个处于就绪状态的索引操作,具有更低的cpu消耗,更高的索引性能。本发明实施例中,保证多个异步执行的索引操作交替工作的情况下索引结构的一致性的同时,最小化索引算子状态迁移代价。采用机器学习算法,预测io的完成情况,从而降低nvme完成队列探测的频率,提升探测的准确性,对实际应用中工作负载的波动具有自适应性。

基于相同的发明构思,如图7所示,本发明实施例提供一种数据操作装置,所述装置包括:

处理单元701,用于确定当前时刻是否到达nvme接口的完成队列的查询时刻;所述nvme接口的完成队列中存储有nvme接口处理io访问请求后的处理结果;若未到达所述查询时刻,则从nvme接口的待提交队列中获取第一io访问请求;所述提交队列中存储有状态为就绪状态的数据操作请求的io访问请求;

收发单元702,用于将所述第一io访问请求发给所述nvme接口;

所述处理单元701,还用于将所述第一io访问请求对应的第一数据操作请求的状态标记为等待状态;返回确定当前时刻是否到达nvme接口的完成队列的查询时刻的步骤,直至到达所述查询时刻或所述nvme接口的待提交队列中无io访问请求。

一种可能的实现方式,所述处理单元701还用于:

若到达所述查询时刻,则从所述nvme接口的完成队列中查询是否有io访问请求的处理结果;若存在n个io访问请求的处理结果,且所述nvme接口的待提交队列中包括m个io访问请求,则从所述nvme接口的待提交队列中获取至少n个io访问请求;m大于等于n;将所述至少n个io访问请求发给所述nvme接口,并将所述至少n个io访问请求对应的数据操作请求的状态标记为等待状态。

一种可能的实现方式,所述处理单元701还用于,针对所述n个io访问请求的处理结果中的每个io访问请求的处理结果,执行:

确定第二io访问请求对应的第二数据操作请求是否执行完毕,若未执行完毕,则将所述第二数据操作请求的状态设置为就绪状态;所述第二io访问请求为所述n个io访问请求中的任一个;根据所述第二io访问请求的处理结果和所述第二数据操作请求,生成第三io访问请求;将所述第三io访问请求放入所述nvme接口的待提交队列中。

一种可能的实现方式,所述数据操作请求为针对b+树的索引访问请求;所述处理单元701,具体用于:

确定所述第二io访问请求的处理结果是否为b+树中的叶子节点;若是,则确定所述第二io访问请求对应的第二数据操作请求执行完毕;若否,则确定所述第二io访问请求对应的第二数据操作请求未执行完毕。

一种可能的实现方式,所述查询时刻是根据预设时间段向所述nvme接口提交的io访问请求的数量,以及线性回归模型确定的。

如图8所示,基于同一发明构思,本发明一实施例提供一种数据操作设备,该数据操作设备包括:至少一个处理器801,处理器801用于执行存储器中存储的计算机程序时实现本发明实施例提供的如图2所示的数据操作方法的步骤。

可选的,处理器801具体可以是中央处理器、特定应用集成电路(英文:applicationspecificintegratedcircuit,简称:asic),可以是一个或多个用于控制程序执行的集成电路。

可选的,该数据操作设备还包括与至少一个处理器连接的存储器802,存储器802可以包括具有nvme接口的存储介质;例如,具有nvme接口的ssd等。存储器802用于存储处理器801运行时所需的数据,即存储有可被至少一个处理器801执行的指令,至少一个处理器801通过执行存储器802存储的指令,执行如图2所示的方法。其中,存储器802的数量为一个或多个。其中,存储器802在图8中一并示出。

其中,收发单元701和处理单元702所对应的实体设备均可以是前述的处理器801。该数据操作设备可以用于执行图2所示的实施例所提供的方法。因此关于该设备中各功能模块所能够实现的功能,可参考图2所示的实施例中的相应描述,不多赘述。

本发明实施例还提供一种计算机存储介质,其中,计算机存储介质存储有计算机指令,当计算机指令在计算机上运行时,使得计算机执行如图2所述的方法。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。

所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:通用串行总线闪存盘(universalserialbusflashdisk)、移动硬盘、只读存储器(read-onlymemory,rom)、随机存取存储器(randomaccessmemory,ram)、磁碟或者光盘等各种可以存储程序代码的介质。

尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。

显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1