法律判决结果预测方法及装置与流程

文档序号:16811860发布日期:2019-02-10 13:44阅读:305来源:国知局
法律判决结果预测方法及装置与流程

本发明实施例属于机器学习技术领域,更具体地,涉及一种法律判决结果预测方法及装置。



背景技术:

自动判决的任务是根据法律文书中的事实部分对判决结果进行预测。一方面,为没有法律基础的人提供较高质量的判决结果;另一方面,为专业的法律人士提供法律参考。

近些年来,关于自动判决的研究很多。最开始是将自动判决的问题当作一个简单的文本分类问题,用一些传统的手段,如关键字匹配来处理自动判决的问题。随着深度学习的发展,更多的学者开始利用深度学习的框架来抽取文本中的信息,以对自动判决进行辅助。但是,这种方法普遍存在的问题是考虑的重点为如何抽取文本信息,而不是考虑自动判决的所有任务。大部分的工作是将自动判决当作一个单任务,即将自动判决中的各任务分开,分别对各任务进行处理。但是,在自动判决问题中,比如相关法条的预测结果会直接影响到相关罪名的预测。换句话说,在这些自动判决的任务之间存在某种关系。所以将各个任务分开单独考虑会影响判决结果的准确性。此外,各个任务之间也存在着逻辑上的关系。比如在预测相关罪名以及刑期时,需要根据预测的法条结果来参考法条内容,才能确定罪名和刑期。

综上所述,现有技术基于深度学习对法律判决中的各任务单独进行判决结果的预测,而实际上各任务之间是相互关联的,各任务的预测结果是相互影响的,因此对各任务单独预测的判决结果不准确。



技术实现要素:

为克服上述现有的法律判决结果预测方法的预测结果不准确的问题或者至少部分地解决上述问题,本发明实施例提供一种法律判决结果预测方法及装置。

根据本发明实施例的第一方面,提供一种法律判决结果预测方法,包括:

将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;

对所述第一词向量矩阵进行编码获取第一编码结果,对各所述第二词向量矩阵分别进行编码获取第二编码结果;

根据所述第一编码结果、各所述第二编码结果和预先获取的各所述法律文书样本的判决结果,基于长短时记忆神经网络对所述待预测法律文书的各判决任务的判决结果进行预测;其中,所述长短时记忆神经网络根据各所述判决任务之间的依赖关系进行构建。

根据本发明实施例第二方面提供一种法律判决结果预测装置,包括:

转化模块,用于将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;

编码模块,用于对所述第一词向量矩阵进行编码获取第一编码结果,对各所述第二词向量矩阵分别进行编码获取第二编码结果;

预测模块,用于根据所述第一编码结果和各所述第二编码结果,基于长短时记忆神经网络对各所述判决任务的判决结果进行预测;其中,所述长短时记忆神经网络根据所述待预测法律文书的各判决任务之间的依赖关系进行构建。

根据本发明实施例的第三个方面,还提供一种电子设备,包括:

至少一个处理器;以及

与所述处理器通信连接的至少一个存储器,其中:

所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行第一方面的各种可能的实现方式中任一种可能的实现方式所提供的法律判决结果预测方法。

根据本发明实施例的第四个方面,还提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行第一方面的各种可能的实现方式中任一种可能的实现方式所提供的法律判决结果预测方法。

本发明实施例提供一种法律判决结果预测方法及装置,该方法通过提取将待预测法律文书和各法律文书样本转化为词向量矩阵,对各词向量矩阵进行编码,根据编码结果和各法律文书样本的判决结果基于长短时记忆神经网络对各判决任务的判决结果进行预测,其中长短时记忆神经网络根据待预测法律文书的各判决任务之间的依赖关系进行创建,本实施例基于使用各判决任务之间的依赖关系创建的长短时记忆神经网络对判决结果进行自动预测,从而将各判决任务结合在一起,提高了判决结果的准确性,具有良好的可拓展性。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明实施例提供的法律判决结果预测方法整体流程示意图;

图2为本发明实施例提供的法律判决结果预测方法中基于长短时记忆神经网络进行判决结果预测的流程示意图。

图3为本发明实施例提供的法律判决结果预测装置整体结构示意图;

图4为本发明实施例提供的电子设备整体结构示意图。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

在本发明实施例的一个实施例中提供一种法律判决结果预测方法,

图1为本发明实施例提供的法律判决结果预测方法整体流程示意图,该方法包括:s101,将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;

其中,待预测法律文书为需要进行法律判决结果预测的法律文书,第一事实信息为待预测法律文书中的事实信息,事实信息为事实部分的描述,即案情。第一词向量矩阵为将第一事实信息进行转化获取的词向量矩阵。将第一事实信息进行分词,根据第一事实信息中每个词的词向量将第一事实信息转化为一个词向量矩阵。

法律文书样本是指已知判决结果的法律文书,根据收集的法律文书样本构建法律文书数据集。第二事实信息为每个法律文书样本中的事实信息。使用正则表达式从待预测法律文书提取第一事实信息,从各法律文书样本中提取第二事实信息和各法律文书样本的判决结果,将各法律文书样本的判决结果作为各法律文书样本的标签。其中,判决结果包括案件所涉及的法条、罪名和刑期。第二词向量矩阵为将各第二事实信息进行转化获取的词向量矩阵。其中,第一事实信息和各第二事实信息转化为词向量矩阵的方法相同。将各第二事实信息进行分词,根据各第二事实信息中每个词的词向量将各第二事实信息转化为一个词向量矩阵。

s102,对第一词向量矩阵进行编码获取第一编码结果,对各第二词向量矩阵分别进行编码获取第二编码结果;

其中,第一编码结果为对第一词向量矩阵进行编码所得到的结果。第二编码结果为对各第二词向量矩阵进行编码所得到的结果。对第一词向量矩阵和各第二词向量矩阵进行编码是以对第一词向量矩阵和各第二词向量矩阵进行特征提取的方式进行的。本实施例中对第一词向量矩阵进行编码的方法与对各第二词向量矩阵进行编码的方法相同。

s103,根据第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于长短时记忆神经网络对待预测法律文书的各判决任务的判决结果进行预测;其中,长短时记忆神经网络根据各判决任务之间的依赖关系进行构建。

其中,判决任务与判决结果一一对应,如判决任务为刑期,刑期判决结果为2年。待预测法律文书的各判决任务之间的依赖关系是指若判决任务a的判决结果需要参考判决任务b的判决结果,则称为判决任务a依赖于判决任务b。例如,在预测罪名和刑期时,需要根据预测的法条结果参考法条内容,才能确定具体的罪名和刑期。预先根据待预测法律文书的各判决任务之间的依赖关系构建长短时记忆神经网络,从而将各判决任务结合在一起。本实施例不限于根据各判决任务之间的依赖关系构建长短时记忆神经网络的方法。将各法律文书样本的判决结果作为各法律文书样本的标签,根据第一编码结果、各第二编码结果和预先获取的各法律文书样本的标签,基于长短时记忆神经网络获取待预测法律文书的各判决任务的判决结果属于各预设判决结果的概率。如待预测法律文书中案件涉及的法条属于各预设法条的概率。根据待预测法律文书的各判决任务的判决结果属于各预设判决结果的概率,确定待预测法律文书的各判决任务的判决结果。

本实施例通过提取将待预测法律文书和各法律文书样本转化为词向量矩阵,对各词向量矩阵进行编码,根据编码结果和各法律文书样本的判决结果基于长短时记忆神经网络对各判决任务的判决结果进行预测,其中长短时记忆神经网络根据待预测法律文书的各判决任务之间的依赖关系进行创建,本实施例基于使用各判决任务之间的依赖关系创建的长短时记忆神经网络对判决结果进行自动预测,从而将各判决任务结合在一起,提高了判决结果的准确性,具有良好的可拓展性。

在上述实施例的基础上,本实施例中将待预测法律文书中的第一事实信息转化为第一词向量矩阵的步骤具体包括:对待预测法律文书中的第一事实信息进行分词,获取第一事实信息中每个词的词向量;将第一事实信息中所有词的词向量进行组合,获取第一词向量矩阵。

具体地,使用分词工具对第一事实信息进行分词,其中第一事实信息中的第i个词表示为wi。使用第一事实信息的分词结果,结合词向量技术,训练第一事实信息的词向量表f(w),表示词w所对应的向量,其大小为1×d。将分词后的第一事实信息表示为一个词序列[w1,w2,…,wn],使用词向量表将第一事实信息转化为第一词向量矩阵m=[f(w1),f(w2),…,f(wn)],m的大小为n×d。使用本实施例的方法将各第二事实信息转化为第二词向量矩阵。

在上述实施例的基础上,本实施例中对第一词向量矩阵进行编码获取第一编码结果的步骤具体包括:使用多组卷积核对第一词向量矩阵进行卷积运算;其中,各组中卷积核的宽度等于第一词向量矩阵的宽度,同一组中卷积核的大小相同,不同组的卷积核的大小不同;对各组的卷积运算结果进行池化,将各组的池化结果进行组合获取第一编码结果。

具体地,设置多组卷积核,使用多组卷积核对第一词向量矩阵进行卷积运算。所有组中卷积核的宽度等于第一词向量矩阵的宽度d,即卷积运算是对第一词向量的整行进行卷积。卷积核的高度h为第一词向量的行数。同一组中卷积核的大小相同,不同组的卷积核的大小不同。例如,设置四组卷积核,第一组卷积核的高度h为2,第一组卷积核的高度h为3,第三组卷积核的高度h为4,第四组卷积核的高度h为5。假设第一词向量矩阵为x,则使用任一卷积核对第一词向量矩阵进行卷积的公式为ci=w·xi:i+h-1+b。其中,ci为第i次的卷积运算结果,w为该卷积核的权重,xi:i+h-1表示第一词向量矩阵中从第i行到i+h-1行的数据,b为该卷积核的偏置。使用该卷积核进行卷积运算获取的卷积运算结果为c=[c1,c2,…,cn-h+1]。其中,n为第一词向量矩阵的总行数。各组中每个卷积核对应有一个卷积运算结果。对各组的卷积运算结果进行池化,将各组的池化结果进行组合获取第一编码结果。使用本实施例的方法对各第二词向量矩阵进行编码获取第二编码结果。

在上述实施例的基础上,本实施例中对各组的卷积运算结果进行池化的步骤具体包括:将各组中任一卷积核所有卷积运算结果的最大值进行保留,将各组中任一卷积核所有卷积运算结果中除最大值以外的卷积运算结果删除。

具体地,对于第t组中的任一卷积核对应有一个卷积运算结果其中,m为卷积核的总组数,ci,t为第t组中任一卷积核第i次的卷积运算结果。将第t组中任一卷积核所有卷积运算结果中的最大值进行保留,将第t组中任一卷积核所有卷积运算结果中除最大值以外的卷积运算结果进行删除,即dt=max(c1,t,c2,t,…,cn-h+1,t)。将各组的池化结果进行组合获取第一编码结果,即d=[d1,d2,…,dm]。例如,当h=[2,3,4,5]时,d=[d1,d2,d3,d4]。

在上述任一实施例的基础上,本实施例中根据第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于长短时记忆神经网络对待预测法律文书的各判决任务的判决结果进行预测的步骤之前还包括:为各判决任务创建一个长短时记忆神经细胞;根据待预测法律文书的各判决任务之间的依赖关系,对各长短时记忆神经细胞的隐状态和细胞状态进行初始化;根据各长短时记忆神经细胞初始化的隐状态和各长短时记忆神经细胞初始化的细胞状态,获取各长短时记忆神经细胞的当前隐状态和各长短时记忆神经细胞的当前细胞状态;将各长短时记忆神经细胞的当前隐状态和各长短时记忆神经细胞的当前细胞状态作为各长短时记忆神经细胞对应的判决任务的特定任务表示。

具体地,在使用长短时记忆神经网络对待预测法律文书的各判决任务的判决结果进行预测之前还需要根据待预测法律文书的各判决任务之间的依赖关系构建长短时记忆神经网络。具体为对于待预测法律文书的第i个判决任务,为其创建一个长短时记忆网络细胞,其包含两个参数为该长短时记忆神经细胞的初始隐状态,为该长短时记忆神经细胞的初始细胞状态。根据待预测法律文书的各判决任务之间的依赖关系对进行初始化。将初始化的代入长短时记忆神经网络公式,获取该长短时记忆神经细胞的当前隐状态hi和当前细胞状态ci。将hi和ci作为待预测法律文书的第i个判决任务的特定任务表示。

在上述实施例的基础上,本实施例中通过以下公式根据待预测法律文书的各判决任务之间的依赖关系,对各长短时记忆神经细胞的隐状态和细胞状态进行初始化:

其中,i,j为待预测法律文书的判决任务的序号,为第i个判决任务对应的长短时记忆神经细胞初始化的隐状态,为第i个判决任务对应的长短时记忆神经细胞初始化的细胞状态,di为第i个判决任务所依赖的判决任务的集合,tj为di中的任一判决任务,wi,j表示第i个判决任务与第j个判决任务之间的权重,hj表示第j个判决任务对应的长短时记忆神经细胞的当前隐状态,cj表示第j个判决任务对应的长短时记忆神经细胞的当前细胞状态,bi为第i个判决任务对应的偏置。

在上述实施例的基础上,本实施例中根据第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于长短时记忆神经网络对待预测法律文书的各判决任务的判决结果进行预测的步骤具体包括:对各判决任务的特定任务表示进行线性转换;根据线性转换结果、第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于softmax分类器获取各判决任务的判决结果。

具体地,在获取到待预测法律文书的第i个判决任务的特定任务表示后使用线性转换层对第i个判决任务的特定任务表示进行线性转换,即其中,wip表示权重,表示偏置。然后根据线性转换结果、第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于softmax分类器获取待预测法律文书的第i个判决任务的判决结果yi,即

图2为本发明实施例提供的法律判决结果预测方法中基于长短时记忆神经网络进行判决结果预测的流程示意图。编码部分首先将第一事实信息的第一词向量矩阵f1使用编码器进行编码,获取第一编码结果f1。将个第二事实信息的第二词向量矩阵f2使用编码器进行编码,获取第二编码结果f2。预测部分假设有5个判决任务,为每个判决任务创建一个长短时记忆神经细胞,即lstm(longshorttermmemorynetwork,长短时记忆神经网络)细胞。预测部分中圆角矩形框之间的连线表示各判决任务之间的依赖关系,如判决任务2依赖于判决任务1和判决任务3。lstm细胞接收f1和f2的输入,将输出结果发送到线性转换层进行线性转换,线性转换层的输出结果发送到softmax层,softmax层输出各判决任务的判决结果,即y1、y2、y3、y4和y5。

在本发明实施例的另一个实施例中提供一种法律判决结果预测装置,该装置用于实现前述各实施例中的方法。因此,在前述法律判决结果预测方法的各实施例中的描述和定义,可以用于本发明实施例中各个执行模块的理解。图3为本发明实施例提供的法律判决结果预测装置整体结构示意图,该装置包括转化模块301,编码模块302和预测模块303;其中:

转化模块301用于将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;

其中,待预测法律文书为需要进行法律判决结果预测的法律文书,第一事实信息为待预测法律文书中的事实信息,事实信息为事实部分的描述,即案情。第一词向量矩阵为将第一事实信息进行转化获取的词向量矩阵。转化模块301将第一事实信息进行分词,根据第一事实信息中每个词的词向量将第一事实信息转化为一个词向量矩阵。

法律文书样本是指已知判决结果的法律文书,根据收集的法律文书样本构建法律文书数据集。第二事实信息为每个法律文书样本中的事实信息。使用正则表达式从待预测法律文书提取第一事实信息,从各法律文书样本中提取第二事实信息和各法律文书样本的判决结果,将各法律文书样本的判决结果作为各法律文书样本的标签。其中,判决结果包括案件所涉及的法条、罪名和刑期。第二词向量矩阵为将各第二事实信息进行转化获取的词向量矩阵。其中,第一事实信息和各第二事实信息转化为词向量矩阵的方法相同。转化模块301将各第二事实信息进行分词,根据各第二事实信息中每个词的词向量将各第二事实信息转化为一个词向量矩阵。

编码模块302用于对第一词向量矩阵进行编码获取第一编码结果,对各第二词向量矩阵分别进行编码获取第二编码结果;

其中,第一编码结果为对第一词向量矩阵进行编码所得到的结果。第二编码结果为对各第二词向量矩阵进行编码所得到的结果。编码模块302对第一词向量矩阵和各第二词向量矩阵进行编码是以对第一词向量矩阵和各第二词向量矩阵进行特征提取的方式进行的。本实施例中对第一词向量矩阵进行编码的方法与对各第二词向量矩阵进行编码的方法相同。

预测模块303用于根据第一编码结果和各第二编码结果,基于长短时记忆神经网络对各判决任务的判决结果进行预测;其中,长短时记忆神经网络根据待预测法律文书的各判决任务之间的依赖关系进行构建。

其中,判决任务与判决结果一一对应,待预测法律文书的各判决任务之间的依赖关系是指若判决任务a的判决结果需要参考判决任务b的判决结果,则称为判决任务a依赖于判决任务b。预先根据待预测法律文书的各判决任务之间的依赖关系构建长短时记忆神经网络,从而将各判决任务结合在一起。本实施例不限于根据各判决任务之间的依赖关系构建长短时记忆神经网络的方法。预测模块303将各法律文书样本的判决结果作为各法律文书样本的标签,根据第一编码结果、各第二编码结果和预先获取的各法律文书样本的标签,基于长短时记忆神经网络获取待预测法律文书的各判决任务的判决结果属于各预设判决结果的概率。根据待预测法律文书的各判决任务的判决结果属于各预设判决结果的概率,确定待预测法律文书的各判决任务的判决结果。

本实施例通过提取将待预测法律文书和各法律文书样本转化为词向量矩阵,对各词向量矩阵进行编码,根据编码结果和各法律文书样本的判决结果基于长短时记忆神经网络对各判决任务的判决结果进行预测,其中长短时记忆神经网络根据待预测法律文书的各判决任务之间的依赖关系进行创建,本实施例基于使用各判决任务之间的依赖关系创建的长短时记忆神经网络对判决结果进行自动预测,从而将各判决任务结合在一起,提高了判决结果的准确性,具有良好的可拓展性。

在上述实施例的基础上,本实施例中转化模块具体用于:对待预测法律文书中的第一事实信息进行分词,获取第一事实信息中每个词的词向量;将第一事实信息中所有词的词向量进行组合,获取第一词向量矩阵。

在上述实施例的基础上,本实施例中编码模块具体用于:使用多组卷积核对第一词向量矩阵进行卷积运算;其中,各组中卷积核的宽度等于第一词向量矩阵的宽度,同一组中卷积核的大小相同,不同组的卷积核的大小不同;对各组的卷积运算结果进行池化,将各组的池化结果进行组合获取第一编码结果。

在上述实施例的基础上,本实施例中编码模块进一步具体用于:将各组中任一卷积核所有卷积运算结果的最大值进行保留,将各组中任一卷积核所有卷积运算结果中除最大值以外的卷积运算结果删除。

在上述各实施例的基础上,本实施例中还包括构建模块,用于为各判决任务创建一个长短时记忆神经细胞;根据待预测法律文书的各判决任务之间的依赖关系,对各长短时记忆神经细胞的隐状态和细胞状态进行初始化;根据各长短时记忆神经细胞初始化的隐状态和各长短时记忆神经细胞初始化的细胞状态,获取各长短时记忆神经细胞的当前隐状态和各长短时记忆神经细胞的当前细胞状态;将各长短时记忆神经细胞的当前隐状态和各长短时记忆神经细胞的当前细胞状态作为各长短时记忆神经细胞对应的判决任务的特定任务表示。

在上述实施例的基础上,本实施例中构建模块具体通过以下公式根据待预测法律文书的各判决任务之间的依赖关系,对各长短时记忆神经细胞的隐状态和细胞状态进行初始化:

其中,i,j为待预测法律文书的判决任务的序号,为第i个判决任务对应的长短时记忆神经细胞初始化的隐状态,为第i个判决任务对应的长短时记忆神经细胞初始化的细胞状态,di为第i个判决任务所依赖的判决任务的集合,tj为di中的任一判决任务,wi,j表示第i个判决任务与第j个判决任务之间的权重,hj表示第j个判决任务对应的长短时记忆神经细胞的当前隐状态,cj表示第j个判决任务对应的长短时记忆神经细胞的当前细胞状态,bi为第i个判决任务对应的偏置。

在上述实施例的基础上,本实施例中预测模块具体用于:对各判决任务的特定任务表示进行线性转换;根据线性转换结果、第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于softmax分类器获取各判决任务的判决结果。

本实施例提供一种电子设备,图4为本发明实施例提供的电子设备整体结构示意图,该设备包括:至少一个处理器401、至少一个存储器402和总线403;其中,

处理器401和存储器402通过总线403完成相互间的通信;

存储器402存储有可被处理器401执行的程序指令,处理器调用程序指令能够执行上述各方法实施例所提供的方法,例如包括:将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;对第一词向量矩阵进行编码获取第一编码结果,对各第二词向量矩阵分别进行编码获取第二编码结果;根据第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于长短时记忆神经网络对待预测法律文书的各判决任务的判决结果进行预测;其中,长短时记忆神经网络根据各判决任务之间的依赖关系进行构建。

本实施例提供一种非暂态计算机可读存储介质,非暂态计算机可读存储介质存储计算机指令,计算机指令使计算机执行上述各方法实施例所提供的方法,例如包括:将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;对第一词向量矩阵进行编码获取第一编码结果,对各第二词向量矩阵分别进行编码获取第二编码结果;根据第一编码结果、各第二编码结果和预先获取的各法律文书样本的判决结果,基于长短时记忆神经网络对待预测法律文书的各判决任务的判决结果进行预测;其中,长短时记忆神经网络根据各判决任务之间的依赖关系进行构建。

本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:rom、ram、磁碟或者光盘等各种可以存储程序代码的介质。

以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。

通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分的方法。

最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1