文本匹配方法、装置及存储介质、计算机设备与流程

文档序号:17643289发布日期:2019-05-11 00:49阅读:199来源:国知局
文本匹配方法、装置及存储介质、计算机设备与流程

本发明涉及文本处理技术领域,具体而言,本发明涉及一种文本匹配方法、装置及存储介质、计算机设备。



背景技术:

文本匹配,即衡量搜索词与文本在文本上的相关性或者匹配度。文本匹配方法是搜索系统中一项必不可少的技术。在检索式的问答系统中,很重要的一步是将检索到的答案进行排序得到最佳的答案。换句话说,就是给定一个句子和众多自然语言形式的候选句,根据该句子,在众多的候选句中找到最匹配的句子。

传统的文本匹配方法通常根据词频的方式对文本进行匹配运算。例如,tf-idf(termfrequency-inversedocumentfrequency,词频-逆向文件频率)算法。然而,采用分词词频的方式进行文本匹配,其匹配结果的准确性存在一定局限,不能很好地确定出与文本匹配对较高的其他文本。



技术实现要素:

本发明提出一种文本匹配方法、装置及存储介质、计算机设备,以实现无需人工去定义特征模板即可获得文本匹配的候选句中语义最匹配的句子。

本发明提供以下方案:

一种文本匹配方法,包括:接收输入的目标文本;获取根据所述目标文本进行初步匹配得到的多个候选语句;将所述目标文本与每个所述候选语句输入卷积神经网络cnn与gru神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度;其中,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度;根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句。

在一实施例中,所述将所述目标文本与每个所述候选语句输入卷积神经网络cnn与gru神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度,包括:将所述目标文本输入所述卷积神经网络cnn进行卷积处理,得到第一卷积向量,将所述候选语句输入所述卷积神经网络cnn进行卷积处理,得到第二卷积向量;将所述第一卷积向量输入所述gru神经网络,到第一神经网络向量,将所述第二卷积向量输入所述gru神经网络,得到第二神经网络向量;根据所述第一神经网络向量和所述第二神经网络向量的余弦相似度,得到所述候选语句与所述目标文本的语义相似度。

在一实施例中,所述卷积神经网络cnn与gru神经网络构成的文本匹配模型根据以下方式进行训练:获取目标训练语句,与所述目标训练语句语义相似的第一训练语句,以及与所述目标训练语句语义不相似的第二训练语句;利用所述卷积神经网络cnn分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理,得到与所述目标训练语句对应的第一向量、与所述第一训练语句对应的第二向量,及与所述第二训练语句对应的第三向量;分别将所述第一向量、所述第二向量及所述第三向量输入所述gru神经网络,得到与所述第一向量对应的第四向量、与所述第二向量对应的第五向量及与所述第三向量对应的第六向量;分别根据所述第四向量与第五向量的余弦相似度,以及所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值;根据所述第一分值和所述第二分值确定所述文本匹配模型中相关联的参数。

在一实施例中,所述卷积神经网络cnn分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理,包括:将所述卷积神经网络cnn的卷积窗口设置为预设n个词;利用设置后的所述卷积神经网络cnn分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理。

在一实施例中,所述分别将所述第一向量、所述第二向量及所述第三向量输入所述gru神经网络,得到与所述第一向量对应的第四向量、与所述第二向量对应的第五向量及与所述第三向量对应的第六向量之后,还包括:分别将所述第四向量、所述第五向量及所述第六向量通过池化层,以对所述第四向量、所述第五向量及所述第六向量进行维度变化处理;所述分别根据所述第四向量与第五向量的余弦相似度,以及所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值,包括:分别根据维度变化处理后的所述第四向量与第五向量的余弦相似度,以及维度变化处理后的所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值。

在一实施例中,所述根据所述第一分值和所述第二分值确定所述文本匹配模型中相关联的参数,包括:根据所述第一分值和所述第二分值确定所述文本匹配模型对应的代价函数的相关联的参数;所述代价函数包括铰链损失函数hingeloss。

在一实施例中,所述根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句,包括:根据每个所述候选语句对应的语义相似度,从所述多个候选语句中筛选出所述语义相似度最高的候选语句,向用户推荐该语义相似度最高的候选语句。

一种文本匹配装置,包括:接收模块,用于获接收输入的目标文本;第一获取模块,用于获取根据所述目标文本进行初步匹配得到的多个候选语句;第二获取模块,用于将所述目标文本与每个所述候选语句输入卷积神经网络cnn与gru神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度;其中,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度;推荐模块,用于根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句。

一种存储介质,其上存储有计算机程序;所述计算机程序适于由处理器加载并执行上述任一实施例所述的文本匹配方法。

一种计算机设备,其包括:一个或多个处理器;存储器;一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个应用程序配置用于执行根据上述任一实施例所述的文本匹配方法。

上述实施例提供的文本匹配方法可用于检索式的问答系统中。在检索式的问答系统中,用户输入一目标文本,系统通过初步匹配目标文本,从对应数据库中读取出于该目标文本语义匹配的多个候选语句。一般地,此步骤中系统通过初步匹配得到多个所述候选语句,但对于每个候选语句与目标语句在语义中的相似度,并没有确定。因此,该文本匹配方法提供了卷积神经网络cnn与gru神经网络构成的文本匹配模型,将每个候选语句与目标文本输入到该文本匹配模型中,得到每个候选语句与目标文本在语义上的相似度,从而可以筛选出相似度最高的候选语句推荐给用户。因此,不需要人工去定义特征模板,最终获得候选句中语义最匹配的句子。

本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。

附图说明

本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:

图1为本发明提供的一种文本匹配方法的一实施例中的方法流程图;

图2为本发明提供的卷积神经网络的层级结构示意图;

图3为本发明提供的步骤s300的一实施例中的方法流程图;

图4为本发明提供的文本匹配模型的一实施例中的训练方式的方法流程图;

图5为本发明提供的文本匹配模型的一具体实施方式中的结构示意图;

图6为本发明提供的一种文本匹配装置的一实施例中的结构框图;

图7为本发明提供的一种计算机设备的一实施例中的结构示意图。

具体实施方式

下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。

本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式,这里使用的“第一”、“第二”仅用于区别同一技术特征,并不对该技术特征的顺序和数量等加以限定。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。

本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。

本发明提供一种文本匹配方法。在一实施例中,如图1所示,该文本匹配方法,包括以下步骤:

s100,接收输入的目标文本。

在本实施例中,系统接收到用户输入的目标文本。该目标文本可以是一段字符。具体地,可以是检索式的问答系统中,用户输入一目标文本。

s200,获取根据所述目标文本进行初步匹配得到的多个候选语句。

在本实施例中,系统接收到用户输入的目标文本后,根据目标文本可初步筛选获得匹配的多个候选语句。此处的初步筛选的方式可以为通用的文本匹配方式。例如,通过对目标文本进行切词,并分析切词后每个分词的语义,以确定出目标文本的整体语义,从而从数据库中获取与所述目标文本语义匹配的多个候选语句。或者,根据本技术领域内惯用的技术方式,从系统数据库中获取与目标文本语义匹配的多个候选语句。

s300,将所述目标文本与每个所述候选语句输入卷积神经网络cnn与gru神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度。

在本实施例中,需要说明的是,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度。系统分别将多个候选语句中的每个候选语句与目标文本输入文本匹配模型,得到每个候选语句与目标文本的语义相似度。其中,文本匹配模型为卷积神经网络cnn与gru神经网络构成的模型。

在本方案中,卷积神经网络cnn更适合句子向量的学习,但是循环神经网络更适合时序关系的学习。因此,本实施例采用的所述文本匹配模型,先用卷积神经网络对句子进行卷积,之后再将卷积神经网络cnn的结果输入到gru神经网络中,利用循环神经网络对词语的卷积表示学习其顺序关系,使得最终得到的句子向量表示能够表征更多的句子信息和句子特征。以下对卷积神经网络cnn以及gru神经网络进行解释说明:

卷积神经网络(convolutionalneuralnetwork,cnn),是深度学习网络模型中最常见的网络结构之一,其在图像领域的识别效果上取得了很大的提升,也因此使得卷积神经网络声名大振。卷积神经网络最重要的两层就是卷积层和池化层,这也是卷积神经网络的核心步骤。如下图所示为典型的cnn结构,称之为lenet-5网络,其中就包括了多个卷积层和池化层。如图2所示,卷积层(convolutionallayer)利用一个卷积核(参数矩阵),在整个图片矩阵中逐一滑动窗口,进行内积,得到另一个中间矩阵,中间矩阵的大小取决于卷积核的维度。池化层(poolinglayer),也叫下采样层(subsamplinglayer),在卷积层进行了卷积处理之后,可得到相应的特征,可以使用得到的特征进行分类器的训练。然而,该方式依然存在巨大的计算量,容易产生过拟合的问题。想要进一步降低模型的拟合程度,需要对卷积层进行池化。

循环神经网络(recurrentneuralnetwork,rnn)被广泛应用于处理可变长的文本序列输入,其可以学习到句子的词序特征。其关键的结构是一个记忆单元(memoryunit)。记忆单元可以记忆某时间段的信息,对于一个句子则可以选择性的记住前一时刻词语的信息。当前循环神经网络主要有两种不同的变体lstm和gru,他们都能解决传统rnn存在的长期距离依赖与梯度消失问题。相对于lstm的网络结构,gru内部的隐藏单元少了一个控制门,参数少,收敛较快,在保证模型效果的同时,模型的结构也得到了有效简化。

本实施例结合卷积神经网络cnn与gru神经网络,可得到所述文本匹配模型。其中,文本匹配模型用于表征两个输入文本的语义相似度。通过该文本匹配模型可获取两个输入文本的相似度值,以判断两个输入文本的匹配度。

在一实施例中,如图3所示,步骤s300,包括:

s310,将所述目标文本输入所述卷积神经网络cnn进行卷积处理,得到第一卷积向量,将所述候选语句输入所述卷积神经网络cnn进行卷积处理,得到第二卷积向量。

s320,将所述第一卷积向量输入所述gru神经网络,到第一神经网络向量,将所述第二卷积向量输入所述gru神经网络,得到第二神经网络向量。

s330,根据所述第一神经网络向量和所述第二神经网络向量的余弦相似度,得到所述候选语句与所述目标文本的语义相似度。

在该实施例中,系统先分别采用卷积神经网络对目标文本以及候选语句进行卷积,之后再将卷积神经网络cnn的结果分别输入gru神经网络,利用循环神经网络对目标文本以及候选语句的词语进行时序学习,得到两者中词语的时序关系,从而得到学习到更多的句子信息和句子特征,进而根据目标文本与候选语句的句子信息以及句子特征确定目标文本与候选语句的相似度。

在一实施例中,如图4所示,所述卷积神经网络cnn与gru神经网络构成的文本匹配模型根据以下方式进行训练:

s10,获取目标训练语句,与所述目标训练语句语义相似的第一训练语句,以及与所述目标训练语句语义不相似的第二训练语句。

s20,利用所述卷积神经网络cnn分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理,得到与所述目标训练语句对应的第一向量、与所述第一训练语句对应的第二向量,及与所述第二训练语句对应的第三向量。

在该实施例的一个实施方式中,步骤s20包括:将所述卷积神经网络cnn的卷积窗口设置为预设n个词;利用设置后的所述卷积神经网络cnn分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理。

s30,分别将所述第一向量、所述第二向量及所述第三向量输入所述gru神经网络,得到与所述第一向量对应的第四向量、与所述第二向量对应的第五向量及与所述第三向量对应的第六向量。

在该实施例的一个实施方式中,步骤s30之后,还包括:分别将所述第四向量、所述第五向量及所述第六向量通过池化层,以对所述第四向量、所述第五向量及所述第六向量进行维度变化处理。此时,步骤s30包括:分别根据维度变化处理后的所述第四向量与第五向量的余弦相似度,以及维度变化处理后的所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值。

s40,分别根据所述第四向量与第五向量的余弦相似度,以及所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值。

s50,根据所述第一分值和所述第二分值确定所述文本匹配模型中相关联的参数。

在该实施例中,系统获取目标训练语句,与目标训练语句语义相似的第一训练语句,以及与目标训练语句语义不相似的第二训练语句作为训练语料,对卷积神经网络cnn与gru神经网络构成的文本匹配模型进行模型训练。具体地,将目标训练语句、第一训练语句和第二训练语句分别输入卷积神经网络cnn中进行初步的卷积训练,分别得到与目标训练语句对应的第一向量、与第一训练语句对应的第二向量,及与第二训练语句对应的第三向量。进一步地,分别将第一向量、第二向量及第三向量输入gru神经网络,得到与第一向量对应的第四向量、与第二向量对应的第五向量及与第三向量对应的第六向量。最后,获取第四向量与第五向量的余弦相似度,以及第四向量与第六向量的余弦相似度,以得到相应的余弦相似度分值,根据相应的余弦相似度分值确定文本匹配模型中相关联的参数。

在该实施例的一个实施方式中,步骤s50包括:根据所述第一分值和所述第二分值确定所述文本匹配模型对应的代价函数的相关联的参数;所述代价函数包括铰链损失函数hingeloss。

针对上述实施例所述卷积神经网络cnn与gru神经网络构成的文本匹配模型的训练方式,以下提供一个具体实施例,以进行详细说明:

具体地,文本匹配模型如图5所示。如图5所示,在文本匹配模型的训练过程中,输入三个句子,当前输入句子(目标训练语句、sentence)、与该当前输入句子语义相似的句子(similarsemanticsentence)和该当前输入句子语义不相似的句子(differentsemanticsentence)。首先利用cnn的卷积层分别对三个句子进行卷积,卷积窗口设置为两个词,学习得到相应的句子向量;接着使用循环神经网络进一步获得句子的时序信息;然后分别经过一层池化层(mean/maxpooling,均值池化或最大值池化),做一次向量的维度变化,防止模型过拟合;再使用该向量进行相似度(cosine)的计算,相似度使用的是余弦相似度,得到当前输入的句子与语义相似和不相似句子的分数。其中,代价函数使用的是hingeloss,目的是为了使语义相似句子的得分能够高于语义不相似句子的得分,而不仅仅是接近1。

因此,从图5中可以看到,在池化层之前,使用了两种深度学习网络结构,cnn和gru,以学习句子的信息。在具体实施过程,可使用cnn的卷积窗口是两个词,循环神经网络使用了基本的模型gru。本实施例没有使用双向的gru,不需要更复杂的改进来优化,以避免参数过多会导致过拟合和训练过慢的问题。结合该模型图的构造可知,该模型相比于cnn模型来说,多使用了一层循环神经网络去学习句子,能够学习得到更多的信息和特征。

s400,根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句。

在本实施例中,分别将多个候选语句中的每个候选语句与所述目标文本输入上述文本匹配模型,得到每个候选语句与所述目标文本的语义相似度,从而根据每个候选语句对应的语义相似度向用户推荐与目标文本语义相似的候选语句。在一实施例中,步骤s400,包括:根据每个所述候选语句对应的语义相似度,从所述多个候选语句中筛选出所述语义相似度最高的候选语句,向用户推荐该语义相似度最高的候选语句。

以下提供一具体的实施场景,以进一步说明上述文本匹配方法:

在该具体实施场景中,所述文本匹配方法可用于检索式的问答系统。在检索式的问答系统中,用户输入一目标文本,系统通过分析目标文本从对应数据库中读取出于该目标文本语义匹配的多个候选语句。一般地,此步骤中系统通过初步匹配得到多个所述候选语句,但对于每个候选语句与目标语句在语义中的相似度,并没有确定。因此,很难筛选出与用户输入的目标文本语义上最匹配的候选语句。本实施场景中,提供了卷积神经网络cnn与gru神经网络构成的文本匹配模型,将每个候选语句与目标文本输入到该文本匹配模型中,得到每个候选语句与目标文本在语义上的相似度,从而可以筛选出相似度最高的候选语句推荐给用户。因此,不需要人工去定义特征模板,最终获得候选句中语义最匹配的句子。

本发明还提供一种文本匹配装置。如图6所示,在一实施例中,该文本匹配装置包括接收模块100、第一获取模块200、第二获取模块300以及推荐模块400。

接收模块100用于获接收输入的目标文本。在本实施例中,系统接收到用户输入的目标文本。该目标文本可以是一段字符。具体地,可以是检索式的问答系统中,用户输入一目标文本。

第一获取模块200用于获取根据所述目标文本进行初步匹配得到的多个候选语句。在本实施例中,系统接收到用户输入的目标文本后,根据目标文本可初步筛选获得匹配的多个候选语句。此处的初步筛选的方式可以为通用的文本匹配方式。例如,通过对目标文本进行切词,并分析切词后每个分词的语义,以确定出目标文本的整体语义,从而从数据库中获取与所述目标文本语义匹配的多个候选语句。或者,根据本技术领域内惯用的技术方式,从系统数据库中获取与目标文本语义匹配的多个候选语句。

第二获取模块300用于将所述目标文本与每个所述候选语句输入卷积神经网络cnn与gru神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度;其中,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度。在本实施例中,需要说明的是,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度。系统分别将多个候选语句中的每个候选语句与目标文本输入文本匹配模型,得到每个候选语句与目标文本的语义相似度。其中,文本匹配模型为卷积神经网络cnn与gru神经网络构成的模型。

推荐模块400用于根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句。在本实施例中,分别将多个候选语句中的每个候选语句与所述目标文本输入上述文本匹配模型,得到每个候选语句与所述目标文本的语义相似度,从而根据每个候选语句对应的语义相似度向用户推荐与目标文本语义相似的候选语句。

在其他实施例中,本发明提供的文本匹配装置中的各个模块还用于执行本发明所述的文本匹配方法中,对应各个步骤执行的操作,在此不再做详细的说明。

本发明还提供一种存储介质。该存储介质上存储有计算机程序;所述计算机程序被处理器执行时,实现上述任一实施例所述的文本匹配方法。该存储介质可以是存储器。例如,内存储器或外存储器,或者包括内存储器和外存储器两者。内存储器可以包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦写可编程rom(eeprom)、快闪存储器、或者随机存储器。外存储器可以包括硬盘、软盘、zip盘、u盘、磁带等。本发明所公开的存储介质包括但不限于这些类型的存储器。本发明所公开的存储器只作为例子而非作为限定。

本发明还提供一种计算机设备。一种计算机设备包括:一个或多个处理器;存储器;一个或多个应用程序。其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个应用程序配置用于执行上述任一实施例所述的文本匹配方法。

图7为本发明一实施例中的计算机设备的结构示意图。本实施例所述计算机设备可以是服务器、个人计算机以及网络设备。如图7所示,设备包括处理器703、存储器705、输入单元707以及显示单元709等器件。本领域技术人员可以理解,图7示出的设备结构器件并不构成对所有设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件。存储器705可用于存储应用程序701以及各功能模块,处理器703运行存储在存储器705的应用程序701,从而执行设备的各种功能应用以及数据处理。存储器可以是内存储器或外存储器,或者包括内存储器和外存储器两者。内存储器可以包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦写可编程rom(eeprom)、快闪存储器、或者随机存储器。外存储器可以包括硬盘、软盘、zip盘、u盘、磁带等。本发明所公开的存储器包括但不限于这些类型的存储器。本发明所公开的存储器只作为例子而非作为限定。

输入单元707用于接收信号的输入,以及接收用户输入的关键字。输入单元707可包括触控面板以及其它输入设备。触控面板可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作),并根据预先设定的程序驱动相应的连接装置;其它输入设备可以包括但不限于物理键盘、功能键(比如播放控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。显示单元709可用于显示用户输入的信息或提供给用户的信息以及计算机设备的各种菜单。显示单元709可采用液晶显示器、有机发光二极管等形式。处理器703是计算机设备的控制中心,利用各种接口和线路连接整个电脑的各个部分,通过运行或执行存储在存储器705内的软件程序和/或模块,以及调用存储在存储器内的数据,执行各种功能和处理数据。

在一实施方式中,设备包括一个或多个处理器703,以及一个或多个存储器705,一个或多个应用程序701。其中所述一个或多个应用程序701被存储在存储器705中并被配置为由所述一个或多个处理器703执行,所述一个或多个应用程序701配置用于执行以上实施例所述的文本匹配方法。

此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。

本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括存储器、磁盘或光盘等。

以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

应该理解的是,在本发明各实施例中的各功能单元可集成在一个处理模块中,也可以各个单元单独物理存在,也可以两个或两个以上单元集成于一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。

以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1