深度学习序列标注方法、装置及计算机可读存储介质与流程

文档序号:23384050发布日期:2020-12-22 13:48阅读:97来源:国知局
深度学习序列标注方法、装置及计算机可读存储介质与流程

本发明涉及人工智能技术领域,尤其涉及一种基于损失函数的深度学习序列标注方法、装置、电子设备及计算机可读存储介质。



背景技术:

在机器学习和深度学习应用中,数据不平衡是一个非常常见的问题,尤其在自然语言处理任务中。例如:在自然语言处理的序列标注任务中,对命名实体识别采用bieos标注时,文本中大部分数据会标为o(即不是命名实体),o与其他类别(标注为b、i、e、s)的数量相差非常明显,这种显著的不平衡在普通的loss下会导致模型倾向于负例,但是实际上在标注任务中正确标注正例更为重要,因此一般采用macro-f1这种同时注重各个标签的准确与召回的评价函数来进行评测,并且负例过多会导致模型难以学习到困难样本(标注为正例的样本),会在损失函数的推动下遗忘对困难样本的学习。

为了解决不平衡问题,采取非常多的解决方法,例如:从数据的角度进行数据抽样、对大类数据欠采样、对小类数据过采样、利用smote生成数据、对数据进行回译、以及在损失函数中对小类样本的损失进行手动或者自动加权等,这些举措在一定程度上缓解了数据不平衡带来的模型对困难样本难学习的问题。

但上述解决标注不平衡问题的方式,忽视损失函数本身的特点带来的问题,其中,给损失函数加权是一种从表层去解决的思路,本质上损失函数始终平等的看待每个样本,无论正负标签,普通loss(如交叉熵)始终都是将样本推向1或者0,但实际上,对标注某个字分类而言,将样本分为正负只需要样本的分为正负的概率大于或小于0.5即可,不需要花费更多注意力来极致的推向0或者1。这种极致的推向是导致模型在不平衡数据上失效的原因。

为解决上述问题,本发明亟需提供一种新的基于损失函数的深度学习序列标注方法、装置、电子设备及计算机可读存储介质。



技术实现要素:

本发明提供一种深度学习序列标注方法、装置、电子设备及计算机可读存储介质,其主要目的在于提高在深度学习中序列标注的准确性。

为实现上述目的,本发明提供的一种深度学习序列标注方法,所述方法包括:

利用初始化的embedding层对待处理文本的句子中的每个字进行预处理,获取所述待处理文本中的每个字的字向量;

通过bi-lstm层对所述字向量进行处理,获取所述待处理文本的文本特征;

通过softmax层对所述文本特征进行处理,获取所述文本特征的预测标注位置;

通过loss层对所述文本特征的预测标注位置进行处理,完成所述待处理文本的序列标注。

可选地,所述利用初始化的embedding层将待处理文本的句子中的每个字进行预处理,获取所述待处理文本中的每个字的字向量,包括如下步骤:

利用初始化的embedding层将所述待处理文本的句子中的每个字由one-hot向量映射为低维稠密的字向量,得到所述待处理文本中的每个字的字向量。

可选地,所述通过bi-lstm层对所述字向量进行处理,获取所述待处理文本的文本特征,包括如下步骤:

将所述待处理文本中的句子的每个字的字向量作为双向lstm各个时间步的输入;

将正向lstm输出的隐状态向量与反向lstm的在各个位置输出的隐状态向量进行按位置拼接,得到完整的隐状态向量;

对所述完整的隐状态向量进行处理,获取所述待处理文本的文本特征。

可选地,所述通过softmax层对所述文本特征进行处理,获取所述文本特征的预测标注位置,包括如下步骤:

对所述文本特征进行softmax计算,计算所述待处理文本中句子的每个字预测为某一个标注标签的归一化概率;

将计算得到的最大概率标注为预测标签,完成所述待处理文本中待标注位置的分类。

可选地,所述对所述文本特征进行softmax计算,计算所述待处理文本中句子的每个字预测为某一个标注标签的归一化概率,包括如下步骤:

所述softmax计算公式为:

其中,i表示k中某个分类,gi表示该分类的值,k∈(0,n)。

可选地,所述通过loss层对所述文本特征的预测标注位置进行处理,完成所述待处理文本的序列标注,包括如下步骤:

根据loss损失函数计算所述预测标注位置与真实标签位置的损失值;

根据所述损失值,对深度学习模型进行反复训练,直至所述深度学习模型收敛,所述深度学习模型训练完成;

通过训练完成的深度学习模型对所述待处理文本进行处理,获取所述待处理文本的序列标注。

可选地,所述根据loss损失函数计算所述预测标注位置与真实标签位置的损失值,采用的loss损失函数的具体公式如下:

其中,1-pi1表示自动缩放系数;pi1表示预测为1的概率;

yi1则是标注为1的概率;∈为平滑项。

为了解决上述问题,本发明还提供一种深度学习序列标注装置,所述装置包括:

字向量获取模块,用于利用初始化的embedding层对待处理文本的句子中的每个字进行预处理,获取所述待处理文本中的每个字的字向量;

文本特征获取模块,用于通过bi-lstm层对所述字向量进行处理,获取所述待处理文本的文本特征;

预测标注位置获取模块,用于通过softmax层对所述文本特征进行处理,获取所述文本特征的预测标注位置;

序列标注完成模块,用于通过loss层对所述文本特征的预测标注位置进行处理,完成所述待处理文本的序列标注。

为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:

至少一个处理器;以及,

与所述至少一个处理器通信连接的存储器;其中,

所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的深度学习序列标注方法。

为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的深度学习序列标注方法。

本发明实施例通过初始化的embedding层将待处理文本的句子中的每个字进行预处理,获取所述待处理文本中的每个字的字向量;通过bi-lstm层对所述字向量进行处理,获取所述待处理文本的文本特征;通过softmax层对所述文本特征进行处理,获取所述文本特征的预测标注位置;通过loss层对所述文本特征的预测标注位置进行处理,完成所述待处理文本的序列标注。本发明通过dsc系数原理的损失函数对待处理文本进行序列标注,这种loss损失函数使得深度学习模型训练时更关注困难样本,在整体上提高标注的准确性。

附图说明

图1为本发明一实施例提供的深度学习序列标注方法的流程示意图;

图2为本发明一实施例提供的深度学习序列标注装置的模块示意图;

图3为本发明一实施例提供的实现深度学习序列标注方法的电子设备的内部结构示意图;

本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。

具体实施方式

应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。

本发明提供一种深度学习序列标注方法。参照图1所示,为本发明一实施例提供的深度学习序列标注方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。

在本实施例中,深度学习序列标注方法包括:

s1:利用初始化的embedding层将待处理文本的句子中的每个字进行预处理,获取所述待处理文本中的每个字的字向量;

s2:通过bi-lstm层对所述字向量进行处理,获取所述待处理文本的文本特征;

s3:通过softmax层对所述文本特征进行处理,获取所述文本特征的预测标注位置;

s4:通过loss层对所述文本特征的预测标注位置进行处理,完成所述待处理文本的序列标注。

上述为本发明人工智能的深度学习序列标注的基本过程,本发明提出的针对自然语言处理中通用的序列标注任务中对不平衡任务的自适应损失函数,这种损失函数借鉴了dsc系数原理经过改造,使得该损失函数在推动模型训练时更关注困难样本,在整体上提高标注的准确性,能一定程度提升f1值。

在本发明的实施例中,例如:在ner(namedentityrecognition,命名实体识别,又称作专名识别,是自然语言处理中常见的一项任务)任务中,首先通过embedding层+bi-lstm层+softmax这种结构的模型提取特征,loss层则采用根据不平衡任务设计的特殊loss,该loss的设计使得深度学习模型能更好的训练学习到这种不平衡问题,从而提高标注的准确性。

在步骤s1中,所述利用初始化的embedding层将待处理文本的句子中的每个字进行预处理,获取所述待处理文本中的每个字的字向量,包括如下步骤:利用初始化的embedding层将所述待处理文本的句子中的每个字由one-hot向量映射为低维稠密的字向量(characterembedding),得到所述待处理文本中的每个字的字向量。其中,在输入下一层之前,设置dropout以缓解过拟合。

在步骤s2中,所述通过bi-lstm层对所述字向量进行处理,获取所述待处理文本的文本特征,包括如下步骤:

s21:将所述待处理文本中的句子的每个字的字向量作为双向lstm各个时间步的输入;

s22:将正向lstm输出的隐状态向量与反向lstm的在各个位置输出的隐状态向量进行按位置拼接,得到完整的隐状态向量;

s23:对所述完整的隐状态向量进行处理,获取所述待处理文本的文本特征。

其中,在设置dropout后,接入一个线性层,将隐状态向量从m维映射到k维,k是标注集的标签数,从而得到自动提取的句子特征,进而得到待处理文本的文本特征。

在步骤s3中,所述通过softmax层对所述文本特征进行处理,获取所述文本特征的预测标注位置,包括如下步骤:

s31:对所述文本特征进行softmax计算,计算所述待处理文本中句子的每个字预测为某一个标注标签的归一化概率;

s32:将计算得到的最大概率标注为预测标签,完成所述待处理文本中待标注位置的分类。

其中,计算字预测为某一个标注标签的归一化概率(如1:0.7,0:0.3),取最大概率标注为预测标签,就相当于对需要标注的位置进行分类。

所述softmax计算公式为:

其中,i表示k中某个分类,gi表示该分类的值,k∈(0,n)。

在步骤s4中,所述通过loss层对所述文本特征的预测标注位置进行处理,完成所述待处理文本的序列标注,包括如下步骤:

s41:根据loss损失函数计算所述预测标注位置与真实标签位置的损失值;

s42:根据所述损失值,对深度学习模型进行反复训练,直至所述深度学习模型收敛,所述深度学习模型训练完成;

s43:通过训练完成的深度学习模型对所述待处理文本进行处理,获取所述待处理文本的序列标注。

具体地,上述深度学习的模型结构为embedding层+bi-lstm层+softmax,该结构都为nlp任务中常用的结构,举例说明:

有样本数据d={(x1,y1),(x2,y2),…(xn,yn)},

其中,x1=(w11,w12,…w1k)为一条有k个数据的文本;y1=(y11,y12,…y1k),为该文本的序列标注标签,yij∈{0,1}。

x′=embedding(x1,x2,…xbatchsize)(1)

x″=bilstm(x′)(2)

p0~batchsize=softmax(x″)(3)

其中,p0~batchsize分别为(x1,x2,…xbatchsize),归一化后标注为1的概率,

batchsize为批训练的大小,为超参数。

为简化问题,将一个样本的输入记为xm,中间的模型(1)(2)(3)整体抽象为m,从模型得到的xj中的第i个字的二值概率为p=[pi0,pi1],pi0为xj这个句子中第i个字预测为0的概率,pi1则是预测为1的概率,对应的真实label为y=[yi0,yi1],yi0为xj这个句子中第i个字真实标注为0的概率,yi1则是标注为1的概率,yi0,yi1取值为0或者1,其中,pi0+pi1=1。

其中,需要说明的是,传统的交叉熵损失是:

对损失函数加权时为:

其中,αi∈[0,1],αi的值要么来源于超参数,要么来源于训练前的类别统计。

深度学习模型通过weightce求得loss,经过反向传播后对模型参数进行调整,多次迭代后直到模型收敛。

相对于传统的交叉熵损失,本发明对loss进行了改造,具体如下:

dsc(sorensen-dice)用来衡量两个集合的相似程度,如:给定两个集合a,b,他们的相似程度可以用dse公式衡量:

在自然语言处理任务中,衡量预测标签与真实标签的类似参考dse,如下:

其中,fn:falsenegative,被判定为负样本,但事实上是正样本;fp:falsepositive,被判定为正样本,但事实上是负样本;tn:truenegative,被判定为负样本,事实上也是负样本;tp:truepositive,被判定为正样本,事实上也是证样本。

上式可以看出dsc用在自然语言处理任务中衡量label实质就是f1,因此优化dsc就是优化f1,于是loss可以改进为:

为了是负例的0对loss有贡献,将loss进行平滑处理,公式如下:

加了平滑项∈后,在不同数据集面临手动设置问题,以及平滑项∈会收到大类影响,使整个模型被大类主导,因此加上自调节项,公式如下:

其中,pi1充当了自动缩放系数,该loss可导,且在pi1超过0.5后的部分对loss无增益,不会逼迫模型朝0,1学习,有益于平衡问题解决。

在本发明的实施例中,将传统的weightce替换为dscloss,同样经过反向传播后对模型参数进行调整,多次迭代后直到模型收敛。

本发明实施例过初始化的embedding层将待处理文本的句子中的每个字进行预处理,获取所述待处理文本中的每个字的字向量;通过bi-lstm层对所述字向量进行处理,获取所述待处理文本的文本特征;通过softmax层对所述文本特征进行处理,获取所述文本特征的预测标注位置;通过loss层对所述文本特征的预测标注位置进行处理,完成所述待处理文本的序列标注。本发明通过dsc系数原理的损失函数对待处理文本进行序列标注,这种loss损失函数使得深度学习模型训练时更关注困难样本,在整体上提高标注的准确性。

如图2所示,是本发明深度学习序列标注装置的功能模块图。

本发明所述深度学习序列标注装置100可以安装于电子设备中。根据实现的功能,所述深度学习序列标注装置可以包括字向量获取模块101、文本特征获取模块102、预测标注位置获取模块103、序列标注完成模块104。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。

在本实施例中,关于各模块/单元的功能如下:

字向量获取模块101,用于利用初始化的embedding层将待处理文本的句子中的每个字进行预处理,获取所述待处理文本中的每个字的字向量;

文本特征获取模块102,用于通过bi-lstm层对所述字向量进行处理,获取所述待处理文本的文本特征;

预测标注位置获取模块103,用于通过softmax层对所述文本特征进行处理,获取所述文本特征的预测标注位置;

序列标注完成模块104,用于通过loss层对所述文本特征的预测标注位置进行处理,完成所述待处理文本的序列标注。

其中,字向量获取模块101中,所述利用初始化的embedding层将待处理文本的句子中的每个字进行预处理,获取所述待处理文本中的每个字的字向量,包括如下步骤:利用初始化的embedding层将所述待处理文本的句子中的每个字由one-hot向量映射为低维稠密的字向量(characterembedding),得到所述待处理文本中的每个字的字向量。其中,在输入下一层之前,设置dropout以缓解过拟合。

文本特征获取模块102中,所述通过bi-lstm层对所述字向量进行处理,获取所述待处理文本的文本特征,包括如下步骤:

将所述待处理文本中的句子的每个字的字向量作为双向lstm各个时间步的输入;

将正向lstm输出的隐状态向量与反向lstm的在各个位置输出的隐状态向量进行按位置拼接,得到完整的隐状态向量;

对所述完整的隐状态向量进行处理,获取所述待处理文本的文本特征。

其中,在设置dropout后,接入一个线性层,将隐状态向量从m维映射到k维,k是标注集的标签数,从而得到自动提取的句子特征,进而得到待处理文本的文本特征。

预测标注位置获取模块103,所述通过softmax层对所述文本特征进行处理,获取所述文本特征的预测标注位置,包括如下步骤:

对所述文本特征进行softmax计算,计算所述待处理文本中句子的每个字预测为某一个标注标签的归一化概率;

将计算得到的最大概率标注为预测标签,完成所述待处理文本中待标注位置的分类。

其中,计算字预测为某一个标注标签的归一化概率(如1:0.7,0:0.3),取最大概率标注为预测标签,就相当于对需要标注的位置进行分类。

所述softmax计算公式为:

其中,i表示k中某个分类,gi表示该分类的值,k∈(0,n)。

序列标注完成模块104中,所述通过loss层对所述文本特征的预测标注位置进行处理,完成所述待处理文本的序列标注,包括如下步骤:

s41:根据loss损失函数计算所述预测标注位置与真实标签位置的损失值;

s42:根据所述损失值,对深度学习模型进行反复训练,直至所述深度学习模型收敛,所述深度学习模型训练完成;

s43:通过训练完成的深度学习模型对所述待处理文本进行处理,获取所述待处理文本的序列标注。

具体地,上述深度学习的模型结构为embedding层+bi-lstm层+softmax,该结构都为nlp任务中常用的结构,举例说明:

有样本数据d={(x1,y1),(x2,y2),…(xn,yn)},

其中,x1=(w11,w12,…w1k)为一条有k个数据的文本;y1=(y11,y12,…y1k),为该文本的序列标注标签,yij∈{0,1}。

x′=embedding(x1,x2,…xbatchsize)(1)

x″=bilstm(x′)(2)

p0~batchsize=softmax(x″)(3)

其中,p0~batchsize分别为(x1,x2,…xbatchsize),归一化后标注为1的概率,batchsize为批训练的大小,为超参数。

为简化问题,将一个样本的输入记为xm,中间的模型(1)(2)(3)整体抽象为m,从模型得到的xj中的第i个字的二值概率为p=[pi0,pi1],pi0为xj这个句子中第i个字预测为0的概率,pi1则是预测为1的概率,对应的真实label为y=[yi0,yi1],yi0为xj这个句子中第i个字真实标注为0的概率,yi1则是标注为1的概率,yi0,yi1取值为0或者1,其中,pi0+pi1=1。

本发明对loss进行了改造,具体如下:

dsc(sorensen-dice)用来衡量两个集合的相似程度,如:给定两个集合a,b,他们的相似程度可以用dse公式衡量:

在自然语言处理任务中,衡量预测标签与真实标签的类似参考dse,如下:

其中,fn:falsenegative,被判定为负样本,但事实上是正样本;fp:falsepositive,被判定为正样本,但事实上是负样本;tn:truenegative,被判定为负样本,事实上也是负样本;tp:truepositive,被判定为正样本,事实上也是证样本。

上式可以看出dsc用在自然语言处理任务中衡量label实质就是f1,因此优化dsc就是优化f1,于是loss可以改进为:

为了是负例的0对loss有贡献,将loss进行平滑处理,公式如下:

加了平滑项∈后,在不同数据集面临手动设置问题,以及平滑项∈会收到大类影响,使整个模型被大类主导,因此加上自调节项,公式如下:

其中,pi1充当了自动缩放系数,该loss可导,且在pi1超过0.5后的部分对loss无增益,不会逼迫模型朝0,1学习,有益于平衡问题解决。

在本发明的实施例中,将传统的weightce替换为dscloss,同样经过反向传播后对模型参数进行调整,多次迭代后直到模型收敛。

本发明实施例过初始化的embedding层将待处理文本的句子中的每个字进行预处理,获取所述待处理文本中的每个字的字向量;通过bi-lstm层对所述字向量进行处理,获取所述待处理文本的文本特征;通过softmax层对所述文本特征进行处理,获取所述文本特征的预测标注位置;通过loss层对所述文本特征的预测标注位置进行处理,完成所述待处理文本的序列标注。本发明通过dsc系数原理的损失函数对待处理文本进行序列标注,这种loss损失函数使得深度学习模型训练时更关注困难样本,在整体上提高标注的准确性。

如图3所示,是本发明实现深度学习序列标注的电子设备的结构示意图。

所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如易深度学习序列标注程序12。

其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:sd或dx存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(smartmediacard,smc)、安全数字(securedigital,sd)卡、闪存卡(flashcard)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如数据稽核程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。

所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(centralprocessingunit,cpu)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(controlunit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如数据稽核程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。

所述总线可以是外设部件互连标准(peripheralcomponentinterconnect,简称pci)总线或扩展工业标准结构(extendedindustrystandardarchitecture,简称eisa)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。

图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图2示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。

例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、wi-fi模块等,在此不再赘述。

进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如wi-fi接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。

可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(display)、输入单元(比如键盘(keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是led显示器、液晶显示器、触控式液晶显示器以及oled(organiclight-emittingdiode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。

应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。

所述电子设备1中的所述存储器11存储的深度学习序列标注程序12是多个指令的组合,在所述处理器10中运行时,可以实现:

利用初始化的embedding层将待处理文本的句子中的每个字进行预处理,获取所述待处理文本中的每个字的字向量;

通过bi-lstm层对所述字向量进行处理,获取所述待处理文本的文本特征;

通过softmax层对所述文本特征进行处理,获取所述文本特征的预测标注位置;

通过loss层对所述文本特征的预测标注位置进行处理,完成所述待处理文本的序列标注。

具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。

进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(rom,read-onlymemory)。

在本发明的实施例中,计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现深度学习序列标注方法,具体方法如下:

利用初始化的embedding层将待处理文本的句子中的每个字进行预处理,获取所述待处理文本中的每个字的字向量;

通过bi-lstm层对所述字向量进行处理,获取所述待处理文本的文本特征;

通过softmax层对所述文本特征进行处理,获取所述文本特征的预测标注位置;

通过loss层对所述文本特征的预测标注位置进行处理,完成所述待处理文本的序列标注。

在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。

所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。

另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。

对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。

因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。

最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1