一种基于深度学习的问答方法、装置及电子设备与流程

文档序号:32442533发布日期:2022-12-06 22:39阅读:34来源:国知局
一种基于深度学习的问答方法、装置及电子设备与流程

1.本发明涉及计算机技术领域,尤其是一种基于深度学习的问答方法、装置及电子设备。


背景技术:

2.随着人工智能技术的发展和应用,知识图谱作为关键技术之一,已被广泛应用于智能问答、智能搜索、个性化推荐、内容分发等领域,并展现出极好的性能。然而,互联网中存在海量知识产权相关信息,如何精准地提取有效信息并加以利用成为一个难题;同时,信息数据规模越大,处理起来就越困难,查询实体的时间就越长。
3.因此,现有技术需要一种精准抽取实体、提取特征的方法,来处理互联网上获取的海量知识产权相关信息,并且需要一种针对大规模知识图谱的实体识别方法,来提高查询速度,进而提高基于知识图谱的问答模型的性能。
4.得益于人工智能技术的不断发展进步,从业人员与学者开始着眼于利用深度学习算法解决知识图谱问答系统中的种种问题,结合深度学习的知识图谱技术改善了搜索引擎核心,查询结果会以一定的组织结构呈现,提高了搜索期望答案的效率与准确率。


技术实现要素:

5.有鉴于此,本发明实施例提供一种高效且准确的,基于深度学习的问答方法、装置及电子设备,从而可以快速准确地实现与用户进行知识产权方面的问答交互。
6.本发明实施例的一方面提供了一种基于深度学习的问答方法,包括:
7.获取原始数据集;
8.对所述原始数据集进行标注处理后,构建得到针对目标领域的知识图谱;
9.获取所述目标领域的相关问题信息;其中,所述相关问题信息包括文字信息和图片信息;
10.使用基于bert的上下文建模对所述相关问题信息进行意图识别,得到目标实体和用户意图;
11.根据所述目标实体和用户意图,构建数据库查询语句,并向所述相关问题信息反馈查询结果;
12.根据所述查询结果的内容,进行前端信息显示。
13.可选地,所述对所述原始数据集进行标注处理,包括:
14.采用自扩展算法从预设数据集获取能够体现各个不同实体之间的大类关系的语义词汇;
15.将所述语义词汇作为特征,加入最大熵机器学习算法的特征集,完成对原始数据集的标注。
16.可选地,所述构建得到针对目标领域的知识图谱,包括:
17.通过bi-lstm结合cnn对所述目标领域的相关文本数据集和图片数据集进行实体
抽取和关系抽取,得到结构化数据;
18.通过python的第三方库py2neo对所述结构化数据进行编写导入,存储到neo4j图数据库。
19.可选地,当所述相关问题信息为文字信息时,所述方法还包括:对文本信息进行实体识别的步骤,该步骤包括:
20.将标注的数据输入到预训练的模型中,使用预先训练好的bert语言表示模型对输入序列生成词嵌入;将生成的词嵌入用于训练bilstm-crf模型得到训练模型;用训练模型对大量的无标注数据进行标签预测,得到无标注数据的伪标记;
21.对于所述伪标记,使用基于双重标注样本选择策略进行样本选择;选择高置信度的样本,形成置信集合;将该置信集合加入标注样本数据集,更新训练集;对模型进行下一轮训练,在下一轮迭代中对模型参数进行更新;其中,所述bilstm-crf模型的训练过程和所述高置信度的样本的选择过程循环进行,直到无标注数据集为空或达到预设的迭代次数,完成识别过程。
22.可选地,当所述相关问题信息为图片信息时,所述方法还包括:对图片信息进行实体识别的步骤,该步骤包括:
23.定义节点和子图的嵌入表示以及节点映射函数;
24.给定一个图,图中每个节点特征由映射函数进行映射,所述映射函数将每个节点映射为向量;
25.对于多层神经网络中的每个隐藏层,输入一个无向图,确定该无向图中每个节点对应的特征,根据隐藏层的输出结果,对每个节点的特征进行更新;
26.在每个kergnn层定义一组图滤波器提取输入图中每个节点周围的局部结构信息;
27.对于一层kergnn层,通过每层的图滤波器获得节点在该层的输出;
28.对于多层kergnn层,通过叠加单层kergnn和readout层来构建多层kergnn;
29.通过kergnn设置图级别的readout为图生成嵌入层,通过对所有节点的嵌入层求和,得到每一层的图表示,并将所有层的图表示连接;
30.进行相关图片特征识别之后,再基于注意力机制以少量语言描述特征为导向生成图像描述的特征表示,完成实体识别。
31.可选地,所述使用基于bert的上下文建模对所述相关问题信息进行意图识别,得到目标实体和用户意图,包括:
32.将识别出的实体进行数字化,表示为机器可以理解的编码向量形式,该编码向量是由字向量、文本向量和位置向量求和得到;
33.将编码向量输入到bert模型中,获取文本中不同层次的语义信息;
34.构建分类模型对bert输出的文本语义向量进行权重训练,获得意图分类结果。
35.本发明实施例的另一方面还提供了一种基于深度学习的问答装置,包括:
36.第一模块,用于获取原始数据集;
37.第二模块,用于对所述原始数据集进行标注处理后,构建得到针对目标领域的知识图谱;
38.第三模块,用于获取所述目标领域的相关问题信息;其中,所述相关问题信息包括文字信息和图片信息;
39.第四模块,用于使用基于bert的上下文建模对所述相关问题信息进行意图识别,得到目标实体和用户意图;
40.第五模块,用于根据所述目标实体和用户意图,构建数据库查询语句,并向所述相关问题信息反馈查询结果;
41.第六模块,用于根据所述查询结果的内容,进行前端信息显示。
42.本发明实施例的另一方面还提供了一种电子设备,包括处理器以及存储器;
43.所述存储器用于存储程序;
44.所述处理器执行所述程序实现如前面所述的方法。
45.本发明实施例的另一方面还提供了一种计算机可读存储介质,所述存储介质存储有程序,所述程序被处理器执行实现如前面所述的方法。
46.本发明实施例还公开了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器可以从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行前面的方法。
47.本发明的实施例获取原始数据集;对所述原始数据集进行标注处理后,构建得到针对目标领域的知识图谱;获取所述目标领域的相关问题信息;其中,所述相关问题信息包括文字信息和图片信息;使用基于bert的上下文建模对所述相关问题信息进行意图识别,得到目标实体和用户意图;根据所述目标实体和用户意图,构建数据库查询语句,并向所述相关问题信息反馈查询结果;根据所述查询结果的内容,进行前端信息显示。本发明能够提高效率和准确性。
附图说明
48.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
49.图1为本发明实施例提供的面向海量知识图谱的深度学习问答方法的流程图;
50.图2是本发明实施例提供的面向海量知识图谱的深度学习问答方法的总体框架图。
具体实施方式
51.为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本技术,并不用于限定本技术。
52.针对现有技术存在的问题,本发明实施例提供了一种基于深度学习的问答方法,包括:
53.获取原始数据集;
54.对所述原始数据集进行标注处理后,构建得到针对目标领域的知识图谱;
55.获取所述目标领域的相关问题信息;其中,所述相关问题信息包括文字信息和图
片信息;
56.使用基于bert的上下文建模对所述相关问题信息进行意图识别,得到目标实体和用户意图;
57.根据所述目标实体和用户意图,构建数据库查询语句,并向所述相关问题信息反馈查询结果;
58.根据所述查询结果的内容,进行前端信息显示。
59.可选地,所述对所述原始数据集进行标注处理,包括:
60.采用自扩展算法从预设数据集获取能够体现各个不同实体之间的大类关系的语义词汇;
61.将所述语义词汇作为特征,加入最大熵机器学习算法的特征集,完成对原始数据集的标注。
62.可选地,所述构建得到针对目标领域的知识图谱,包括:
63.通过bi-lstm结合cnn对所述目标领域的相关文本数据集和图片数据集进行实体抽取和关系抽取,得到结构化数据;
64.通过python的第三方库py2neo对所述结构化数据进行编写导入,存储到neo4j图数据库。
65.可选地,当所述相关问题信息为文字信息时,所述方法还包括:对文本信息进行实体识别的步骤,该步骤包括:
66.将标注的数据输入到预训练的模型中,使用预先训练好的bert语言表示模型对输入序列生成词嵌入;将生成的词嵌入用于训练bilstm-crf模型得到训练模型;用训练模型对大量的无标注数据进行标签预测,得到无标注数据的伪标记;
67.对于所述伪标记,使用基于双重标注样本选择策略进行样本选择;选择高置信度的样本,形成置信集合;将该置信集合加入标注样本数据集,更新训练集;对模型进行下一轮训练,在下一轮迭代中对模型参数进行更新;其中,所述bilstm-crf模型的训练过程和所述高置信度的样本的选择过程循环进行,直到无标注数据集为空或达到预设的迭代次数,完成识别过程。
68.可选地,当所述相关问题信息为图片信息时,所述方法还包括:对图片信息进行实体识别的步骤,该步骤包括:
69.定义节点和子图的嵌入表示以及节点映射函数;
70.给定一个图,图中每个节点特征由映射函数进行映射,所述映射函数将每个节点映射为向量;
71.对于多层神经网络中的每个隐藏层,输入一个无向图,确定该无向图中每个节点对应的特征,根据隐藏层的输出结果,对每个节点的特征进行更新;
72.在每个kergnn层定义一组图滤波器提取输入图中每个节点周围的局部结构信息;
73.对于一层kergnn层,通过每层的图滤波器获得节点在该层的输出;
74.对于多层kergnn层,通过叠加单层kergnn和readout层来构建多层kergnn;
75.通过kergnn设置图级别的readout为图生成嵌入层,通过对所有节点的嵌入层求和,得到每一层的图表示,并将所有层的图表示连接;
76.进行相关图片特征识别之后,再基于注意力机制以少量语言描述特征为导向生成
图像描述的特征表示,完成实体识别。
77.可选地,所述使用基于bert的上下文建模对所述相关问题信息进行意图识别,得到目标实体和用户意图,包括:
78.将识别出的实体进行数字化,表示为机器可以理解的编码向量形式,该编码向量是由字向量、文本向量和位置向量求和得到;
79.将编码向量输入到bert模型中,获取文本中不同层次的语义信息;
80.构建分类模型对bert输出的文本语义向量进行权重训练,获得意图分类结果。
81.本发明实施例的另一方面还提供了一种基于深度学习的问答装置,包括:
82.第一模块,用于获取原始数据集;
83.第二模块,用于对所述原始数据集进行标注处理后,构建得到针对目标领域的知识图谱;
84.第三模块,用于获取所述目标领域的相关问题信息;其中,所述相关问题信息包括文字信息和图片信息;
85.第四模块,用于使用基于bert的上下文建模对所述相关问题信息进行意图识别,得到目标实体和用户意图;
86.第五模块,用于根据所述目标实体和用户意图,构建数据库查询语句,并向所述相关问题信息反馈查询结果;
87.第六模块,用于根据所述查询结果的内容,进行前端信息显示。
88.本发明实施例的另一方面还提供了一种电子设备,包括处理器以及存储器;
89.所述存储器用于存储程序;
90.所述处理器执行所述程序实现如前面所述的方法。
91.本发明实施例的另一方面还提供了一种计算机可读存储介质,所述存储介质存储有程序,所述程序被处理器执行实现如前面所述的方法。
92.本发明实施例还公开了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器可以从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行前面的方法。
93.下面结合说明书附图,对本发明的具体实现过程进行详细描述:
94.具体的,图1示出了本发明实施例中的面向海量知识图谱的深度学习问答方法的流程图,图2是本发明实施例提供的面向海量知识图谱的深度学习问答方法的总体框架图,参考图1和图2,本发明实施例以知识产权领域的问答流程为例,对方法的具体实施过程进行详细描述,方法包括以下步骤:
95.s1、从互联网爬取各种结构化和非结构化的知识产权数据集;
96.需要说明的是,在知识产权信息领域,目前尚无公开的结构化数据供以使用,所以主要的数据从国家知识产权局公开公布的网络平台上爬取,相关平台比如:专利检索及分析系统、专利数据服务试验系统、新一代专利检索系统等。需要爬取的数据分为文本数据和图片数据,文本数据是专利相关系信息,比如:专利号、名称、摘要关键字、申请日、公开日、发明人等;图片数据主要是外观设计专利相关图片,应对用户想查找外观设计专利的情况,如果直接用相关图片搜索会更便捷。
97.具体的,想要快速爬取大规模数据,可以用分布式爬虫策略。爬取数据可以用scrapy_redis框架,scrapy_redis是一个python的第三方包,支持分布式爬取。分布式爬取的结构采用的是主从模式,即多台计算机上都安装爬虫程序,其中一台作为主机,若干台作为服务器联合采集,最后将解析的数据存储在同一个mongodb数据库中。
98.s2、利用自扩展算法实现训练语料的自动标注;
99.具体的,利用自扩展算法从数据集自动获取能体现实体间大类关系的语义词汇,该词汇作为特征加入最大熵机器学习算法的特征集,从而实现图片相对应语料的自动标注。
100.其中,最大熵原理是指,学习概率模型时,在所有可能的概率模型分布中,熵最大的模型是最好的模型。通常用约束条件来确定概率模型的集合,所以,最大熵原理也可以表述为在满足约束条件的模型集合中选取熵最大的模型。
101.假设离散随机变量x的概率分布式p(x),则其熵是:
[0102][0103]
熵满足不等式:0≤h(p)≤log|x|,其中|x|是x的取值个数,当且仅当x的分布是均匀分布时右边的等号成立。即当x服从均匀分布时,熵最大。
[0104]
最大熵模型学习算法归结为以似然函数为目标函数的最优化问题,通常通过迭代算法求解。从最优化的观点看,这时的目标函数具有很好的性质。它是光滑的凸函数,因此多种优化方法都适用,保证能找到全局最优解。
[0105]
s3、将处理过的数据集导入neo4j图数据库,构建面向知识产权的知识图谱;
[0106]
这里数据集的处理是利用bi-lstm结合cnn对知识产权相关文本数据集和外观专利图片对应的标注文本数据集进行实体抽取以及关系抽取,分析整理成结构化数据;然后利用python的第三方库py2neo来编写数据导入脚本,快速导入到neo4j图数据库。
[0107]
其中,bilstm是bi-directional long short-term memory的缩写,是由前向lstm与后向lstm组合而成。lstm模型是由在rnn基础上增加了输入门,遗忘门,单元状态,输出门组成。在网络训练过程中,可通过门结构来添加或移除信息,不同神经网络都可通过单元状态上的门结构来决定去记住或遗忘哪些相关信息。
[0108]
lstm的计算过程可以概括为,通过对细胞状态中信息遗忘和记忆新的信息使得对后续时刻计算有用的信息得以传递,而无用的信息被丢弃,并在每个时间步都会输出隐层状态,其中遗忘,记忆与输出由通过上个时刻的隐层状态和当前输入计算出来的遗忘门,记忆门,输出门来控制。
[0109]
每一个t时刻lstm的输出的计算公式为:
[0110][0111]
其中,每个单元的各个状态及记忆单元的更新通过以下公式来计算:
[0112]it
=σ(w
ij
x
t
+v
ijht-1
+b
ij
)
[0113]ft
=σ(w
fj
x
t
+v
fjht-1
+b
fj
)
[0114]ot
=σ(w
oj
x
t
+v
ojht-1
+b
oj
)
[0115]
[0116]
其中,输入向量d_in
t
表达公式为:
[0117]
d_in
t
=σ(w
dj
x
t
+v
djht-1
+b
dj
)
[0118]
其中,σ(
·
)表示sigmoid激活函数,表示元素乘法,f表示双曲正切(tanh)激活函数,x
t
为输入向量,w和v分别表示输入x
t
和隐藏层h
t-1
的权重矩阵,b是三个门的偏置矩阵,d_in
t
是输入单元的字向量,c
t
是存储单元t时刻的内部状态,h
t
是t时刻存储单元的输出,i
t
、o
t
和f
t
分别是输入、输出和遗忘门向量。
[0119]
相应的,条件随机场(crf)是一种判别概率模型,它关注句子的整体位置,可以依据目标观测序列对其最有可能的输出标注序列进行预测。
[0120]
s4、用户在前端输入多模态的知识产权相关问题;
[0121]
具体的,多模态输入体现在用户可以输入文字或图片。
[0122]
s5、如果用户输入文字,采用基于深度学习的bert-bilstm-crf模型实现实体识别以及实体预测,如果用户输入图片,采用核图神经网络kergnn图片特征提取,从而实现实体识别;
[0123]
具体的,实现知识产权相关文本数据的实体识别的步骤为:
[0124]
第一阶段,将少量的标注数据输入到预训练的模型中,使用预先训练好的bert语言表示模型对输入序列生成词嵌入,接着,将生成的词嵌入用于训练bilstm-crf模型得到训练模型,其中,bilstm用于上下文特征的提取,crf用于实体预测,同时,用训练模型对大量的无标注数据进行标签预测,得到无标注数据的伪标记。
[0125]
第二阶段,对于第一阶段预测出的伪标记数据,使用基于双重标注样本选择策略进行样本选择,选择高置信度的样本,形成置信集合,然后将该置信集合加入标注样本数据集,更新训练集,并对模型进行下一轮训练,在下一轮迭代中对模型参数进行更新。bilstm-crf模型训练和高置信度样本选择这两个过程循环进行,直到无标注数据集为空或达到一定迭代次数。
[0126]
具体的,实现知识产权相关图片的实体识别的步骤为:
[0127]
首先,定义节点和子图的嵌入表示以及节点映射函数。
[0128]
给定一个图g=(v,e),节点特征由映射函数φ:v

rd进行映射,该函数将每个节点v∈v映射为向量φ(v)∈rd。
[0129]
图的映射函数为φ:g
set

rd,其中,g
set
是图g的集合g∈g
set

[0130]
对于l层神经网络中的每个隐藏层l,输入时一个无向图g=(v,e),每个节点v对应特征为输出也是相同的图,其中每个节点的特征更新为
[0131]
在每个kergnn层定义一组图滤波器提取输入图中每个节点周围的局部结构信息。
[0132]
在第l层的第i个图滤波器是一个图包含个节点,在数学上,这个图滤波器是可学习的参数,邻接矩阵以及节点属性矩阵
[0133]
对于一层kergnn层,图g中每个节点v,都有一个子图gv=(vv,ev)和节点特征{φ0(u):u∈vv},通过每层的图滤波器以获得节点在该层的输出φ1(v),计算公式为:
[0134][0135]
其中,k(
·
)是随机游走核函数,通过计算子图和每个图滤波器的相似性,可得到该层的输出。
[0136]
对于多层kergnn,通过叠加单层kergnn和readout层来构建多层kergnn。l层的输入是带有节点特征{φ
l-1
(v):v∈v},l层包含d
l
个图滤波器每个图滤波器有一个可训练的邻接矩阵和节点属性矩阵图g中节点v的输出特征的第i维的值可通过下属公式计算:
[0137][0138]
对于图分类和特征识别,kergnn设置了图级别的readout为图生成嵌入层。通过对所有节点的嵌入层求和,得到每一层的图表示。为了利用模型每一层信息,将所有层的图表示连接,计算公式为:
[0139][0140]
进行知识产权相关图片特征识别之后,再基于注意力机制以少量语言描述特征为导向生成图像描述的特征表示,从而让模型可以更加充分地学习图像实体和文本实体的对齐信息,实现实体识别。
[0141]
s6、用基于bert的上下文建模实现意图识别;
[0142]
具体的,实现用户输入问题的意图识别步骤为:将识别出的实体进行数字化,表示为机器可以理解的编码向量形式,该编码向量是由字向量、文本向量和位置向量简单地求和得到;然后输入到bert模型中以获取文本中不同层次的语义信息;最后构建分类模型对bert输出的文本语义向量进行权重训练,从而获得意图分类结果。
[0143]
s7、根据识别出的实体和用户意图构造数据库cypher查询语句,向neo4j查询后返回结果;
[0144]
这里的构造数据库cypher查询语句可以用pycharm编写自动生成查询语句文本的代码。比如,识别出的实体是“摘要关键字”,意图是“查询图像分类”,下一步匹配对应cpyher查询模版,"match(m:abstract_keyword)-:information_computer_picture_classify]-》(n)where m.name=~'.*return m.name",然后向neo4j数据库请求服务,查询后返回结果。
[0145]
s8、如果得到答案,就将答案返回前端,展示给用户,如果没得到答案,就返回相应提示给用户,等待用户再次输入。
[0146]
这里没得到答案的情况,有可能是数据库中没有该数据,也可能是用户输入错误,所以需要分情况分析。
[0147]
本问答方法首先使用neo4j自带的模糊检索功能,即使用通配符“~”进行检索,从而实现答案查询功能。当上述功能无法运行时,则采用词语的相似度计算返回最佳匹配结果实现纠错功能。具体而言,当问题输入有误时,对问句进行字符串提取,依次与本地数据库中的常见实体进行匹配;若无匹配结果,则进一步采用余弦相似度算法找出系统中与该词语最接近的实体。
[0148]
余弦相似度的算法来源于信息检索内的向量空间模型,两个向量之间的余弦值能够代表其距离,同时还需要保障其坐标值始终为正值,而且两个向量之间的夹角的余弦值是处于0~1的区间之内。选择相同的二维坐标向量作为实例,根据坐标值在坐标系内绘出两个向量,并根据两个向量之间的夹角对其余弦值进行获取,以此作为测量两者相似程度的依据。如果两个向量相似度越高,那么角度就会越小,同时余弦值与1就会越接近。假定两个向量x和y都为n维向量,向量x[x1,x2,

,xn],向量y[y1,y2,

,yn],其余弦相似度计算方法为:
[0149][0150]
相似度匹配阈值设置为80%,若相似度大于80%则进行下一步的查询,否则不进行查询,并返回提示信息。
[0151]
综上所述,本发明实施例能够对大数据知识产权信息进行较好地汇聚融合和深度挖掘,从而能满足针对海量知识产权信息的知识图谱设计需求,并提升了专利检索的高准确率和查全率,解决了实际业务中,专利检索难、分类难、信息挖掘深度不足的问题。
[0152]
在一些可选择的实施例中,在方框图中提到的功能/操作可以不按照操作示图提到的顺序发生。例如,取决于所涉及的功能/操作,连续示出的两个方框实际上可以被大体上同时地执行或所述方框有时能以相反顺序被执行。此外,在本发明的流程图中所呈现和描述的实施例以示例的方式被提供,目的在于提供对技术更全面的理解。所公开的方法不限于本文所呈现的操作和逻辑流程。可选择的实施例是可预期的,其中各种操作的顺序被改变以及其中被描述为较大操作的一部分的子操作被独立地执行。
[0153]
此外,虽然在功能性模块的背景下描述了本发明,但应当理解的是,除非另有相反说明,所述的功能和/或特征中的一个或多个可以被集成在单个物理装置和/或软件模块中,或者一个或多个功能和/或特征可以在单独的物理装置或软件模块中被实现。还可以理解的是,有关每个模块的实际实现的详细讨论对于理解本发明是不必要的。更确切地说,考虑到在本文中公开的装置中各种功能模块的属性、功能和内部关系的情况下,在工程师的常规技术内将会了解该模块的实际实现。因此,本领域技术人员运用普通技术就能够在无需过度试验的情况下实现在权利要求书中所阐明的本发明。还可以理解的是,所公开的特定概念仅仅是说明性的,并不意在限制本发明的范围,本发明的范围由所附权利要求书及其等同方案的全部范围来决定。
[0154]
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0155]
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
[0156]
计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置)、便携式计算机盘盒(磁装置)、随机存取存储器(ram)、只读存储器(rom)、可擦除可编辑只读存储器(eprom或闪速存储器)、光纤装置以及便携式光盘只读存储器(cdrom)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
[0157]
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(pga),现场可编程门阵列(fpga)等。
[0158]
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
[0159]
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
[0160]
以上是对本发明的较佳实施进行了具体说明,但本发明并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做出种种的等同变形或替换,这些等同的变形或替换均包含在本技术权利要求所限定的范围内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1