构建多模型融合计算模型的方法及设备、网站数据识别方法及设备与流程

文档序号:20704922发布日期:2020-05-12 16:16阅读:273来源:国知局
构建多模型融合计算模型的方法及设备、网站数据识别方法及设备与流程

技术领域:

本发明涉及风险网站识别、多模型融合、自然语言以及深度学习相关技术领域,具体的,涉及构建多模型融合计算模型的方法及设备、网站数据识别方法及设备。



背景技术:

当今网络安全形势日益严峻,一些风险网页以获取利益、破坏社会稳定、危害国家安全为目的,在用户不知情的情况下,诱使用户通过点击浏览等操作,实施犯罪,造成用户金钱损失,隐私泄露,违法犯罪等。现有的风险网页包括钓鱼网页、涉黄网页、涉赌网页等。如何有效识别这些风险网页成为当前亟需解决的问题。

面对互联网上海量的数据,传统的风险网页识别方法是对信息进行人工分类,例如人工鉴别涉黄、涉赌、涉恐等非法网页信息。然而,这种手工分类有许多缺点:一是分类结果的一致性较低,二是需要大量的财力和人力资源。即便分类者的语言素质高,不同的人分类结果也不一样。即使是同一个人,在不同的时间进行分类也可能有不同的结果。因此,探索更准确、高效的智能网页分类识别技术势在必行。

目前网页自动分类的常见算法都是基于机器学习的(例如knn、rf、bayes、svm等),在网页分类识别系统中取得了良好的效果。然而,传统的机器学习算法大多是浅层学习,该算法模型经常面临的瓶颈是特征提取,数据的特征往往需要投入大量时间去研究和调整,而且也无法提取到事物更为深层的语义特征,这样会极大的影响识别的精确度。深度学习端到端的算法特性使其在特征问题上减轻了人工设计算法的难度,优秀的神经网络模型可以从简单的数据特征中自动挖掘数据的高级特征,并在经过多轮重复训练后,学习出特征与任务之间的关联。

近年来,深度学习在解决网页分类识别上取得了比机器学习更为优异的成绩,但是现有的基于深度学习的网页分类识别方法通常采用单个计算模型进行学习和计算,分类的准确率不高,而且模型训练时间复杂度较高,模型泛化能力弱。采用迁移学习方法,使用多模型融合算法能够有效解决以上问题,在风险网站识别领域具有重大意义。



技术实现要素:

有鉴于此,本发明的目的在于提供构建多模型融合计算模型的方法及设备、网站数据识别方法及设备,以解决现有技术中的至少一项技术问题。

具体的,本发明的第一方面,提供了构建多模型融合计算模型的方法,包括以下步骤:

从目标网站数据源采集目标网页数据,得到网页数据集;

将网页数据集进行数据优化,得到优化数据集;

对优化数据集添加分类标记得到分类数据集;

将分类数据集内的数据转换为向量数据,继而得到向量数据集;将向量数据集分为训练数据集和测试数据集;

构建多个计算模型,将所述多个计算模型融合组成第一计算模型;

将训练数据集导入第一计算模型,经训练后得到第二计算模型;

将测试数据集导入第二计算模型测试,调整参数直至测试结果达标,得到最优计算模型。

进一步地,将网页数据集进行数据优化时,所述数据优化方式包括数据去重、数据删除及数据合并。

进一步地,将网页数据集进行数据优化时,根据中文停用词典去除文本停用词,并进行文本中文分词。

进一步地,所述将数据转换为向量数据的方法使用word2vec方法(wordtovector,产生词向量的相关方法模型),进一步地,将所述词向量维度设置为300。

进一步地,所述多个计算模型包括vggnet模型、resnet模型、densenet模型、xception模型。

进一步地,训练第一网络模型时,多个计算模型使用迁移学习的方法进行训练。

进一步地,在模型训练过程中采用有差异的参数优化方法,从而以不同的学习率调整不同层的参数。

进一步地,所述有差异参数训练方法步骤中通用模型参数的随机梯度下降更新公式如下:

通用模型参数θ的随机梯度下降(stochasticgradientdescent,)更新公式如下所示:

θt=θt-1-η▽θj(θ)

其中η是学习率,▽θ是关于模型目标函数的梯度。

对于有差异的参数优化,将参数θ分成{θ1,...,θl},其中θ1是模型在第1层的参数,l是模型的层数;同样,我们得到{η1,...,ηl}其中η1是第1层的学习速率;首先将最后一层的学习率设置为ηl,仅训练最后一层,接着将按下式设置底层的学习率;

ηl-1=ηl/3

具有辨别性的随机梯度下降计算公式如下所示:

进一步地,每个单模型的训练完成后,学习每个单模型对最终模型的权重,根据评价标准判断结果是否达到要求,不满足要求继续学习直至满足要求,得到最优权重值,继而得到最优计算网络模型。

更进一步地,学习权重的计算公式如下所示:

使用f(xi)来表示集合模型中的第i个样本预测值,xi=[pi1,pi2,pi3,pi4]t表示第i个样本在每个单模型中输出概率,其中pij=[pij1,pij2,...,pijn]t,(j=1,2,3,4)表示第i个样本在第j个模型中的输出概率,输出概率分别是属于第一类的概率、第二类的概率以及第n类概率,w=[w1,w2,w3,w4]表示融合模型的权重,wj表示第j个模型的权重。

其中b是常数项。现假设有m个样本,可以通过最小化mse来测量预测值f(xi)和第i个样本的真实标签yi之间的差异:

本发明的第二方面,提供了网站数据识别方法,包括以下步骤:

从目标网站数据源采集目标网页数据,得到网页数据集;

将网页数据集进行数据优化,得到优化数据集;

将分类数据集内的数据转换为向量数据,得到向量数据集;

通过构建多模型融合计算模型的方法得到最优计算模型;

将向量数据集导入最优计算模型,得到目的结果。

本发明的第三方面,提供了构建多模型融合计算模型的设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述构建多模型融合计算模型的方法。

本发明的第四方面,提供了网站数据识别方法设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述网站数据识别方法。

本发明具有以下有益效果:

(1)本发明所提供的网站数据识别方法设备,通过将word2vec用于网页文本分布式词向量表示,训练数据结合了大量风险网页语料,更好的表示了网页文本的语义特性。

(2)本发明所提供的构建多模型融合计算模型的设备,通过使用“模型”+“模型”的加法训练算法,将多深度学习模型相结合,实现了基于模型融合的校正机制,进一步提升了风险网页识别精确度。

(3)本发明所提供的构建多模型融合计算模型的方法,通过将迁移学习应用到深度学习模型训练当中,只需要对深度模型进行微调,便能实现拟合少量标注数据的同时又具备较好的泛化能力。

(4)本发明所提供的网站数据识别方法,通过设置利用有差异的参数优化方法,即不同层设置不同的学习率,加快了模型的收敛速度。

附图说明:

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为构建多模型融合计算模型的方法的步骤示意图;

图2为网站数据识别方法的步骤示意图。

具体实施方式:

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

在本发明使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。

以下对本申请涉及的一些概念进行解释:

1.中文停用词典:指在信息检索中,为节省存储空间和提高搜索效率,在处理自然语言数据(或文本)之前或之后会自动过滤掉某些字或词,这些字或词即被称为stopwords(停用词);中文停用词是指如“?”、“、”、“但是”、“即便”等没有实际语义的符号、字、词、短语等;中文停用词典即常用中文停用词集合。

2.vggnet模型:牛津大学的视觉几何组(visualgeometrygroup)和googledeepmind公司的研究员一起研发的深度卷积神经网络模型。

3.resnet模型:是残差网络(residualnetwork)的缩写,是一种作为许多计算机视觉任务主干的经典神经网络模型。

4.densenet模型:一种跨层的连接网络模型,每个层的input包括之前所有层的信息,通过将前面n多个层的feature组合起来,形成对特征更丰富的描述和判别。

5.xception模型:带有残差连接的深度可分卷积层的线性堆叠计算模型。

6.relu函数:线性整流函数,rectifiedlinearunit,是一种人工神经网络中常用的激活函数(activationfunction),通常指代以斜坡函数及其变种为代表的非线性函数。

7.dropout层:对具有深度结构的人工神经网络进行优化的方法,在学习过程中通过将隐含层的部分权重或输出随机归零,降低节点间的相互依赖性(co-dependence)从而实现神经网络的正则化(regularization),降低其结构风险(structuralrisk)。

8.评价标准:用准确率和召回率对风险网页自动识别和检测结果进行评估;风险网页自动识别和检测算法评估的标志是检测风险网页的准确度;在测试数据集中,自动识别和检测结果能正确代表实际风险网页的数量越多,则说明该算法模型的准确性越高;其中,用tp表示正确识别和检测的风险网页个数;fp表示属于风险网页但被误判为非风险网页的个数;fn表示被误分为风险网页的个数。

准确率的计算公式:

召回率的计算公式:

准确率和召回率之间相互影响,在风险网页检测中,如想获得较高的召回率,则需要牺牲准确率,这将把一些不属于风险的网页误判为风险网页;反之,将牺牲召回率,则可能错失一些风险网页。而f1值是一种使准确率与召回率达到平衡的计算方法,在风险网页检测中可对检测结果进行综合测评。

f1值计算公式:

9.mse(meansquarederror,均方误差):是指参数估计值与参数真值之差平方的期望值。

以下将通过实施例对本发明进行详细描述。

本申请实施例的一个技术方案为解决上述技术问题,总体思路如下:

从目标网站数据源采集目标网页数据,得到网页数据集;

将网页数据集进行数据优化,得到优化数据集;

对优化数据集添加分类标记得到分类数据集;

将分类数据集内的数据转换为向量数据,继而得到向量数据集;将向量数据集分为训练数据集和测试数据集;

构建多个计算模型,将所述多个计算模型融合组成第一计算模型;

将训练数据集导入第一计算模型,经训练后得到第二计算模型;

将测试数据集导入第二计算模型测试,调整参数直至测试结果达标,得到最优计算模型。

为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。

如图1所示,在本发明的一些实施例中提供了构建多模型融合计算模型的方法,上述方法包括:

s010从目标网站数据源采集目标网页数据,得到网页数据集;

在具体实施过程中,收集目标网站数据时,使用下爬虫框架scrapy(一个爬取网站数据、提取结构性数据的应用框架)来完成网页的下载;首先将人工筛选的种子地址分配给任务爬虫作为起始链接,这样可以使得爬虫直接进入门户网站的二级页面,不至于在深度优先策略下抓取无关网站。接着对网页的解析,通过beautifulsoup工具(一种可以从html和xml中快速提取内容的python库)对分类目录进行定位,提取各种类别网页目录,并使爬虫进入该目录下对有效网页进行拉取,拉取策略是基于当前目录的深度优先策略,直至本页面目录编号为零,或者对应html标签为空;最后存入对应目录名的数据库中的数据表。在本实施例中,目标网页数据为风险网页上的数据,即以获取利益、破坏社会稳定、危害国家安全为目的,在用户不知情的情况下诱使用户通过点击浏览等操作,实施犯罪,造成用户金钱损失,隐私泄露,违法犯罪等相关数据,所抓取的关键字为“涉政、暴恐、涉黄、涉赌、涉敏感人物等”;本实施例中数据为通过爬虫抓取一个网站中不同子页面的2个数据内容,第一个数据为:{“网址:https://www.guancha.cn/culture/2019_12_03_527189.shtml”,“目录:https://www.guancha.cn/culture/”,“标题:香港暴徒公开派发醒脑提神“药物”:印骷髅头成分存疑”,“文本内容:海外网12月2日电,持续半年的“修例风波”仍未平息,“黑幕”幕后有盘根错节的纵暴网络,有本应救人的医者,自甘堕落为暴徒帮凶。网上有组织生成为暴徒免费提供诊治,有人在暴乱现场免费派发“药物”,甚至还提供形似血浆的“紫云膏”擦脸,用便嫁祸警方”};第二个数据为:{“网址:https://www.guancha.cn/3541093/2019/1202/content_31674893_1.html”,“目录:https://www.guancha.cn”,“标题:香港暴徒公开派发醒脑提神“药物”:印骷髅头成分存疑”,“文本内容:海外网12月2日电,持续半年的“修例风波”仍未平息,“黑幕”幕后有盘根错节的纵暴网络,有本应救人的医者,自甘堕落为暴徒帮凶。网上有组织生成为暴徒免费提供诊治,有人在暴乱现场免费派发“药物”,甚至还提供形似血浆的“紫云膏”擦脸,用便嫁祸警方”};

s020将网页数据集进行数据优化,得到优化数据集;

在具体实施过程中,所述优化是指对网页数据集中的内容按照数据格式要求进行数据去重、数据删除及数据合并;随后根据中文停用词典去除文本停用词,并进行文本中文分词;

参照s010的2个数据,数据优化首先对比网页链接,链接不同,则不进行去重操作;然后对比网页文本标题,内容是相同的,进行合并操作,删除第二个数据并将第二个数据中心的文本数据添加到第一个文本数据中;本实施例中的文本内容为风险相关内容,所以不需要删除;最后得到文本内容{“海外”“网”“电”“持续”“近半年”“修例”“风波”“仍未”“平息”“黑暴”“幕后”“盘根错节”“纵暴”“网络”},将此内容存入优化数据集。

s030对优化数据集添加分类标记得到分类数据集;

在具体实施过程中,根据数据的特性,将数据分为几种类型并添加分类标记,添加分类标记的方法为人工标注;在本实施例中,将风险数据分为涉恐、渉暴、涉黄、涉赌、涉政、涉敏感人物这6种风险类别,分别设置对应值,涉恐赋值为1,渉暴赋值为2、涉黄赋值为3、涉赌赋值为4、涉政赋值为5、涉敏感人物赋值为6;在实际运行中,还可以根据实际情况增加其他类别;将数据添加分类标记时,可以将所有数据进行人工标注并得到一个结果对比集;所述对比集的数据排列顺序与网页数据集的数据排列顺序相同;也可以将网页数据集最后一列增加数据位,根据不同标签赋予不同标签值,本实施例中采用第一种方式。

s040将分类数据集内的数据转换为向量数据,继而得到向量数据集;将向量数据集分为训练数据集和测试数据集;

在具体实施过程中,将分类数据集中的数据通过word2vec方法转换为词向量,并设置输出词向量的维度大小为300;

在本实施例中,所述分类数据集中的数据为{“海外”“网”“电”“持续”“近半年”“修例”“风波”“仍未”“平息”“黑暴”“幕后”“盘根错节”“纵暴”“网络”},经过word2vec转换后,所述内容转变为向量值,即海外-->0.46558156056166844,网-->0.40967053422046074,电-->0.16048151467632454,持续-->-0.3759397453267568,近半年-->0.2976097315644177,修例-->-0.2340424162024618,风波-->-0.05165401072757103,仍未-->-0.36234206383931733,平息-->-0.04321021772205425,黑暴-->0.3153154888523255,幕后-->-0.1617250396990808,盘根错节-->0.37432323030932324,纵暴->0.3211303845807112,网络-->0.1264156456484121,最终得到的向量集合为{0.46558156056166844,0.40967053422046074,0.16048151467632454,-0.3759397453267568,0.2976097315644177,-0.2340424162024618,-0.05165401072757103,-0.36234206383931733,-0.04321021772205425,0.3153154888523255,-0.1617250396990808,0.37432323030932324,0.3211303845807112,0.1264156456484121}。

s050构建多个计算模型,将所述多个计算模型融合组成第一计算模型;

在具体实施过程中,将多个计算模型融合为一个计算模型,可以大幅度提高识别精度。

在本实施例中,使用了4个卷积神经网络计算模型进行融合,它们分别是:

vggnet模型:

vggnet网络模型输入为300x300网页文本向量,整个网络分成5个block(卷积组),每个block内有多组卷积,卷积核均为3x3,block之间通过最大池化层连接,完成5个卷积计算后,与全局平均池化层连接,之后使用丢弃率为0.5的dropout层,此外卷积之后采用relu激活函数进行非线性转换;

xception模型:

xception网络分为三个模块,输入模块、中间模块和输出模块,网络的输入是300x300网页文本向量,先进行两次卷积核为3x3的卷积运算并经过relu激活函数提高非线性之后连接深度可分卷积运算单元,每一个运算单位都包含2次带relu激活函数的3x3深度可分卷积运算和最大池化,中间模块是8个一样的深度可分卷积运算单元相连,每一个运算单元都包含3次relu激活函数的3x3深度可分卷积运算,输出模块是一个深度可分卷积运算单元,运算单元包含2次带relu激活函数的3x3深度可分卷积运算和最大池化,之后进行2次带relu激活函数的3x3深度可分卷积运算,最后与全局平均池化层相连,再使用丢弃率为0.5的dropout层;

resnet模型:

resnet网路结构是由3个conv2_x(标记为2的卷积组)单元,4个conv3_x(标记为3的卷积组)单元,6个conv4_x(标记为4的卷积组)单元,3个conv5_x(标记为5的卷积组)单元组成,其中conv2_x单元、conv3_x单元、conv4_x单元和conv5_x单元均包括3个卷积层,卷积算子分别为1x1,3x3和1x1。网络的输入是300x300网页文本向量,第一层为1个7x7的卷积层,之后进行3x3池化,之后连接3个conv2_x单元、4个conv3_x单元、6个conv4_x单元和3个conv5_x单元。最后与全局平均池化层相连,再使用丢弃率为0.5的dropout层;

densenet模型:

densenet模型输入为300x300的网页文本向量,第一层为1个7x7的卷积层,之后进行3x3最大池化,之后连接3个denseblock(dense卷积组)和3个transitionlayer(中间层),transitionlayer紧跟着每一个denseblock之后,每个denseblock包含如干个1x1和3x3的卷积算子,且每个3x3卷积前都包含一个1x1的卷积操作。第一个denseblock包含6个1x1卷积和6个3x3卷积,第一个transitionlayer包含1个1x1卷积,之后进行2x2平均池化;第二个denseblock包含12个1x1卷积和12个3x3卷积,第二个transitionlayer包含1个1x1卷积,之后进行2x2平均池化;第三个denseblock包含24个1x1卷积和24个3x3卷积,第三个transitionlayer包含1个1x1卷积,之后进行2x2平均池化。最后与全局平均池化层相连,再使用丢弃率为0.5的dropout层。

在具体实施过程中,将多个计算模型通过迁移学习的方法来训练,将在其他大型文本数据集上的预训练模型作为初始参数分别加载进多个模型中,进行不同的模拟运算,大大缩短训练时间。

在本实施例中,截取其中参数的一小段作为示例,其中vggnet模型中加载的部分参数的数据为{0.3582、-0.0283、0.2607、0.5190、-0.2221、0.0665、-0.2586、-0.33112、0.1927},resnet模型中加载的部分参数的数据为{0.1658、0.1248、-0.1684、-0.5532、-0.4822、0.0034、-0.1547、0.2348、0.1135},densenet模型中加载的部分参数的数据为{-0.2301、0.1129、0.6531、-0.5190、0.0014、-0.3354、0.4412、0.3111、-0.0214},xception模型中加载的部分参数的数据为{0.0541、0.4215、0.3145、0.7411、-0.0114、0.2210、-0.3315、-0.1114、-0.0003},将这些参数集分别导入计算模型,构建第一计算模型。

s060将训练数据集导入第一计算模型,经训练后得到第二计算模型;

在具体实施过程中,将训练数据集的数据分批导入多个单计算模型,通过训练不断调整参数,当所有单训练模型达到要求时,停止单模型训练。

为了避免灾难性的遗忘和收敛缓慢的问题,在训练过程中采用有差异的参数优化方法,从而以不同的学习率调整不同层的参数,其相关公式为:

通用模型参数θ的随机梯度下降(stochasticgradientdescent,)更新公式如下所示:

θt=θt-1-η▽θj(θ)

其中η是学习率,▽θ是关于模型目标函数的梯度,其中j(θ)是损失函数,随着θ值变化,损失值j(θ)会相应变化。

对于有差异的参数优化,将参数θ分成{θ1,...,θl},其中θ1是模型在第1层的参数,l是模型的层数;同样,我们得到{η1,...,ηl}其中η1是第1层的学习速率;首先将最后一层的学习率设置为ηl,仅训练最后一层,接着将按下式设置底层的学习率;

ηl-1=ηl/3

具有辨别性的随机梯度下降计算公式如下所示:

在本实施例中,使用有差异的逐层优化方式,设最大学习率为0.01,第二层学习率为0.033,第三层学习率为0.011...,θ随训练得出,经过不断训练最终得到最优模型,设置迭代周期为300次,每个模型经300次训练后得到最优单模型,得到第二计算模型。

s070将测试数据集导入第二计算模型测试,调整参数直至测试结果达标,得到最优计算模型。

将测试数据集导入及二计算模型进行测试运算,通过学习得到每个单模型的权重,按照一定的评价标准最终完成分类识别;

在具体实施过程中,计算权重的步骤包括:

使用f(xi)来表示集合模型中的第i个样本预测值,xi=[pi1,pi2,pi3...pin]t表示第i个样本在每个单模型中输出概率,其中pij=[pij1,pij2,...,pijn]t,(j=1,2,3,...n)表示第i个样本在第j个模型中的输出概率,输出概率分别是属于第一类的概率、第二类的概率以及第n类概率,w=[w1,w2,w3...wn]表示融合模型的权重,wn表示第n个模型的权重。

其中b是常数项。现假设有m个样本,可以通过最小化mse来测量预测值f(xi)和第i个样本的真实标签yi之间的差异,设j(w,b)为最小差异值,其公式如下所示:

在本实施例中,共有4个模型,j为4,因此公式变为

通过计算得到对应的概率值后,将得到的模型进行运算,根据运算结果使用评价标准进行计算,当准确率达到80%,召回率达到85%时,满足要求,得到最优参数,继而得到最优计算网络模型;若准确率和召回率未达到要求,继续学习,直至满足要求为止;本实施例中各模型最终得到的概率值分别为:vggnet对应概率为0.13;resnet对应概率为0.18;densenet对应概率为0.38;xception对应概率为0.31,继而得到最优计算模型。

如图2所示,基于同一种发明构思,本发明提供了网站数据识别方法,包括以下步骤:

从目标网站数据源采集目标网页数据,得到网页数据集;

将网页数据集进行数据优化,得到优化数据集;

将分类数据集内的数据转换为向量数据,得到向量数据集;

通过构建多模型融合计算模型的方法得到最优计算模型;

将向量数据集导入最优计算模型,得到目的结果。

基于同一发明构思,本发明提供了构建多模型融合计算模型的设备,所述设备包括:

处理器;

存储装置,用于存储一个或多个程序;

所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述扫描方法。

基于同一发明构思,本发明提供了网站数据识别设备,所述设备包括:

处理器;

存储装置,用于存储一个或多个程序;

所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述扫描方法。

本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。

在本申请所提供的几个实施例中,应该理解到,所揭露的系统、设备和方法,可以通过其它的方式实现。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。

应当理解,本申请实施例中,从权、各个实施例、特征可以互相组合结合,都能实现解决前述技术问题。

所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、磁碟或者光盘等各种可以存储程序代码的介质。

对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1