基于深度置信网络的认知决策方法

文档序号:10535369阅读:384来源:国知局
基于深度置信网络的认知决策方法
【专利摘要】本发明公开了基于深度置信网络认知决策方法,包括如下步骤:深度置信网络的输出作为决策过程的输入;对决策过程进行训练,调整权值和阈值;对误认知的样本进行再次训练,实现错误控制;重复上述步骤,直至对测试样本的认知准确性达到设定值,实现错误控制;根据训练和再训练的决策模型,判断并输出决策结果。本发明能够进一步控制认知决策的准确性。
【专利说明】
基于深度置信网络的认知决策方法
技术领域
[0001] 本发明涉及认知计算技术领域,特别涉及基于深度置信网络的认知决策方法。
【背景技术】
[0002] 在数据规模不断膨胀的今天,用户从中提取自己感兴趣的信息的过程变得愈发困 难。在这种背景下,如何通过计算机实现类似人类的认知与判断,发现规律,从而做出准确 的判断就显得尤为重要。现有基于多层感知器分类决策技术在寻找局部最优解的时候存在 一定的困难,耗费时间较长。深度置信网络在一定程度上能够解决多层感知器寻找局部最 优解的难题,但是如何提高其准确性,仍是一个十分重要问题。

【发明内容】

[0003] 鉴于上述现有技术的不足之处,本发明提出一种基于深度置信网络的认知决策方 法,借用深度置信网络训练模型,在决策过程中通过对误认知样本的再学习,提升认知决策 的准确性。
[0004] 基于深度置信网络的认知决策方法,包括:
[0005] 步骤1、选取输入样本集,根据样本集建立输入模型,对输入样本集的数据进行分 类属性特征提取;
[0006] 步骤2、对深度置信网络进行训练,首先单独逐层训练每一层的限制玻尔兹曼机, 然后在深度置信网络最后一层设置BP网络,使用上一层限制玻尔兹曼机的输出作为BP网络 的输入,最后采用反向传播网络将错误信息自上到下传递给各层限制玻尔兹曼机;
[0007] 步骤3、深度置信网络的输出作为决策过程的输入,对决策过程进行训练,调整权 值和阈值,对误认知样本进行再训练;
[0008] 步骤4、判断信息是否达到预设的准确度,若是则训练结束;否则继续判断是否达 到再训练所设定的循环次数,若是则训练结束,否则重复步骤3;
[0009] 步骤5、输出决策结果。
[0010] 步骤3的具体过程为:
[0011] S31、记录所有误认知样本,并获取所述误认知样本的决策函数输出范围[yi,y2];
[0012] S32、对所有决策函数输出范围在[yi,y2]的样本进行再训练,并构建再训练决策函 数;
[0013] S33、对所有决策函数输出范围在[yl,y2]的样本,采用所述再训练决策函数进行 再认知训练,并按照第一次决策中的训练方法对所述再训练决策函数的阈值和权值进行训 练;
[0014] S34、重复S31~S33,直至认知结果准确度达到设定值。
[0015] 本发明通过对海量数据进行建模与特征提取,获取输入信息;利用深度置信网络 技术训练模型,获取初始训练结果;通过误认知数据再训练机制来保证模型认知的准确性; 增加了误认知样本数据再训练机制,构建一种新的具有错误控制功能的认知决策模型,并 对无法正确认知的样本进行再次决策,直至满足设定的误差阈值。本发明能够有效提高对 信息有效性认知决策的准确度。
【附图说明】
[0016] 图1为基于深度置信网络的认知决策模型;
[0017] 图2为基于深度置信网络的认知决策方法的流程图。
【具体实施方式】
[0018] 为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对 本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并 不用于限定本发明。
[0019] 在本实施例使用的训练模型中,深度置信网络的每一层都是一个受限玻尔兹曼 机。为了使讨论更具一般性,假设深度置信网络训练的每一层都是一个包含可视层和隐藏 层的马尔科夫随机场模型(Random Markov Field),用V=(Vi,...,Vm)表示显示层变量矩 阵,用11=(出,...,仏)表示隐藏层变量矩阵,根据(V,H)吉布斯分布,用隐藏层变量矩阵H来 表示显示层变量矩阵V的边缘分布:
[0020] h ^ h
[0021] 其中:
[0022] C=^cxp(-£(v,h)) (2) Xh
[0023] 根据公式(2),定义模型参数0的似然函数如下:
[0024] In /--(0|v) = In p(vjB) = In Vcxp(-£(v,h))-ln^oxp(--£(v,h)') (3) i. v:,h
[0025] 根据上述似然函数,计算参数0调整的梯度值:
v4)
[0027]每一个受限玻尔兹曼机都包含两层:一层隐藏层和一层可视层,分别代表隐藏变 量和显示变量。在受限玻尔兹曼机中,可视层和隐藏层都不与自身相连接。假设取值只有0 和1,可以得到该受限玻尔兹曼机网络的能量方程:
(5)
[0029]从公式(5)可以看出,该能量方程中,权重只需要全局调节,偏置因子也是相互独 立的。如果将受限玻尔兹曼机看做一个图,则该图只存在隐藏层与可视层之间的连接而不 存在层内的连接。根据吉布斯分布和公式(5)的能量方程,可以推算出条件概率公式如下:
[0030] m P(V, = 11 h) = w^h, + b.) ( 6 ) /=!
[0031] m P(I/.=!!%) = a(^ H;, v; + r,.} (7 ) ?=1
[0032] 根据梯度计算公式(4)、能量方程公式(5)以及公式(6) (7),得到权重梯度更新 [0033]计算方程:
(8)
[0035]偏执因子更新方程:
[0038] 采用对比散度(Contrastive Divergence)算法来训练RBM网络,根据公式(8)、(9) 和(10),当训练C个数据点时,得到以下权重参数以及偏置因子参数调整的计算公式: (9) (10)
[0042]根据公式(11)、(12)和(13),可以得到一个通用的参数0的学习函数: (11) (12) (13)
(14 >
[0044] 在公式(14)中,参数巾表示惯性项因子,参数q代表学习率,参数X表示惩罚因子。
[0045] -个深度置信网络本质上是由一系列的受限玻尔兹曼机构成的。每一个受限玻尔 兹曼机的隐藏层是下一层受限玻尔兹曼机的显示层。RBM网络的训练是从第一层开始,当第 一层的所有训练步骤执行完成后,会将学习(抽象)到的特征格式化放在隐藏层作为下一层 RBM网络的输入进行训练。这个步骤将重复执行,直到最后一层的RBM网络都训练前。在最后 一层训练前,将有一个反馈机制来修正训练参数。注意,这个反馈修正只对最后一层RBM有 效。
[0046] 图1是本发明的认知决策模型,信息内容用a=[ai,a2, . . .,aml]表示,上下文信息 用...,bm2]表示。表示有ml种信息种类和m2种上下文信息种类。a和b共同组成深 度置信网络的输入x=[a,b]。
[0047] 图2是本实施例的实施流程图,通过对海量数据进行建模与特征提取,获取输入信 息;利用深度置信网络技术训练模型,获取初始训练结果;通过误认知数据再训练机制来保 证模型认知的准确性,进一步改善了认知决策的准确率性能。
[0048]本发明方案所公开的技术手段不仅限于上述实施方式所公开的技术手段,还包括 由以上技术特征任意组合所组成的技术方案。
【主权项】
1. 基于深度置信网络的认知决策方法,其特征在于,包括: 步骤1、选取输入样本集,根据样本集建立输入模型,对输入样本集的数据进行分类属 性特征提取; 步骤2、对深度置信网络进行训练,首先单独逐层训练每一层的限制玻尔兹曼机,然后 在深度置信网络最后一层设置BP网络,使用上一层限制玻尔兹曼机的输出作为BP网络的输 入,最后采用反向传播网络将错误信息自上到下传递给各层限制玻尔兹曼机; 步骤3、深度置信网络的输出作为决策过程的输入,对决策过程进行训练,调整权值和 阈值,对误认知样本进行再训练; 步骤4、判断信息是否达到预设的准确度,若是则训练结束;否则继续判断是否达到再 训练所设定的循环次数,若是则训练结束,否则重复步骤3; 步骤5、输出决策结果。2. 根据权利要求1所述的基于深度置信网络的认知决策方法,其特征在于,步骤3的具 体过程为: 531、 记录所有误认知样本,并获取所述误认知样本的决策函数输出范围[yi,y2]; 532、 对所有决策函数输出范围在[yi,y2]的样本进行再训练,并构建再训练决策函数; 533、 对所有决策函数输出范围在[yi,y2]的样本,采用所述再训练决策函数进行再认知 训练,并按照第一次决策中的训练方法对所述再训练决策函数的阈值和权值进行训练; 534、 重复S31~S33,直至认知结果准确度达到设定值。
【文档编号】G06K9/62GK105894011SQ201610184418
【公开日】2016年8月24日
【申请日】2016年3月28日
【发明人】王堃, 陆恒, 岳东, 孙雁飞, 吴蒙, 亓晋, 陈思光
【申请人】南京邮电大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1