一种人体循环系统健康风险预警系统的制作方法_4

文档序号:9432927阅读:来源:国知局
值为1。
[0137] 人体循环系统健康风险预警单元:利用人体循环系统健康风险预警模型,基于当 前采集到的人体各循环组织和器官的功能值、循环系统的临床指标数据,进行人体循环系 统健康风险预警,得到人体循环系统健康风险预警结果,输出至循环系统健康风险预警结 果显示器。
[0138] 人体循环系统健康风险预警模型建立单元包括:
[0139] 样本生成模块:根据扫描和评估的人体循环系统各组织和器官的功能值历史数据 和循环系统的临床指标历史数据以及相应的循环系统健康风险历史预警结果生成样本集, 将样本集中的一部分样本作为训练样本,其余作为测试样本;样本集中共11046个样本,将 样本集中的7000个样本作为训练样本,剩余的4046个样本作为测试样本;每个样本包含鹰 演全身健康扫描系统的扫描指标、临床指标、评估结论共计433项信息。
[0140] 模型训练模块:将样本集中的训练样本作为输入,将循环系统健康风险历史预警 结果作为输出,分别采用极限学习机ELM和支持向量机SVM模型,进行人体循环系统健康风 险预警模型训练,训练得到人体循环系统健康风险预警模型;
[0141] 极限学习机是从单隐藏层的神经网络发展而来的,并具有易于实现,速度快,泛化 能力强等特点。极限学习机比单隐藏层反馈神经网络缺乏了输出层偏置,而输入权重^和 隐藏层偏置匕随机产生,不需要调整,那么整个网络仅仅剩下输出权重β -项没有确定。
[0142] 令神经网络的输出等于样本标签,如式(1)表示
[0143] T = Ηβ (1)
[0144] 求出式⑴的解即能完成整个神经网络的构建。当隐藏神经元的个数L与训练样 本的个数N-致时,即L = Ν,矩阵H为可逆方阵,那么取输出权重β =H1T,可使神经网络 以〇误差拟合映射函数f :χ - y。
[0145] 然而,在大多数情况下,隐藏神经元的个数L是远小于训练样本的个数N的,即L <<N,这时不存在使得式(1)成立的解,因此转而求使损失函数C最小的解,如式(2)表 不。
[0147] 根据极小范数解准则(即同时满足mini |Ηβ-Τ| I和mini I β I |),则式(2)存在如 下极小范数选最小二乘解:
[0149] 其中H+是隐藏层响应矩阵H的Moore-Penrose增广逆,简称伪逆。H +有多种计算 方式。在极限学习机当中,正交法经常被用于H+的计算:当HtH非奇异时,HH+= (HtH) 1Ht; 当HHt非奇异时,H+= Ht(HHt) ^
[0150] 算法1总结了极限学习机的流程。
[0151] Input:训练样本集Ivi,匕,隐藏神经元个数L和激励函数g( ·)
[0152] Output:输出权重 β
[0153] 1.随机生成 Wi, bp i = 1,…,L ;
[0154] 2.计算 H ;
[0155] 3.根据公式⑶计算β ;
[0156] 当#计算完毕时,一个单隐藏层反馈神经网络就完成了。对于一个标签未知的测 试样本X,可以通过单隐藏层反馈神经网络推测它的标签,它的标签可用下式推测:
[0157] /i(x) = h(x)/5 ⑷
[0158] 其中h(x) = 是神经网络隐藏层关于X的响应。
[0159] 极限学习机与传统的基于梯度求解的单隐藏层反馈神经网络算法相比具有以下 几个特征:
[0160] (1)极限学习机的速度非常快,或者说不需要学习,只需要将输出权重 β (复杂度为〇(min(L3,N3)))求出即可;而反向误差传播算法每迭代一次需要调整 nX (L+1)+LX (m+1)个值,且反向传播算法为了保证系统的稳定性通常选取较小的学习率, 使得学习时间大大加长。因此极限学习机在这一方法优势非常巨大,在实验中,极限学习机 往往在数秒内就完成了运算。而一些比较经典的算法在训练一个单隐藏层神经网络的时候 即使是很小的应用也要花费大量的时间,似乎这些算法存在着一个无法逾越的虚拟速度壁 皇。
[0161] (2)在大多数的应用中,极限学习机的泛化能力大于类似于误差反向传播算法这 类的基于梯度的算法。
[0162] (3)传统的基于梯度的算法需要面对诸如局部最小,合适的学习率、过拟合等问 题,而机选学习机一步到位直接构建起单隐藏层反馈神经网络,避免了这些难以处理的棘 手问题。
[0163] 极限学习机由于这些优势,极限学习机在很多领域进行分类预测时得到了广泛应 用。
[0164] 而支持向量机SVM通过引入核函数,将样本向量映射到高维特征空间,然后在高 维空间中构造最优分类面,获得线性最优决策函数。SVM可以通过控制超平面的间隔度量来 抑制函数的过拟合;通过采用核函数巧妙解决了维数问题,避免了学习算法计算复杂度与 样本维数的直接相关。
[0165] SVM定义最优线性超平面,并把寻找最优线性超平面转化为求解二次规划问题,进 而基于Mercer定理,通过非线性映射,把样本空间映射到高维特征空间,从而使用线性方 法解决样本空间中的高度非线性问题。支持向量机是针对二类别分类提出的。假设给定训 练样本 ki,yj,i = 1,2, · · ·,1,X e Rd,yie {-1,1},存在分类超平面 w · x+b = 0,为使分 类面对所有样本正确分类且具备分类间隔,必须满足
[0166] Yi [ (w · Xi) +b] -1^0 (5)
[0167] 可以计算出分类间隔为
[0169] 要求最大分类间隔2/I |w| I,即要求最小化I |w| I。则求解最优分类超平面问题就 可以表示成约束优化问题,即在式(5)的约束下,最小化函数
[0171]引入 Lagrange 函数:
[0173] 其中,α ;> 〇为Lagrange系数。将式(8)分别对w和b求偏导并令其等于0,就 可以将上述问题转化为简单的对偶问题。
[0176] 将式(9)和式(10)带入式⑶中,即可得到对偶最优化问题:求解下列函数的最 大值
[0178] 这是一个不等式约束下的二次函数极值问题(QP,Quadratic Programming)。根 据Karush-Kuhn-Tucker (KKT)条件,该优化问题的解必须满足:
[0179] a J Iyi [ (w · Xi) +b] -1} = 0, i = I, . . . , I (12)
[0180] 因此,多数样本对应的α i是为〇的,把α 〇对应于使式(5)中等号成立的样 本称为支持向量(SVs)。在支持向量机算法中,支持向量是训练集中的关键元素,它们离决 策边界最近。如果去掉其它所有的训练样本,再重新进行训练,将得到相同的分类面。
[0181] 求解上述二次规划问题后,则分类决策函数可表示为 CN 105184107 A 说明书 12/14 页
[0183] 式中的求和只对支持向量进行,即只有不为零的a i对应的训练样本决定分类结 果,而其它样本与分类结果无关。K是分类阈值。当训练样本集为线性不可分时,引入非负 松弛变量ξ D i = 1,2, . . .,1,分类超平面的最优问题为
[0185] 其对偶问题为对α求解下列函数的最大值:
[0187] 其中C > 0是一个常数,称为误差惩罚参数,它控制对错分样本惩罚的程度;ξ 1是 在训练样本线性不可分时引入的非负松弛变量。
[0188] 当样本线性不可分时,分类决策函数也可表示为式(13)的形式。
[0189] 对于非线性分类问题,则采用适当的内积函数K(Xl,X])就可以实现某一非线性变 换后的线性分类,此时优化的目标函数变为
[0193] 以上的分类决策函数就是支持向量机。可以看到,把原问题转化为对偶问题,使得 计算的复杂度不再取决于空间维数,而是取决于样本数,尤其是样本中的支持向量数,支持 向量机的这个特点使它能有效的对付高维问题。
[0194] 支持向量机的特点
[0195] 1.系统结构简单表面上支持向量机的结构类似与于三层前馈神经网络,但它们有 着根本的不同。支持向量机结构非常简单,不需要过多的先验知识。它的隐层是由算法自 动确定的,可以随实际问题的需要而自适应的调节规模与大小,不存在类似神经网络的结 构选择问题。而神经网络的隐层数和每层的节点数目都是事先确定好的,神经网络的算法 中仅自动产生网络权值。
[0196] 2.全局最优性支持向量机是通过求解最优超平面来进行学习的,在高维特征空间 中的超平面对应原始模式空间中的非线性分类面。寻找最优超平面的问题是利用Lagrange 优化方法转化为二次规划问题,能够保证支持向量机算法得到的是全局最优解,使它成为 一种优秀的学习算法。在神经网络中,得到的结果可能是局部最优解。特别是当训练样本 的维数较高时,高维空间可能存在许多局部
当前第4页1 2 3 4 5 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1