一种脑成像融合特征的稳定模式判别方法

文档序号:27691345发布日期:2021-12-01 03:14阅读:108来源:国知局
一种脑成像融合特征的稳定模式判别方法

1.本发明涉及脑成像技术领域,特别涉及一种脑成像融合特征的稳定模式判别方法。


背景技术:

2.脑功能障碍诸如帕金森、多动症等由于存在个体差异性大、发展阶段非平稳的特点,使得当前定制、静态判别模型的性能难以保证。而传统基于神经网络模型的判别模型由于其超参数的调整主要依赖于手工和经验,导致模型适用的范围与周期均受到限制。另外,由于随机优化等传统方法的寻优过程也存在不可控的特点,难以保证性能的稳定性;而近期涌现的贝叶斯优化方法也面临着超参数空间大、优化模型不可分等问题,并且由于时间复杂度过大使得其往往只停留在理论可行的阶段,难以大规模地投入实际使用。


技术实现要素:

3.本发明的目的在于提供一种脑成像融合特征的稳定模式判别方法,以解决上述背景技术中提出的问题。
4.为实现上述目的,本发明提供如下技术方案:
5.一种脑成像融合特征的稳定模式判别方法,包括如下步骤:
6.步骤1:原始脑成像信号首先通过网关上传到私有云服务器,私有云服务器进行特征提取并传回网关,训练好的模型从私有云平台上被下载到本地网关;
7.步骤2:本地网关依赖雾计算服务平台,重点实现对脑状态个体化精准判别;
8.步骤3:云服务平台负责对特征提取、模型的自动学习与自动超参数优化与所有分类器模型的训练。
9.进一步地,针对步骤1,对于第一次使用该系统时,该系统的网关在默认情况下需要从云平台中下载最新并训练好的分类器模型,本地网关之后加载这一从云平台中下载的最新并训练好的分类器以完成模型的部署,网关然后下载特征数据进行分类,并将分类结果显示给终端客户的手持设备或者个人电脑上,经过病人授权的脑成像数据经医生校准后上传到私有云服务器,这部分数据可以作为新的训练数据,驱动模型优化与训练。
10.进一步地,在私有云服务器端,首先利用分组贝叶斯优化自动学习技术对分类器的超参数进行优化和训练,经过专家确认的脑成像数据和分类器模型被保存到到分布式文件系统中,以便供相应网关下载和热部署。
11.进一步地,分布式文件系统内的所有数据因经过专家评估可以上传到公有云以供医院间进行模型与数据共享。
12.进一步地,分类器模型持续问题自优化包括超参数空间分组、基于markov链分组选择、组内超参数优化。
13.进一步地,对于基于markov链分组选择,一个分组内的所有超参数被全部优化后,需要选择下一组内的超参数进行优化,把分组内超参数优化定义为状态,求解分组优化条
件转移概率的一种有效方法是计算不同分组之间的概率转移矩阵。
14.进一步地,对于组内超参数优化,对于一个分组内超参数的优化,其可以归结为一个贝叶斯优化过程。
15.进一步地,对于组内超参数优化,对于一个分组内超参数的优化,其可以归结为一个贝叶斯优化过程。
16.进一步地,对于基于决策树的规则优化,在超参数空间中,优化算法通过试验获得最优的神经网络超参数配置,以期获得最大的分类精度。
17.与现有技术相比,本发明的有益效果是:本发明的脑成像内在的高度非线性、非稳态特性导致弱人工智能技术难以应对;本发明考虑发展超参数可自动优化的深度神经网络,增强其应对复杂结构数据的能力。本发明发展并利用自动机器学习技术,该技术旨在利用数据进行网络的超参数的自动优化;不同于传统深度网络专注于设计并应用模型,其本质是一种无监督的元学习,即建立模型学习建立自适应模型,将极大提高模型对大脑神经电活动动态的自适应性。
附图说明
18.图1为本发明的稳定模式判别流程图;
19.图2为本发明的参数优化流程图。
具体实施方式
20.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
21.一种脑成像融合特征的稳定模式判别方法,如图1所示。从数据流的角度来看,该平台的操作如下。原始脑成像信号首先通过网关上传到私有云服务器(局域网),私有云服务器进行特征提取并传回网关,训练好的模型从私有云平台上被下载到本地网关。值得注意的是,对于第一次使用该系统时,该系统的网关在默认情况下需要从云平台中下载最新并训练好的分类器模型。本地网关之后加载这一从云平台中下载的最新并训练好的分类器以完成模型的部署。网关然后下载特征数据进行分类,并将分类结果显示给终端客户的手持设备或者个人电脑上。经过病人授权的脑成像数据经医生校准后上传到私有云服务器,这部分数据可以作为新的训练数据,驱动模型优化与训练。在私有云服务器端,首先利用分组贝叶斯优化自动学习技术对分类器的超参数进行优化和训练,经过专家确认的脑成像数据和分类器模型被保存到到分布式文件系统中,以便供相应网关下载和热部署。分布式文件系统内的所有数据因经过专家评估可以上传到公有云以供医院间进行模型与数据共享。本地网关依赖雾计算服务平台,重点实现对脑状态个体化精准判别。云服务平台负责对特征提取、模型的自动学习与自动超参数优化与所有分类器模型的训练。
22.一个脑成像融合特征的稳定模式判别方法,其发明点在于分类器模型持续问题自优化方法。
23.超参数优化(又称为模型选择)旨在为学习算法选择一组最优化的超参数配置。通
过极小化目标函数使得模型输出和超参数空间之间达到最佳的拟合程度,可表征为以寻求分类器参数空间全局最优为目标的优化过程。图2为基于高斯过程的贝叶斯优化流程。基于条件概率链式法则理论,首先对参数空间中的所有参数进行功能性划分,进而逐步分组对其进一步划分,达到减少求解最优化过程中的迭代次数。分组必然导致组内转移的问题:将每一组看作是一个独立的状态,则组内转移过程可视为一个平稳随机过程(如markov过程),通过统计获取其概率转移矩阵,当该过程达到平稳时可以计算出不同状态间的转移概率:当前状态的基础上,随机赋予不同组的不同状态,以极少数的迭代次数计算在这个状态下的所有其它组的分布,将期望增益最大的组作为下次优化的目标;循环操作直到所有组完成优化。
24.1.超参数空间分组
25.现实中,在一个巨大超参数空间中快速寻求一个最优的配置几乎是不可能的。针对这一问题,本发明采用“分而治之”的策略来解决这种超参数设置的组合爆炸问题。参数优化流程如图2。
26.令s={λ1,λ2,...,λ
n
}为需要优化的超参数空间,其中λ
i
为某个具体的超参数。整个超参数空间随后被分割成数个功能上相对独立的较小子空间p1,p2,...,p
m
,使得下列条件满足:
[0027][0028]
2.基于markov链分组选择
[0029]
一个分组内的所有超参数被全部优化后,需要选择下一组内的超参数进行优化。如果把分组内超参数优化定义为状态,那么求解分组优化条件转移概率的一种有效方法是计算不同分组之间的概率转移矩阵。这样,每个组代表一个状态,由于优化的总体目标是寻扎最优的网络超参数配置,使得分类性能达到最优,因此,从一个状态迁移到另一个状态所获得的最大性能改善很显然就可以被认为是状态转移概率,以至于进行迁移的时候不会偏离优化目标:
[0030][0031]
其中,i和j分组的索引,f为少量的刺探试验(1,2,

,n)后观测所得的目标函数(请查看公式(5)),与此同时,j/i表示在组i中的所有参数都已优化的情况下对组j的优化。
[0032]
在计算转移概率矩阵的过程中,需要根据组内的超参数是否被优化完,将所有需要优化的组集合划分为两个子集,一个子集中包含那些已经优化后的分组(优化子集),另一个子集是其补集(未优化子集)。当前组被优化时,将其从未优化子集移动到优化子集中。当需要选择下一分组时,只需在当前优化子集的条件下计算所有未优化子集的条件转移概率,然后选择矩阵中最大值的列索引作为待优化的下一个组,直至未优化子集为空时为止。
[0033]
3.组内超参数优化
[0034]
对于一个分组内超参数的优化,其可以归结为一个贝叶斯优化过程。即在一些有界集合c上找到分类损失函数f(γ)的最小值。优化过程为f(y)构造一个概率模型,然后利用这个模型来预测下一个c的配置,即用f(γ)以前评估中的所有信息来学习目标参数空间c的配置:首先选择一个先验概率来表达被优化函数f(γ)的假设,如高斯过程;然后,选择
一个采集函数,用来从后验模型中构造一个效用函数,来确定下一个采样点。
[0035]
超参数优化是一个超参数空间巨大、算法复杂度高的选择问题(指数级算法复杂度),业已成为科学和工业领域中普遍存在的重要问题。特别的,对于机器学习领域,许多包括深度神经网络和支持向量机等在内的机器学习算法,其分类性能往往取决于其所配置的超参数设置,在众多超参数优化算法中,贝叶斯优化已成为机器学习算法中优化超参数的成功工具。
[0036]
给定一个函数f:x

r,贝叶斯优化旨在通过全局最小化f来求解如下问题:
[0037][0038]
在贝叶斯优化问题中,存在两个主要的选择问题需要被解决。首先,优化函数需要预先假定该函数满足一个先验假设条件。其次,为了在优化过程中能够有效的预测下一个要评估的点,需要设定一个基于开发与勘探平衡策略的采集函数。
[0039]
为了解决贝叶斯优化问题,在目标函数f上应用先验分布p(f)。对于本项目中的优化问题,分类器需要同时在两个数据集上都同时获得优异的分类性能。因此,它可以表示为一个多目标优化问题。形式化地:
[0040][0041]
当所有变量x∈x都是互相独立的时候,以上优化目标函数可以被重写为类gmean的方式形式化定义如下:
[0042][0043]
高斯过程(gp))是一种简便且功能强大的先验分布函数,它具有非参数性、描述能力强且分析可追溯性等优点。随机过程f
k
如果满足条件f:x

r,当且仅当其样本的任何有限集合都服从多元高斯随机变量时,它被称为高斯过程。它可以用其均值函数m(x)以及协方差函数k(x,x

)表示:
[0044]
f
x
~gp(m(x),k(x,x

)),
ꢀꢀꢀꢀ
(6)
[0045]
其中,m(x)=e[f(x)]为高斯过程的均值,k(x,x

)=cov(f(x),f(x

))为协方差函数,该协方差函数同时需要满足正定条件。本项目为了推导和表示上的方便,不失一般性,假定均值函数m(x)为0。
[0046]
在概率论和统计学中,协方差旨在度量两个变量的相关变化程度,而协方差函数或核函数,描述一个随机过程或随机场中的变量随时间和空间上变化的函数。gp的协方差核的选择至关重要,其关系到采用函数是否平滑。在众多核函数中,sigmoid核函数是机器学习领域中最普遍使用的核函数。
[0047]
sigmoid核函数定义为:k(x,x
*
)=tanh(ax
t
x
*
+r),其中,a为尺度参数,r偏移参数,sigmoid核的一个别名为双曲正切核函数。有研究结果表明,sigmoid核函数的最佳参数设置为a>0和r<0。本发明沿用这一设置,具体设置一个固定的尺度参数a=1,而一个有效的尺度参数的设置方法是将自然对数e的基调整为动态可设置的基底d。针对这一问题,本发明引入核函数,它仅仅需要设置尺度因子这一个参数。值得注意的是,这个尺度因子是任务相关的,并且其绝对值可能因不同任务而设置不同的值。
[0048]
形式化的,(类sigmoid核函数)是一个类正切函数:
[0049][0050]
其中,d是尺度因子,且设置与任务强相关。
[0051]
该类sigmoid核函数本质上是一种应用函数的平方指数核函数:
[0052]
k(x,x
*
)=tanh(x
t
x
*
+r).
ꢀꢀꢀ
(8)
[0053]
核函数选择需满足mercer核或者正定核的重要条件,接下来,证明该类sigmoid核函数满足正定核条件。
[0054]
给定任意的δ,
[0055][0056]
为了获得后验分布p(y
*
|x
*
,d),需要知道训练集和测试集的联合分布。多变量的联合分布难以求解,然而,如果此联合分布服从高斯分布,该问题将迎刃而解。如果组成多变量的各个单变量服从高斯分布,那么,该多变量的联合分布也服从高斯分布;因此,可以通过:
[0057][0058]
来评估后验分布。其中,k(x
*
,x)是训练阶段中潜在的目标函数值与最优解f(x
*
)之间的协方差向量,与此同时,k(x
*
,x
*
)是最优解f(x
*
)的先验协方差,i是n
×
n的单位矩阵。
[0059]
贝叶斯优化是一种基于现有观测值来预测目标函数取最大值的回归模型。令x为d维输入空间,优化算法中,其输入空间中的每个输入向量x∈x都与潜在的输出f
x
以及相应的噪声y
x
相关,也即由它们两者共同决定:
[0060][0061]
其中,函数f
x
满足高斯过程先验条件,∈是随机高斯白噪声,且满足:其中噪声的方差。既然函数f
x
表示基于类sigmoid核k(x,x
*
)的0均值高斯过程,其输出为y
x
,后验分布同样满足高斯分布:
[0062][0063]
其中,e和v分别表示均值函数和方差函数:
[0064][0065]
令函数f(x)服从高斯过程先验分布,同时,通过每次迭代中的输入及其输出构造观测中间结果形式其中中间结果服从正态分布y
n
~n(f(x
n
),v),且v噪声的方差。采集函数a:x

r
+
判定接下来应该通过已经优化x
next
=argmax
x
a(x)超参数配置来评估超参数空间x中的哪个点对分类性能贡献最大:
[0066]
a
ei
(x|μ,σ)=e[max(0,f(x)

f(x
best
))],
ꢀꢀꢀꢀꢀ
(14)
[0067]
其中,f(x
best
)是到当前迭代为此基于观测集的最优解。
[0068]
4.基于决策树的规则优化
[0069]
优化过程是一个不断提高性能和步步求精的过程。在超参数空间中,优化算法通过试验获得最优的神经网络超参数配置,以期获得最大的分类精度。然而,在所有试验集合中,不可避免地出现无效试验。然而判断试验是否有效可以被看作是一个二分类问题,通过已经优化后的中间试验的超参数配置及其中间观测结果(对应的分类精度)对分类器进行训练,预测当前试验是否有效,跳过那些预测为无效的试验,以期缩短整体优化时间。本项目中的一条规则表示在给定性能条件下,超参数设置(试验)是否有效。决策树可以应用于确定优化过程中可能保留的规则。
[0070]
算法c4.5是一个典型的决策树算法,它可以生成一个模型来产生相应的规则。它是一种监督学习算法集合:给定一个数据集,使用一组属性值来描述其中的每一个元组,而且每一个元组属于一个互斥的类别中的某一类。其目标是通过学习,寻求从属性值到类别的映射关系,同时该映射能用于新的数据,并对其进行分类。决策树是一种类似流程图的树状结构,其中每个内部节点(非树叶节点)表示在一个属性上的判定,每个分枝代表一个测试输出,而每个树叶节点代表一个类标号。训练集的作用是训练一颗决策树,一旦该决策树被训练好,对于测试集中的元组,跟踪一条有根节点到叶节点的路径,该叶节点就输出该元组的预测类别,从而达到分类的效果,而这条路径也可以被认为是一种规则。决策树的优势在于不需要任何领域知识或参数设置,适合于探测性的知识发现。算法c4.5采用两个启发式标准对可能的测试进行排序:信息增益被用来进行属性选择度量,该度量最小化子集s
i
的总信息熵,以及将信息增益除以通过测试结果所提供的信息量,构成了默认增益比。而对任意元组进行分类需要信息度量或信息期望:
[0071][0072]
具有值a1,a2,

,a
v
的属性a的熵为:
[0073][0074]
信息增益是指通过对属性a进行划分所能获得的信息量的多少:
[0075]
gain(a)=i(s1,s2,

,s
m
)

e(a).
ꢀꢀꢀꢀ
(17)
[0076]
在整个优化过程中,需要设置一个循环计数器,以记录试验达到的次数。当迭代次数达到预先设置好的阈值时,它将自动归零,迭代次数从1到阈值构成一个优化周期。循环计数器的主要功能是提取每个周期的决策树规则。对于每次试验,其输出可以分为“0”(无效的试验)或“1”(有效的试验)。如果当前试验的分类精度大于其周期内的平均精度,则标记为“1”,否则标记为“0”。对每一个周期,都应用c4.5算法来提取周期内的决策规则;那些带有“0”标签的规则被添加到需要被修剪的规则集中。在所有迭代周期中,然后运用无效规则集合对接下来的迭代周期中的所有试验进行修剪。即如果当前超参数配置(元组)中包含某个无效规则,就跳过接下来的模型训练阶段,达到提高效率的目的。
[0077]
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1