一种多元异步时序数据分类方法和装置与流程

文档序号:32162641发布日期:2022-11-12 03:11阅读:113来源:国知局
一种多元异步时序数据分类方法和装置与流程

1.本发明涉及时序数据异常领域,尤其涉及一种多元异步时序数据分类方法和装置。


背景技术:

2.现实世界中不同领域均可以产生非规则、异步、稀疏采样的多元异步时间序列数据(iass-mts),如气候科学、生态学、天文学、金融和医药领域等。数据特征具体如图2所示,具体的,图中的(a)非规则:同一个时间序列的不同观测时间间隔,例如观测时间t1与t2间隔和t2与t3的观测间隔不相同;(b)异步:不同时间序列的采样率不同,例如时间序列x1(t)的采样率是大于x1(t)的;(c)稀疏:时间序列的采样时间间隔较大。这种时间序列数据通常产生于观察过程在一定程度上受到限制或者禁止常规观测/采样的程度的应用。例如,在空气污染预测中,所收集的多元异步时间序列数据通常是:1)由于传感器损坏、数据传输失败或存储损坏而导致的不完整;2)数据从具有不同时间尺度的信道收集时,是异步的。iass-mts数据的这些特征对经典的机器学习模型和算法提出了巨大的挑战,这些模型和算法要求数据定义在一个连贯的固定维特征空间中,且连续的时间步长间隔为常数。
3.近年来国内外文献对iass-mts的研究取得了一定进展。neil等人提出phased-lstm,通过增加新的时间门k
t
来扩展lstm单元,处理非规则采样的时间序列,提升现有的rnn模型效果。che等人基于门控循环单元(gated recurrent unit,gru)提出gru-d模型,结合非规则的时间间隔,从缺失数据的角度处理异步采样特性问题。gru-d模型用二进制响应指标值增强输入,并模拟不规则采样数据的衰减机制。shukla和marlin提出了插值预测网络(ipnet)框架,该框架应用了几个半参数插值方案,以获得多个插值函数的规则采样时间序列表示。horn等人采用了一种基于集合函数的方法来对不规则采样和未对齐的时间序列观测进行分类。此外,为了处理这种数据的不规则性,也有其他的工作致力于这个问题。尽管这些工作一定程度上解决了iass-mts数据的问题,但是还存在以下几个问题:1)iass-mts测量的数据相关性通常存在于时间序列内和时间序列之间,现有方法大多数集中在序列内的相关性,而序列间的交互并没有得到很好地学习。值得注意的是,不同的观测序列通常是交织在一起的,而这种序列间的关系通常对下游的任务来说是很重要的的信息。例如,一个患者在某一特定时间的血压不仅与其他时间的血压相关,而且与该时间或其他时间的心率有很强的关系;2)大多数方法提出的其他需求可能不适用于真实的iass-mts数据。例如,很多方法处理的是低缺失率的数据,这使得它们在缺失率较大或连续缺失值出现时无法很好地执行即数据高度稀疏;3)现有的研究在对不规则采样时间序列进行分类时,大多不考虑辅助信息,在现有训练数据量较大的情况下,仅使用监督数据不足以学习合理的参数。


技术实现要素:

4.为了解决现有技术中存在的上述技术问题,本发明提出了一种多元异步时序数据
分类方法和装置,其具体技术方案如下:
5.一种多元异步时序数据分类方法,包括以下步骤:
6.步骤一:采用公式定义实际应用场景下的多元异步时间序列数据格式;
7.步骤二:在维度相关序列内注意力嵌入模块中,利用学习到的时间嵌入来提供插值集合,为多元异步时间序列学习固定长度的潜在表示,获得插值单变量时间序列集合;
8.步骤三:在模态指标增强的序列间注意力嵌入模块中,将所有插值单变量时间序列作为输入,利用注意力机制学习不同单变量时间序列在不同时间步之间的关系,堆叠注意力模块的输出作为最后学习到的表示;
9.步骤四:在外置动态记忆模块中,学习一个参数化的记忆矩阵来缓存全局时间信息,获得各时间点下的读向量;
10.步骤五:在插补网络模块中,引入一组潜在随机变量,在变分框架中使用贝叶斯方法重构原始多元异步时间序列信息,对原始多元异步时间序列未观测时间缺失值进行插补;
11.步骤六:在双重任务学习模块中,通过优化目标来训练分类模型,从而获得可靠的分类结果和精准地重构时间序列。
12.进一步地,所述步骤一具体为:公式化定义所述多元异步时间序列数据的表示形式,令多元异步时间序列表示n条数据实例,其中,每条数据包含d维非规则、异步并且稀疏采样的多元异步时间序列sn={s
n,d
∣d=1,...,d},其标签是yn,sn中的每一维都是一个单变量的时间序列sn,d,d表示维度,每个单变量时间序列s
n,d
为一个观察元组列表:
[0013]013]
其中tn,d是的第n个数据实例第d个单变量的观察值个数,是多元异步时间序列的第n个实例中的第d个单变量在时间步tn,d的观测值,其对应的观测时间是则时间戳信息用列表表示,第n个数据实例中第d个单变量的观测值用列表表示。
[0014]
进一步地,所述步骤二,具体包括以下子步骤:
[0015]
步骤2.1,预先选取l个相关时间点作为插值时间,并对插值时间和观测时间进行编码;具体的,在所述维度相关序列内注意力嵌入模块,预先选取l个相关时间点τ=[τ1,τ2,...,τ
l
]作为插值时间,将时间点τ
l
∈[τ1,τ2,...,τ
l
]、观测时间值集合tn,d和观测值xn,d,j作为输入,编码得到在时间点τ
l
下的输出向量具体公式如下:
[0016][0017]
其中的γ(τ
l
,t
n,d,j
)为插值权重;
[0018]
步骤2.2,使用注意力机制计算多元异步时间序列内插值权重,为多元异步时间序列学习固定长度的潜在表示,获得插值单变量时间序列集合;具体的,所述插值权重的表达式为:
[0019][0020]
插值权重γ(τ
l
,t
n,d,j
)由查询矩阵和关键值矩阵经过softmax归一化得到,其中的为归一化因子,ψ(τ)为时间τ的时间编码向量,时间编码方式如下:
[0021][0022]
ψ(τ)[i]为ψ(τ)的第i维,是可学习的参数,该编码过程使用正弦函数捕捉数据中的周期模式,用线性项表示时间并捕捉时间序列中的非周期行为;
[0023]
因此,为获得的第n个数据实例中第d个变量插值时间序列,xn=[x
n,1
,....,x
n,d
]为第n个数据实例的插值单变量时间序列集合。
[0024]
进一步地,所述步骤三,具体包括以下子步骤:
[0025]
步骤3.1,为各变量添加变量标识并学习其嵌入向量,用于区分多个单变量时间序列,使用局部位置嵌入技术学习,学习获得插值单变量时间序列的顺序信息;具体的,在所述序列间注意力嵌入模块中,先添加并学习一个变量标识d的嵌入向量εd,用来区分多个单变量时间序列,同时使用局部位置嵌入技术,学习获得插值单变量时间序列的顺序信息,第l个位置嵌入向量计算公式如下:
[0026][0027]
[0028]
其中l∈{1,...,l}为局部位置,
[0029]
步骤3.2,整合插值单变量序列、变量标识嵌入向量和局部位置嵌入向量,输入注意力机制,学习序列间的关系,获得最终嵌入表达;具体的,将插值单变量序列、变量标识嵌入向量和局部位置嵌入向量求和,获得注意力机制的最终输入zn:
[0030]zn
=[z
n,1
,...,z
n,j
,...,z
n,d
],],
[0031]
序列间注意力函数iaf如下:
[0032][0033]
使用多头注意力,其中wq,wk,wv为可训练参数,而后经过全连接前馈网络和基于常规注意力机制的残差网络完整注意力模块,并拼接堆叠多头结果获得最终输出向量即多维时间序列un:
[0034][0035]
其中
[0036]
进一步地,所述步骤四,具体包括以下子步骤:
[0037]
步骤4.1,将多维时间序列当前时间点下的向量与前面时间点的记忆读向量集合拼接后输入神经网络控制器,获得接口向量;具体的,所述外置动态记忆模块中,将多维时间序列un在时间点l下的向量值和来自前面时间点的记忆读向量集合{r
n,1
,...,r
n,l-1
}进行拼接,并输入一个神经网络控制器(nn controller),获得接口向量ξ
n,l

[0038]
步骤4.2,利用接口向量计算并更新记忆矩阵,并获得各时间点下的读向量;具体的,将接口向量ξ
n,l
划分为接口参数计算生成写向量v
n,l
、写向量权重读向量权重和擦除向量e
n,l
,用于计算更新记忆矩阵表达式如下:
[0039][0040]
通过计算返回第l个读向量r
n,l
,最后拼接l个读向量获
得所有时间步的向量表示
[0041]
进一步地,所述步骤五具体为:在所述插补网络模块中,引入一组隐随机变量,并使用贝叶斯方法重构多元异步时间序列信息,结合循环自编解码器和编解码序列内注意力模块于变分框架中,对原始多元异步时间序列未观测时间缺失值进行插补。
[0042]
进一步地,所述插补网络模块包含识别网络和生成网络;
[0043]
在识别网络中,使用编码序列内注意力模块对原始多元异步时间序列进行插值,获得时间序列固定长度的潜在表示后输入循环自编码器获得识别模型;
[0044]
在生成网络中,对潜在随机变量的采样,并与原始时间序列固定长度的潜在表示一起输入循环自解码器,再经过解码序列内注意力模块,将原始时间序列固定长度的潜在表示映射回原观测空间,获得原空间数据的生成条件概率。
[0045]
进一步地,所述步骤六,具体包括以下子步骤:
[0046]
步骤6.1,将维度相关序列内注意力嵌入模块、序列间注意力嵌入模块以及外置动态记忆模块的输出拼接后作为时间序列的最终潜在表示,并输入分类器获得分类结果;
[0047]
步骤6.2,由插补网络模块的输出获得变分下界值级原始多元异步时间序列的极大似然估计的下界;
[0048]
步骤6.3,将分类交叉熵损失函数和变分下界值级原始多元异步时间序列的极大似然估计的下界同时作为分类模型的损失函数,并使用随机梯度下降算法对分类模型进行优化。
[0049]
一种多元异步时序数据分类装置,其特征在于,包括一个或多个处理器,用于实现所述的一种多元异步时序数据分类方法。
[0050]
一种计算机可读存储介质,其特征在于,其上存储有程序,该程序被处理器执行时,实现所述的一种多元异步时序数据分类方法。
[0051]
有益效果:
[0052]
本发明在对异步时序数据缺失值插补和分类的过程中,能够有效挖掘数据隐含的相关性,挖掘有意义的潜在语义,并充分利用序列数据中的辅助信息,从未标记的数据中发现有意义的模式,同时考虑异步时序数据缺失值插补和分类两个任务之间的相互作用,有助于缓解误差传播问题,捕捉相互影响,提高模型的准确性。
附图说明
[0053]
图1是本发明的一种多元异步时序数据分类方法流程示意图;
[0054]
图2是多元异步时间序列数据iass-mts的具体特征表示的波形图示意图;
[0055]
图3是本发明方法所基于的内存增强网络模型的整体架构图;
[0056]
图4a是本发明方法在physionet数据集上与现有方法的实验结果对比图;
[0057]
图4b是本发明方法在human activity数据集上与现有方法的实验结果对比图;
[0058]
图5a是toy数据集上,经过插值数据补齐后的本发明方法与现有方法的实验结果对比图;
[0059]
图5b是mujoco physics数据集上,经过插值数据补齐后的本发明方法与现有方法的实验结果对比图;
[0060]
图6是本发明方法所采用的各个机制模块的消融实验结果示意图;
[0061]
图7是本发明的一种多元异步时序数据分类装置结构示意图。
具体实施方式
[0062]
为了使本发明的目的、技术方案和技术效果更加清楚明白,以下结合说明书附图和实施例,对本发明作进一步详细说明。
[0063]
本发明的一种多元异步时序数据分类方法,采用一个新的双重时间注意力机制和记忆增强网络模型(dama-net),通过将注意和记忆结合起来,有效地模拟不规则、异步、稀疏采样的多元异步时间序列数据(iass-mts)中复杂的相互作用,捕捉iass-mts多元异步时间序列中的时间不规则性、多重采样率和全局时间模式信息,并设计了随机生成插补模块,通过引入该随机生成式插补网络进一步扩展记忆增强网络模型,称之为dama-netsgi模型,模型整体框架如图3所示,与记忆增强网络模型不同的是,dama-netsgi模型采用了双重任务学习,构建一个双任务学习体系,将插补网络和分类网络统一起来,实现缺失值插补和分类网络的协同统一,解决iass-mts多元异步时间序列数据的异步交互和非规则、稀疏采样问题。
[0064]
所述dama-netsgi模型有以下三个主要的改进:
[0065]
第一,通过结合随机生成式插补网络学习对输入数据进行适当的插值,提高时间序列分类的效益;
[0066]
第二,考虑到训练数据量和可用性有限,在dama-net模型中增加了一个无监督学习组件,以学习随机生成式插值网络的合理参数,同时也提高了注意模块的表示能力;
[0067]
第三,dama-netsgi模型结合深度生成模型和时间序列递归模型的随机生成式插补网络的研究进展,可以捕获观测到的时间序列数据的变化性,用于重建原始输入序列不完整或估计回归任务中的时间序列缺失模式。基于上述三个主要的改进,给出了广泛的实验结果和分析,以说明所提模型的有效性。
[0068]
具体的,如图1所示,本发明的方法包括以下步骤:
[0069]
步骤一:定义实际应用场景下的多元异步时间序列数据格式。
[0070]
具体的,公式化定义多元异步时间序列数据的表示形式,将其转化为机器可识别数据表达形式,令多元异步时间序列表示n条数据实例,其中,每条数据包含d维非规则、异步并且稀疏采样的多元异步时间序列sn={s
n,d
∣d=1,...,d},其标签是yn,sn中的每一维都是一个单变量的时间序列sn,d,每个单变量时间序列s
n,d
为一个观察元组列表:其中t
n,d
是的第n个数据实例第d个单变量的观察值个数,是多元异步时间序列的第n个实例中的第d个单变量在时间步t
n,d
的观测值,其对应的观测时间是在这里,时间戳信息用列表表示,第n个数据实例中第d个单变量的观测值用列表表示。对于多元异步时间序列数据,多元异步时间序列的不同单维度向量,具有不同的观测时间数,也就是说在通常情
况下,对于任意两个不同的维度d和d',则有t
n,d
≠t
n,d

,t
n,d
≠t
n,d

。对于给定的一个不规则采样的多元时序序列定义问题为:1)学习一个映射模型f:s

y,通过估计函数的概率分布,来预测序列的类别y∈{0,1}c,其中c为类别的个数;2)从缺失的时间序列中重建原始序列p(x|s)。
[0071]
步骤二:在维度相关序列内注意力嵌入模块中,利用学习到的时间嵌入来提供插值集合,为不规则和异步采样的多元异步时间序列学习固定长度的潜在表示,获得插值单变量时间序列集合,具体包括以下子步骤:
[0072]
步骤2.1,预先选取l个相关时间点作为插值时间,并对插值时间和观测时间进行编码;
[0073]
具体的,在所述维度相关序列内注意力嵌入模块(intra-series attention),预先选取l个相关时间点τ=[τ1,τ2,...,τ
l
]作为插值时间,将时间点τ
l
∈[τ1,τ2,...,τ
l
]、观测时间值集合t
n,d
和观测值x
n,d,j
作为输入,编码得到在时间点τ
l
下的输出向量具体公式如下:
[0074][0075]
其中的γ(τ
l
,t
n,d,j
)为插值权重;
[0076]
步骤2.2,使用注意力机制计算多元异步时间序列内插值权重,为多元异步时间序列学习固定长度的潜在表示,获得插值单变量时间序列集合;
[0077]
具体的,所述插值权重的表达式为:
[0078][0079]
插值权重γ(τ
l
,t
n,d,j
)由查询矩阵和关键值矩阵经过softmax归一化得到,其中的为归一化因子,ψ(τ)为时间τ的时间编码向量,时间编码方式如下:
[0080][0081]
ψ(τ)[i]为ψ(τ)的第i维,是可学习的参数,该编码过程使用正弦函数捕捉数据中的周期模式,用线性项表示时间并捕捉时间序列中的非周期行为;
[0082]
因此,为获得的第n个数据实例中第d个变量插值时间序列,xn=[x
n,1
,....,x
n,d
]为第n个数据实例的插值单变量时间序列集合。
[0083]
步骤三:在模态指标增强的序列间注意力嵌入模块中,将所有插值单变量时间序列作为输入,利用注意力机制学习不同单变量时间序列在不同时间步之间的关系,堆叠注
意力模块的输出作为最后学习到的表示,具体包括以下子步骤:
[0084]
步骤3.1,变量标识嵌入(modality ind),为各变量添加变量标识并学习其嵌入向量,用于区分多个单变量时间序列,使用局部位置嵌入技术学习,学习获得插值单变量时间序列的顺序信息;
[0085]
具体的,在所述序列间注意力嵌入模块(inter-series attention)中,先添加一个变量标识d,并学习变量标识d的嵌入向量εd,用来区分多个单变量时间序列,同时使用局部位置嵌入(local pe)技术,学习获得插值单变量时间序列的顺序信息,第l个位置嵌入向量计算公式如下:
[0086][0087][0088]
其中l∈{1,...,l}为局部位置,
[0089]
步骤3.2,整合插值单变量序列、变量标识嵌入向量和局部位置嵌入向量,输入注意力机制,学习序列间的关系,获得最终嵌入表达;
[0090]
具体的,将插值单变量序列、变量标识嵌入向量和局部位置嵌入向量求和,获得注意力机制的最终输入zn:
[0091]zn
=[z
n,1
,...,z
n,j
,...,z
n,d
],],
[0092]
序列间注意力函数(iaf)如下:
[0093][0094]
此处可以使用多头注意力,其中wq,wk,wv为可训练参数,而后经过全连接前馈网络和基于常规注意力机制的残差网络完整注意力模块,并拼接堆叠多头结果获得最终输出向量即多维时间序列un:
[0095][0096]
其中
[0097]
步骤四:在外置动态记忆模块中,学习一个参数化的记忆矩阵来缓存全局时间信息,获得各时间点下的读向量,具体包括以下子步骤:
[0098]
步骤4.1,将多维时间序列当前时间点下的向量与前面时间点的记忆读向量集合拼接后输入神经网络控制器,获得接口向量;
[0099]
具体的,所述外置动态记忆模块中,将多维时间序列un在时间点l下的向量值和来自前面时间点的记忆读向量集合{r
n,1
,...,r
n,l-1
}进行拼接,并输入一个神经网络控制器(nn controller),获得接口向量ξ
n,l

[0100]
步骤4.2,利用接口向量计算并更新记忆矩阵,并获得各时间点下的读向量;
[0101]
具体的,将接口向量ξ
n,l
划分为接口参数计算生成写向量v
n,l
、写向量权重读向量权重和擦除向量e
n,l
,用于计算更新内存矩阵即记忆矩阵(memory matrix),表达式如下:
[0102][0103]
通过计算返回第l个读向量r
n,l
,最后拼接l个读向量获得所有时间步的向量表示
[0104]
步骤五:在插补网络模块中,引入一组潜在随机变量,在变分框架中使用贝叶斯方法重构原始多元异步时间序列信息,对原始多元异步时间序列未观测时间缺失值进行插补。
[0105]
具体的,所述插补网络模块中,引入一组隐随机变量,并使用贝叶斯方法重构多元异步时间序列信息,结合循环自编解码器(rnn)和编解码序列内注意力模块于变分框架中,主要包含两个关键网络:识别网络和生成网络。
[0106]
在识别网络相当于编码器中,使用编码序列内注意力模块对原始多元异步时间序列进行插值,获得时间序列固定长度的潜在表示后输入rnn编码器获得识别模型;
[0107]
具体的,在识别网络(recognition network)中,对于第n各数据实例即原始多元异步时间序列sn,其中
[0108][0109]
首先将其输入编码序列内注意力嵌入模块(intra-series attention,与上述序列内注意力嵌入模块一样),获得第n个数据实例插值单变量时间序列集合xn=[x
n,1
,....,x
n,d
],其中为获得的第n个数据实例中第d个变量插值时间序列;然后使用rnn编码器将插值变量映射为隐空间向量zn,具体映射过程如下:
[0110][0111][0112]
[0113][0114]
其中表示第n个数据实例在时间点τ
l
的隐藏变量,初始化为全0向量,均为神经网络中的参数,ζ和κ是带有参数的神经网络,表示均值为μ
n,z
协方差为对角阵的多元高斯分布,识别模型是后验概率的变分逼近。
[0115]
在生成网络相当于解码器中,对潜在随机变量的采样,并与原始时间序列固定长度的潜在表示一起输入rnn解码器,再经过解码序列内注意力模块,将原始时间序列固定长度的潜在表示映射回原观测空间,获得原空间数据的生成条件概率;
[0116]
具体的,在生成网络(generative network)中,过程与识别网络相反,首先将采样的隐向量z
n,r
,此处为使整个模型可微,将隐向量zn的采样过程重新定义为:
[0117][0118]
其中为辅助高斯噪声,

表示点乘;隐向量经过一个线性映射获得rnn解码器的初始隐藏层然后rnn解码器通过以下过程对隐藏层状态进行更新:
[0119][0120]
其中均为rnn中的参数,从而学习获得隐藏层序列将隐藏层输入到解码序列内注意力嵌入模块(intra-series attention),该模块与编码序列内注意力嵌入模块功能相反,此处将将序列映射到第n个数据实例样本所有观测时间点集合获得第n个数据实例样本的插值时间序列假设生成条件概率服从对角协方差矩高斯分布,由如下过程参数化生成条件概率分布:
[0121]
[0122][0123][0124]
其中为神经网络中的参数。
[0125]
步骤六:在双重任务学习模块中,通过优化目标(插值精准和分类正确)来训练分类模型,从而获得可靠的分类结果和精准地重构时间序列,具体包括以下子步骤:
[0126]
步骤6.1,将维度相关序列内注意力嵌入模块、序列间注意力嵌入模块以及外置动态记忆模块的输出拼接后作为时间序列的最终潜在表示,并输入分类器获得分类结果;
[0127]
具体的,将维度相关序列内注意力嵌入模块、模态指标增强的序列间注意力嵌入模块以及外置动态记忆模块的输出xn、un和rn进行拼接,获得时间序列最终的潜在表示:并放入分类器(classifier)g
θ
(
·
)中获得分类得到损失函数为:
[0128][0129]
其中c是类别个数,是数据可能属于第c的概率,α是权重调节参数,β是聚焦参数,{θ
*
}模型所有的可学习参数。
[0130]
步骤6.2,由插补网络模块的输出获得变分下界值级原始多元异步时间序列的极大似然估计的下界;
[0131]
具体的,通过最大化变分下界elbo:
[0132][0133]
来最大化极大似然估计将插补网络模块中的输出带入公式,可获得:
[0134][0135]
步骤6.3,将分类交叉熵损失函数和变分下界同时作为模型的损失函数,并使用随
机梯度下降算法(sgd)对模型进行优化;
[0136]
具体的,通过优化以下复合目标函数使用sdg来优化模型:
[0137][0138]
其中λ=0.1为预定义参数。
[0139]
本发明在合成的和真实的数据集上进行实验,以定性和定量地验证提出的dama-netsgi模型在不规则采样的时间序列分类和插值数据补齐任务的有效性,本发明使用toy、physionet、human activity和mujoco physics数据集进行实验,在physionet和human activity数据集上,进行分类和插值问题的实验,通过对比现有的11中方法,验证该方法在处理iass-mts数据时效果最佳,实验结果如图4a和4b所示;在toy和mujoco physics数据集上,该发明经行了插值数据补齐任务,实验结果如图5a和5b所示,实验表明该发明提出的方法的有效性。除此之外,本发明通过消融实验,对比了每一个模块的贡献度,实验结果如图6所示,结果显示序列内注意力机制、序列间注意力机制和动态内存是必须的,其他模块对数据分类也有促进作用。
[0140]
综上所述,本发明的主要贡献总结如下:
[0141]
(1)本发明引入了一个与学习时间编码相关联的序列依赖的序列内注意力嵌入模块,它以多元异步时间序列数据作为输入,并在一组内插中产生一个固定长度的潜在表示,这些内插封装了序列内的交互,并规避了异步采样特征;
[0142]
(2)本发明在序列内注意力嵌入网络的基础上,构建了一个序列间的注意力模块,并在序列中加入了形态(序列)指示器和位置嵌入器,采用外部记忆模块为dama-net来捕获全局时间动态,从而缓解真实多元异步时间序列数据固有的稀疏性,并提高预测性能;
[0143]
(3)本发明设计了一个基于dama-net的随机插补网络,捕捉时间序列数据中观察到的可变性,进一步学习高性能参数以增强注意模块的表征能力,并重构输入序列以估计时间序列缺失模式,提高时间序列分类的效果;
[0144]
(4)本发明提出了一种双任务学习机制来协同优化多个目标,采用多层次的时序信息和时间信息,联合训练具有互补损失的下游任务模块,从而产生可靠的分类和插补结果;
[0145]
(5)对dama-netsgi模型进行了详细的对比试验和消融实验,验证了模型的有效性。
[0146]
与前述一种多元异步时序数据分类方法的实施例相对应,本发明还提供了一种多元异步时序数据分类装置的实施例。
[0147]
参见图7,本发明实施例提供的一种多元异步时序数据分类装置,包括一个或多个处理器,用于实现上述实施例中的多元异步时序数据分类方法。
[0148]
本发明一种多元异步时序数据分类装置的实施例可以应用在任意具备数据处理能力的设备上,该任意具备数据处理能力的设备可以为诸如计算机等设备或装置。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在任意具备数据处理能力的设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如图7所示,为本发明的一种多元异步时序数据分类装置所在任意具备数据处理能力的设备的一种硬件结构图,除了图7所示的处理器、内存、网络接口、以及非易失性存储器之外,实施例中
装置所在的任意具备数据处理能力的设备通常根据该任意具备数据处理能力的设备的实际功能,还可以包括其他硬件,对此不再赘述。
[0149]
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
[0150]
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
[0151]
本发明实施例还提供一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,实现上述实施例中的一种多元异步时序数据分类方法。
[0152]
所述计算机可读存储介质可以是前述任一实施例所述的任意具备数据处理能力的设备的内部存储单元,例如硬盘或内存。所述计算机可读存储介质也可以是外部存储设备,例如所述设备上配备的插接式硬盘、智能存储卡(smart media card,smc)、sd卡、闪存卡(flash card)等。进一步的,所述计算机可读存储介质还可以既包括任意具备数据处理能力的设备的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算机程序以及所述任意具备数据处理能力的设备所需的其他程序和数据,还可以用于暂时地存储已经输出或者将要输出的数据。
[0153]
以上所述,仅为本发明的优选实施案例,并非对本发明做任何形式上的限制。虽然前文对本发明的实施过程进行了详细说明,对于熟悉本领域的人员来说,其依然可以对前述各实例记载的技术方案进行修改,或者对其中部分技术特征进行同等替换。凡在本发明精神和原则之内所做修改、同等替换等,均应包含在本发明的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1