特征提取方法、装置、计算机设备及存储介质与流程

文档序号:18972534发布日期:2019-10-29 03:00阅读:266来源:国知局
特征提取方法、装置、计算机设备及存储介质与流程

本发明涉及计算机技术领域,特别是涉及一种特征提取方法、装置、计算机设备及存储介质。



背景技术:

随着科学技术的飞速发展,大量先进技术不断涌现。特征提取技术则为其中一个比较重要的技术。实际应用中,数据通常采自于多个数据源或数据信道,表现为多个模态。一般来说,不同模态能够从数据的不同侧面反映数据的不同特征,进而能够为彼此提供信息的互补,共同支撑数据的融合学习,所以多模态的特征数据融合,在特征提取技术中受到广泛重视。

传统方法中,是直接将各模态特征向量连接到一起,形成对象的特征向量。这种方法忽略了数据不同模态的不同统计特性,导致直接拼接得到的特征向量无法准确地表达目标对象的特征。



技术实现要素:

基于此,有必要针对传统方法生成的特征不够准确的问题,提供一种特征提取方法、装置、计算机设备及存储介质。

一种特征提取方法,所述方法包括:

获取目标对象的多模态的原始特征数据;

对各模态的原始特征数据进行映射降维,分解得到由变量表示的共享特征数据和各模态的由变量表示的私有特征数据;

根据所述共享特征数据和各所述私有特征数据,重构各模态的特征数据;

确定各模态的所述原始特征数据和重构的特征数据之间的差异;

通过调整由变量表示的共享特征数据的值和由变量表示的私有特征数据的值,使所述差异最小化;

获取所述差异最小化时的共享特征数据的值,得到所述目标对象的最终融合的共享特征。

在其中一个实施例中,所述确定各模态的所述原始特征数据和重构的特征数据之间的差异包括:

构建机器学习模型;所述机器学习模型的目标函数,用于表征各模态的所述原始特征数据和重构的特征数据之间的差异;

所述通过调整由变量表示的共享特征数据的值和由变量表示的私有特征数据的值,使所述差异最小化包括:

通过迭代训练最小化所述机器学习模型的目标函数的值,并在每轮迭代中,更新所述共享特征数据的值和各私有特征数据的值,直至满足迭代停止条件;

获取在满足迭代停止条件时的共享特征数据的值,得到所述差异最小化时的共享特征数据的值。

在其中一个实施例中,所述方法还包括:

确定各模态的局部不变规则化因子;所述局部不变规则化因子,用于调节第一相似结构和第二相似结构之间的一致性;所述第一相似结构,为每个模态的原始特征数据之间的相似结构;第二相似结构,为每个模态中各原始特征数据被映射降维后的子共享特征数据之间的相似结构;

所述构建机器学习模型包括:

构建基本机器学习模型;所述基本机器学习模型的目标函数,用于表征各模态的所述原始特征数据和重构的特征数据之间的差异;

组合所述基本机器学习模型和各模态的局部不变规则化因子,得到机器学习模型。

在其中一个实施例中,所述确定各模态的局部不变规则化因子包括:

针对每个模态,获取所述模态的数据权重矩阵;所述数据权重矩阵中各权重,用于表征所述模态的两两原始特征数据之间的距离远近程度;

确定所述两两原始特征数据映射降维后的子共享特征数据之间的相似度;

耦合所述数据权重矩阵和所述相似度,得到各模态的局部不变规则化因子。

在其中一个实施例中,所述针对每个模态,获取所述模态的数据权重矩阵包括:

针对每个模态,将所述模态的各原始特征数据作为顶点,构建最近邻图;

根据所述最近邻图中共边的顶点之间的距离,确定最近邻图中各边的权重;

根据各边的权重,构建所述模态在原始数据空间中对应的数据权重矩阵。

在其中一个实施例中,所述对各模态的原始特征数据进行映射降维,分解得到由变量表示的共享特征数据和各模态的由变量表示的私有特征数据包括:

分别获取各模态对应的共享映射矩阵和私有映射矩阵;

将各模态的原始特征数据,按照对应的共享映射矩阵进行映射分解,得到共享特征变量矩阵;

将各模态的原始特征数据,分别按照对应的私有映射矩阵进行映射分解,得到私有特征变量矩阵。

在其中一个实施例中,所述根据所述共享特征数据和各所述私有特征数据,重构各模态的特征数据包括:

将所述共享特征变量矩阵分别按照各模态对应的所述共享映射矩阵进行逆映射转换,得到第一逆映射结果;

将各所述私有特征变量矩阵按照相应所述私有映射矩阵进行逆映射转换,得到第二逆映射结果;

根据第一逆映射结果和第二逆映射结果,重构各模态的特征数据。

在其中一个实施例中,所述共享映射矩阵为共享映射变量矩阵,所述私有映射矩阵为私有映射变量矩阵;

所述在每轮迭代中,更新所述共享特征数据的值和各私有特征数据的值,直至满足迭代停止条件包括:

在每轮迭代中,更新所述共享特征变量矩阵的值、各私有特征变量矩阵的值、各共享映射变量矩阵的值、以及各私有映射变量矩阵的值,直至满足迭代停止条件。

在其中一个实施例中,所述在每轮迭代中,更新所述共享特征变量矩阵的值、各私有特征变量矩阵的值、各共享映射变量矩阵的值、以及各私有映射变量矩阵的值包括:

在每轮迭代中,依次从所述共享特征变量矩阵、私有特征变量矩阵、共享映射变量矩阵和私有映射变量矩阵中选取当前变量矩阵,保持非当前变量矩阵的值为最近一次更新所述非当前变量矩阵的值不变,对当前变量矩阵的值进行优化更新,并从所述共享特征变量矩阵、私有特征变量矩阵、共享映射变量矩阵和私有映射变量矩阵中选取下一个当前变量矩阵,以继续进行优化更新处理。

在其中一个实施例中,所述获取目标对象的多模态的原始特征数据包括:

获取目标对象的多模态的预设特征数据;所述预设特征数据为非负数据;

对所述预设特征数据进行归一化处理,得到多模态的原始特征数据。

在其中一个实施例中,所述方法还包括:

获取多个目标对象的所述最终融合的共享特征;

根据各所述共享特征,对多个目标对象进行聚类;

按照所述聚类结果,对所述目标对象进行相应处理。

一种特征提取装置,所述装置包括:

获取模块,用于获取目标对象的多模态的原始特征数据;

映射模块,用于对各模态的原始特征数据进行映射降维,分解得到由变量表示的共享特征数据和各模态的由变量表示的私有特征数据;

重构模块,用于根据所述共享特征数据和各所述私有特征数据,重构各模态的特征数据;

融合模块,用于确定各模态的所述原始特征数据和重构的特征数据之间的差异;通过调整由变量表示的共享特征数据的值和由变量表示的私有特征数据的值,使所述差异最小化;获取所述差异最小化时的共享特征数据的值,得到所述目标对象的最终融合的共享特征。

一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:

获取目标对象的多模态的原始特征数据;

对各模态的原始特征数据进行映射降维,分解得到由变量表示的共享特征数据和各模态的由变量表示的私有特征数据;

根据所述共享特征数据和各所述私有特征数据,重构各模态的特征数据;

确定各模态的所述原始特征数据和重构的特征数据之间的差异;

通过调整由变量表示的共享特征数据的值和由变量表示的私有特征数据的值,使所述差异最小化;

获取所述差异最小化时的共享特征数据的值,得到所述目标对象的最终融合的共享特征。

一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如下步骤:

获取目标对象的多模态的原始特征数据;

对各模态的原始特征数据进行映射降维,分解得到由变量表示的共享特征数据和各模态的由变量表示的私有特征数据;

根据所述共享特征数据和各所述私有特征数据,重构各模态的特征数据;

确定各模态的所述原始特征数据和重构的特征数据之间的差异;

通过调整由变量表示的共享特征数据的值和由变量表示的私有特征数据的值,使所述差异最小化;

获取所述差异最小化时的共享特征数据的值,得到所述目标对象的最终融合的共享特征。

上述特征提取方法、装置、计算机设备及存储介质,先将各模态的原始特征数据通过映射降维,分解得到由变量表示的共享特征数据和各模态的由变量表示的私有特征数据。然后基于根据所述共享特征数据和各所述私有特征数据,重构各模态的特征数据,确定各模态的所述原始特征数据和重构的特征数据之间的差异。通过调整由变量表示的共享特征数据的值和由变量表示的私有特征数据的值,使所述差异最小化。由于差异越小时,表明将各模态的原始特征数据映射降维得到的共享特征数据和私有特征数据越准确。相当于,在最小化差异的过程中,逐步将共享特征数据和私有特征数据区分开来,因此,差异最小化时的共享特征数据的值,即为最为准确的共享特征数据,相当于此时的共享特征数据的值,是较好地剔除了私有特征数据后的共享特征,因此,提高了目标对象的共享特征提取的准确性。

附图说明

图1为一个实施例中特征提取方法的应用场景图;

图2为一个实施例中特征提取方法的流程示意图;

图3为一个实施例中构建机器学习模型的结构示意图;

图4为另一个实施例中特征提取方法的流程示意图;

图5至图7为一个实施例中效果对比图;

图8至图11为一个实施例中规则化控制参数的选择示意图;

图12为一个实施例中特征提取装置的框图;

图13为另一个实施例中特征提取装置的框图;

图14为一个实施例中计算机设备的框图;

图15为另一个实施例中计算机设备的框图。

具体实施方式

为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。

图1为一个实施例中特征提取方法的应用场景图。参照图1,该应用场景中包括通过网络连接的终端110和服务器120。终端110可以是智能电视机、智能音箱、台式计算机或移动终端,移动终端可以包括手机、平板电脑、笔记本电脑、个人数字助理和穿戴式设备等中的至少一种。服务器120可以用独立的服务器或者是多个物理服务器组成的服务器集群来实现。

终端110可以收集目标对象的多模态的原始特征数据,并上传至服务器120。服务器120可以执行以下处理,以将多模态的原始特征数据进行融合,得到目标对象最终的共享特征。

具体地,服务器120可以获取目标对象的多模态的原始特征数据;对各模态的原始特征数据进行映射降维,分解得到由变量表示的共享特征数据和各模态的由变量表示的私有特征数据;根据所述共享特征数据和各所述私有特征数据,重构各模态的特征数据;确定各模态的所述原始特征数据和重构的特征数据之间的差异;调整共享特征数据的值和私有特征数据的值,使所述差异最小化;获取所述差异最小化时的共享特征数据的值,得到所述目标对象的最终融合的共享特征。

图2为一个实施例中特征提取方法的流程示意图。本实施例中的该特征提取方法可以应用于计算机设备,计算机设备可以是终端或服务器,现主要以计算机设备为图1中的服务器120进行举例说明。参照图2,该方法具体包括如下步骤:

s202,获取目标对象的多模态的原始特征数据。

其中,目标对象,是指要融合得到最终的共享特征的对象。多模态,即多个领域或视角。原始特征数据,是原始的(即未进行映射降维)的特征数据。多模态的原始特征数据,是指对同一个目标对象通过不同领域或视角获取的原始的特征数据的集合。

为了便于理解,现对多模态的原始特征数据进行举例说明。比如,针对同一个人,其正脸特征数据和侧脸特征数据就属于不同模态的原始特征数据。即,正脸特征数据属于一个模态的特征数据,侧脸特征数据属于另一个模态的特征数据,那么,获取这个人的多模态的原始特征数据,就可以包括正脸特征数据和侧脸特征数据。又比如,针对一条既包括文字又包括图片的社交信息,其中文字属于文字模态的特征数据,图片属于图片模态的特征数据,那么,这条社交信息的多模态的原始特征数据,就可以包括文字模态的特征数据和图片模态的特征数据。

可以理解,计算机设备可以从本地直接获取存储的目标对象的多模态的原始特征数据,也可以接收终端上报的目标对象的多模态的原始特征数据。

在一个实施例中,原始特征数据可以是非负数据矩阵。可以理解,原始特征数据也可以不是矩阵形式,而是其他的数据形式。

在一个实施例中,步骤s202包括:获取目标对象的多模态的预设特征数据的集合;预设特征数据为非负数据;对预设特征数据进行归一化处理,得到多模态的原始特征数据。

其中,预设特征数据,是预先设置的特征数据。多模态的预设特征数据的集合,是指对同一个目标对象预先设置的通过不同领域或视角获取的特征数据的集合。可以理解,一个模态的预设特征数据可以包括至少一个预设特征数据。

具体地,计算机设备可以对各模态的预设特征数据进行归一化处理,将预设特征数据映射到[0-1]区间,得到多模态的原始特征数据。

比如,给定的多模态的预设特征数据其中,v为总模态数,表示具有mv维特征的第v个模态的预设特征矩阵,n为总预设特征数据的数量,为具有非负约束的实数数据矩阵。计算机设备可以利用min-max标准化方法将各模态的预设特征数据映射到[0-1]区间。

s204,对各模态的原始特征数据进行映射降维,分解得到由变量表示的共享特征数据和各模态的由变量表示的私有特征数据。

其中,共享特征数据,是指不同模态之间相关的特征数据。即,不同模态都具有的、且从不同方面描述的特征数据。私有特征数据,是指各个模态之间不相关的特征数据。即指仅各个模态本身具有的特征数据。

具体地,计算机设备可以对各模态的原始特征数据进行映射降维,以通过非负矩阵分解处理,将每个模态的原始特征数据分解转换为由变量表示的共享特征数据和由变量表示的私有特征数据。

在一个实施例中,由于每个模态中包括多个原始特征数据,计算机设备可以将同一模态的全部原始特征数据分别进行映射降维,那么,就可能由多个原始特征数据能够被映射转换为共享特征,那么,同一模态的各原始特征数据则分别被映射降维为子共享特征数据,该模态的最终的共享特征数据,则由多个原始特征数据被映射降维后的子共享特征数据融合得到。

可以理解,由变量表示的共享特征数据,并非一个具体的已确定的数据,而是由变量表示的未知的数据。同样地,由变量表示的私有特征数据,并非一个具体的数据,而是未知的数据。

s206,根据共享特征数据和私有特征数据重构各模态的特征数据。

具体地,计算机设备可以根据由变量表示的共享特征数据和各模态的由变量表示的私有特征数据,重新构造各模态的特征数据。

可以理解,重构的各模态的特征数据,由于是由共享特征数据和私有特征数据重构得到,所以,也并非具体的数据,而是由变量表示的未知的数据。

s208,确定各模态的原始特征数据和重构的特征数据之间的差异。

具体地,计算机设备可以确定表征各模态的原始特征数据和重构的特征数据之间的差异的函数。

可以理解,由于重构的特征数据是由变量表示的未知的数据,所以,各模态的原始特征数据和重构的特征数据之间的差异并非一个具体的数据,而是由变量表示的函数。

s210,通过调整由变量表示的共享特征数据的值和由变量表示的私有特征数据的值,使所述差异最小化。

可以理解,当各模态的所述原始特征数据和重构的特征数据的值之间的差异越小时,说明,重构得到的各模态的特征数据越接近原始特征数据,则表明将各模态的原始特征数据映射降维得到的共享特征数据和私有特征数据越准确。因此,可以通过调整共享特征数据的值和私有特征数据的值,使得表征差异的函数最小化,从而逼近越准确的共享特征数据和私有特征数据。

s212,获取在满足迭代停止条件时的共享特征数据的值,得到所述差异最小化时的共享特征数据的值。

其中,目标对象的最终融合的共享特征,是目标对象多个模态共同具有的、从多个维度描述的特征。

可以理解,由于差异越小时,表明将各模态的原始特征数据映射降维得到的共享特征数据和私有特征数据越准确。因此,计算机设备可以获取所述差异最小化时的共享特征数据的值,即为最为准确的共享特征数据,所以是目标对象的最终融合的共享特征。

同样地,可以理解,将差异最小化时各模态的私有特征数据的值,也是各模态的最为准确的私有特征数据。但本申请各实施例中主要目的是为了获取目标对象的最终融合的共享特征,因此,不限定得到各模态的最终的私有特征数据的步骤。

上述特征提取方法,先将各模态的原始特征数据通过映射降维,分解得到由变量表示的共享特征数据和各模态的由变量表示的私有特征数据。然后基于根据所述共享特征数据和各所述私有特征数据,重构各模态的特征数据,确定各模态的所述原始特征数据和重构的特征数据之间的差异。通过调整由变量表示的共享特征数据的值和由变量表示的私有特征数据的值,使所述差异最小化。由于差异越小时,表明将各模态的原始特征数据映射降维得到的共享特征数据和私有特征数据越准确。相当于,在最小化差异的过程中,逐步将共享特征数据和私有特征数据区分开来,因此,差异最小化时的共享特征数据的值,即为最为准确的共享特征数据,相当于此时的共享特征数据的值,是较好地剔除了私有特征数据后的共享特征,因此,提高了目标对象的共享特征提取的准确性。

在一个实施例中,步骤s208包括:构建机器学习模型;所述机器学习模型的目标函数,用于表征各模态的所述原始特征数据和重构的特征数据之间的差异。步骤s210包括:通过迭代训练最小化所述机器学习模型的目标函数的值,并在每轮迭代中,更新所述共享特征数据的值和各私有特征数据的值,直至满足迭代停止条件;获取在满足迭代停止条件时的共享特征数据的值,得到所述差异最小化时的共享特征数据的值。

具体地,计算机设备可以构建机器学习模型,该机器学习模型的目标函数用于表征各模态的所述原始特征数据和重构的特征数据之间的差异。

需要说明的是,机器学习模型的目标函数可以仅是表征各模态的所述原始特征数据和重构的特征数据之间的差异的函数,也可以除了包括表征各模态的所述原始特征数据和重构的特征数据之间的差异的函数之外,还包括其他调整函数,比如表示局部不规则变化因子的函数。

计算机设备可以通过迭代训练使机器学习模型的目标函数的值最小化,并在每轮迭代中,更新所述共享特征数据的值和各私有特征数据的值,直至满足迭代停止条件。计算机设备可以获取在满足迭代停止条件时的共享特征数据的值,得到所述差异最小化时的共享特征数据的值。

可以理解,由于在迭代训练过程中,会既更新共享特征数据的值,又更新各私有特征数据的值,相当于对共享特征和私有特征共同进行学习训练,所以,机器学习模型相当于一个共学习模型,即对共享特征和私有特征共同进行学习训练的模型。

在一个实施例中,在每轮迭代中,计算机设备可以更新共享特征数据中的变量的值,以实现对共享特征数据的值的更新,以及,更新私有特征数据中变量的值,以实现对私有特征数据的值的更新。可以理解,这种情况下,共享特征数据中的变量和私有特征数据中的变量,即可以相当于模型参数,每轮迭代相当于对模型参数的更新。

迭代停止条件,是指停止迭代训练的条件。在一个实施例中,迭代停止条件,包括迭代训练次数达到预设次数阈值。在另一个实施例中,迭代停止条件,包括当前轮次的目标函数的值与前一轮次的目标函数的值之间的差异小于预设阈值。在一个实施例中预设阈值可以为10-4。可以理解,在其他实施例中,预设阈值也可以是其他值,对此不做限定。

上述实施例中,通过构建表征各模态的所述原始特征数据和重构的特征数据之间的差异的机器学习模型,并通过迭代训练对机器学习模型的目标函数求最小值,在每轮迭代中,更新所述共享特征数据的值和各私有特征数据的值,直至满足迭代停止条件。相当于将最小化差异的问题,转化为模型收敛训练处理,能够准确、快速地确定出目标函数的最小值,从而能够快速地确定出时差异最小化的共享特征数据的值,故,能够更加快速、准确地确定出目标对象最终融合的共享特征。

在一个实施例中,该方法还包括:确定各模态的局部不变规则化因子。本实施例中,构建机器学习模型包括:构建基本机器学习模型;所述基本机器学习模型的目标函数,用于表征各模态的所述原始特征数据和重构的特征数据之间的差异;组合所述基本机器学习模型和各模态的局部不变规则化因子,得到机器学习模型。

具体地,计算机设备可以对各模态的原始特征数据进行映射降维,得到共享特征数据。

计算机设备可以确定各模态的局部不变规则化因子。其中,所述局部不变规则化因子,用于调节第一相似结构和第二相似结构之间的一致性。所述第一相似结构,是指每个模态的原始特征数据之间的相似结构;第二相似结构,是指每个模态中各原始特征数据被映射降维后的子共享特征数据之间的相似结构。也就是说,局部不变规则化因子,用于保证每个模态的原始特征数据之间的相似结构,与每个模态的各原始特征数据被映射降维后的子共享特征数据之间的相似结构之间的一致性。

可以理解,假设模态v中两个原始特征数据实例在原始数据空间中距离较近,那么在映射降维后的数据空间中,表示它们的低维的子共享特征数据vci和vcj也应该尽可能相近,这样,在映射降维后的数据空间中数据之间的几何结构与原始数据空间中数据之间的几何结构一致的前提下,进行特征提取才更加准确,才能提升融合特征的鲁棒性。

因此,计算机设备可以组合所述基本机器学习模型和各模态的局部不变规则化因子,得到机器学习模型。这样一来,得到的机器学习模型就可以通过各模态的局部不变规则化因子,在机器学习模型的迭代训练过程中,调节在映射降维后的数据空间中数据之间的几何结构与原始数据空间中数据之间的几何结构的一致性,从而提高融合特征的鲁棒性,以使得到的目标对象的最终融合的共享特征更加准确。

在一个实施例中,所述确定各模态的局部不变规则化因子包括:针对每个模态,获取所述模态的数据权重矩阵;所述数据权重矩阵中各权重,用于表征所述模态的原始特征数据之间的距离远近程度;确定所述原始特征数据被映射降维后的子共享特征数据之间的相似度;耦合所述数据权重矩阵和所述相似度,得到各模态的局部不变规则化因子。

其中,数据权重矩阵,是以权重为元素的矩阵。各模态的数据权重矩阵中各权重,用于表征各模态的原始特征数据之间的距离远近程度。

具体地,针对每个模态,计算机设备可以确定该模态中满足最近邻条件的两两原始特征数据之间的距离,根据该距离确定这两个原始特征数据之间的权重,以此类推,从而确定出所有满足最近邻条件的原始特征数据之间的权重,进而,根据所得到的各权重,构成该模态的数据权重矩阵。

可以理解,模态在原始数据空间中的各原始特征数据被映射降维后,可以得到相应的子共享特征数据,计算机设备可以求满足最近邻条件的两两原始特征数据被映射降维后的子共享特征数据之间的相似度。可以理解,子共享特征数据之间的相似度,表明在映射降维后的数据空间中,数据之间的接近程度。

在一个实施例中,计算机设备可以根据两个子共享特征数据之间的欧式距离,度量两者之间的相似度。

因此,计算机设备可以耦合所述数据权重矩阵和所述相似度,得到各模态的局部不变规则化因子。需要说明的是,由于子共享特征数据是由第一参数变量表示的未知的数据,所以,通过耦合数据权重矩阵和所述相似度,得到的各模态的局部不变规则化因子也是由变量表示的未知的数据,而并非一个具体的数据值。

在一个实施例中,计算机设备可以通过以下公式确定各模态的局部不变规则化因子:

其中,vci表示第i个原始特征数据映射降维得到的子共享特征数据;vcj表示第j个原始特征数据映射降维得到的子共享特征数据;n表示总的数据量;为数据权重矩阵w(v)的第i行第j列的数值;v表示第v个模态;w(v)为第v个模态的数据权重矩阵;vc表示由变量表示的共享特征数据;tr(g)表示矩阵的迹,所以,tr(vcd(v)(vc)t)表示vcd(v)(vc)t这一矩阵的迹;tr(vcw(v)(vc)t)表示vcw(v)(vc)t这一矩阵的迹;tr(vcl(v)(vc)t)表示vcl(v)(vc)t这一矩阵的迹;d(v)为对角矩阵,对角矩阵d(v)的对角线上的每一个数据为w(v)每一行或者每一列的和,l(v)=d(v)-w(v)为g(v)的图拉普拉斯矩阵,上标t表示矩阵的转置。

上述实施例中,通过耦合各模态的数据权重矩阵和原始特征数据被映射降维后的子共享特征数据之间的相似度,可以准确、便捷地描述出用于调节第一相似结构和第二相似结构之间的一致性的局部不变规则化因子,提升融合特征的鲁棒性。

在一个实施例中,所述针对每个模态,获取所述模态的数据权重矩阵包括:针对每个模态,将所述模态的各原始特征数据作为顶点,构建最近邻图;根据所述最近邻图中共边的顶点之间的距离,确定最近邻图中各边的权重;根据各边的权重,构建所述模态在原始数据空间中对应的数据权重矩阵。

其中,最近邻图,是指包括满足最近邻条件的顶点、以及满足最近邻条件的顶点之间构成的边的图。最近邻,即最近邻居。最近邻条件,是指两个顶点之间属于最近邻居所应该满足的条件。最近邻条件可以包括两个顶点之间的距离在预设距离阈值范围之内。

计算机设备可以针对每个模态的原始特征数据,皆进行以下处理。具体地,计算机设备可以将所述模态的各原始特征数据作为顶点,根据各原始特征数据之间的距离,确定满足最近邻条件的顶点,进而在满足最近邻条件的顶点之间建边,以构建最近邻图。计算机设备可以根据各满足最近邻条件的顶点之间的距离,确定所述最近邻图的边的权重。计算机设备可以将各条边的权重作为矩阵元素,构建所述模态在原始数据空间中对应的数据权重矩阵。

在一个实施例中,计算机设备可以根据以下公式计算各模态的数据权重矩阵:

其中,为数据权重矩阵w(v)的第i行第j列的数值。是数据实例之间的欧氏距离。表示的p个最近邻居实例的集合。表示的p个最近邻居实例的集合。为第v个模态的第i个原始特征数据,为第v个模态的第j个原始特征数据,σ为原始特征数据的标准差。

上述实施例中,结合最近邻图,确定各模态在原始数据空间中对应的数据权重矩阵,将矩阵数据处理转换为图处理,非常地便捷、准确。

在一个实施例中,步骤s204包括:分别获取各模态对应的共享映射矩阵和私有映射矩阵;将各模态的原始特征数据,按照对应的共享映射矩阵进行映射分解,得到各模态的子共享特征变量矩阵;将各模态的原始特征数据,分别按照对应的私有映射矩阵进行映射分解,得到私有特征变量矩阵。

其中,共享映射矩阵,用于从相应模态的原始特征数据中分解出共享特征数据。私有映射矩阵,用于从相应模态的原始特征数据中分解出该模态的私有特征数据。可以理解,共享映射矩阵和私有映射矩阵相当于基矩阵。

变量矩阵,是矩阵元素中包括变量的矩阵。

共享特征变量矩阵,是指矩阵形式的包括变量的共享特征数据。私有特征变量矩阵,是指矩阵形式的包括变量的私有特征数据。

可以理解,各模态都有各自对应的共享映射矩阵和私有映射矩阵,因此,计算机设备可以将各模态的原始特征数据按照对应的共享映射矩阵进行映射分解,得到各模态的共享特征变量矩阵,并将各模态的原始特征数据,分别按照对应的私有映射矩阵进行映射分解,得到私有特征变量矩阵。

需要说明的是,共享映射矩阵和私有映射矩阵,皆属于通过变量参数表示的未知的矩阵数据。这样一来,通过包括变量参数的共享映射矩阵和私有映射矩阵映射分解得到的共享特征变量矩阵和私有特征变量矩阵,也是包括参数变量的未知数据。那么,根据融合各子共享特征变量矩阵能够得到共享特征变量矩阵。

上述实施例中,通过各模态对应的共享映射矩阵和私有映射矩阵,将原始特征数据映射分解为共享特征数据和私有特征数据,进而能够在后续对共享特征和私有特征皆进行无监督地学习训练,从而将私有特征和共享特征区分开来,即,最终得到的共享特征排除了私有特征的干扰,提高了共享特征提取的准确性。

在一个实施例中,步骤s206包括:将所述共享特征变量矩阵分别按照各模态对应的所述共享映射矩阵进行逆映射转换,得到第一逆映射结果;将各私有特征变量矩阵按照相应所述私有映射矩阵进行逆映射转换,得到第二逆映射结果;根据第一逆映射结果和第二逆映射结果,重构各模态的特征数据。

可以理解,由于共享特征变量矩阵和私有特征变量矩阵,是将各模态的原始特征数据分别按照共享映射矩阵和私有映射矩阵映射降维得到,所以,将根据逆映射转换得到的进行组合,能够重构得到在原始数据空间中。理想情况下,重构得到的特征数据与映射降维前的原始特征数据一致。但是,一般情况下无法完全一致,所以,当重构的特征数据和原始特征数据之间的差异最小化时,说明,由映射降维分解的共享特征变量矩阵和私有特征变量矩阵重构的特征数据与原始特征数据最为接近,那么,此时,映射降维分解的共享特征变量矩阵的值和私有特征变量矩阵的值也就最为准确。

在一个实施例中,机器学习模型的目标函数可以按照以下公式表示:

其中,分别为共享空间中的模态共享特征和私有特征,即相关和不相关特征,为各模态对应的映射矩阵,||·||f表示frobenius范数,表示当前frobenius范数的平方,s.t.表示约束条件;表示皆为非负;表示重构的特征数据,相当于,将vc按照进行逆映射转换、以及将按照进行逆映射转换,并将得到的第一逆映射结果和第二逆映射结果组合,重构得到原始数据空间中的特征数据。

在一个实施例中,计算机设备可以将构建的、目标函数用于表征各模态的所述原始特征数据和重构的特征数据之间的差异的机器学习模型作为基本机器学习模型,将基本机器学习模型和各模态的局部不变规则化因子组合,得到最终的机器学习模型。

在一个实施例中,计算机设备可以将各模态的局部不变规则化因子与规则化控制参数进行耦合,并与基本机器学习模型进行组合,得到最终的机器学习模型。

因此,在一个实施例中,计算机设备可以将公式(3)所表示的基本机器学习模型的目标函数和局部不规则变化因子进行组合,得到最终的机器学习模型的目标函数如下:

其中,参数α(v)≥0为第v个模态的规则化控制参数;l(g(v))为第v个模态的局部不变规则化因子。

可以理解,本实施例中,在最小化机器学习模型的目标函数时,相当于,在对基本机器学习模型的目标函数和局部不变规则化因子的组合求最小值,即对公式(4)中的y求最小值。

图3为一个实施例中构建机器学习模型的结构示意图。参照图3,x(1)~x(v)表示v个模态的原始特征数据,表示v个模态的共享映射矩阵,表示v个模态的私有映射矩阵,通过将多个模态的原始特征数据按相应的共享映射矩阵进行映射降维,可以得到共享特征矩阵vc,通过将多个模态的原始特征数据按相应的私有映射矩阵进行映射降维,可以得到各模态的私有特征矩阵将共享特征矩阵vc分别按照各共享映射矩阵进行逆映射以及将私有特征矩阵按照对应的私有映射矩阵进行逆映射,可以重构得到特征数据。进而,可以基于原始特征数据和重构的特征数据之间的差异,构建基本机器学习模型。此外,再通过最近邻图,确定各模态的数据权重矩阵w(1)~w(v),基于数据权重矩阵,确定局部不变规则化变化因子,通过组合基本机器学习模型和局部不变规则化变化因子,能够得到最终的机器学习模型。

上述实施例中,通过将所述共享特征变量矩阵和私有特征变量矩阵进行逆映射,重构各模态的特征数据。在分解准确地情况下,重构的各模态的特征数据和原始特征数据比较接近,因此,可以利用这点特性,对各模态的所述原始特征数据和重构的特征数据之间的差异进行最小化处理,已得到最小化时的共享特征数据的值,此时,即为最为准确的共享特征,从而能够提高共享特征提取的准确性。

在一个实施例中,共享映射矩阵为共享映射变量矩阵,所述私有映射矩阵为私有映射变量矩阵。本实施例中,在每轮迭代中,更新所述共享特征数据的值和各私有特征数据的值,直至满足迭代停止条件包括:

在每轮迭代中,更新所述共享特征变量矩阵的值、各私有特征变量矩阵的值、各共享映射变量矩阵的值、以及各私有映射变量矩阵的值,直至满足迭代停止条件。

可以理解,共享特征变量矩阵、各私有特征变量矩阵、各共享映射变量矩阵、以及各私有映射变量矩阵,是不同的变量矩阵。在一个实施例中,在每轮迭代中,计算机设备可以对每种变量矩阵的值进行迭代优化更新,即,在对其中一个变量矩阵的值进行更新时,保持其他矩阵变量的值不变。

在一个实施例中,在每轮迭代中,更新所述共享特征变量矩阵的值、各私有特征变量矩阵的值、各共享映射变量矩阵的值、以及各私有映射变量矩阵的值包括:在每轮迭代中,依次从所述共享特征变量矩阵、私有特征变量矩阵、共享映射变量矩阵和私有映射变量矩阵中选取当前变量矩阵,保持非当前变量矩阵的值为最近一次更新所述非当前变量矩阵的值不变,对当前变量矩阵的值进行优化更新,并从所述共享特征变量矩阵、私有特征变量矩阵、共享映射变量矩阵和私有映射变量矩阵中选取下一个当前变量矩阵,以继续进行优化更新处理。

其中,当前变量矩阵,是当前要进行优化更新的变量矩阵。非当前变量矩阵,是当前不做优化更新的、且在当前变量矩阵更新时保持值不变的变量矩阵。

比如,在对共享特征变量矩阵进行更新时,共享特征变量矩阵即为当前变量矩阵。私有特征变量矩阵、共享映射变量矩阵和私有映射变量矩阵,则为非当前变量矩阵。

需要说明的是,当非当前变量矩阵尚未经历首次更新时,非当前变量矩阵最近一次更新的值,可以为初始默认值。不同的非当前变量矩阵的初始默认值可以不同。

具体地,在首轮迭代中,假设选取共享特征变量矩阵作为当前变量矩阵,那么,则在保持私有特征变量矩阵、共享映射变量矩阵和私有映射变量矩阵的值为各自的初始默认值不变的条件下,对共享特征变量矩阵的值进行优化更新(比如,更新为a1)。接着,继续选取下一个当前变量矩阵,比如,选取私有特征变量矩阵作为当前变量矩阵,那么,则在保持共享特征变量矩阵的值为刚更新的值(即,a1)、共享映射变量矩阵和私有映射变量矩阵的值为各自的初始默认值不变的条件下,对私有特征变量矩阵的值进行优化更新(比如,更新为a2)。然后,继续选取下一个当前变量矩阵,比如,选取共享映射变量矩阵作为当前变量矩阵,那么,则在保持共享特征变量矩阵的值为共享特征变量矩阵最近一次更新的值(即,a1)、私有特征变量矩阵的值为刚更新的值(即,a2)和私有映射变量矩阵的值为初始默认值不变的条件下,对共享映射变量矩阵的值进行优化更新(比如,更新为a3)。同样地,选取私有映射变量矩阵作为当前变量矩阵,那么,则在保持共享特征变量矩阵的值为共享特征变量矩阵最近一次更新的值(即,a1)、私有特征变量矩阵的值为私有特征变量矩阵最近一次更新的值(即,a2)和共享映射变量矩阵的值为共享映射变量矩阵最近一次更新的值(即,a3)不变的条件下,对私有映射变量矩阵的值进行优化更新(比如,更新为a4)。从而完整当前轮次的所有参数变量的优化更新处理。可以理解,在新一轮次的迭代中,假设选取共享特征变量矩阵作为当前变量矩阵时,那么,则在保持私有特征变量矩阵、共享映射变量矩阵和私有映射变量矩阵的值为各自的最近一次更新的值(即,a2、a3和a4)不变的条件下,对共享特征变量矩阵的值进行优化更新(比如,将a1更新为a11)。可以理解,新一轮次的参数变量的更新处理的原理同上。

为了便于理解,现举例对各个变量矩阵进行更新的过程进行解释说明。假设为第v个模态的共享映射变量矩阵、为第v个模态的私有映射变量矩阵、为第v个模态的私有特征变量矩阵、以及vc为多个模态的共享特征变量矩阵,那么:

(1)给定更新vc:

首先利用拉格朗日函数对(公式4)所表示的机器学习模型的目标函数进行优化表示,得到

其中,为限定vc≥0的拉格朗日乘子。利用l对vc求偏导,得到

利用kkt(karush-kuhn-tucher)条件(kkt条件是非线性规划(nonlinearprogramming)最佳解的必要条件)可以得到如下vc的更新公式

(2)给定和vc,更新

从(公式4)所表示的机器学习模型的目标函数可以看出,每个模态的相互独立,因此对应的最小化目标函数可以简化为

当利用拉格朗日函数和kkt条件对其进行优化求解,可以得到的更新公式

(3)同(2)中求解步骤类似,可以得到的更新公式

可以理解,在执行完上述步骤(1)~(3)之后,则完成当前轮次的迭代,此时可以判定当前轮次迭代后是否满足迭代停止条件,如果满足,则停止迭代,并获取满足迭代停止条件时的vc,即得到目标对象最终融合的共享特征。如果不满足,则将已经得到的各变量矩阵更新为当前计算得到的结果,重新执行步骤(1)~(3)以进行下一轮次的迭代处理。

上述实施例中,当多个变量矩阵耦合在一起时,对机器学习模型的目标函数的最小优化是一个非凸问题,寻找全局最优解十分困难。因此,通过各变量矩阵的依次迭代优化,寻找机器学习模型的目标函数的局部最优解,从而更加快速、准确地确定出最终融合的共享特征。

在一个实施例中,该方法还包括:获取多个目标对象的所述最终融合的共享特征;根据各所述共享特征,对多个目标对象进行聚类;按照所述聚类结果,对所述目标对象进行相应处理。

可以理解,按照本申请各实施例的方法获取的目标对象的最终融合的共享特征比较准确,相当于能够准确地确定出目标对象的特征,进而,能够按照本申请各实施例中的方法获取多个目标对象的最终融合的共享特征,并按照获取的共享特征,对多个目标对象进行聚类处理。由于获取的共享特征比较准确,因此,基于该共享特征对目标对象进行聚类的聚类结果比较准确,所以,按照聚类结果,对所述目标对象进行相应处理,能够提高对目标对象处理的准确性。

如图4所示,在一个实施例中,提供了另一种特征提取方法,该方法具体包括以下步骤:

s402,获取目标对象的多模态的预设特征数据;预设特征数据为非负数据;对预设特征数据进行归一化处理,得到多模态的原始特征数据。

s404,分别获取各模态对应的共享映射变量矩阵和私有映射变量矩阵;将各模态的原始特征数据,按照对应的共享映射变量矩阵进行映射分解,得到共享特征变量矩阵;将各模态的原始特征数据,分别按对应的私有映射变量矩阵进行映射分解,得到私有特征变量矩阵。

s406,将共享特征变量矩阵分别按照各模态对应的共享映射矩阵进行逆映射转换,得到第一逆映射结果;将各私有特征变量矩阵按照相应私有映射矩阵进行逆映射转换,得到第二逆映射结果;根据第一逆映射结果和第二逆映射结果,重构各模态的特征数据。

s408,构建基本机器学习模型;基本机器学习模型的目标函数,用于表征各模态的原始特征数据和重构的特征数据之间的差异。

s410,针对每个模态,将模态的各原始特征数据作为顶点,构建最近邻图;根据最近邻图中共边的顶点之间的距离,确定最近邻图中各边的权重;根据各边的权重,构建模态在原始数据空间中对应的数据权重矩阵;确定两两原始特征数据映射降维后的子共享特征数据之间的相似度;耦合数据权重矩阵和相似度,得到各模态的局部不变规则化因子。

s412,组合基本机器学习模型和各模态的局部不变规则化因子,得到机器学习模型。

s414,通过迭代训练最小化机器学习模型的目标函数的值,并在每轮迭代中,依次从共享特征变量矩阵、私有特征变量矩阵、共享映射变量矩阵和私有映射变量矩阵中选取当前变量矩阵,保持非当前变量矩阵的值为最近一次更新非当前变量矩阵的值不变,对当前变量矩阵的值进行优化更新,并从共享特征变量矩阵、私有特征变量矩阵、共享映射变量矩阵和私有映射变量矩阵中选取下一个当前变量矩阵,以继续进行优化更新处理直至优化处理完全部变量矩阵,并进入下一轮迭代,直至满足迭代停止条件。

s416,获取在满足迭代停止条件时的共享特征数据的值,得到目标对象的最终融合的共享特征。

在一个实施例中,该方法还包括:获取多个目标对象的最终融合的共享特征;根据各共享特征,对多个目标对象进行聚类;按照聚类结果,对目标对象进行相应处理。

结合本申请各实施例的方案,进行实验分析如下:

为了验证本申请提出特征提取的有效性,将其与目前较为有代表性的多模态特征学习模型concatnmf((concatnonnegativematrixfactor,拼接非负矩阵分解)、multinmf(multinonnegativematrixfactor)、multignmf(multigraphnonnegativematrixfactor,多图非负矩阵分解)、mmnmf(multi-manifoldnonnegativematrixfactor,多流型对齐非负矩阵分解)和umcfl(无监督多视图相关特征学习)进行对比分析,并通过kmeans聚类(k-meansclusteringalgorithm,k均值聚类算法是一种迭代求解的聚类分析算法)在精度、标准化互信息和纯度三个指标上验证各模型的性能。实验数据集如表1所示。

表1数据集描述

可以理解,sensit、multiplefeatures、aloi和3sources分别表示不同的数据源。实例数,即为原始特征数据的数量。

图5至图7给出了本申请各实施例的方法与其他比较模型在四个数据集上的精度、标准化互信息和纯度聚类比较结果。参见图5至图7可知,实验表明本申请机器学习模型在所有数据集上均明显优于其他模型。这是因为在多模态数据融合特征学习的过程中,本申请各实施例的方法,在模型训练过程中,同时学习模态共享特征和各模态私有特征,这样通过不断分离出模态私有信息,可以有效提升共享特征的准确性。

在比较实验中,所有模型参数取值均为其具有最优性能时的取值。例如,在本申请各实施例提出的方法中,通过实验选取参数α的最优值,如图8至图11所示,通过设定不同的α取值得到模型在不同数据集上的标准化互信息值,选取具有最优性能的参数值作为模型计算的最终取值。比如,图8中,在sensit作为数据源提供多模态的原始特征数据时,参数α取10最佳,又比如,图9中,在multiplefeatures作为数据源提供多模态的原始特征数据时,参数α取0.1最佳。即,针对不同的数据源提供的多模态的原始特征数据,模型参数的最优值存在不同。在模型参数取最优值的情况下进行模型训练,能够提供共享特征提取的准确性。

如图12所示,在一个实施例中,提供了一种特征提取装置1200,该装置1200包括:获取模块1202、映射模块1204、重构模块1206以及融合模块1208,其中:

获取模块1202,用于获取目标对象的多模态的原始特征数据。

映射模块1204,用于对各模态的原始特征数据进行映射降维,分解得到由变量表示的共享特征数据和各模态的由变量表示的私有特征数据。

重构模块1206,用于根据所述共享特征数据和各所述私有特征数据,重构各模态的特征数据。

融合模块1208,用于确定各模态的所述原始特征数据和重构的特征数据之间的差异;通过调整由变量表示的共享特征数据的值和由变量表示的私有特征数据的值,使所述差异最小化;获取所述差异最小化时的共享特征数据的值,得到所述目标对象的最终融合的共享特征。

在一个实施例中,所述融合模块1208还用于构建机器学习模型;所述机器学习模型的目标函数,用于表征各模态的所述原始特征数据和重构的特征数据之间的差异;通过迭代训练最小化所述机器学习模型的目标函数的值,并在每轮迭代中,更新所述共享特征数据的值和各私有特征数据的值,直至满足迭代停止条件;获取在满足迭代停止条件时的共享特征数据的值,得到所述差异最小化时的共享特征数据的值。

在一个实施例中,融合模块1208还用于确定各模态的局部不变规则化因子;所述局部不变规则化因子,用于调节第一相似结构和第二相似结构之间的一致性;所述第一相似结构,为每个模态的原始特征数据之间的相似结构;第二相似结构,为每个模态中各原始特征数据被映射降维后的子共享特征数据之间的相似结构;构建基本机器学习模型;所述基本机器学习模型的目标函数,用于表征各模态的所述原始特征数据和重构的特征数据之间的差异;组合所述基本机器学习模型和各模态的局部不变规则化因子,得到机器学习模型。

在一个实施例中,融合模块1208还用于针对每个模态,获取所述模态的数据权重矩阵;所述数据权重矩阵中各权重,用于表征所述模态的两两原始特征数据之间的距离远近程度;确定所述两两原始特征数据映射降维后的子共享特征数据之间的相似度;耦合所述数据权重矩阵和所述相似度,得到各模态的局部不变规则化因子。

在一个实施例中,融合模块1208还用于针对每个模态,将所述模态的各原始特征数据作为顶点,构建最近邻图;根据所述最近邻图中共边的顶点之间的距离,确定最近邻图中各边的权重;根据各边的权重,构建所述模态在原始数据空间中对应的数据权重矩阵。

在一个实施例中,映射模块1204还用于分别获取各模态对应的共享映射矩阵和私有映射矩阵;将各模态的原始特征数据,按照对应的共享映射矩阵进行映射分解,得到共享特征变量矩阵;将各模态的原始特征数据,分别按照对应的私有映射矩阵进行映射分解,得到私有特征变量矩阵。

在一个实施例中,重构模块1206还用于将所述共享特征变量矩阵分别按照各模态对应的所述共享映射矩阵进行逆映射转换,得到第一逆映射结果;将各所述私有特征变量矩阵按照相应所述私有映射矩阵进行逆映射转换,得到第二逆映射结果;根据第一逆映射结果和第二逆映射结果,重构各模态的特征数据。

在一个实施例中,所述共享映射矩阵为共享映射变量矩阵,所述私有映射矩阵为私有映射变量矩阵;融合模块1208还用于在每轮迭代中,更新所述共享特征变量矩阵的值、各私有特征变量矩阵的值、各共享映射变量矩阵的值、以及各私有映射变量矩阵的值,直至满足迭代停止条件。

在一个实施例中,融合模块1208还用于在每轮迭代中,依次从所述共享特征变量矩阵、私有特征变量矩阵、共享映射变量矩阵和私有映射变量矩阵中选取当前变量矩阵,保持非当前变量矩阵的值为最近一次更新所述非当前变量矩阵的值不变,对当前变量矩阵的值进行优化更新,并从所述共享特征变量矩阵、私有特征变量矩阵、共享映射变量矩阵和私有映射变量矩阵中选取下一个当前变量矩阵,以继续进行优化更新处理。

在一个实施例中,获取模块1202还用于获取目标对象的多模态的预设特征数据;所述预设特征数据为非负数据;对所述预设特征数据进行归一化处理,得到多模态的原始特征数据。

如图13所示,在一个实施例中,该装置1200还包括:

聚类模块1210,用于获取多个目标对象的所述最终融合的共享特征;根据各所述共享特征,对多个目标对象进行聚类;按照所述聚类结果,对所述目标对象进行相应处理。

图14为一个实施例中计算机设备的内部结构示意图。参照图14,该计算机设备可以是图1中的服务器120。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质可存储操作系统和计算机程序。该计算机程序被执行时,可使得处理器执行一种特征提取方法。该计算机设备的处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该内存储器中可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行一种特征提取方法。计算机设备的网络接口用于进行网络通信。

本领域技术人员可以理解,图14中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。

在一个实施例中,本申请提供的特征提取装置可以实现为一种计算机程序的形式,计算机程序可在如图14所示的计算机设备上运行,计算机设备的非易失性存储介质可存储组成该特征提取装置的各个程序模块,比如,图12所示的获取模块1202、映射模块1204、重构模块1206以及融合模块1208。各个程序模块所组成的计算机程序用于使该计算机设备执行本说明书中描述的本申请各个实施例的特征提取方法中的步骤,例如,计算机设备可以通过如图12所示的特征提取装置1200中的获取模块1202获取目标对象的多模态的原始特征数据。计算机设备可以通过映射模块1204对各模态的原始特征数据进行映射降维,分解得到由变量表示的共享特征数据和各模态的由变量表示的私有特征数据。计算机设备可以通过重构模块1206根据所述共享特征数据和各所述私有特征数据,重构各模态的特征数据。计算机设备可以通过融合模块1208确定各模态的所述原始特征数据和重构的特征数据之间的差异;通过调整由变量表示的共享特征数据的值和由变量表示的私有特征数据的值,使所述差异最小化;获取所述差异最小化时的共享特征数据的值,得到所述目标对象的最终融合的共享特征。

图15为一个实施例中计算机设备的内部结构示意图。参照图15,该计算机设备可以终端。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质可存储操作系统和计算机程序。该计算机程序被执行时,可使得处理器执行一种特征提取方法。该计算机设备的处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该内存储器中可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行一种特征提取方法。计算机设备的网络接口用于进行网络通信。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏等。计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是终端外壳上设置的按键、轨迹球或触控板,也可以是外接的键盘、触控板或鼠标等。该计算机设备可以是个人计算机、智能音箱、移动终端或车载设备,移动终端包括手机、平板电脑、个人数字助理或可穿戴设备等中的至少一种。

本领域技术人员可以理解,图15中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。

在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述特征提取方法的步骤。此处特征提取方法的步骤可以是上述各个实施例的特征提取方法中的步骤。

在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述特征提取方法的步骤。此处特征提取方法的步骤可以是上述各个实施例的特征提取方法中的步骤。

应该理解的是,虽然本申请各实施例中的各个步骤并不是必然按照步骤标号指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。

以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。

以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1