任务不可知连续学习场景的元空间聚类学习方法及装置与流程

文档序号:20876204发布日期:2020-05-26 16:34阅读:311来源:国知局
任务不可知连续学习场景的元空间聚类学习方法及装置与流程

本发明涉及机器学习技术领域,特别涉及一种任务不可知连续学习场景的元空间聚类学习方法及装置。



背景技术:

在统计机器学习系统和深度学习系统投入使用时,要求模型学习到的输入数据和输出数据的分布和要进行测试的分布是一致的。在单一任务的机器学习场景下,统计机器学习模型或深度神经网络模型的可行性和有效性取决于一个假设:输入和输出数据的分布不会随时间发生显著变化;否则会使得模型原本学习到的模式和复杂关系表现不佳或甚至完全不可用。但在真实世界中,这样的假设条件很少能够成立。以人类的认知学习为例,人类大脑在学习过程中,能够应对输入数据随时间变化的显著性和多样性,这是目前针对单一任务的机器学习模型不能够适应的。因此,深度神经网络的连续学习问题得到了越来越多的关注。

连续学习场景不同于传统单一任务的机器学习场景,也不同于多任务同时学习的场景。单一任务的学习场景中,训练数据和测试数据都是独立同分布的,机器学习算法可以在训练数据上训练出表现比较好的模型;在多任务同时学习的场景中,多个任务的数据是完全可知的,模型通过参数共享等方式达到学习多个任务的目标。在连续学习的场景中,学习目标是执行多个任务,每个任务的数据采样自不同的数据分布,此外,任务按照时间顺序到达,当前任务的训练过程结束后,继续在同一模型上训练下一个任务,已经结束的任务的数据是不能获得的,即不能获得已经结束的任务的数据分布。在测试阶段,连续学习场景下的模型要完成所有任务的测试,并保证在所有任务上的表现比较好。

在连续学习的场景下,现存的多数技术都是在任务切换可知的情况下进行学习的,任务切换可以为模型的扩展等提供信息。任务不可知的连续学习问题的难点有两点,一是学习新任务的同时尽可能少地遗忘旧任务;二是在任务切换时刻的信息不可知的情况下,训练出可以在多任务上执行的模型。为了解决任务不可知的连续学习问题,现有方法通过识别任务切换时刻为模型训练的转换提供辅助信息,这种技术的缺点是通过模型目标函数的变化识别任务切换时刻的方法比较粗糙,不能够准确地识别任务切换时刻,导致模型在多个任务上的表现不好;另一方面,提出不考虑任务切换的信息,无差别对待训练数据,通过储存一部分训练数据用作模型在新任务和旧任务上同时训练,解决模型的遗忘问题,这类技术不能有效解决第二个难点,且会耗费储存空间。



技术实现要素:

本发明旨在至少在一定程度上解决相关技术中的技术问题之一。

为此,本发明的一个目的在于提出一种任务不可知连续学习场景的元空间聚类学习方法,该方法解决了模型在任务不可知场景下连续学习的灾难性遗忘问题及提高模型在多任务之间的迁移能力。

本发明的另一个目的在于提出一种任务不可知连续学习场景的元空间聚类学习装置。

为达到上述目的,本发明一方面实施例提出了一种任务不可知连续学习场景的元空间聚类学习方法,包括:

获取训练数据集,所述训练数据集的分布数目为未知数k;

通过卷积神经网络提取所述训练数据集的数据特征,对提取的所述数据特征进行聚类;

判断聚类的数据特征是否满足增加新聚类的条件,若满足,则分布数目k增加1,若不满足,则将所述聚类的数据特征归类到已经存在的聚类数据中;

所述训练数据聚类完成后,利用所有的聚类数据的聚类信息训练动态分类网络,通过训练好的动态分类网络对不同聚类的数据进行分类。

本发明实施例的任务不可知连续学习场景的元空间聚类学习方法,通过建立元空间聚类和以聚类信息为条件的分类模型相结合的框架,应用在任务不可知的连续学习场景下;利用狄利克雷过程进行元空间聚类,提高模型在多任务之间的迁移能力;利用动态学习深度网络对不同聚类中的数据进行分类,针对不同的聚类学习动态分类网络,解决连续学习中的灾难性遗忘问题。

另外,根据本发明上述实施例的任务不可知连续学习场景的元空间聚类学习方法还可以具有以下附加的技术特征:

进一步地,在本发明的一个实施例中,还包括:

在所述动态分类网络训练完成后,通过测试数据集进行测试,根据测试结果对所述动态分类网络进行调整。

进一步地,在本发明的一个实施例中,所述训练数据集采样自分布数目k不可知的混合高斯模型。

进一步地,在本发明的一个实施例中,所述利用所有的聚类数据的聚类信息训练动态分类网络包括:

以聚类信息作为条件,不同聚类数据对应不同的分类参数对所述动态分类网络进行训练。

进一步地,在本发明的一个实施例中,所述判断聚类的数据特征是否满足增加新聚类的条件,包括:

计算所述聚类的数据特征与已有的多个聚类数据的聚类中心的距离,判断多个距离中的最小值是否大于预设阈值,若大于,则分布数目k增加1,反之,则将所述聚类的数据特征归类到多个距离中的最小值对应的聚类数据中。

为达到上述目的,本发明另一方面实施例提出了一种任务不可知连续学习场景的元空间聚类学习装置,包括:

获取模块,用于获取训练数据集,所述训练数据集的分布数目为未知数k;

聚类模块,用于通过卷积神经网络提取所述训练数据集的数据特征,对提取的所述数据特征进行聚类;

判断模块,用于判断聚类的数据特征是否满足增加新聚类的条件,若满足,则分布数目k增加1,若不满足,则将所述聚类的数据特征归类到已经存在的聚类数据中;

分类模块,用于所述训练数据聚类完成后,利用所有的聚类数据的聚类信息训练动态分类网络,通过训练好的动态分类网络对不同聚类的数据进行分类。

本发明实施例的任务不可知连续学习场景的元空间聚类学习装置,通过建立元空间聚类和以聚类信息为条件的分类模型相结合的框架,应用在任务不可知的连续学习场景下;利用狄利克雷过程进行元空间聚类,提高模型在多任务之间的迁移能力;利用动态学习深度网络对不同聚类中的数据进行分类,针对不同的聚类学习动态分类网络,解决连续学习中的灾难性遗忘问题。

另外,根据本发明上述实施例的任务不可知连续学习场景的元空间聚类学习装置还可以具有以下附加的技术特征:

进一步地,在本发明的一个实施例中,还包括:调整模块;

所述调整模块,用于在所述动态分类网络训练完成后,通过测试数据集进行测试,根据测试结果对所述动态分类网络进行调整。

进一步地,在本发明的一个实施例中,所述训练数据集采样自分布数目k不可知的混合高斯模型。

进一步地,在本发明的一个实施例中,所述利用所有的聚类数据的聚类信息训练动态分类网络包括:

以聚类信息作为条件,不同聚类数据对应不同的分类参数对所述动态分类网络进行训练。

进一步地,在本发明的一个实施例中,所述判断聚类的数据特征是否满足增加新聚类的条件,包括:

计算所述聚类的数据特征与已有的多个聚类数据的聚类中心的距离,判断多个距离中的最小值是否大于预设阈值,若大于,则分布数目k增加1,反之,则将所述聚类的数据特征归类到多个距离中的最小值对应的聚类数据中。

本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。

附图说明

本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:

图1为根据本发明一个实施例的任务不可知连续学习场景的元空间聚类学习方法流程图;

图2为根据本发明又一个实施例的任务不可知连续学习场景的元空间聚类学习方法流程图;

图3为根据本发明又一个实施例的任务不可知连续学习场景的元空间聚类学习装置结构示意图。

具体实施方式

下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。

下面参照附图描述根据本发明实施例提出的任务不可知连续学习场景的元空间聚类学习方法及装置。

首先将参照附图描述根据本发明实施例提出的任务不可知连续学习场景的元空间聚类学习方法。

在人的认知建立过程中,人是不断学习新的任务的,并且多任务之间的界限往往是模糊的或不可知的。类似于人的认知学习过程,机器也会面对多任务、连续学习的场景。例如,多任务可以是在不同数据集上的分类任务,也可以是在同样的数据集上标签分类、物体检测、物体分割等多种任务。机器需要根据任务的不同调整模型,使得模型在多个任务上都表现良好。在用户与机器的多任务交互场景中,用户对于任务的选择是随机的,机器能够根据用户的输入数据自动判断数据采样自哪种分布,属于哪个聚类,从而根据聚类的信息进行进一步的分类、检测等任务,为用户提供相应的反馈。机器可以自动为用户提供多种反馈,对应多种任务,实现智能的用户交互。

图1为根据本发明一个实施例的任务不可知连续学习场景的元空间聚类学习方法流程图。

如图1所示,该任务不可知连续学习场景的元空间聚类学习方法包括以下步骤:

步骤s101,获取训练数据集,训练数据集的分布数目为未知数k。

在本发明实施例的场景为任务不可知的连续学习场景下,训练数据集采样自混合高斯模型,该混合高斯模型的分布数目k是不可知的,可以随着任务增加、数据分布更复杂而增加k,k可以随着数据到来而变化,这个过程为狄利克雷过程。

步骤s102,通过卷积神经网络提取训练数据集的数据特征,对提取的数据特征进行聚类。

步骤s103,判断聚类的数据特征是否满足增加新聚类的条件,若满足,则分布数目k增加1,若不满足,则将聚类的数据特征归类到已经存在的聚类数据中。

首先,使用卷积神经网络提取数据特征,再对特征进行聚类。通过狄利克雷过程判断数据特征是否满足增加新聚类的条件。如果满足建立新聚类的条件,则增加新聚类,k增加1;否则将该数据归类到已经存在的聚类中。

利用狄利克雷过程进行元空间聚类,适用于连续学习场景下,任务不断增加,数据分布越来越复杂的学习场景,解决了混合高斯模型中高斯分布数目需要事先确定且不可变化的问题,提高模型在多任务之间的迁移能力。

进一步地,在本发明的一个实施例中,判断聚类的数据特征是否满足增加新聚类的条件,包括:计算聚类的数据特征与已有的多个聚类数据的聚类中心的距离,判断多个距离中的最小值是否大于预设阈值,若大于,则分布数目k增加1,反之,则将聚类的数据特征归类到多个距离中的最小值对应的聚类数据中。

步骤s104,训练数据聚类完成后,利用所有的聚类数据的聚类信息训练动态分类网络,通过训练好的动态分类网络对不同聚类的数据进行分类。

在聚类完成后,针对不同的聚类,训练动态分类网络。以聚类信息作为条件,不同聚类数据对应不同的分类参数,从而防止旧任务的参数被新任务覆盖,解决了灾难性遗忘的问题。训练结束后,能够根据任意输入数据执行不同的任务。

如图2所示,通过上述过程,利用动态学习深度网络对不同聚类中的数据进行分类,针对不同的聚类学习动态分类网络,解决连续学习中的灾难性遗忘问题。

进一步地,在本发明的实施例中,还包括:

在动态分类网络训练完成后,通过测试数据集进行测试,根据测试结果对动态分类网络进行调整。

在本发明的实施例中,元空间指的是数据的聚类空间,因为聚类特征可以体现任务之间的关联性,因此叫做元空间。提出针对多任务的元空间概念,建立元空间聚类和以聚类信息为条件的分类模型相结合的框架,应用在任务不可知的连续学习场景下,满足人类对于真实世界的认知过程。

可以理解的是,本申请的方案可以在任务切换不可知(任务切换时刻不可知)的情况下学习,甚至可以在多种任务混合(没有明确的任务切换时刻)的情况下进行连续学习假设连续学习。

本实施例任务的数据是由不同数据分布混合得到,元空间聚类的方法可以挖掘不同任务的数据分布特征,聚类空间即为元空间,相似任务聚类到一起,一定程度可以上得到多任务之间的相似性和独特性,提高模型在多任务上的迁移效率,可以解决第二个难点。在聚类之后,本方案提出利用聚类信息,训练得到针对不同聚类的分类模型,可以解决第一个难点,即旧任务的遗忘问题。

根据本发明实施例提出的任务不可知连续学习场景的元空间聚类学习方法,通过建立元空间聚类和以聚类信息为条件的分类模型相结合的框架,应用在任务不可知的连续学习场景下;利用狄利克雷过程进行元空间聚类,提高模型在多任务之间的迁移能力;利用动态学习深度网络对不同聚类中的数据进行分类,针对不同的聚类学习动态分类网络,解决连续学习中的灾难性遗忘问题。

其次参照附图描述根据本发明实施例提出的任务不可知连续学习场景的元空间聚类学习装置。

图3为根据本发明一个实施例的任务不可知连续学习场景的元空间聚类学习装置结构示意图。

如图3所示,该任务不可知连续学习场景的元空间聚类学习装置包括:获取模块100、聚类模块200、判断模块300和分类模块400。

其中,获取模块100,用于获取训练数据集,训练数据集的分布数目为未知数k。

聚类模块200,用于通过卷积神经网络提取训练数据集的数据特征,对提取的数据特征进行聚类。

判断模块300,用于判断聚类的数据特征是否满足增加新聚类的条件,若满足,则分布数目k增加1,若不满足,则将聚类的数据特征归类到已经存在的聚类数据中。

分类模块400,用于训练数据聚类完成后,利用所有的聚类数据的聚类信息训练动态分类网络,通过训练好的动态分类网络对不同聚类的数据进行分类。

该装置在任务切换不可知的场景下,模型可以自动学习多任务的关联从而能够在多任务上进行分类的问题。

进一步地,在本发明的一个实施例中,还包括:调整模块;

调整模块,用于在动态分类网络训练完成后,通过测试数据集进行测试,根据测试结果对动态分类网络进行调整

进一步地,在本发明的一个实施例中,训练数据集采样自分布数目k不可知的混合高斯模型。

进一步地,在本发明的一个实施例中,利用所有的聚类数据的聚类信息训练动态分类网络包括:

以聚类信息作为条件,不同聚类数据对应不同的分类参数对动态分类网络进行训练。

进一步地,在本发明的一个实施例中,判断聚类的数据特征是否满足增加新聚类的条件,包括:计算聚类的数据特征与已有的多个聚类数据的聚类中心的距离,判断多个距离中的最小值是否大于预设阈值,若大于,则分布数目k增加1,反之,则将聚类的数据特征归类到多个距离中的最小值对应的聚类数据中。

需要说明的是,前述对任务不可知连续学习场景的元空间聚类学习方法实施例的解释说明也适用于该实施例的装置,此处不再赘述。

根据本发明实施例提出的任务不可知连续学习场景的元空间聚类学习装置,通过建立元空间聚类和以聚类信息为条件的分类模型相结合的框架,应用在任务不可知的连续学习场景下;利用狄利克雷过程进行元空间聚类,提高模型在多任务之间的迁移能力;利用动态学习深度网络对不同聚类中的数据进行分类,针对不同的聚类学习动态分类网络,解决连续学习中的灾难性遗忘问题。

此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。

在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。

尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1