机器学习模型超参数推断方法及装置、介质、电子设备与流程

文档序号:18011763发布日期:2019-06-26 00:12阅读:120来源:国知局
机器学习模型超参数推断方法及装置、介质、电子设备与流程

本公开涉及人工智能技术领域,具体而言,涉及一种机器学习模型超参数推断方法、机器学习模型超参数推断装置、计算机存储介质以及电子设备。



背景技术:

随着人工智能(artificialintelligence,简称ai)技术的发展,将人工智能技术越来越广泛的被应用到各领域中,如机器人、语言识别、图像识别、自然语言处理和专家系统等。通过人工智能技术使得人们使产品的使用更方便、更易操作,例如通过ai指纹识别开启手机锁、通过人脸识别进行身份认证等等。

机器学习是人工智能的核心,在通过机器学习训练模型的过程中,通常需要选取适当的模型超参数以对模型性能进行调试。当前在数据建模开发项目中,调节或者选取适当的模型超参数是一个很大的难题。超参数手动选择往往会消耗建模专家数月的时间去调节超参数。为了解决手动调参的问题,越来越多的研究员开始探索超参数自动调节算法。常见的自动调节算法包含网格搜索,遗传优化算法以及高斯过程算法。这些算法都需要大量的实验,消耗的资源巨大。例如运用遗传优化算法,往往需要一个大型服务集群,甚至超算中心的算力支持。虽然找到的超参数性能优良,但计算成本实在太高。

因此,本领域亟需一种新的机器学习模型超参数推断方法及装置。

需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。



技术实现要素:

本公开的目的在于提供一种机器学习模型超参数推断方法、机器学习模型超参数推断装置、计算机存储介质以及电子设备,进而至少在一定程度上提高超参数调节的效率,降低计算成本。

根据本公开的一个方面,提供一种机器学习模型超参数推断方法,其特征在于,包括:

根据初始超参数和与所述初始超参数对应的机器学习模型性能构建一概率模型,得到所述初始超参数与所述机器学习模型性能之间的概率分布关系;

通过期望最大化算法计算使所述概率分布关系的对数似然函数具有最大值的目标超参数。

在本公开的示例性实施例中,根据初始超参数和与所述初始超参数对应的机器学习模型性能构建一概率模型,包括:

根据初始超参数和与所述初始超参数对应的机器学习模型性能构建一高斯过程模型。

在本公开的示例性实施例中,所述初始超参数包括多个子超参数;根据初始超参数和与所述初始超参数对应的机器学习模型性能构建一概率模型,包括:

将原始图像和多个所述子超参数输入所述机器学习模型进行图像识别;

获取所述机器学习模型输出的预测图像;

根据所述原始图像和所述预测图像之间的匹配程度,确定所述机器学习模型性能;

根据所述初始超参数和所述机器学习模型性能构建所述概率模型。

在本公开的示例性实施例中,所述初始超参数包括第一子超参数、第二子超参数和第三子超参数,其中,所述第一子超参数为学习率,所述第二子超参数为卷积核大小,所述第三子超参数为通道数。

在本公开的示例性实施例中,通过期望最大化算法计算使所述概率分布关系具有极大似然估计值的目标超参数,包括:

通过期望最大化算法计算所述概率分布关系的对数似然函数;

获取使所述对数似然函数最大的所述目标超参数。

在本公开的示例性实施例中,所述方法还包括:

将所述目标超参数输入所述机器学习模型,判断所述目标超参数是否收敛;

若不收敛,将所述目标超参数和对应的所述机器学习模型性能输入至所述概率模型进行循环迭代,直至所述目标超参数收敛。

根据本公开的一个方面,提供一种机器学习模型超参数推断装置,其特征在于,包括:

概率模型构建模块,用于根据初始超参数和与所述初始超参数对应的机器学习模型性能构建一概率模型,得到所述超参数与所述机器学习模型性能之间的概率关系;

期望最大化模块,用于通过期望最大化算法计算使所述概率分布关系的对数似然函数具有最大值的目标超参数。

在本公开的示例性实施例中,所述概率模型为一高斯过程模型。

根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的机器学习模型超参数推断方法。

根据本公开的一个方面,提供一种电子设备,包括:

处理器;以及

存储器,用于存储所述处理器的可执行指令;

其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的机器学习模型超参数推断方法。

本公开的机器学习模型超参数推断方法首先构建概率模型获取初始超参数和机器学习模型性能之间的概率分布关系;接着通过期望最大化算法计算使概率分布关系的对数似然函数最大的目标超参数。本公开一方面能够自动调节超参数,无需手动干预;另一方面能够通过机器学习模型获得最优的超参数,降低计算成本。

应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。

附图说明

此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1示意性示出一种机器学习模型超参数推断方法的流程图;

图2示意性示出一种机器学习模型超参数推断方法的应用场景示例图;

图3示意性示出一种机器学习模型超参数推断装置的结构示意图;

图4示意性示出一种用于实现机器学习模型超参数推断方法的电子设备示例框图;

图5示意性示出一种用于实现机器学习模型超参数推断方法的计算机可读存储介质。

具体实施方式

现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。

此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。

本示例实施方式中首先提供了一种机器学习模型超参数推断方法,该机器学习模型超参数推断方法可以运行于服务器,也可以运行于服务器集群或云服务器等,当然,本领域技术人员也可以根据需求在其他平台运行本公开的方法,本示例性实施例中对此不做特殊限定。参考图1所示,该机器学习模型超参数推断方法可以包括以下步骤:

步骤s110.根据初始超参数和与所述初始超参数对应的机器学习模型性能构建一概率模型,得到所述初始超参数与所述机器学习模型性能之间的概率分布关系;

步骤s120.通过期望最大化算法计算使所述概率分布关系的对数似然函数具有最大值的目标超参数。

上述机器学习模型超参数推断方法中,通过构建概率模型获取初始超参数和机器学习模型性能之间的概率分布关系;接着通过期望最大化算法计算使概率分布关系的对数似然函数最大的目标超参数。本公开的机器学习模型超参数推断方法一方面能够自动调节超参数,无需手动干预,另一方面能够通过机器学习模型获得最优的超参数,降低了计算成本。

下面,将结合图2对本示例实施方式中上述数据处理方法中的各步骤进行详细的解释以及说明。

在步骤s110中,根据初始超参数和与所述初始超参数对应的机器学习模型性能构建一概率模型,得到所述初始超参数与所述机器学习模型性能之间的概率分布关系。

在本公开的示例性实施例中,在服务器201中可以创建一个机器学习模型,该机器学习模型可以是神经网络模型、逻辑回归模型等等。通过设定不同的超参数,将不同的超参数输入至机器学习模型,以获得机器学习模型输出的对应不同的超参数的输出向量,再根据输出向量对输出结果进行预测。在本公开中,以图像识别为例,可以根据输出图像与输入图像的匹配程度判断机器学习模型的性能,若输出图像和输入图像的匹配程度高,例如匹配度达到80%以上,则机器学习模型的性能优良;若输出图像和输入图像的匹配程度低,例如匹配度低于60%,则机器学习模型的性能差。当然还可以设定其它不同的匹配度值,用以确定机器学习模型的性能,本公开在此不再赘述。

在本公开的示例性实施例中,根据不同的初始超参数和对应不同初始超参数的机器学习模型性能可以构建一概率模型。该概率模型可以是贝叶斯模型、朴素贝叶斯模型、狄利克雷模型、高斯过程模型,也可以是其它的概率模型。由于高斯过程能够拟合任意的分布,不要求数据分布必须满足正态分布,并且拟合效果较贝叶斯模型的拟合效果更好,因此本公开的概率模型优选采用高斯过程模型。将初始超参数和对应的机器学习模型性能作为输入至该概率模型,以获取初始超参数和机器学习模型性能之间的概率分布关系。

在步骤s120中,通过期望最大化算法计算使所述概率分布关系的对数似然函数具有最大值的目标超参数。

在本公开的示例性实施例中,获取初始超参数和机器学习模型性能之间的概率分布关系后,可以通过期望最大化算法计算使概率分布关系的对数似然函数具有最大值的目标超参数。

在本公开的示例性实施例中,期望最大化算法是是在概率模型中寻找参数最大似然估计或者最大后验估计的算法。期望最大化算法包含两个步骤:e步骤和m步骤,其中e步骤是根据初始超参数计算机器学习模型性能的期望,也就是计算机器学习模型性能在初始超参数分布空间的最优性能概率;m步骤是根据机器学习模型性能的期望,对概率模型进行最大似然估计,以获取目标超参数。

在本公开的示例性实施例中,概率模型可以是高斯过程模型,高斯过程是由均值函数m(x)和协方差函数k(x,x*)确定的,公式(1)示出了高斯过程,即:

f~gp(m,k)(1)

其中,f为高斯过程,m为均值函数,k为协方差函数,且均值函数和协方差函数的表达公式如公式(2)(3)所示:

m(x)=ax2+bx+c(2)

其中,为超参数,通常σn为零。

为了计算超参数,可以计算在超参数条件下机器学习模型性能的概率分布,该概率分布为一数据分布式高斯分布,然后通过对数据分布式高斯分布求偏导数即可获得超参数的值。在本公开中,可以通过期望最大算法获取机器学习模型性能在初始超参数分布空间的最优性能概率,进而获取对应的目标超参数。

在本公开的示例性实施例中,机器学习模型通常具有多个超参数,以神经网络模型为例,其中的超参数包括但不限于学习率、卷积核大小和通道数,通常该些超参数都是通过人为调节,以对神经网络模型进行优化训练的。本公开中的初始超参数可以包括多个子超参数,具体地,初始超参数包括第一子超参数、第二子超参数和第三子超参数,其中,第一子超参数为学习率,第二子超参数为卷积核大小,第三子超参数为通道数。通过将第一子超参数、第二子超参数和第三子超参数以及原始图像输入神经网络模型以获得输出图像,通过判断原始图像和输出图像的匹配度判断神经网络模型的性能。

在本公开的示例性实施例中,在获取目标超参数后,可以将目标超参数输入至机器学习模型中,判断目标超参数是否收敛;若收敛,则该目标超参数就是最终的超参数;若不收敛,则将该目标超参数和对应的机器学习模型性能输入至概率模型进行循环迭代,直至目标超参数收敛。通过机器学习模型超参数推断方法的循环迭代,可以使模型性能达到最优,进而获得最优的超参数。

本公开中的机器学习模型超参数推断方法可以自动调节超参数,无需手动干预,并且降低了计算成本。

本公开还提供了一种机器学习模型超参数推断装置。图3示出了机器学习模型超参数推断装置的结构示意图,如图3所示,该机器学习模型超参数推断装置可以包括概率模型构建模块310和期望最大化模块320。其中:

概率模型构建模块310,用于根据初始超参数和与所述初始超参数对应的机器学习模型性能构建一概率模型,得到所述超参数与所述机器学习模型性能之间的概率分布关系;

期望最大化模块320,用于通过期望最大化算法计算使所述概率分布关系的对数似然函数具有最大值的目标超参数。

上述机器学习模型超参数推断装置中各模块的具体细节已经在对应的机器学习模型超参数推断方法中进行了详细的描述,因此此处不再赘述。

应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。

此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。

通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是cd-rom,u盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。

在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。

所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。

下面参照图4来描述根据本公开的这种实施方式的电子设备400。图4显示的电子设备400仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。

如图4所示,电子设备400以通用计算设备的形式表现。电子设备400的组件可以包括但不限于:上述至少一个处理单元410、上述至少一个存储单元420、连接不同系统组件(包括存储单元420和处理单元410)的总线430。

其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元410执行,使得所述处理单元410执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元410可以执行如图1中所示的步骤s110:根据初始超参数和与所述初始超参数对应的机器学习模型性能构建一概率模型,得到所述超参数与所述机器学习模型性能之间的概率分布关系;步骤s120:通过期望最大化算法计算使所述概率分布关系的对数似然函数具有最大值的目标超参数。

存储单元420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(ram)4201和/或高速缓存存储单元4202,还可以进一步包括只读存储单元(rom)4203。

存储单元420还可以包括具有一组(至少一个)程序模块4205的程序/实用工具4204,这样的程序模块4205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。

总线430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。

电子设备400也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备400交互的设备通信,和/或与使得该电子设备400能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(i/o)接口450进行。并且,电子设备400还可以通过网络适配器460与一个或者多个网络(例如局域网(lan),广域网(wan)和/或公共网络,例如因特网)通信。如图所示,网络适配器460通过总线430与电子设备400的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备400使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、raid系统、磁带驱动器以及数据备份存储系统等。

通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是cd-rom,u盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。

在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。

参考图5所示,描述了根据本公开的实施方式的用于实现上述方法的程序产品500,其可以采用便携式紧凑盘只读存储器(cd-rom)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。

所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。

计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。

可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、rf等等,或者上述的任意合适的组合。

可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如java、c++等,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(lan)或广域网(wan),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。

此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。

本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1