一种基于图像处理的最大间隔深度生成模型的生成方法

文档序号:9471935阅读:402来源:国知局
一种基于图像处理的最大间隔深度生成模型的生成方法
【技术领域】
[0001] 本发明设及数据挖掘、机器学习技术领域,具体设及一种基于图像处理的最大间 隔深度生成模型的生成方法。
【背景技术】
[0002] 随着深度学习的不断发展,前馈神经网络在各个领域都取得了显著的成就,比如 语音识别、图像分类、文本分类等等。尤其是卷积神经网络在各个图像识别的数据集上都取 得了领先的地位。但是单纯的前馈神经网络不能够对训练样例进行概率建模,也就无法处 理输入数据存在信息缺失的情况。深度生成模型作为一种提取样例高阶非线性特征的模型 在数据建模,样例生成和缺失数据预测上有着很好的表现。但是生成式模型在单纯的判别 任务上的表现一般劣于判别式模型;另外前馈神经网络中有明确的分类误差目标函数,而 深度生成模型的推断问题是一个挑战。
[0003] 目前,许多学者对于生成模型及其相关技术都进行了非常多的深入研究,具体说 明如下:
[0004] 最大间隔学习在判别式模型的学习上非常有效,比如支撑向量机、多元输出最大 间隔马尔科夫网络等等。因此,一些研究人员通过在最大间隔模型中引入隐藏变量,从而可 W显著的提高生成模型的判别表现。但是运些方法都只是提高了浅层生成模型的判别能 力,难W处理日益复杂的数据。 阳〇化]另一些学者提出了一种基于变分推断构建独立于生成模型(解码网络)的识别模 型(编码网络)来近似隐藏变量后验分布的方法。本质上可W理解为概率自动编码器。该 方法可W高效的学习复杂的隐层表示,但是仍然没有探索深度生成模型学习的特征在判别 任务上的表现,判别能力差。同时,该方法也没有探寻如何将卷积操作应用于解码网络中。
[0006] 还有一些学者提出了反池化操作,通过将反池化、卷积和非线性结合,构造了从手 工特征到椅子图片的确定性网络。但是该方法是一种确定性网络,并不是生成模型,不设及 概率建模;顶层特征也是手工设计,不是自动学习;同时该方法也不学习从数据到隐藏表 示的编码网络。
[0007] 一个理想的深度生成模型应该具有下述特点:在判别任务上和前馈卷积神经网络 相媳美;可W对数据进行良好建模,自动学习深层表示,处理数据缺失的情况;可W快速学 习模型参数。然而上述的现有技术的方案中,并没有一个较为完善的深度生成模型的方案。

【发明内容】

[0008] 本发明要解决的技术问题是:解决现有技术中的没有一种应用于图像处理的可W 在判别任务上表现良好,自动学习深层表示、处理数据缺失、可快速学习模型参数的深度生 成模型的问题。
[0009] 为实现上述的发明目的,本发明提供了一种基于图像处理的最大间隔深度生成模 型生成方法。包括:
[0010] 构建带有标注的图片样例的集合,获取所述集合中每个图片样例的隐藏表示,并 综合所述隐藏表示W及所述图片样例的标注,获得最大间隔正则化因子;
[0011] 获取隐藏变量分布的参数,并根据所述隐藏变量分布的参数采样隐藏变量,计算 所述隐藏变量变分后验分布和先验分布的相对赌;
[0012] 获取每个图片样例生成分布的参数,并根据所述图片样例生成分布的参数对所述 图片样例进行概率重建,得到概率重建误差;
[0013] 将所述最大间隔正则化因子、相对赌W及概率重建误差求和,得到最大间隔深度 生成模型;
[0014] 其中,所述隐藏变量分布的参数根据所述隐藏表示计算得到;
[0015] 所述图片样例生成分布的参数根据所述隐藏变量计算得到。
[0016] 优选地,所述集合中每个图片样例的隐藏表示,是利用编码网络计算得到;
[0017] 所述每个图片样例的生成分布参数,是根据所述隐藏变量,通过解码网络计算得 到的。
[0018] 优选地,所述解码网路包括:
[0019] 反池化:将所述隐藏变量的每个单元扩张为多个子单元组成的正方形,所述正方 形中左上角子单元的值等于所述隐藏变量单元的值,其余所述子单元的值为0,得到反池化 结果;
[0020] 卷积:对所述反池化结果进行卷积;
[0021] 非线性激活:对所述卷积得到的结果进行非线性激活;
[0022] 重复所述反池化、卷积W及非线性激活步骤,并将每次重复后得到的结果进行结 构堆叠,并根据所述结果的概率分布进行随机采样。
[0023] 优选地,还包括根据所述最大间隔深度生成模型实现随机图片的生成,包括:
[0024] 获取所述模型中的隐藏变量;
[0025] 将所述隐藏变量利用所述模型的解码网络映射到与要生成的图片大小相同的第 一矩阵中,所述第一矩阵的每个元素表示所述要生成的图片中每个像素的均值;
[00%] 根据所述均值W及所述模型设置的图片样例像素的分布参数,对所述图片样例的 每个像素进行随机采样,得到随机生成的图片。
[0027] 优选地,还包括根据所述最大间隔深度生成模型实现图片的分类,包括:
[0028] 输入需要进行分类的第一图片;
[0029] 利用所述模型中的编码网络获取所述第一图片的隐藏表示;
[0030] 将所述第一图片的隐藏表示映射到图片标注空间;
[0031] 输出所述第一图片的类别。
[0032] 优选地,还包括根据所述最大间隔深度生成模型实现图片缺失像素的预测,包 括:
[0033] 输入有像素缺失的第二图片,所述第二图片像素缺失的位置已知;
[0034] 利用所述模型中的编码网络获取所述第二图片的隐藏表示;
[0035] 根据所述第二图片的隐藏表示,随机采样所述第二图片的隐藏变量;
[0036] 将所述第二图片的隐藏变量利用所述模型中的解码网络映射到与第二图片大小 相同的第二矩阵中。所述第二矩阵的每个位置表示第二图片对应像素概率重建的均值;
[0037]将所述第二图片像素缺失的位置的像素值替换为所述第二概率重建均值,并将替 换后的结果作为新的输入,重复进行所述获取隐藏表示、获取隐藏变量W及获取概率重建 均值的步骤。
[0038] 优选地,所述带有标注的图片样例的集合包含在训练集合内,为所述训练集合中 一个大小固定的子集。
[0039] 优选地,所述最大间隔正则化因子,是根据所述隐藏表示W及所述图片样例的标 注,通过构建线性支撑向量机得到的。
[0040] 优选地,所述隐藏变量分布的参数,是根据所述隐藏表示通过线性映射计算得到 的;
[0041] 所述隐藏变量为固定维度,是根据所述隐藏变量分布的参数,利用随机数生成器 采样得到的。
[0042] 优选地,在所述得到最大间隔深度生成模型之后,利用随机梯度下降方法优化所 述模型。
[0043] 本发明提供了一种最大间隔深度生成模型的生成方法。该模型一方面可W学到对 于判别任务更加有效的隐层表示。另一方面,保持了深度生成模型对于数据建模的能力,可 W随机生成有意义的图像,并且图像缺失像素的情况下可W预测缺失部分,在均方误差的 意义下具有和深度生成模型可比的产生能力。在图像缺失像素的情况下,最大间隔生成模 型可W获得比卷积神经网络和一般深度生成模型更好的分类结果。同时由于我们采用随机 梯度下降法同时优化编码网络、解码网络和最大间隔分类器,最大间隔深度生成模型的训 练时间大约是传统卷积神经网络的两倍,可W应用于大规模数据。
【附图说明】
[0044] 通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通 技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明 的限制。而且在整个附图中,用相同的
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1