基于数据的软性阴影去除方法_2

文档序号:9811344阅读:来源:国知局
] 给出一个标准的监督训练输入输出对数据集(例如,特征向量和对应的标签向 量),使用随机森林创造一个决策树这能够使用标签向量预测新的但没被发现的特征向量 (提供其类似于训练样本的统计数据)。每一个分离的决策树都是不完善的,通常只在训练 数据的一个随机子集中训练(这一过程叫做Bagging)并且不能保证得到一个全局优化的推 理结果,这是由于下面描述的训练过程的特性。然而,将每一棵树(例如一个森林)的回应平 均化,这通常会得到一个精确的预测。
[0025]给出一个"Bagged"训练数据集(即一个所有可用的特征和标签对的子集),一个决 策树是如下被训练的。首先定义一个污点值或者熵值,用于衡量所得的标签,这个值当一个 节点上的标签是同质时处于较低值,当一个节点上的标签彼此不同时处于较高值。然后,通 过将可用数据按照特征向量的标准生成一个二叉树,生成的方式是能够将发分离的集合的 熵值最小化。或者,这可以构成最大化信息获取,即原始熵值和子熵值的总和。生成过程开 始于根节点,将所有数据提供给给定树。它按照特征标准测试一个随机分支的树并选择一 个能够产生最大信息获取的(一个样例分支可以测试是否特征向量的第七项是大于0.3 的)。然后,它创建两个子节点,左子节点、右子节点,并且将分支数据压入这两个子节点。同 样的处理过程在每一个节点都被重复一遍直到一个停止标准被达到(通常是预定的树深度 或者一定数量的样本)。
[0026] 结束训练后,森林可以被用于预测标签新的特征向量。有问题的特征向量被"压" 下,每一颗树视个体的特征值和节点阈值而定。在达到叶节点后,所有达到这一节点训练样 本的平均标签值被作为这棵树的答案。最后,所有树的答案的平均值被用来得到一个更为 鲁棒的预测。
[0027] 具体而言,步骤(1)中,采用改进的随机森林进行训练时,包括:
[0028] 步骤(1-1)、定义一个衡量标签向量的熵值;
[0029] 步骤(1-2)、通过将分支熵值最小化生成一个二叉树;
[0030] 步骤(1-3)、按照特征维度测试二叉树随机数量的分支;
[0031] 步骤(1-4)、从其中选择一个信息获取量最大的分支;
[0032] 步骤(1-5)、随后创建两个分支节点并将分支数据压入;
[0033] 步骤(1-6)、重复步骤(2-3)至步骤(2-5)直到达到预定的树的深度。步骤(1-2)中, 所述分支熵值为:
[0034] Hn= log(det( Σ Sn) )^r2 ;
[0035] 其中Sn为所有样本。步骤(1-4)中,所述信息获取量为:
[0036] Gn = Hn-Ice{l,r}( |Sc|/|Sn| )Hc;
[0037] 其中S。为当前节点的样本分布;
[0038] H。为当前节点的熵值;
[0039] 1,r为当前节点的最小、最大值。
[0040] 本发明在创建树时,在建立每一个分支节点时都希望最大化的。本发明通过样本 落入每个子节点(1和r)的比率来衡量信息获取以此来鼓励更正确的平衡树。
[0041] 设置最小样本数在节点K = 2D时并且使树必要时生长地足够深直到没有足够的样 本去分支。原则上Κ的值可以与D(计算D维协方差矩阵需要的样本数)一样低。然而,样本通 常不是线性独立的,导致退化。当一个叶节点被达到后,并不是建立其所有标签的一个典型 参数化分布,本发明将训练样本指数存入这个节点以进行下一个推理步骤。
[0042]在推理过程中,本发明对原有的RRF算法做了以下改进:
[0043]使用两个代表标签:低维的用来评估节点熵值和建立森林,高维的用来在测试阶 段检索标签。这些由计算限制驱动,通过无参数化标签得以实现。
[0044] 将标签无参数化以避免过度平滑。本发明从数据中得到了一个样本分布,包括希 望保存的极端情况,而并不是在标签空间中的平均答案。
[0045] 步骤(2)中,首先使用Barnes的图像修复方法,将用户指定的阴影区域完全用从剩 余图像中的可行的像素组合代替。然后,本发明在修补区域应用高斯模糊,得到初步的结果 图片。
[0046]步骤(5)中,正则化是处理图像的关键步骤。找出一个更为具体的遮罩片组合并不 是不重要的这是由于本发明标签的特性以及每个节点可能有不同数量的可用标签建议。将 每个本地的所有候选面片平均化会是比较理想的,因为任何不正常的阴影轮廓都会被丢 失。另一方面,过度苛求选择最匹配的面片然后企图将他们之间的边平滑化可能会a)对一 些小的可能会不相容的面片来说这极其困难,b)介绍一个在平滑区域隐含的,无数据驱动 的阴影模型。相反,在每一个位置,本发明通过用TRW-S消息传体算法来正则化整个图像最 佳的面片以选择最佳的面片。
[0047] TRW-S消息传体算法采用的能量方程为:
[0049] L为正则化图像中的点集;
[0050] N为在4-联通近邻中的相邻点集;
[0051 ] ΠΗ为网格面片;
[0052] mj为与πη相邻的网格面片;
[0053]生为两个网格面片之间的二元距离代价;
[0054] 2为从网格面片到对应猜测区域的一元距离代价;
[0055] 1为二元代价的加权系数。
[0056] i发明没有假设本影存在的特殊模型,也没有用统一的模式去处理整块阴影,而 是给用户完全的控制权任其选择哪块区域需要修改。此外,本发明并没有追求物理准确性, 本发明的实际目的是生成一个主观观测时看上去可信的Ιιι,因此生成的结果较其他方法更 为自然。本发明所提出的技术可以应用于多种需要去除软性阴影的场景中,能够显著改善 用户交互并优化生成的结果。
【附图说明】
[0057]图1为用户使用界面划出需要处理的阴影遮罩的示意图。
[0058]图2-1为输入图像和用户指定的阴影遮罩的示意图。
[0059] 图2-2为从输入图像中抽取红色通道的示意图。
[0060] 图2-3为将输入图像分割成16 X 16的网格面片的示意图。
[0061] 图2-4为对每一个网格面片计算其对应的特征向量,使用已训练的随机森林得到 几个可能的结果的示意图。
[0062] 图3-1由左至右分别为输入图像Is、面片ai附近的特写、阴影遮罩图像Im的示意图。 [0063]图3-2由左至右分别为匹配特征面片 &1、匹配真实图像面片πη的示意图。
[0064]图3-3为回归随机森林学习得到一个映射函数8(?·(&1))->ΠΗ的示意图。
[0065]图4-1为正则化图像以选择每个面片的理想位置的示意图。
[0066] 图4-2为获取红色通道遮罩的示意图。
[0067] 图4-3为最后优化以获取剩余的颜色通道的示意图。
【具体实施方式】
[0068] 下面结合【附图说明】和具体实施例对本发明进行详细说明。本实施例基于数据对图 片进行软性阴影去除,包括如下步骤:
[0069] (1)采用多个阴影图片构成训练集,对训练集的每幅阴影图片子样本化,以提取多 个训练对(例如500000对),然后对整个训练集进行偏压采样,针对偏压采样得到的阴影图 片提取列特征向量。
[0070] 列特征向量包括:
[0071] 用户选择区域中距边缘的正则化距离,其值位于[0.0,1.0]内;
[0072]阴影图片基于初始猜想的预测遮罩;
[0073]阴影图片的垂直和水平梯度;
[0074] 阴影图片的像素亮度值,其值在[0.0,1.0]的范围内。
[0075] 其中面片亮度值是正则化的,因为其没有直接与遮罩相关(给出一个阴影亮度面 片,是不可能确定他是在明亮背景上的阴影或者是在暗背景下的明亮阴影)。所以本发明给 出推理算法处理那些可能支持结论的特征(例如暗指阴影的斜率),但是没有在绝对亮度上 没有混乱差异。尽管根据梯度这些信息理论上是多余的,但它在不损害其性能的前提下给 随机森林提供了更多的选择用以区别。
[0076] 利用列特征向量采用改进的随机森林进行训练得到回归因子:
[0077] (1-1)、定义一个衡量标签向量的熵值;
[00
当前第2页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1