近邻可逆的视频前景物体序列检测分割方法及系统与流程

文档序号:11730186阅读:185来源:国知局
近邻可逆的视频前景物体序列检测分割方法及系统与流程

本发明涉及计算机视觉和图像视频处理领域,尤其涉及一种近邻可逆的视频前景物体序列检测分割方法及系统。



背景技术:

近年来,图像前景物体序列的分割,或称为基于图像的显著对象检测,随着随机森林、多示例学习、栈式自编码器、深度神经网络等技术的结合与应用,在大规模图像数据集上训练出了很多强大的检测模型,取得了令人印象深刻的发展与进步。

视频前景物体序列与图像显著对象存在内在联系,即视频中前景物体序列在大部分视频帧上都是图像显著对象。然而两者也具有根本性不同之处,表现在:首先,视频中所有视频帧上的前景物体序列并不总是图像显著对象,其次,视频中视频帧与视频帧的一致关系为分割前景物体序列与背景提供了额外的线索,最后,由于摄像头和对象的各种动作,前景物体序列可能落在视频的边界处,导致在图像显著检测模型中广泛使用的背景先验不再有效。

分割视频的前景物体序列是众多计算机视觉应用中很重要的一步。然而,针对视频前景物体序列检测分割,仍然存在巨大的挑战。由于缺少大规模的训练视频数据,无法利用机器学习方法训练性能足够强大的时空域检测模型。此外,由于相机和拍摄对象的运动,使得同样的视频前景物体序列在不同视频帧上产生不同的出现方式,或者多个前景物体序列同时出现,或者与干扰背景有遮挡现象,使得很难持续一致地在整个视频中凸显前景物体序列。

为解决视频前景物体序列检测分割存在的问题,当前研究中存在三种模型类型:全自动分割模型、交互分割模型以及语义信息指导分割模型。

交互分割模型需要对视频第一帧或若干关键视频帧手动标注出前景物体序列,随后才能进行自动的分割过程。而语义信息指导分割模型在分割过程进行之前,需要先设定视频前景物体序列的语义类别,因此这类模型可以结合对象检测器等其他工具分割视频前景物体序列。通常,这两类模型都可依靠人工标注或者数据学习得到的先验知识取得不错的性能。但是,所需要的交互工作和语义标签使得他们很难在大规模数据集上推广使用。

全自动分割模型旨在对单个视频直接分割出前景物体序列或者对视频集共分割出前景物体序列。一般地,全自动分割模型需要对视频前景物体序列的空域视觉属性或者时域运动方式提出确定的假设条件。比如,papazoglou等人在2013年iccv会议上提出在视频大部分片段中前景对象应该尽可能的和周围背景有不同的运动方式的假设条件,他们首先根据运动信息初始化得到前景概率图,然后在时空域中优化求解以提高前景对象运动的平滑性。又如,zhang等人在2013年cvpr会议上的论文中提出基于层次化有向非循环图的系统框架分割视频前景物体序列,其假设条件为对象是空域紧致的、而且他们的形状和位置随着时域平滑变动。实际上,类似的假设条件出现在很多全自动分割模型中,并且在若干小数据(segtrack以及segtrackv2等数据集)上都有不错的性能,然而,对于youtube-objects和vos等包含复杂场景的大数据集,假设条件可能并不成立,此类模型有时会产生失败负例。而且,很多全自动分割模型需要对视频计算光流,或者需要迭代求解复杂优化问题,使得该模型在分割视频前景物体序列过程中显著地增加计算开销,导致更低的分割速度。



技术实现要素:

本发明提供一种近邻可逆的视频前景物体序列检测分割方法及系统,用于解决现有的视频前景物体序列分割方法无法适用于大规模视频数据集的问题。

本发明提供一种近邻可逆的视频前景物体序列检测分割方法,包括:

将待处理视频划分为多个视频帧{i1,i2,...,iu-1,iu},并将每个视频帧iu按照当前设定的尺度划分为多个超像素块其中,u为所述多个视频帧的个数,nu为所述视频帧iu中超像素块的个数;

获取每个超像素块的视觉关注属性特征集合,所述视觉关注属性特征集合中每个视觉关注属性特征为所述超像素块中所有像素的所述视觉关注属性特征的平均值;

针对每个视频帧iu,依次将其前后各t帧的每个视频帧iv与所述视频帧iu作为当前的待处理视频帧,执行步骤一至步骤三的步骤,获得所述视频帧iu对应的2t个近邻可逆矩阵;其中,iv∈tu,tu={iu-t,...,iu-1,iu+1,...,iu+t},t为正整数,nv为所述视频帧iv中超像素块个数;

步骤一:根据当前的待处理视频帧对应的超像素块,构建对应的近邻可逆矩阵fuv:

步骤二:针对当前的待处理视频帧中每个视频帧对应的每个超像素块,将另一视频帧中所有的超像素块按照与所述超像素块的视觉关注属性特征集合的相似度进行排序,若所述视频帧iu中的超像素块oui和所述视频帧iv中的超像素块ovj都为对方的前k个最相似的超像素块,确定超像素块oui和超像素块ovj互为可逆k近邻,其中,k为正整数;

步骤三:针对所述矩阵fuv中的每个元素fui,vj,若k≤k0,则将所述元素fui,vj赋值为fui,vj=exp(-2k/k0),否则赋值为0,其中,k0为预设的正整数;

构建深度神经网络,基于所述深度神经网络利用图像显著领域的大规模数据集训练得到的前景度回归器,预测每个视频帧iu中每个超像素块在空域上的初始前景度值;

针对每个视频帧iu,根据所述视频帧iu对应的2t个近邻可逆矩阵,重复执行n次步骤a至步骤b,获得所述视频帧iu中各超像素块在时空域上的最终前景度值,所述最终前景度值为最后一次执行步骤b之后所述各超像素块当前的前景度值,n为预设的正整数;

步骤a:利用第一公式,将所述视频帧iu中各超像素块当前的前景度值依次传播到所述视频帧iu的前后各t帧的视频帧iv中,得到所述视频帧iu中各超像素块的2t个前景度传播值,所述第一公式为:

其中,表示所述视频帧iv中各超像素块在第t次迭代前的前景度值的列向量;表示所述视频帧iu中各超像素块在第t次迭代前传播到所述视频帧iv中的前景度传播值的列向量;

步骤b:根据所述视频帧iu中各超像素块的前景度值和所述各超像素块的2t个前景度传播值,构建优化问题并求解,获得并根据所述各超像素块的优化前景度值更新所述各超像素块当前的前景度值;

针对每个视频帧iu中每个像素,将所述像素所在的超像素块的最终前景度值作为当前尺度下所述像素的前景度值;

采用形态学平滑操作,对每个视频帧iu中各像素的前景度值进行优化处理,并针对每个视频帧iu中每个像素的前景度值,若所述像素的前景度值大于预设的阈值,则判定所述像素属于视频前景物体序列,否则,判定所述像素属于视频背景物体序列。

本发明还提供一种近邻可逆的视频前景物体序列检测分割系统,包括:

划分模块,用于将待处理视频划分为多个视频帧{i1,i2,...,iu-1,iu},并将每个视频帧iu按照当前设定的尺度划分为多个超像素块其中,u为所述多个视频帧的个数,nu为所述视频帧iu中超像素块的个数;

特征模块,用于获取每个超像素块的视觉关注属性特征集合,所述视觉关注属性特征集合中每个视觉关注属性特征为所述超像素块中所有像素的所述视觉关注属性特征的平均值;

矩阵模块,用于针对每个视频帧iu,依次将其前后各t帧的每个视频帧iv与所述视频帧iu作为当前的待处理视频帧,执行步骤一至步骤三的步骤,获得所述视频帧iu对应的2t个近邻可逆矩阵;其中,iv∈tu,tu={iu-t,...,iu-1,iu+1,...,iu+t},t为正整数,nv为所述视频帧iv中超像素块的个数;

步骤一:根据当前的待处理视频帧对应的超像素块,构建对应的近邻可逆矩阵fuv:

步骤二:针对当前的待处理视频帧中每个视频帧对应的每个超像素块,将另一视频帧中所有的超像素块按照与所述超像素块的视觉关注属性特征集合的相似度进行排序,若所述视频帧iu中的超像素块oui和所述视频帧iv中的超像素块ovj都为对方的前k个最相似的超像素块,确定超像素块oui和超像素块ovj互为可逆k近邻,其中,k为正整数;

步骤三:针对所述矩阵fuv中的每个元素fui,vj,若k≤k0,则将所述元素fui,vj赋值为fui,vj=exp(-2k/k0),否则赋值为0,其中,k0为预设的正整数;

预测模块,用于构建深度神经网络,基于所述深度神经网络利用图像显著领域的大规模数据集训练得到的前景度回归器,预测每个视频帧iu中每个超像素块在空域上的初始前景度值;

计算模块,用于针对每个视频帧iu,根据所述视频帧iu对应的2t个近邻可逆矩阵,重复执行n次步骤a至步骤b,获得所述视频帧iu中各超像素块在时空域上的最终前景度值,所述最终前景度值为最后一次执行步骤b之后所述各超像素块当前的前景度值,n为预设的正整数;

步骤a:利用第一公式,将所述视频帧iu中各超像素块当前的前景度值依次传播到所述视频帧iu的前后各t帧的视频帧iv中,得到所述视频帧iu中各超像素块的2t个前景度传播值,所述第一公式为:

其中,表示所述视频帧iv中各超像素块在第t次迭代前的前景度值的列向量;表示所述视频帧iu中各超像素块在第t次迭代前传播到所述视频帧iv中的前景度传播值的列向量;

步骤b:根据所述视频帧iu中各超像素块的前景度值和所述各超像素块的2t个前景度传播值,构建优化问题并求解,获得并根据所述各超像素块的优化前景度值更新所述各超像素块当前的前景度值;

转化模块,用于针对每个视频帧iu中每个像素,将所述像素所在的超像素块的最终前景度值作为当前尺度下所述像素的前景度值;

判定模块,用于采用形态学平滑操作,对每个视频帧iu中各像素的前景度值进行优化处理,并针对每个视频帧iu中每个像素的前景度值,若所述像素的前景度值大于预设的阈值,则判定所述像素属于视频前景物体序列,否则,判定所述像素属于视频背景物体序列。

本发明提供的近邻可逆的视频前景物体序列检测分割方法及系统,以超像素块为单元,结合视觉关注属性特征,构建深度神经网络模型以预测各超像素块的初始前景度值、以及构建各视频帧对应的近邻可逆矩阵;基于该近邻可逆矩阵将各超像素块的前景度值进行传播至其前后一定范围内的视频帧中,通过构建优化问题,从而获得各超像素块在时空域上的最终前景度值,进而获得各超像素块中像素的前景度值,并基于各像素的前景度值自动分割视频前景物体序列,上述方案无需对任一无语义标签的视频设定前景物体序列的运动模式或外观的整体变化规律等假设条件,而且更准确有效,尤其适用于大规模视频数据集。

附图说明

图1为根据本发明的一实施例所示出的近邻可逆的视频前景物体序列检测分割方法的流程示意图;

图2为根据本发明的一实施例所示出的深度神经网络的结构示意图;

图3为根据本发明的一实施例所示出的近邻可逆的视频前景物体序列检测分割系统的结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下获得的所有其他实施例,都属于本发明保护的范围。

图1为根据本发明的一实施例所示出的近邻可逆的视频前景物体序列检测分割方法的流程示意图,如图1所示,所述方法包括如下步骤:

s11、将待处理视频划分为多个视频帧{i1,i2,...,iu-1,iu},并将每个视频帧iu按照当前设定的尺度划分为多个超像素块其中,u为所述多个视频帧的个数,nu为所述视频帧iu中超像素块的个数;

s12、获取每个超像素块的视觉关注属性特征集合,所述视觉关注属性特征集合中每个视觉关注属性特征为所述超像素块中所有像素的所述视觉关注属性特征的平均值;

在察看一个视频时,人的视觉注意会从第一视频帧一直持续到最后一视频帧。在此过程中,视频前景物体序列捕获了最多的视觉注意力。视觉注意受颜色、显著、位置以及语义等视觉刺激属性影响。因此,上述的视觉关注属性特征集合可包括颜色特征、显著特征、位置特征以及语义特征。

进一步的,上述的颜色特征的数量可以根据需要的精度确定,例如,可以为9个,相应的,获取每个超像素块的颜色特征,包括:将超像素块所在视频帧转换到rgb、lab和hsv三种颜色空间,获得超像素块所在视频帧中的所有像素的9个通道的颜色特征,并将每个像素在每个通道下的颜色特征归一化为[0,1]之间;分别计算超像素块中所有像素在9个通道下的颜色特征的平均值,获得超像素块的颜色特征。

进一步的,上述的显著特征的数量也可以根据需要的精度确定,例如,可以为9个,相应的,获取每个超像素块的显著特征,包括:采用光栅扫描技术计算超像素块所在视频帧中每一个像素到边界像素的最小障碍物距离,获得超像素块所在视频帧中的所有像素的9个显著特征,并将每个像素的每个显著特征归一化为[0,1]之间;分别计算超像素块中所有像素的每个显著特征的平均值,获得超像素块的显著特征。

进一步的,上述的位置特征的数量也可以根据需要的精度确定,例如,可以为2个,相应的,获取每个超像素块的位置特征,包括:对超像素块所在视频帧中的每一个像素提取水平方向和垂直方向的两个位置特征,并将每个像素的每个位置特征归一化为[0,1]之间;分别计算超像素块中所有像素的每个位置特征的平均值,获得超像素块的位置特征。

进一步的,上述的语义特征的数量也可以根据需要的精度确定,例如,可以为21个,相应的,获取每个超像素块的语义特征,包括:采用crf-rnn模型,提取超像素块所在视频帧的21张语义概率图,获得超像素块所在视频帧中的所有像素的21个语义特征,并将每个像素的每个语义特征归一化到[0,1]之间;其中,21张语义概率图包括预定义的20类语义概率图,以及1张背景语义概率图;分别计算超像素块中所有像素的每个语义特征的平均值,获得超像素块的语义特征。上述crf-rnn模型可以采用2015年zheng等人发表在iccv上的crf-rnn模型。

s13、针对每个视频帧iu,依次将其前后各t帧的每个视频帧iv与所述视频帧iu作为当前的待处理视频帧,执行步骤一至步骤三的步骤,获得所述视频帧iu对应的2t个近邻可逆矩阵;

其中,iv∈tu,tu={iu-t,...,iu-1,iu+1,...,iu+t},t为正整数,举例来说,其取值可以为2,nv为所述视频帧iv中超像素块的个数;

步骤一:根据当前的待处理视频帧对应的超像素块,构建对应的近邻可逆矩阵fuv:

步骤二:针对当前的待处理视频帧中每个视频帧对应的每个超像素块,将另一视频帧中所有的超像素块按照与所述超像素块的视觉关注属性特征集合的相似度进行排序,若所述视频帧iu中的超像素块oui和所述视频帧iv中的超像素块ovj都为对方的前k个最相似的超像素块,确定超像素块oui和超像素块ovj互为可逆k近邻,其中,k为正整数;

步骤三:针对所述矩阵fuv中的每个元素fui,vj,若k≤k0,则将所述元素fui,vj赋值为fui,vj=exp(-2k/k0),否则赋值为0,其中,k0为预设的正整数,举例来说,可以取值为10;

进一步的,上述的针对当前的待处理视频帧中每个视频帧对应的每个超像素块,将另一视频帧中所有的超像素块按照与所述超像素块的视觉关注属性特征集合的相似度进行排序,可包括:针对当前的待处理视频帧中每个视频帧对应的每个超像素块,计算另一视频帧中所有超像素块与所述超像素块的视觉关注属性特征集合的曼哈顿距离;根据所述曼哈顿距离,对另一视频帧中所有的超像素块进行相似度排序,所述曼哈顿距离越小,相似度越高。

具体的,两个超像素块的视觉关注属性特征集合的曼哈顿距离计算公式为:

其中,m为超像素块的视觉关注属性特征的个数,g(oui)m为视频帧iu中超像素块oui的第m个视觉关注属性特征的值,g(ovj)m为视频帧iv中超像素块ovj的第m个视觉关注属性特征的值。曼哈顿距离越小,超像素块oui与超像素块ovj的相似度越高。

s14、构建深度神经网络,基于所述深度神经网络利用图像显著领域的大规模数据集训练得到的前景度回归器,预测每个视频帧iu中每个超像素块在空域上的初始前景度值;

由于缺少用于训练时空域检测模型的大规模视频数据集,因此直接计算超像素块的时空域前景度值存在很大困难。而视频前景物体序列与图像显著对象之间存在内在联系与区别:内在联系为视频中前景物体序列在大部分视频帧上都是图像显著对象;区别之处表现在,首先,视频中所有视频帧上的前景物体序列并不总是显著对象,其次,视频中视频帧与视频帧的一致关系为分割前景物体序列与背景提供了额外的线索,最后,由于摄像头和对象的各种动作,前景物体序列可能落在视频帧的边界处,导致在图像显著检测模型中广泛使用的背景先验不再有效。基于视频前景物体序列与图像显著对象之间存在的内在联系与区别,本发明构建深度神经网络,该深度神经网络利用图像显著领域中的大规模数据集,训练空域前景度回归器,预测每个视频帧中每个超像素块在空域上的初始前景度值。

进一步的,上述的深度神经网络利用图像显著领域中的大规模数据集,训练空域前景度回归器,预测每个视频帧中每个超像素块在空域上的初始前景度值,可包括:

构建深度神经网络。图2为根据本发明的一实施例所示出的深度神经网络的结构示意图。该深度神经网络由7层全连接组成,其中,前6层全连接的每一层全连接包含512个节点,第7层全连接包含1个节点,且前6层全连接的每一层全连接之后紧接着batchnormalization批规范化和relu激活函数,第7层全连接采用sigmod函数为损失函数;

举例来说,从现有图像显著数据集收集到20615张训练图像,首先将每一张训练图像按照15个尺度划分为若干超像素块,从而获取1千6百万个超像素块训练样本,并为每一个超像素块提取41维的视觉关注属性特征集合(包括9维颜色特征、9维显著特征、2维位置特征以及21维语义特征)。对于任一超像素块训练样本,计算包含在该超像素块训练样本内所有像素基准前景度值的平均值,并将该平均值归一化为[0,1]之间,获得该超像素块训练样本的基准前景度值;

根据每一超像素块训练样本的视觉关注属性特征集合以及基准前景度值,采用深度神经网络在线下主导训练空域前景度回归器,在训练过程中,输入是超像素块训练样本的视觉关注属性特征集合,输出是超像素块训练样本的基准前景度值,其中,输出值范围为[0,1]之间;

给定训练好空域前景度回归器的深度神经网络,输入每个视频帧中每个超像素块的视觉关注属性特征集合,则可输出该超像素块在空域上的初始前景度值。

s15、针对每个视频帧iu,根据所述视频帧iu对应的2t个近邻可逆矩阵,重复执行n次步骤a至步骤b,获得所述视频帧iu中各超像素块在时空域上的最终前景度值,所述最终前景度值为最后一次执行步骤b之后所述各超像素块当前的前景度值,n为预设的正整数;

步骤a:利用第一公式,将所述视频帧iu中各超像素块当前的前景度值依次传播到所述视频帧iu的前后各t帧的视频帧iv中,得到所述视频帧iu中各超像素块的2t个前景度传播值,所述第一公式为:

其中,表示所述视频帧iv中各超像素块在第t次迭代前的前景度值的列向量;表示所述视频帧iu中各超像素块在第t次迭代前传播到所述视频帧iv中的前景度传播值的列向量;

步骤b:根据所述视频帧iu中各超像素块的前景度值和所述各超像素块的2t个前景度传播值,构建优化问题并求解,获得并根据所述各超像素块的优化前景度值更新所述各超像素块当前的前景度值;

进一步的,上述步骤b中根据视频帧iu中各超像素块的前景度值和各超像素块的2t个前景度传播值,构建优化问题并求解,获得各超像素块的优化前景度值,可包括:

构建二次优化公式:

其中,λc为正实数,优选取值为0.5,表示视频帧iu中各超像素块在第t次迭代前的前景度值的列向量,表示视频帧iu中各超像素块在第t次迭代后的前景度值的列向量;

在上述二次优化公式中代入欧式距离公式:

求解获得视频帧iu中各超像素块的前景度值:

将求解获得的视频帧iu中各超像素块的前景度值归一化到[0,1]之间,获得各超像素块的优化前景度值。

进一步的,在s15之后,还可包括:利用高斯高通滤波,对视频帧iu中各超像素块在时空域上的最终前景度值进行处理。这样可以提高各超像素块的最终前景度值的对比度,有效滤除噪声。

s16、针对每个视频帧iu中每个像素,将像素所在的超像素块的最终前景度值作为当前尺度下像素的前景度值;

进一步的,在s16之后,还可包括:更新所述尺度,并返回执行将每个视频帧iu按照当前设定的尺度划分为多个超像素块的步骤,获得当前尺度下每个视频帧iu中每个像素的前景度值;将所有尺度下每个视频帧iu中每个像素的前景度值的平均值,作为像素的前景度值。这样可以使最终获得的每个像素的前景度值更为精准。

s17、采用形态学平滑操作,对每个视频帧iu中各像素的前景度值进行优化处理,并针对每个视频帧iu中每个像素的前景度值,若所述像素的前景度值大于预设的阈值,则判定所述像素属于视频前景物体序列,否则,判定所述像素属于视频背景物体序列。

上述阈值优选为当前视频帧iu对应的所有像素的前景度值中最大值的20%。

本实施例的近邻可逆的视频前景物体序列检测分割方法可全自动分割视频前景物体序列,无需对任一无语义标签的视频设定前景物体序列的运动模式或外观的整体变化规律等假设条件,而且更准确有效,尤其适用于包含复杂挑战场景的大规模视频数据集。

图3为根据本发明的一实施例所示出的近邻可逆的视频前景物体序列检测分割系统的结构示意图。如图3所示,所述系统主要包括:

划分模块11,用于将待处理视频划分为多个视频帧{i1,i2,...,iu-1,iu},并将每个视频帧iu按照当前设定的尺度划分为多个超像素块其中,u为所述多个视频帧的个数,nu为所述视频帧iu中超像素块的个数;

特征模块12,用于获取每个超像素块的视觉关注属性特征集合,所述视觉关注属性特征集合中每个视觉关注属性特征为所述超像素块中所有像素的所述视觉关注属性特征的平均值;

矩阵模块13,用于针对每个视频帧iu,依次将其前后各t帧的每个视频帧iv与所述视频帧iu作为当前的待处理视频帧,执行步骤一至步骤三的步骤,获得所述视频帧iu对应的2t个近邻可逆矩阵;其中,iv∈tu,tu={iu-t,...,iu-1,iu+1,...,iu+t},t为正整数,nv为所述视频帧iv中超像素块的个数;

步骤一:根据当前的待处理视频帧对应的超像素块,构建对应的近邻可逆矩阵fuv:

步骤二:针对当前的待处理视频帧中每个视频帧对应的每个超像素块,将另一视频帧中所有的超像素块按照与所述超像素块的视觉关注属性特征集合的相似度进行排序,若所述视频帧iu中的超像素块oui和所述视频帧iv中的超像素块ovj都为对方的前k个最相似的超像素块,确定超像素块oui和超像素块ovj互为可逆k近邻,其中,k为正整数;

步骤三:针对所述矩阵fuv中的每个元素fui,vj,若k≤k0,则将所述元素fui,vj赋值为fui,vj=exp(-2k/k0),否则赋值为0,其中,k0为预设的正整数;

预测模块14,用于构建深度神经网络,基于所述深度神经网络利用图像显著领域的大规模数据集训练得到的前景度回归器,预测每个视频帧iu中每个超像素块在空域上的初始前景度值;

计算模块15,用于针对每个视频帧iu,根据所述视频帧iu对应的2t个近邻可逆矩阵,重复执行n次步骤a至步骤b,获得所述视频帧iu中各超像素块在时空域上的最终前景度值,所述最终前景度值为最后一次执行步骤b之后所述各超像素块当前的前景度值,n为预设的正整数;

步骤a:利用第一公式,将所述视频帧iu中各超像素块当前的前景度值依次传播到所述视频帧iu的前后各t帧的视频帧iv中,得到所述视频帧iu中各超像素块的2t个前景度传播值,所述第一公式为:

其中,表示所述视频帧iv中各超像素块在第t次迭代前的前景度值的列向量;表示所述视频帧iu中各超像素块在第t次迭代前传播到所述视频帧iv中的前景度传播值的列向量;

步骤b:根据所述视频帧iu中各超像素块的前景度值和所述各超像素块的2t个前景度传播值,构建优化问题并求解,获得并根据所述各超像素块的优化前景度值更新所述各超像素块当前的前景度值;

转化模块16,用于针对每个视频帧iu中每个像素,将所述像素所在的超像素块的最终前景度值作为当前尺度下所述像素的前景度值;

判定模块17,用于采用形态学平滑操作,对每个视频帧iu中各像素的前景度值进行优化处理,并针对每个视频帧iu中每个像素的前景度值,若所述像素的前景度值大于预设的阈值,则判定所述像素属于视频前景物体序列,否则,判定所述像素属于视频背景物体序列。

作为一种可选的实施方式,在前述任一实施方式的基础上,该近邻可逆的视频前景物体序列检测分割系统,还可以包括:

循环模块18,用于在转化模块16针对每个视频帧iu中每个像素,将所述像素所在的超像素块的最终前景度值作为当前尺度下所述像素的前景度值之后,更新所述尺度,并指示划分模块11再次执行所述将每个视频帧iu按照当前设定的尺度划分为多个超像素块的步骤,获得当前尺度下每个视频帧iu中每个像素的前景度值;

循环模块18,还用于将所有尺度下每个视频帧iu中每个像素的前景度值的平均值,作为所述像素的前景度值。

进一步的,矩阵模块13,具体可用于针对当前的待处理视频帧中每个视频帧对应的每个超像素块,计算另一视频帧中所有超像素块与所述超像素块的视觉关注属性特征集合的曼哈顿距离;根据所述曼哈顿距离,对另一视频帧中所有的超像素块进行相似度排序,所述曼哈顿距离越小,相似度越高。

进一步的,预测模块14,具体可以用于构建深度神经网络。该深度神经网络由7层全连接组成,其中,前6层全连接的每一层全连接包含512个节点,第7层全连接包含1个节点,且前6层全连接的每一层全连接之后紧接着batchnormalization批规范化和relu激活函数,第7层全连接采用sigmod函数为损失函数;

举例来说,从现有图像显著数据集收集到20615张训练图像,首先将每一张训练图像按照15个尺度划分为若干超像素块,从而获取1千6百万个超像素块训练样本,并为每一个超像素块提取41维的视觉关注属性特征集合(包括9维颜色特征、9维显著特征、2维位置特征以及21维语义特征)。对于任一超像素块训练样本,计算包含在该超像素块训练样本内所有像素基准前景度值的平均值,并将该平均值归一化为[0,1]之间,获得该超像素块训练样本的基准前景度值;

根据每一超像素块训练样本的视觉关注属性特征集合以及基准前景度值,采用深度神经网络在线下主导训练空域前景度回归器,在训练过程中,输入是超像素块训练样本的视觉关注属性特征集合,输出是超像素块训练样本的基准前景度值,其中,输出值范围为[0,1]之间;

给定训练好空域前景度回归器的深度神经网络,输入每个视频帧中每个超像素块的视觉关注属性特征集合,则可输出该超像素块在空域上的初始前景度值。

进一步的,计算模块15,具体可以包括:

构建单元,用于构建二次优化公式:

其中,λc为正实数,优选取值为0.5,表示视频帧iu中各超像素块在第t次迭代前的前景度值的列向量,表示视频帧iu中各超像素块在第t次迭代后的前景度值的列向量;

求解单元,用于在上述二次优化公式中代入欧式距离公式:

所述求解单元,还用于求解获得视频帧iu中各超像素块的前景度值:

归一化单元,用于将求解获得的视频帧iu中各超像素块的前景度值归一化到[0,1]之间,获得各超像素块的优化前景度值。

进一步的,计算模块15,还用于利用高斯高通滤波,对视频帧iu中各超像素块在时空域上的最终前景度值进行处理。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1