在3d视频编码中约束视差向量推导的方法及装置的制造方法_2

文档序号:8476935阅读:来源:国知局
置(即,区块B2)、对角穿过当前区块的右上角的位置(即,区块B0)、以及相邻于当前 区块的右上侧的位置(即,区块BI)。如图3B所示,时间相邻区块集包括在时间参考图片中 在当前区块中心的位置(即,区块B ctk)、以及对角穿过当前区块的右下角的位置(即,区块 RB)。除了中心位置之外,也可以使用在时间序列图片中的当前区块中的其他位置(例如, 右下角区块)。换句话说,与当前区块同一位置的任意区块可以包括于时间区块集中。一旦 确定区块具有DV,结束检测过程。图3A中的用于空间相邻区块的示范性搜索顺序为(区块 Al,区块BI,区块B0,区块A0,区块B2)。图3B中的用于时间相邻区块的用于时间相邻区 块的示范性搜索顺序为(区块BR,区块B ctk)。空间和时间相邻区块与在HEVC中AMVP和合 并模式的空间和时间相邻区块相同。
[0015] 若在相邻区块集中没有找到DCP编码区块(即,图3A和图3B中所示的空间和 时间相邻区块),则自其它编码工具(例如,用于运动补偿预测的视差向量(以下简称为 DV-MCP))得到视差信息。如图4所示,在此情况下,当相邻区块为MCP以及它的运动向量通 过视点间运动预测来预测时,用于视点间运动预测的视差向量代表对应于在当前和视点间 参考图片之间的运动。此种类型的运动向量称为视点间预测运动向量以及区块称为DV-MCP 区块。图4为DV-MCP区块的示例。其中,自在视点间参考图片中对应的区块(区块420) 预测DV-MCP区块(区块410)的运动向量。通过视差向量(即视差向量430)来指定对应 的区块(区块420)的位置。在DV-MCP区块使用的视差向量代表对应于当前和视点间参考 图片之间的运动。对应的区块(区块420)的运动信息(422)用于预测在当前视点中的当 前区块(区块410)的运动信息(412)。
[0016] 为了指示一个MVP区块是否为DV-MCP编码并为了存储用于视点间运动参数预测 的视差向量,使用两个变量来代表每一个区块的运动向量信息。即,变量dvMcpFlag和变量 dvMcpDisparity〇
[0017] 当变量dvMcpFlag为1时,设置变量dvMcpDisparity指示用于视点间运动参数预 测的视差向量。在AMVP和合并候选清单的构造过程中,若通过视点间运动参数预测产生 候选,则将候选的变量dvMcpFlag设置为1。否则,将候选的变量dvMcpFlag设置为0。自 DV-MCP的视差向量为以下顺序,区块A0、区块A1、区块B0、区块B1、区块B2、同一位置的区 块Col ( 即,区块Bctk或区块RB)。
[0018] -种自深度图提取更准确的视差向量来提高相邻区块视差向量(Neighboring Block Disparity Vector,以下简称为NBDV)的方法用于当前3D-HEVC中。首先检索自相 同存取单元中编码的深度图的深度块,并将该深度块用作当前区块的虚拟深度。这种DV推 导的编码工具称之为深度导向的相邻区块视差向量。当在共同测试条件下编码视点1和视 点2中的纹理时,自视点0中的深度图已经可用。因此,视点1和视点2中的纹理编码可以 从视点〇中的深度图获益。如图5所示,自虚拟深度提取估计的视差向量。整体流程如下 所示:
[0019] 1.使用估计的视差向量,以确定在编码的纹理视点中对应区块的位置。其中,估计 的视差向量为在当前3D-HTM中的相邻区块视差向量。
[0020] 2.将用于当前区块(编码单元)的编码视点中的同一位置的深度当做虚拟深度。
[0021] 3.自在先前步骤中检索的虚拟深度中的最大值,提取用于视点间运动预测的视差 向量。
[0022] 在图5所示的示例中,视点0中的编码深度图用于推导DV,以用于要编码的视点 1中的纹理帧。根据在视点〇中估计的视差向量540和编码深度图的当前区块的位置(区 块520),检索在编码DO中对应的深度区块(区块530),以用于当前区块CB (区块510)。然 后,检索的区块530作为当前区块的虚拟深度区块530'以得到DV。在虚拟深度区块530' 中的最大值用于提取视差向量以用于视点间运动预测。
[0023] 在当前基于先进视频编码的三维视频编码(3D video coding based on Advanced Video Coding,3D-AVC)中,视差向量用于视差补偿预测、预测DV、和指示视点间对应的区块 以得到视点间候选。
[0024] 为了共享参考视点的先前编码纹理信息,视差补偿预测(disparity-compensated prediction, DCP)的概念作为运动补偿预测的替代方式而添加。MCP指用于不同存取单元 中相同视点的已编码图片的图片间预测,而DCP指用于在相同存取单元中其他视点的已编 码图片的图片间预测。用于DCP的向量称为视差向量,类似于在MCP中使用的运动向量。
[0025] 在帧间模式中,方向分离运动向量预测(Direction-Separate Motion Vector Prediction)为在3D-AVC中使用的另一种编码工具。方向分离运动向量预测由时间和视点 间运动向量预测构成。若目标参考图片为时间预测图片,在运动向量预测的推导中采用当 前区块Cb周围相邻区块(例如图6A中的A、B、和C)的时间运动向量。若时间运动向量不 可用,则使用视点间运动向量。由深度转换的DV指示对应的区块,而得到视点间运动向量。 然后,由相邻区块(区块A、区块B、和区块C)的运动向量的中值(median)得到运动向量预 测。仅当区块C不可用时,使用区块D。
[0026] 与此相反,若目标参考图片为视点间预测图片,则采用相邻区块的视点间运动向 量,以用于视点间预测。若视点间运动向量不可用,则使用视差向量,该视差向量从在相关 的深度区块中的四个角深度采样的最大深度值中得到。然后,由相邻区块(区块A、区块B、 和区块C)的视点间运动向量的中值得到运动向量预测子。
[0027] 当目标参考图片为视点间预测图片时,相邻区块的视点间运动向量用于得到视点 间运动向量预测子。在图6B中的区块610中,基于各个区块的纹理数据,得到空间相邻区块 的视点间运动向量。在区块660中,也提供与当前区块Cb相关的深度图。在区块620中, 检测区块A、区块B、和区块C的视点间运动向量的可用性。如区块630中所示,若视点间运 动向量不可用,则当前区块的视差向量用于代替不可用视点间运动向量。如区块670所示, 自相关深度区块的最大深度值得到视差向量。区块A、区块B、和区块C的视点间运动向量 的中值作为视点间运动向量预测子。如区块640所示,现有的MVP过程,基于视点间MVP或 时间MVP的运动向量的中值得到最终MVP。如区块650所示,基于运动向量预测子执行运动 向量编码。
[0028] 基于跳过/直接模式(Skip/Direct mode)的MVP候选推导的优先级为另一种用 于3D-AVC的编码工具。在跳过/直接模式中,基于预定推导顺序得到MVP候选:如图7所 示,自相邻区块(区块A、区块B、和区块C(仅当C不可用时,使用区块D))得到视点间候选 和三个空间候选的中值。
[0029] 视点间MV候选的推导也如图7所示。在独立视点中的当前区块(710)的中点 (712)及其视差向量用于查找在基本视点或参考视点中的对应点。之后,包括在基本视点中 对应的点的区块的MV用作当前区块的视点间候选。自相邻区块(A、B、和C/D)和中点的深 度值得到视差向量。具体地,若仅一个相邻区块具有视差向量,则该视差向量作为视差。否 贝IJ,然后依据相邻区块A、B、和C的DV的中值720得到DV。若DV不可用,则使用自深度转 换的DV来代替。得到的DV用于确定在参考图片730中的对应区块740的位置。
[0030] 如上所述,在3D视频编码中用于3D-HEVC和3D-AVC的DV推导很关键。考虑调整 测试3D序列以及在视点间非垂直移动的情况下,可能一些编码工具仅使用不具有垂直分 量的DV用于视点间数据存取。然而,当没有调整输入数据时,仍然需要DV的垂直分量来指 示在其他视点中正确的对应区块。

【发明内容】

[0031] 本发明揭示了一种用于三维视频编码或解码的方法和装置。根据本发明的一个实 施方式,确定用于当前纹理区块的得到的视差向量,以及将得到的视差向量应用视差向量 约束或不应用视差向量约束来获得最终得到的视差向量。然后利用至少一个选择的编码工 具来对该输入数据应用视点间预测编码或解码,其中,所有选择的编码工具使用同一最终 得到的视差向量,以及该选择的编码工具包括视点间残差预测、视点合成预测、以及视点间 运动参数预测。最终得到的视差向量用于确定在视点间图片中的参考残差的区块的位置, 以用于视点间残差预测,以及将最终得到的视差向量或与参考区块相关的相关运动向量用 作视点间运动向量预测子,以用于视点间运动参数预测,其中通过最终得到的视差向量来 确定参考区块的位置;以及最终得到的视差向量用于确定在视点间深度图片中的参考深度 区块的位置,以用于视点合成预测。编码工具可不包括视差补偿预测。根据视差向量约束 指示,确定对得到的视差向量应用视差向量约束或不应用视差向量约束,以及根据编码配 置文件确定视差向量约束指示。
[0032] 在一个实施方式中,当视差向量约束应用于第一配置文件时,该选择的编码工具 不包括视差补偿预测,以及利用视差补偿预测的视差向量推导得到的视差向量的垂直分量 被设置为减小的范围,用于该选择的编码工具的得到的视差向量的垂直分量被设置为0。在
当前第2页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1