一种面向多纹理多深度视频的相邻视差矢量获取方法

文档序号:8447703阅读:543来源:国知局
一种面向多纹理多深度视频的相邻视差矢量获取方法
【技术领域】
[0001] 本发明设及基于3D-HEVC的视频编码技术,具体设及一种多纹理多深度视频编码 中辅助视点编码中相邻视差矢量获取方法。
【背景技术】
[0002] 近二十年来,视频广播技术发生了重大变革,从上世纪的模拟电视到数字电视、高 清数字电视,乃至现在的3D电视,视频技术随着人们生活水平的提高不断发展进步。当今 世界,人们已经不再满足于传统的二维视频带来的视觉感受,具有临场感和交互性的=维 立体视频逐渐成为多媒体信息产业的热口话题。MPEG的3DG工作组开始探索基于高效视频 编码(肥VC,Hi曲EfficiencyVideoCoding)的多深度多纹理S维视频格式数据的压缩编 码方法,2012年7月,VCEG和MPEG又共同成立JCT-3V小组,制定肥VC的3D视频编码扩展 标准。并于2013年提出了构建基于肥VC的3D编码标准3D-HEVC。在3D-HEVC标准中采用 的多深度多纹理视频是目前最有效的=维视频表现方式;多深度多纹理视频是由多台(通 常拍摄3纹理3深度)相邻摄像机从不同角度对同一场景进行拍摄得到的多路具有细微视 角差异的视频集合;加入多深度信息的多纹理视频可W更加细致、全面地描述=维场景信 息,有利于=维视频终端在较大视角范围内,采用基于深度的虚拟视点绘制技术生成任意 视角的高质量虚拟视图,并同时提供双目视差感与运动视差感,从而提供给用户身临其境 的观看体验。
[0003] 由于多深度多纹理视频数据量庞大,必须对其进行高效压缩编码。所W在3D-HEVC 引入的视频编码标准中采用8X8到64X64的四叉树预测单元结构、4X4到32X32的变换 单元尺寸、多角度的36种帖内预测模式、自适应环路滤波等多项新技术。同时针对3D-HEVC 的多深度多纹理视频编码结构,引入了视点间的多参考帖,帖间预测编码模式的概念延伸 为同一视点时间方向的运动预测编码模式和相邻视点方向的视差预测编码模式,使得其计 算复杂度进一步更高。
[0004]W包含3纹理3深度的多纹理多深度视频为例,如图1所示,水平方向为时间方 向,垂直方向为视点方向。在时间方向采用分层B帖结构来消除时间方向的冗余,在视点间 方向采用I-P-P结构消除试点间冗余信息。主视点只能利用本视点内的编码帖作为参考 帖,辅助视点除了利用本视点内已编码的帖作为参考帖之外还可W利用主视点的编码帖作 为参考帖。对于每一个视点,包含相对应的8比特表征的深度图。在3D-HEVC中,首先对主 视点纹理图进行编码,然后对主视点深度图进行编码,然后依次对辅助视点进行纹理图和 深度图编码。因为深度图需要纹理图的编码信息进行编码,同时辅助视点编码需要利用主 视点的编码信息进行编码,叫做纹理图编码优先编码顺序,如图2所示。
[0005] 视差矢量的获取是多纹理多深度的3D-HEVC视频编码技术中的一项关键技术,在 视点间运动补偿预测和视点间残差预测中都有广泛的使用。视差矢量代表同一时刻内不同 的视频帖之间的差异,在现有3D-HEVC标准中,主视点中的视差矢量可对辅助视点的预测 单元进行运动补偿。在纹理图编码优先编码顺序中,当对辅助视点中的预测单元进行编码 时,其使用的视差矢量不能从对应的深度图中计算得到,因为其对应深度图还未输入编码 单元。
[0006] 传统的视差矢量获取方法是通过块估计和块匹配的方法得到,在解码端也需要相 关的信息来进行解码操作。如果该些信息在码流中传输,额外的传输比特将产生。为避免 该一情况的产生,现有的3D-HEVC中引入了从已编码的纹理图信息估计深度图的技术。为 了得到深度图,主视点和辅助视点之间的视差信息往往被转化为深度图信息,计算出的深 度图信息可W用于转化为主视点和其它辅助视点深度图信息。在此过程中所估计的深度图 中最大深度值将被转换为视差矢量,此过程被称为基于深度图的视差矢量转换。
[0007] 由于基于深度图的视差矢量转换过程计算量庞大,为减少计算复杂度3D-HEVC又 引入了简化的视差矢量获取算法,称为基于相邻块的视差矢量获取方法。基于相邻块的视 差矢量获取方法按照预设顺序对候选空间和时间编码块位置进行捜索,判断是否含有视差 矢量信息来获取当前块的视差矢量,空间和时间编码块位置如图3和图4所示。如果捜索 到的预测单元中使用了视差补偿预测或者视差运动矢量补偿预测技术,则表示预测单元中 含有视差信息,第1个被捜索到的视差矢量被用于视点间运动补偿预测和视点间残差预测 的过程。捜索预设顺序为;首先捜索时间参考帖中位置CRT和BR,然后捜索空间参考帖位 置A1,B1,B0,A0和B2,最后再捜索上述空间参考帖位置中的运动矢量补偿情况。基于相邻 块的视差矢量获取方法比基于深度图的视差矢量转换方法至少节省8%W上的时间。
[000引基于相邻块的视差矢量获取方法出现后,3D-HEVC又利用基于深度图的相邻块视 差矢量获取方法来改进所获取的相邻视差矢量。基于深度图的相邻块视差矢量获取方法将 已编码的主视点深度图用于修正初始获取的视差矢量。在获取原始的相邻块的视差矢量 后,再利用相关主视点的深度图的最大深度值来修正进而得到最终的视差矢量。
[0009] 为进一步节省传输比特加速获取相邻视差矢量的过程,一些研究机构进行了基于 相邻块视差矢量获取的快速算法的研究。华为海思公司提出跳过预测单元中重叠位置的捜 索方法,高通公司提出W编码单元为最小算法执行单位,S星公司提出删减空间和时间参 考帖中捜索位置的方法(如图5和图6所示)。此外,一些研究机构提出研究可变编码工具 来改变3D-HEVC的编码顺序。
[0010] 综上所述,现有的基于相邻块的视差矢量获取的改进算法都将研究重屯、放到了删 减捜索候选位置减少捜索次数。其主要问题在于,第1个被捜索到的视差矢量即被当作最 终的视差矢量,捜索停止,剩余捜索位置中仍然有可能含有可被利用甚至更好的视差矢量 在还没被捜索之前就被整个获取过程中止掉了。所W本发明基于3D-HEVC标准,提出一种 方法,改变第1个被捜索到的视差矢量即被当作最终视差矢量的准则,通过删除当前编码 单元相邻的候选空间和时间编码单元位置中最少被捜索的位置,同时将相邻的候选空间和 时间编码单元位置进行分组,将其捜索到的视差矢量按照采用率的比例组合为最终视差矢 量的方法,能在保持了原有快速算法的效率前提下提升编码质量。

【发明内容】

[0011] 本发明的目的在于,基于3D-HEVC标准,提出一种方法,改变现有基于相邻块的视 差矢量获取方法中第1个被捜索到的视差矢量即被当作最终视差矢量的准则,通过删除当 前编码单元相邻的候选空间和时间编码单元位置中最少被捜索的位置,同时将相邻的候选 空间和时间编码单元位置进行分组,将其捜索到的视差矢量按照采用率的比例组合为最终 视差矢量的方法,能在保持了原有快速算法的效率前提下提升编码质量。
[0012] 本发明的特征在于,是在计算机中依次按W下步骤仿真实现的:
[0013] 步骤(1),计算机初始化:
[0014] 设置;按照通用测试条件对所选定序列的主视点W及当前辅助视点进行编码,编 码软件采用3D-HEVC视频编码软件HTM8. 0版本作为编码平台。按照通用测试条件规定的 纹理图和对应深度图量化参数分为第1组(40,45),第2组(35,42),第3组(30,39),第4 组(25, 34),其中括号中前面的数字代表纹理图量化参数,后面为深度图量化参数,共4组。
[0015]WYUV为格式的3D-HEVC国际标准测试视频序列包括;Newspaper_CC(300帖)、 GTfly(250 帖)、Undodancer(250 帖),化znan_Hall2(200 帖),化znan_Street(250 帖), Kendo(300帖),Balloons(300帖),每个测试序列包含3个纹理序列,W及对应3个深度 序列。各个测试序列进行编码时输入编码器的3个视点顺序分别为;4-2-6,5-9-1,5-1-9, 6-7-5,4-5-3, 3-1-5, 3-1-5,在对每个视点进行编码时采用纹理图编码完成后再进行深度 图编码的顺序进行。例如,对Newspaper_CC序列进行编码时,按照通用测试
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1