利用yuv与rgb空间联合修正视频编解码误差的方法

文档序号:7556071阅读:187来源:国知局
专利名称:利用yuv与rgb空间联合修正视频编解码误差的方法
技术领域
本发明涉及信号处理中的视频编解码技术领域,特别涉及利用YUV与RGB空间联合修正视频编解码误差的方法。
背景技术
随着视频编解码技术的发展,一批具有代表性的国际、国内视频编解码标准,如MPEG2、H.264以及AVS相继制定,为视频信息的发展提供了更广泛的应用平台。在现有技术中,进行视频编码时通常采用的是YUV颜色空间表示的数字化视频,但在视频播放中通常需要将其变换到RGB颜色空间。在对颜色空间变换的研究中发现,在由RGB变换到YUV空间中的过程中,RGB空间中的原有的
3立方体形状变为了平行六面体,其体 积也将缩小在原来RGB空间以内。同时,对视频进行有损编码后,像素点会产生一定的误差,目前的压缩方法中都有涉及对像素点的修正,其基本采用分别对重建视频帧或解码后的视频帧的每个像素在各个分量上的取值限定在
的区间中。而在现有的有损压缩方法中,在编码过程中对重建帧的处理和解码过程中对解码帧的修正处理都是将得到的Y,U和V分量的取值范围分别限制在
的区间中,并没有考虑到YUV颜色空间中平行六面体的形状,这样虽然不会影响视频在播放时的颜色,但是由于重建帧和解码帧会作为后续帧的参考帧,其中的误差会使后续帧在进行预测时得到更大的预测误差,从而降低编码效率。此外,由于视频内容的多样性,对于每一帧各自的颜色空间范围都有所不同,仅仅采用单一空间模型的固定值进行误差修正,当颜色范围比较单一的且范围较窄的场景时,修正的效果并不理想。

发明内容
本发明的目的在于提供利用YUV与RGB空间联合修正视频编解码误差的方法,以解决现有技术进行视频编码时编码效率不高,误差修正效果不理想的问题。为解决上述技术问题,本发明提供:利用YUV与RGB空间联合修正视频编解码误差的方法,包括:获取彩色视频每一帧中的每个像素分量,所述每个像素分量包括Y、U、V三个分量;将所述Y、U、V三个分量通过颜色空间变换转换成R、G、B三个分量;分别获取彩色视频每一帧中的所有Y、U、V、R、G、B分量的最大值和最小值;保留彩色视频每一帧每一帧中的每个像素的Y、U、V三个分量数据,丢弃每个像素的R、G、B三个分量;对所述用YUV颜色空间表示的彩色视频每一帧、最大值和最小值依次进行编码生成编码后数据、进行重建生成第一编码端重建帧和根据所述最大值和最小值对所述第一编码端重建帧进行空间联合修正生成第二编码端重建帧,所述第二编码端重建帧作为后续帧编码的参考帧;
将所述编码后数据、最大值和最小值通过一控制器生成传输码流,并通过传输信道将所述传输码流传输至解码端;所述解码端对所述传输码流进行依次解码,为每一帧生成最大值、最小值、和第一解码端重建帧,根据所述最大值和最小值对所述第一解码端重建帧进行空间联合修正生成第二解码端重建帧,所述第二解码端重建帧作为下一帧解码的参考帧,将第二解码端重建帧作为最终的重建帧输出。可选的,在所述的利用YUV与RGB空间联合修正视频编解码误差的方法中,所述最大值和最小值用一阶指数哥伦布码或定长码表示。可选的,在所述的利用YUV与RGB空间联合修正视频编解码误差的方法中,对所述用YUV颜色空间表示的彩色视频每一帧、最大值和最小值依次进行编码生成编码后数据、进行重建生成第一编码端重建帧,以及所述解码端对所述传输码流进行依次解码,为每一帧生成最大值、最小值、和第一解码端重建帧的步骤中,采用的编解码方法包括:H.26x系列标准、Mpeg系列标准、AVS系列标准。可选的,在所述的利用YUV与RGB空间联合修正视频编解码误差的方法中,对所述用YUV颜色空间表示的彩色视频每一帧、最大值和最小值依次进行编码生成编码后数据、进行重建生成第一编码端重建帧和根据所述最大值和最小值对所述第一编码端重建帧进行空间联合修正生成第二编码端重建帧,所述第二编码端重建帧作为后续帧编码的参考帧的步骤包括:根据Y、U、V分量的最大值和最小值对所述第一编码端重建帧进行空间联合修正生成临时重建帧;根据R、G、B分量的最大值和最小值对所述临时重建帧进行空间联合修正,生成第
二编码端重建帧。可选的,在所述的利用YUV与RGB空间联合修正视频编解码误差的方法中,根据Y、
u、v分量的最大值和最小值对所述第一编码端重建帧进行空间联合修正生成临时重建帧的步骤包括:将大于所述Y、U、V分量最大值的第一编码端重建帧置为所述最大值,将小于所述Y、U、V分量最小值的第一编码端重建帧置为所述最小值,将大于等于所述Y、U、V分量最小值且小于等于所述Y、U、V分量最大值的第一编码端重建帧保持不变。可选的,在所述的利用YUV与RGB空间联合修正视频编解码误差的方法中,根据R、G、B分量的最大值和最小值对所述临时重建帧进行空间联合修正,生成第二编码端重建帧的步骤包括:将所述临时重建帧变换为R、G、B分量;将大于所述R、G、B分量最大值的临时重建帧置为所述最大值,将小于所述R、G、B分量最小值的临时重建帧置为所述最小值,将大于等于所述R、G、B分量最小值且小于等于所述R、G、B分量最大值的临时重建帧保持不变;将修正后的临时重建帧变换为Y、U、V分量生成第二编码端重建帧。可选的,在所述的利用Y UV与RGB空间联合修正视频编解码误差的方法中,根据所述最大值和最小值对所述第一解码端重建帧进行空间联合修正生成第二解码端重建帧,所述第二解码端重建帧作为下一帧解码的参考帧,将第二解码端重建帧作为最终的重建帧输出的步骤包括:根据Y、U、V分量的最大值和最小值对所述第一解码端重建帧进行空间联合修正生成临时重建帧;根据R、G、B分量的最大值和最小值对所述临时重建帧进行空间联合修正,生成第
二解码端重建帧。可选的,在所述的利用YUV与RGB空间联合修正视频编解码误差的方法中,根据Y、
u、v分量的最大值和最小值对所述第一解码端重建帧进行空间联合修正生成临时重建帧的步骤包括:将大于所述Y、U、V分量最大值的第一解码端重建帧置为所述最大值,将小于所述Y、U、V分量最小值的第一解码端重建帧置为所述最小值,将大于等于所述Y、U、V分量最小值且小于等于所述Y、U、V分量最大值的第一解码端重建帧保持不变。 可选的,在所述的利用YUV与RGB空间联合修正视频编解码误差的方法中,根据R、G、B分量的最大值和最小值对所述临时重建帧进行空间联合修正,生成第二解码端重建帧的步骤包括:将所述临时重建帧变换为R、G、B分量;将大于所 述R、G、B分量最大值的临时重建帧置为所述最大值,将小于所述R、G、B分量最小值的临时重建帧置为所述最小值,将大于等于所述R、G、B分量最小值且小于等于所述R、G、B分量最大值的临时重建帧保持不变;将修正后的临时重建帧变换为Y、U、V分量生成第二解码端重建帧。在本发明提供的利用YUV与RGB空间联合修正视频编解码误差的方法,具有以下有益效果:通过在编码时,对彩色视频每一帧在YUV和RGB两个空间的各个分量的最大值和最小值进行编码生成编码数据、进行重建生成第一编码端重建帧和根据所述的最大值和最小值对所述第一编码端重建帧进行空间联合修正生成第二编码端重建帧,作为后续编码帧的参考帧,从而提高了编码的效率。同时,将所述最大值和最小值作为编码数据的一部分写入传输码流中,在解码时,同样根据所述最大值和最小值对第一解码端重建帧进行空间联合修正,从而保证了编解码的一致性,并且提高了解码帧的质量。


图1是本发明实施例的利用YUV与RGB空间联合修正视频编解码误差的方法的流程不意图。
具体实施例方式以下结合附图和具体实施例对本发明提出的利用YUV与RGB空间联合修正视频编解码误差的方法作进一步详细说明。根据下面说明和权利要求书,本发明的优点和特征将更清楚。需说明的是,附图均采用非常简化的形式且均使用非精准的比例,仅用以方便、明晰地辅助说明本发明实施例的目的。请参考图1,其是本发明实施例的利用YUV与RGB空间联合修正视频编解码误差的方法的流程示意图。如图1所示,利用YUV与RGB空间联合修正视频编解码误差的方法,包括:
Sll:获取彩色视频每一帧中的每个像素分量,所述每个像素分量包括Y、U、V三个分量;具体的,所述彩色视频每一帧是以YUV空间表示的数字化的彩色视频帧,所述彩色视频每一帧中包含多个像素分量,每个像素分量包括Y、U、V三个分量。S12:将所述Y、U、V三个分量通过颜色空间变换转换成R、G、B三个分量;具体的,所述颜色空间变换适用于目前所有的颜色变换规范。S13:分别获取彩色视频每一帧中的所有Y、U、V、R、G、B分量的最大值和最小值;具体的,历遍彩色视频每一帧的每个分量上的所有像素获取所述最大值和最小值,并通过编码的方式将所述最大值和最小值放置于码流生成器中。进一步的 ,所述最大值和最小值用一阶指数哥伦布码或定长码表示。S14:保留彩色视频每一帧中的每个像素的Y、U、V三个分量数据,丢弃每个像素的R、G、B三个分量;S15:对所述用YUV颜色空间表示的彩色视频每一帧、最大值和最小值依次进行编码生成编码后数据、进行重建生成第一编码端重建帧和根据所述最大值和最小值对所述第一编码端重建帧进行空间联合修正生成第二编码端重建帧,所述第二编码端重建帧作为后续帧编码的参考帧;具体的,采用H.26x系列标准、Mpeg系列标准、AVS系列标准的预测编码器对所述彩色视频的数据进行帧内或帧间预测和编码,并将编码后的数据放置于码流生成器中。进一步的,在重建图像的步骤中,读取上一帧编码后的数据后,通过H.26x系列标准、Mpeg系列标准、AVS系列标准的视频解码器进行图像重建。在本发明的实施例中,对所述用YUV颜色空间表示的彩色视频每一帧、最大值和最小值依次进行编码生成编码后数据、进行重建生成第一编码端重建帧和根据所述最大值和最小值对所述第一编码端重建帧进行空间联合修正生成第二编码端重建帧,所述第二编码端重建帧作为后续帧编码的参考帧的步骤中,包括:根据Y、U、V分量的最大值和最小值对所述第一编码端重建帧进行空间联合修正生成临时重建帧;将大于所述Y、U、V分量最大值的第一编码端重建帧置为所述最大值,将小于所述Y、U、V分量最小值的第一编码端重建帧置为所述最小值,将大于等于所述Y、U、V分量最小值且小于等于所述Y、U、V分量最大值的第一编码端重建帧保持不变;进一步的,根据R、G、B分量的最大值和最小值对所述临时重建帧进行空间联合修正,生成第二编码端重建帧;将所述临时重建帧变换为R、G、B分量;将大于所述R、G、B分量最大值的临时重建帧置为所述最大值,将小于所述R、G、B分量最小值的临时重建帧置为所述最小值,将大于等于所述R、G、B分量最小值且小于等于所述R、G、B分量最大值的临时重建帧保持不变;将修正后的临时重建帧变换为Y、U、V分量生成第二编码端重建帧。在编码时,根据彩色视频每一帧在RGB空间和YUV空间中分别获取的Y、U、V、R、G、B分量的最大值和最小值对第一编码端重建帧进行空间联合修正,从而提高了编码的准确性。
S16:将所述编码后数据、最大值和最小值通过一控制器生成传输码流,并通过传输信道将所述传输码流传输至解码端;具体的,将所述最大值和最小值与编码后数据一起写入传输码流中,在解码时,同样根据所述最大值和最小值进行空间联合修正,从而保证了编解码的一致性,提高了编解码的效率。S17:所述解码端对所述传输码流进行依次解码,为每一帧生成最大值、最小值、和第一解码端重建帧,根据所述最大值和最小值对所述第一解码端重建帧进行空间联合修正生成第二解码端重建帧,所述第二解码端重建帧作为下一帧解码的参考帧,将第二解码端重建帧作为最终的重建帧输出。具体的,在本发明的实施例中,所述解码端对所述传输码流进行依次解码,为每一帧生成最大值、最小值、和第一解码端重建帧,根据所述最大值和最小值对所述第一解码端重建帧进行空间联合修正生成第二解码端重建帧,所述第二解码端重建帧作为下一帧解码的参考帧,将第二解码端重建帧作为最终的重建帧输出的步骤中,包括:根据Y、U、V分量的最大值和最小值对所述第一解码端重建帧进行空间联合修正生成临时重建帧;将大于所述Y、U、V分量最大值的第一解码端重建帧置为所述最大值,将小于所述Y、U、V分量最小值的第一解码端重建帧置为所述最小值,将大于等于所述Y、U、V分量最小值且小于等于所述Y、U、V分量最大值的第一解码端重建帧保持不变;进一步的,根据R、G、B分量的最大值和最小值对所述临时重建帧进行空间联合修正,生成第二解码端重建帧;将所述临时重建帧变换为R、G、B分量;

将大于所述R、G、B分量最大值的临时重建帧置为所述最大值,将小于所述R、G、B分量最小值的临时重建帧置为所述最小值,将大于等于所述R、G、B分量最小值且小于等于所述R、G、B分量最大值的临时重建帧保持不变;将修正后的临时重建帧变换为Y、U、V分量生成第二解码端重建帧。结合上述的结构,通过在编码时,对彩色视频每一帧在YUV和RGB两个空间的各个分量的最大值和最小值进行编码生成编码数据、进行重建生成第一编码端重建帧和根据所述的最大值和最小值对所述第一编码端重建帧进行空间联合修正生成第二编码端重建帧,作为后续编码帧的参考帧,从而提高了编码的效率。同时,将所述最大值和最小值作为编码数据的一部分写入传输码流中,在解码时,同样根据所述最大值和最小值对第一解码端重建帧进行空间联合修正,从而保证了编解码的一致性,并且提高了解码帧的质量。上述描述仅是对本发明较佳实施例的描述,并非对本发明范围的任何限定,本发明领域的普通技术人员根据上述揭示内容做的任何变更、修饰,均属于权利要求书的保护范围。
权利要求
1.利用YUV与RGB空间联合修正视频编解码误差的方法,其特征在于,包括: 获取彩色视频每一帧中的每个像素分量,所述每个像素分量包括Y、U、V三个分量; 将所述Y、U、V三个分量通过颜色空间变换转换成R、G、B三个分量; 分别获取彩色视频每一帧中的所有Y、U、V、R、G、B分量的最大值和最小值; 保留彩色视频每一帧中的每个像素的Y、U、V三个分量数据,丢弃每个像素的R、G、B三个分量; 对所述用YUV颜色空间表示的彩色视频每一帧、最大值和最小值依次进行编码生成编码后数据、进行重建生成第一编码端重建帧和根据所述最大值和最小值对所述第一编码端重建帧进行空间联合修正生成第二编码端重建帧,所述第二编码端重建帧作为后续帧编码的参考帧; 将所述编码后数据、最大值和最小值通过一控制器生成传输码流,并通过传输信道将所述传输码流传输至解码端; 所述解码端对所述传输码流进行依次解码,为每一帧生成最大值、最小值、和第一解码端重建帧,根据所述最大值和最小值对所述第一解码端重建帧进行空间联合修正生成第二解码端重建帧,所述第二解码端重建帧作为下一帧解码的参考帧,将第二解码端重建帧作为最终的重建巾贞输出。
2.根据权利要求1所述的利用YUV与RGB空间联合修正视频编解码误差的方法,其特征在于,所述最大值和最小值用一阶指数哥伦布码或定长码表示。
3.根据权利要 求1所述的利用YUV与RGB空间联合修正视频编解码误差的方法,其特征在于,对所述用YUV颜色空间表示的彩色视频每一帧、最大值和最小值依次进行编码生成编码后数据、进行重建生成第一编码端重建帧,以及所述解码端对所述传输码流进行依次解码,为每一帧生成最大值、最小值、和第一解码端重建帧的步骤中,采用的编解码方法包括:H.26x系列标准、Mpeg系列标准、AVS系列标准。
4.根据权利要求1所述的利用YUV与RGB空间联合修正视频编解码误差的方法,其特征在于,对所述用YUV颜色空间表示的彩色视频每一帧、最大值和最小值依次进行编码生成编码后数据、进行重建生成第一编码端重建帧和根据所述最大值和最小值对所述第一编码端重建帧进行空间联合修正生成第二编码端重建帧,所述第二编码端重建帧作为后续帧编码的参考帧的步骤包括: 根据Y、U、V分量的最大值和最小值对所述第一编码端重建帧进行空间联合修正生成临时重建帧; 根据R、G、B分量的最大值和最小值对所述临时重建帧进行空间联合修正,生成第二编码端重建帧。
5.根据权利要求4所述的利用YUV与RGB空间联合修正视频编解码误差的方法,其特征在于,根据Y、U、V分量的最大值和最小值对所述第一编码端重建帧进行空间联合修正生成临时重建帧的步骤包括: 将大于所述Y、U、V分量最大值的第一编码端重建帧置为所述最大值,将小于所述Y、U、V分量最小值的第一编码端重建帧置为所述最小值,将大于等于所述Y、U、V分量最小值且小于等于所述Y、U、V分量最大值的第一编码端重建帧保持不变。
6.根据权利要求5所述的利用YUV与RGB空间联合修正视频编解码误差的方法,其特征在于,根据R、G、B分量的最大值和最小值对所述临时重建帧进行空间联合修正,生成第二编码端重建帧的步骤包括: 将所述临时重建帧变换为R、G、B分量; 将大于所述R、G、B分量最大值的临时重建帧置为所述最大值,将小于所述R、G、B分量最小值的临时重建帧置为所述最小值,将大于等于所述R、G、B分量最小值且小于等于所述R、G、B分量最大值的临时重建帧保持不变; 将修正后的临时重建帧变换为Y、U、V分量生成第二编码端重建帧。
7.根据权利要求1所述的利用YUV与RGB空间联合修正视频编解码误差的方法,其特征在于,根据所述最大值和最小值对所述第一解码端重建帧进行空间联合修正生成第二解码端重建帧,所述第二解码端重建帧作为下一帧解码的参考帧,将第二解码端重建帧作为最终的重建帧输出的步骤包括: 根据Y、U、V分量的最大值和最小值对所述第一解码端重建帧进行空间联合修正生成临时重建帧; 根据R、G、B分量的最大值和最小值对所述临时重建帧进行空间联合修正,生成第二解码端重建帧。
8.根据权利要求7所述的利用YUV与RGB空间联合修正视频编解码误差的方法,其特征在于,根据Y、U、 V分量的最大值和最小值对所述第一解码端重建帧进行空间联合修正生成临时重建帧的步骤包 括: 将大于所述Y、U、V分量最大值的第一解码端重建帧置为所述最大值,将小于所述Y、U、V分量最小值的第一解码端重建帧置为所述最小值,将大于等于所述Y、U、V分量最小值且小于等于所述Y、U、V分量最大值的第一解码端重建帧保持不变。
9.根据权利要求8所述的利用YUV与RGB空间联合修正视频编解码误差的方法,其特征在于,根据R、G、B分量的最大值和最小值对所述临时重建帧进行空间联合修正,生成第二解码端重建帧的步骤包括: 将所述临时重建帧变换为R、G、B分量; 将大于所述R、G、B分量最大值的临时重建帧置为所述最大值,将小于所述R、G、B分量最小值的临时重建帧置为所述最小值,将大于等于所述R、G、B分量最小值且小于等于所述R、G、B分量最大值的临时重建帧保持不变; 将修正后的临时重建帧变换为Y、U、V分量生成第二解码端重建帧。
全文摘要
本发明提供利用YUV与RGB空间联合修正视频编解码误差的方法,通过在编码时,对彩色视频每一帧在YUV和RGB两个空间的各个分量的最大值和最小值进行编码生成编码数据、进行重建生成第一编码端重建帧和根据所述的最大值和最小值对所述第一编码端重建帧进行空间联合修正生成第二编码端重建帧,作为后续编码帧的参考帧,从而提高了编码的效率。同时,将所述最大值和最小值作为编码数据的一部分写入传输码流中,在解码时,同样根据所述最大值和最小值对第一解码端重建帧进行空间联合修正,从而保证了编解码的一致性,并且提高了解码帧的质量。
文档编号H04N7/26GK103237225SQ201310173139
公开日2013年8月7日 申请日期2013年5月10日 优先权日2013年5月10日
发明者范涛, 李亚柯, 赵海武, 李国平, 滕国伟, 罗平伟 申请人:上海国茂数字技术有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1