立体视频通信终端、系统及方法

文档序号:7666765阅读:165来源:国知局
专利名称:立体视频通信终端、系统及方法
技术领域
本发明涉及立体视频领域,特别是涉及立体视频通信终端、系统及方法。
背景技术
而能够真实地重现客观世界景象,表现出场景的纵深感、层次感和真实性, 是当前视频技术发展的重要方向。
目前视频研究领域有两个主要的研究热点双目立体视频和多视角视频 (又称"Multi-View Coding, MVC,,)。参阅图1,双目立体视频的基本原理是 模拟人眼成像原理,采用双摄像机独立得到左眼图像和右眼图像,并使人的 左右眼分别看到左右眼通道图像,最后合成得到具有立体感的图像。多视角 视频由多个摄像机同时拍摄得到,具有多个视频通道,不同的摄像机的拍摄 角度不同。在播放时这些不同角度的景物图像都会送到用户终端,如电视机 显示屏上,用户在观看时可以选择不同的角度观看不同的景物画面图像。
其中, 一种现有技术多视角视频技术允许用户观看动态场景,进行交互 (如冻结,慢放或回退)和改变视角。应用该技术的系统采用多摄像机捕获 多视频流,采用多视角3D重构和交织技术创建分层的视频帧,可以进行有效 的压缩和动态场景的交互式回放。该系统还包括一个具有计算设备的渲染和 接收装置,渲染程序用于渲染每一帧交互式视点图像。通常,根据用户观看 的视角,从当前时域部分关联的帧组中找到需要播放的一个或多个视频帧。 需要使用标定数据用于确定当前组每一帧图像所关联的视角,以及用户选择 的视角是否和当前组中的某一帧一致或落在某两个视角的中间。当用户选择 的视角和某帧一致,则在屏幕上渲染该帧,如果视角落在某两个视角之间, 则需要渲染相关联的多帧。当需要的一帧或多帧被确定后,需要从交互式视 频数据中解出所需的最小帧数据。如果数据被压缩,则需要釆用解码单元进 行数据解码。解码出来的数据被用来渲染当前用户指定的视点的交互式视频 帧。如果需要的视角落在两帧之间,则首先需要将输入帧的主要层投影到和用户指定视角 一致的一个虚拟视角上,然后将输入帧的边界层也投影到该视 角上。
另 一种现有技术交互式多视角视频釆用 一种新型的视频捕获系统。该系 统包括视频摄像机、控制PC、服务器、网络组件和客户端,还包括音频组件
用于4甫《尺才目关的音步贞。夕H获1参 凡木用土 -,入目g旦刁a , 田一/i、^x^夕q、^:市'J PC进行控制,从多个视点和方向进行同步采集。捕获到的视频数据由控制PC 进行压缩,并实时地传输到一个或多个服务器上。压缩后的数据也可以实时 地分发到终端用户或进行进一步的压缩,去除时域和空域的相关性。
在进行本发明创造过程中,发明人发现上述现有多视角视频技术至少存 在以下问题
上述现有技术多视角视频技术实现的功能过于简单,不能满足目前消费 者的实际需求。比如现有技术一的多视角视频技术,着重于动态场景的交互 式回放,现有技术二的多视频技术着重于视频的捕获。当需要进行多视角视 频远程实时播放时,缺乏相应的系统、方法以及设备的支持;并且不支持实 时双向交互式的立体一见频的插-;故。

发明内容
本发明实施方式要解决的技术问题是提供一种立体视频通信终端、方法 以及发送装置,可以进行实时的远程视频数据双向通信。
提供一种立体视频通信终端,包括发送装置和接收装置,所述发送装 置包括摄像及图像处理单元,用于进行摄像并输出视频数据及其深度和/或 视差信息;编码单元,用于进行编码,包括对所述掘 像及图像处理单元输出 的视频数据及其深度和/或视差信息进行编码;发送单元,用于将所述编码单 元输出的编码数据封装成符合实时传输协议的数据包,并通过分组网络进行 实时传输;所述接收装置包括接收单元,用于接收数据包,包括接收发送 单元发送的数据包并去除所述数据包的协议头,得到所述编码数据;解码单 元,用于解码所述接收单元输出的编码数据,得到所述视频数据以及深度和/ 或视差信息;重构单元,用于根据所述解码单元输出所述深度和/或视差信息、 以及所述解码单元输出的视频数据进行用户所处视角图像的重构,并输入到 所述渲染单元;渲染单元,用于将所述重构单元输出的重构图像数据渲染到立体显示设备上。
提供一种立体视频通信系统,包括所述立体视频通信终端,用于进行
二维或立体视频通信;二维视频通信终端,用于进行二维视频通信;分组网 络,用于承载所述立体视频通信终端之间、或二维视频通信终端之间传输的 二维或立体视频数据。
提供一种立体枧频通信终端,包括摄像及图像处理单元,进行摄像, 包括进行摄像并输出视频数据及其深度和/或视差信息;编码单元,用于进行 编码,包括对所述摄像及图像处理单元输出的视频数据及其深度和/或视差信 息进行编码;发送单元,用于将所述编码单元输出的编码数据封装成符合实 时传输协议的数据包,并通过分组网络进行实时传输。
提供一种立体视频通信终端,包括接收单元,用于接收数据包,包括 接收发送单元发送的数据包并去除所述数据包的协议头,得到所述编码数据; 解码单元,用于解码所述接收单元输出的编码数据,得到所述视频数据以及 深度和/或视差信息;重构单元,用于根据所述解码单元输出所述深度和/或视 差信息、以及所述解码单元输出的视频数据进行用户所处视角图像的重构, 并输入到所述渲染单元;渲染单元,用于将所述重构单元输出的重构图像数 据渲染到立体显示设备上。
提供一种立体视频通信方法,包括进行双向立体视频通信,包括进 行摄像,得到视频数据;从所视频数据中得到成像物体的深度和/或视差信息; 对所述视频数据和深度和/或视差信息进行编码;将所述编码数据封装成符合 实时传输协议的数据包;通过分组网络发送所述数据包。
提供一种立体视频通信方法,包括接收视频数据,包括接收通过分 组网络进行实时传输的视频数据包,并去除所述数据包的协议头,得到已编 码立体视频编码数据;对所述已编码视频数据进行解码,得到视频数据以及 相应的深度和/或视差信息;根据所述深度和/或视差信息、以及视频数据进行 用户所处视角图像的重构;将所述重构的图像数据渲染到立体显示设备上。
以上技术方案可以看出,由于釆用分组网络发送视频数据,并进行实时 传输,在接收端可以实时接收所述立体视频流并进行渲染,用户可以远程看 到实时的立体图像,实现远程立体视频通信,提升用户体验。


图1是现有技术双目立体视频摄像的原理图2是现有技术单视点、平行多视点、汇聚多视点摄像机系统的原理图; 图3是本发明立体视频通信终端第一实施方式的原理框图; 图4是本发明立体视频通信系统第一实施方式的原理框图; 图5是图4中发送端的原理框图6是本发明中在发送装置与接收装置两侧分别对视频数据进行混合编 解码的流程图7是视差、景深与用户观看距离之间的关系图8是本发明立体视频通信方法第 一 实施方式发送方的流程图9是本发明立体视频通信方法第一实施方式接收方的流程图。
具体实施例方式
为使本发明的目的、技术方案、及优点更加清楚明白,以下参照附图并 举实施方式,对本发明进一步详细说明。
参阅图3,本发明实施方式提供一种双向实时,支持多视角的立体视频通 信终端。通信双方的用户在使用过程中可以选择多个观看视角,并都能得到 稳定的实时立体视频图像。
首先提供立体视频通信终端第一实施方式,包括发送装置、分组网络与 接收装置。
所述发送装置包括
摄像及图像处理单元312,进行摄像,包括进行摄像并输出视频数据及其 深度和/或#见差信息;
编码单元313,用于进行编码,包括对所述摄像及图像处理单元312输出 的视频数据及其深度和/或视差信息进行编码;
发送单元314,用于将所述编码单元313输出的编码数据封装成符合实时 传输协议的数据包,并通过所述分组网络进行实时传输;接收单元321,用于接收数据包,包括接收所述发送单元314发送的数据 包,并去除所述数据包的协议.头,得到所述编码lt据;
解码单元322,用于解码所述接收单元321输出的编码数据,得到所述视 频数据以及深度和/或视差信息;
重构单元323,用于根据所述解码单元322输出所述深度和/或视差信息、 以及所述解码单元322输出的视频数据进行用户所处视角图像的重构,并输 入到所述渲染单元;
渲染单元324,用于将所述解码单元322输出的已解码数据、或重构单元 323输出的重构图像渲染到立体显示设备上;
为达到双向通信功能,所述网络的发送装置一侧还可以包括所述接收装 置,所述网络的接收装置一侧还包括所述发送装置。
以上可以看出,由于采用发送单元314发送摄像及图像处理单元312摄 像得到的视频数据,并经分组网络进行实时传输,在接收端可以采用接收单 元实时接收所述视频数据并进行渲染,需要重构的则进行重构再进行渲染, 用户可以远程看到实时的立体图像,实现远程立体视频通信,提升用户体验。
上述摄像及图像处理单元312可以是多视角摄像及图像处理单元;所述 发送装置与接收装置可以作为一个整体,单独使用。
参阅图4,本发明立体视频通信系统第一实施方式包括发送端、分组网络 以及接收端。
所述分组网络可以实时传输^L频数据。
一起参阅图5,所述发送端包括发送装置和接收装置。
所述发送端包括
摄像及图像处理单元,进行摄像,包括进行摄像并输出视频数据;所述 摄像及图像处理单元可以是单视角、多视角、或单视角与多视角都支持的摄 像及图像处理单元;
采集控制单元,用于根据指令控制所述摄像及图像处理单元的操作,包 括根据所述视频操作单元发送的指令控制所述摄像及图像处理单元的操作;同步单元,用于产生同步信号并输入到所述摄像及图像处理单元,控制 其进行同步采集;或将所述同步信号输入到所述采集控制单元,通知其控制
所述多摄像及图像处理单元进行同步采集;
标定单元,用于获取所述摄像及图像处理单元中摄像机的内参和外参, 并输出校正指令到所述采集控制单元;
预处理单元,用于接收所述采集控制单元输出的视频数据和相应的摄像 机参数,并根据预处理算法对所述视频数据进行预处理;
匹酉己/深度提取单元,用于从所述预处理单元输出的视频数据中得到成像 物体的三维信息,并和所述视频数据一起输出给所述编码单元;
编码单元,用于进行编码,包括对所述预处理单元输出的视频数据进行 编码,还对所述匹配/深度提取单元输出的深度和/或视差信息进行编码;
复用单元,用于对所述编码单元输出的编码数据进行复用;
发送单元,用于将所述复用单元输出的编码数据封装成符合实时传输协 议的数据包,并通过分组网络进行实时传输。
所述接收端包括发送装置和接收装置,所述接收装置包括
接收单元,用于接收数据包,包括接收所述发送单元发送的数据包并去 除所述数据包的协议头,得到所述编码数据;
解复用单元,用于对所述接收单元接收的数据进行解复用;
解码单元,用于解码所述解复用单元输出的编码数据;
重构单元,在所述解码单元输出的已解码数据经过立体匹配技术处理时, 用于对所述已解码数据进行图像重构,并输入到所述渲染单元;
渲染单元,用于将所述解码单元或重构单元输出的数据渲染到立体显示 设备上。
在其他实施方式中,还可以进一步包括
转换单元,用于将解码单元输出的立体视频数据转换成二维视频数据; 平面显示设备,用于显示所述转换单元输出的二维视频数据。分组网络两侧的通信终端,用于进行通信并控制所述发送装置与立体接 收装置,包括
指令发送单元,用于发送指令,包括发送携带所述摄像及图像处理单元
能力信息的会议发起指令;还用于通过所述发送单元向对方发送装置的采集 控制单元发送控制发送装置的指令,包括控制摄像及图像处理单元内特定 才聂^象机开关或特定一见角进行摄像的指令。
视频操作单元,用于操作所述发送装置与接收装置,包括在收到会议确 认消息后开启所述发送装置与接收装置;
多点控制单元MCU,连接在分组网络上,用于控制多点会议连接,包括
能力判断单元,用于在接收到所述通信终端的会议发起指令时,根据所 述指令携带的能力信息判断会议双方是否具有立体摄像和立体显示能力;在 其他实施方式中,也可以将此功能集成在终端上,即不采用多点控制单元来 判断会议双方/多方的能力,而是由终端自己进行判断;
会议建立单元,用于在所述能力判断单元判断双方都具有立体摄像和立 体显示能力时通过所述分组网络建立所述会议双方通信终端的会议连接,包 括发送所述会议确认消息到双方通信终端的视频操作单元,以启动所述发送 装置和接收装置,并将接收方通信终端的地址发送给所述发起方发送装置的 发送单元;
转换单元,用于转换数据格式,包括将从一方发送装置的发送单元接收 到的视频数据转换成二维视频数据;
转发单元,用于将所述转换单元输出的视频数据发送给通信对方发送装 置的接收单元。
其中,所述多点控制系统的能力判断单元在进行能力判断的结果为会议 双方有一个不具有立体显示能力时,启动所述转换单元工作;所述通信终端
也同样具有能力判断功能。
其中,本实施方式可以是基于H.323协议进行组网的一见频通信系统网络。 该视频通信系统建立在分组网络上(如局域网、El、窄带ISDN或宽带ISDN 等),主要包括H.323网守(Gatekeeper )、 H.323网关(Gateway )、 H.323多点控制单元(MCU)、普通的2D摄像机装置以及摄像及图像处理单元等。
(1) 网守是网络中一个H.323实体,它为H323通信终端、网关和MCU 提供地址转换和网络接入控制。网守也可以为通信终端、网关、MCU提供其 它服务,如带宽管理和网关定位。
(2) H.323网关为分组网络的H.323通信终端、分组交换网络上的其它 ITU终端、或者其它H.323网关之间提供实时双向通信。
(3) 多点控制单元,如前描述,用于控制会议连接。它是网络中一个端 点,为三个或更多终端及网关参加一个多点会议服务,也可以连接两个通信 终端构成点对点会议,随后再扩展为多点会议。MCU可以由两部分组成必 需的多点控制器(MC)和可选的多点处理器(MP)。其中多点控制器为多点 会议提供控制功能、和通信终端进行能力协商、控制会议资源等;多点处理 器在多点控制器的控制下,在多点会议中对音频、视频和/或数据流进行混合、 交换等集中处理。
所述二维摄像机装置可以是2D视频通信终端,是只具有2D图像采集和 显示能力的视频通信终端,如可视电话,视频会议终端和个人计算机视频通 信终端等。
根据上面描述,相比现有H.323视频通信网络,本发明实施方式中的MCU 针对多视角立体通信系统进行改进,支持多视角立体通信系统和普通2D视频 通信终端之间的会议控制以及立体视频流的处理。
所述摄像及图像处理单元、釆集控制单元、同步单元和标定单元构成了 所述多视角立体视频通信系统的视频采集部分。其中所述摄像及图像处理单 元可以是以下一种
1)立体摄像及图像处理单元,输出包括深度和/或视差信息的视频数据;
2 )分开的摄像机和匹配/深度提取单元,所述摄^^几用于摄像并输出视频 数据,所述匹配/深度提取单元用于从所述摄像机输出的视频数据中得到成像 物体的深度和/或视差信息并输出。
对摄像及图像处理单元中的摄像机进行分组,每个分组的摄像机数目 WH。摄像机布局采用平行多视角摄像机或环形多视角摄像机模型,从不同视点对同一场景进行拍摄。每个摄像机分组由一个采集控制单元进行控制。
摄像机通过CamemLink、正EE1394或同轴电缆等方式连接到采集控制单元进 行视频流的传输,同时还通过远程控制数据线连接到指令发送单元,使用户 可以远程遥控摄像机进行平移/转动/拉近/拉远等操作。整个摄像及图像处理单 元中,摄像机组的数目M^1,其根据实际应用场景的需要可自由配置。
同步单元,如前所述,用于控制多摄像机视频流的同步采集。同步单元 可以防止多视角摄像及图像处理单元在对高速运动物体进行摄像时所获得的 图像中出现图像差异问题,因为高速可导致不同视点或是同 一视点左右眼的 图像在同一时刻差异很大,用户看到的立体视频就会失真。同步单元可以通 过硬件或软件时钟产生同步信号,输出到摄像机的外同步接口对摄像机进行 同步采集控制或是输出到采集控制单元,由采集控制单元通过控制线对摄像 机进行同步采集控制。同步单元也可以采用 一台摄像机的视频输出信号作为 控制信号输入到其它摄像机进行同步采集控制。同步采集要求达到帧同步或 行/场同步。
标定单元,如前所述,是用于完成多掘J象机标定。在立体视频系统中, 为了进行立体匹配和场景重建等,需要得到场景的深度或视差信息,而要求 得深度或视差信息又必须知道物体某一点在世界坐标系下的坐标和其成像点 坐标之间的成像关系。摄像机的内外参数是决定该成像关系的一个重要因素, 而往往摄像机的内参(如图像中心、焦距,镜头畸变等)和外参又是未知、 部分未知或者原则上不确定的。因此有必要通过某种方法获取摄像机的内部 和外部参数,这个过程称之为摄像机标定。在立体视频的摄像机采集中,根 据仿射变换原理,某一点的理想成像方程(不考虑畸变情况)可以表示为
々 0 m。
v=k[r t:k =0 / v0
10 0 1
其中",v为成像点坐标;H疋为世界坐标;s为图像的尺度因子,为图 像水平单位像素数人和垂直单位像素数,之比;/为焦距;"。,v。为图像中心
坐标。R为摄像机的旋转矩阵,t为摄像机平移向量。其中K为摄像机的内参, R和t为摄像机的外参。对于平行双摄像机系统,可以得到《(7W,,/Mr)=
i』
其中f为焦距,Z为点到成像平面的距离,B为两台摄像机光心的间距, d为视差。可以看出,焦距f对深度Z的影响很大。此外内参中的图像中心和 畸变系数等也会对深度和/或视差计算有影响,需要利用这些参数进行图像校 正。
本实施方式可采用多种方法对摄像机进行标定,比如采用传统标定法和 自标定法等。传统标定法包括70年代初提出的直接线性变换(DLT)标定法 和基于径向排列约束(RAC)的标定法等。其基本方法是建立摄像机成像模 型线形方程组,并测出场景中 一组点的世界坐标和其在成像平面上的对应坐 标,然后将这些坐标值代入该线形方程组中求出内参和外参。自标定是指不 需要标定块,仅仅通过图像点之间的对应关系就可以对摄像机进行标定的过 程。自标定依据的是多幅图像中成像点间存在的特殊约束关系(如极线约束), 因此可以不需要场景的结构信息。自标定法的优点是灵活,方便。
本发明实施方式中标定单元的功能是完成多摄像机标定,求出每个摄像 机的内参和外参,针对不同的应用场景采用不同的标定算法。如针对^L频会 议场景,所述标定单元可采用改进后的传统标定法进行标定,能够简化传统 标定法的复杂的处理过程,但相比自标定法能够提高精度和减少标定时间。 其基本思想是提供或找到一种和拍摄场景相融合,并且能够稳定存在的物品 作为参照物,如视频会议场景中用户的名牌,或是场景中杯子等物品。这些 物品应该可以提供物理几何尺寸,并且有丰富的特征可供提取。如名牌的边 缘和上面的文字或图案,杯子的同心圆特征等,并采用相应的算法进行标定。 如采用平面标定法进行标定的方法如下
(1 )提供已知物理尺寸的平面标定参照物;
(2) 从不同角度拍摄得到平面标定参照物的图像;
(3) 自动匹配并检测出平面标定参照物图像上的特征点,如文字和图案 的特征点等;
(4) 根据平面标定算法求出摄像机的内参和外参;
17(5 )求出畸变系数,并进行优化。
为避免出现不同摄像机的参数相差较大的情况,如摄像机的焦距和外参, 在本发明更多实施方式中,可以将求出的不同摄像机内参和外参作为反馈信 息提供给采集控制单元,采集控制单元根据当前参数的差异对摄像机进行调 节,通过迭代过程使不同摄像机的参数差异达到可接受的水平。
采集控制单元,如前所述,用于控制一个摄像机组进行视频图像的采集 并输出。摄像机组的数目可以根据场景和需求进行配置,当摄像机数为l时,
采集控制单元输出2D视频流,当摄像机数为2时,采集控制单元输出双目立 体视频流,当摄像机数大于2时,输出为多视角视频流。对于模拟摄像机, 采集控制单元将模拟图像信号转换为数字视频图像。图像以帧的形式保存在
采集控制单元的緩存中。此外,采集控制单元还将采集到的图像提供给标定 单元进行摄像机标定,标定单元将得到摄像机内参和外参返回给采集控制单 元。采集控制单元根据这些参数建立起视频流和所属采集摄像机属性的—— 对应的关系。这些属性包括摄像机唯一的编号、摄像机内参和外参、每帧的 采集时间戳等,并将摄像机属性和视频流按照一定格式进行输出。除了上述 功能,采集控制单元还提供对摄像机的控制功能和图像采集的同步功能采 集控制单元可以根据摄像机标定的参数,通过摄像机的遥控接口对摄像机进 行平移/转动/拉il/拉远等操作。采集控制单元也可以通过摄像机的同步接口向 摄像机提供同步时钟信号用以控制同步采集。此外,采集控制单元也可以接 受输入控制单元的控制,如根据用户选择的视点信息关闭不需要的摄像机的 ^L频采集。
预处理单元,如前所述,对采集得到的视频数据进行预处理,具体是从 釆集控制单元处接收采集的图像緩存和相应的摄像机参数,根据预处理算法 对緩存的图像进行处理。预处理的主要内容包括去除图像的噪声;消除不 同摄像机带来的图像差异,如对不同摄像机设置导致的图像亮度和色度差异 进行调节;根据摄像机内参中的畸变系数对图像进行校正,如径向畸变校正; 和/或对于某些依赖扫描线匹配的立体匹配算法(如Dynamic Programming动 态规划法)进行扫描线对齐操作等。预处理后的图像可以消除大部分釆集时 带来的图像噪声和由于摄像机差异导致的不希望的图像间的不一致性,有利于后续的立体匹配和深度/视差提取。
匹配/深度提取单元,如前所述,用于从所述预处理单元输出的视频数据 中得到成像物体的三维信息,并和所述视频数据一起输出给所述编码单元; 立体图像匹配是立体视频中的 一项关键技术。立体视频的重构需要得到成像 物体的三维信息,而其中关键的深度信息必须从多幅图像中获取。获取深度 信息的首要工作就是需要找到场景中某一点在多幅图像中对应的成像点,然 后再根据该点在多幅图像中坐标求出其在空间中的坐标,从而得到该点的深 度信息。找到场景中某一点在不同图像中对应成像点的过程由图像匹配完成。
本发明实施方式可采用的立体匹配技术主要包括基于窗口的匹配、基 于特征的匹配或动态规划法等。其中基于窗口的匹配和动态规划法都采用了 基于灰度的匹配算法。基于灰度的算法的基本思想是将图像分割成小的子区 域,以其灰度值作为模版在其它图像中找到和其最相似灰度值分布的子区域, 如果两个子区域满足相似性要求,可以认为子区域中的点是匹配的。在匹配 过程中,可以使用相关函数衡量两个区域的相似性。基于灰度的匹配一般都 得到图像的密集的深度图。基于特征的匹配没有直接利用图像的灰度,而是 利用由图像灰度信息导出的特征进行匹配,相比利用简单的亮度和灰度变化 信息更加稳定。匹配特征可以认为是潜在的能够描述场景3D结构重要特征, 如边缘和边缘的交点(角点)。基于特征的匹配一般先得到稀疏的深度信息图, 然后利用内插值等方法得到图像的密集深度信息图。
匹配/深度提取单元的主要功能是对两个相邻摄像机采集的视频图像进行 匹配,并计算得到视差/深度信息。匹配/深度提取单元对两个邻近摄像机拍摄 图像的最大视差(Parallax)进行了限制,如果超过该最大视差,匹配算法的 效率会很差,无法得到较高精度的视差/深度信息。该最大视差可由系统预先 进行配置。本发明实施方式中,匹配/深度提取单元所采用的匹配算法可以根 据实际情况改变,从多种匹配算法(如窗口匹配,动态规划法等)中进行选 择,根据应用场景进行配置。完成了匹配操作之后,匹配/深度提取单元根据 得到的图像视差和摄像机的参数求出场景的深度信息。下面以基于灰度的窗 口匹配算法为例进行说明
设厶"力和厶"力作为左右摄像机采集的两幅图像,0"凡)为厶",力中的一点。以(&,力)为中心构成一个模版T,大小为mxn。可以在厶",力中平 移该模版,设在水平位置平移Ax,在垂真位置平移A少,其在A",力中覆盖的 第k个区域为&,则&和T的相关性可以用相关函数衡量
<formula>formula see original document page 20</formula>
当"(&^)达到最小时,可以认为达到最佳匹配。如果&和T相同,则
在上式中,'=i户i 代表了模版T的能量,为常数,m ^ 为&
区域的能量,其随着模版T的变化而变化。如果T的变化范围较小,
tZ[&(")]2 丄 腊T、 Slx(/j)r(/,力
'=1户l 也近似为常量。为了使"KJ)最小,则"户1 应该最大。
此处采用归一化交叉相关算法(Normalized Cross Correlation, NCC)消除亮度差 异引起的误匹配,相关函数可表示为
<formula>formula see original document page 20</formula>
其中E(&)和^(n分别为&和T的平均灰度值。当C(Ax,A力最大时,"(&,T)
最小,可以认为Oi,h)和点(^+^凡+A力匹配。奴 分别为两幅图像之间的 水平视差和垂直视差。对于上面所述的平行摄像机系统,垂直视差近似为0,
Ax-^ ^ 水平视差可以表示为'.Z ,从而可以求出场景中某点的深度信息 Ax。
在其他实施方式中,匹配/深度提取单元可以对匹配算法进行优化(如采 用并行计算),以保证系统的实时性。
视频编码/解码单元,如前所述,对视频数据进行编码/解码。在本发明实 施方式中,立体视频编码主要可以分为两类基于块的编码和基于对象的编 码。在立体图像的编码中,除了帧内预测和帧间预测消除空域和时域上的数 据冗余度外,还可以消除多通道图像之间的空域数据冗余性。比如,可以通 过视差估计与补偿来消除多通道图像间的空域冗余度。视差估计补偿的核心 是找到两幅(或多幅)图像间的相关性,其与运动估计补偿是类似的。
本发明实施方式所述的视频编解码单元对多视角视频数据按以下两种方式中的一种进行编解码
l-)对不同视点间图像的视差小于等于所设定的最大视差的情况,按一帧 图像+视差/深度值+部分残差的混合方式进行编码(其中视差/深度描述采用
MPEG Part 3: Auxiliary video data representation标准),图6显示了对于双目立
体视频采用混合编码方案的基本流程实例;
2)对于不同视点间图像的视差大于所设定的最大视差的情况,按传统方 式(如H.263、 H.264编解码标准)对视频流进行独立编码。混合编解码方案 充分利用了相邻图像间的相关性,压缩效率更高,能减少更多的相邻图像间 存在的时域和空域数据冗余。此外,采用视差/深度编码有利于进行图像的重 构。对于图像中有遮挡,无法提取视差/深度的部分,采用残差编码,使重构 图像的质量更好。如果不同视点间图像的视差过大,这时采用运动估计和补 偿等传统方法对不同视点的视频流进行独立编码,如MPEG标准组织的MVC 编码标准。此外,本发明所述的编解码单元还支持SVC(可伸缩视频编码) 编码标准,使系统对不同网络情况的适应性更好。
此外,视频编解码单元还接收来自输入控制单元的反向信道的输入,根 据用户的信息对编解码进行控制。基本的控制包括下面两方面
(1) 根据用户选择的视点,找到相应的视频流进行编码,对于用户没有 观看的^L点的视频流不进行编码,通过这种方式可以有效地节省编解码单元 处理能力;
(2) 根据用户终端的显示能力对相应的^L频流进行编解码,如对于只具 有2D显示能力的终端,则编码并发送1路2D视频流。通过这种方式可以提 高所述多视角立体视频通信系统和普通视频通信系统的兼容性,并减少无用 的数据的传输。
复用/解复用单元,如前所述,复用单元接收来自视频编解码单元的已编 码视频流,按帧/场的方式对多路视频流进行复用,如按场方式进行复用,可 以将一个视频流编码为奇场,另一个视频流编码为偶场,奇偶场作为一帧进 行传输;解复用单元接收来自接收单元的分组数据,进行解复用,还原多路 已编石马3见频流。发送/接收单元,如前所述,可以称为网络传输单元,发送方的发送单 元接收复用单元的复用数据流,对数据流进行分组处理,封装成符合RTP等
协议的数据包,通过网络接口 (如以太网接口、 ISDN接口等)向外发送。此 外,发送方的发送单元还接收音频编码/解码单元提供的编码音频数据流、系 统控制单元发送的信令数据流和用户数据单元提供的用户数据(如传输的文 件数据),对这些数据进行分组并通过网络接口发送到接收端。接收端的接收 单元接收到发送端的分组数据后,去除协议头保留用户有效数据,并按数据 类型分别发送到解复用单元、音频解码单元、系统控制单元和用户数据单元。 另外,对每一种媒体类型,完成适当的逻辑成帧、顺序编号、差错;险测和差 错纠正。
重构单元,如前所述,用于对所述解码单元输出的已解码数据进行图像 重构,并输入到所述渲染单元。它的功能主要有两个
(1) 解决用户如何观看到没有放置摄像机视点的视频图像的问题,因为 摄像机的数目是有限的,可能没有覆盖所有的视点,而用户有可能需要观看 没有放置摄像机视点处的场景。重构单元可以从输入控制单元得到用户观看 的视点信息,如果用户选择的视点位于摄像机的拍摄视点上,则重构单元不 进行重构;如果用户选择的视点位于两个邻近的摄像机组或同组的邻近摄像 机之间(没有摄像机的虚拟视角),则重构单元根据相邻的摄像机拍摄的图像 重构用户选择视点处的图像。通过某个摄像机拍摄视点的视差/深度信息,以 及相邻摄像机的位置参数信息,根据投影方程确定该场景的点在某个虚拟视 角中的成像点坐标,从而可以重构出该虚拟视角的视频图像。
(2) 解决用户通过自动立体显示器观看立体图像因为位置移动带来的视 差变化,从而导致所看到的立体图像发生变化的问题。自动立体显示器可以 使用户在不带眼镜的条件下也能看到立体图像,但此时用户离自动立体显示 器的距离是可以改变的,导致图像的视差发生变化。
这里,有必要说明视差、景深和用户观看距离之间的关系。参阅图7,图 中显示了平行摄像机系统下图像视差p和物体景深、以及用户离显示器距离 D的关系,通过简单的几何关系可以得到A = 5
£> —z.
-+ 1
从上式可以看出,图像的视差p依赖于用户到显示器的距离D。立体视 频接收端收到的立体视频图像一般只具有固定的视差,可以作为一个参考视 差"w,当D发生改变时,重构单元对视差A/做相应的调整,生成新的视差^', 并根据新视差重新生成另一幅图像。这样可以保证用户和显示表面的距离发 生改变时能看到合适的图像。用户到显示表面的距离可以通过摄像机算出深 度图自动检测,或由用户通过输入控制单元进行手工控制。
输入控制单元,主要接收通信终端的输入,并反馈给采集控制单元、编 码单元和重构单元,用于控制多视频流的编码和重构。输入控制单元包括的 信息主要有观看视点、显示和用户的距离信息等。输入控制单元的信息可以 由最终用户通过GUI界面或遥控设备进行输入,如只见看一见点、距离信息和显 示方式;也可由终端自己检测,如终端的显示能力信息。
渲染单元和显示设备,如前所述,渲染单元接收重构单元提供的视频数 据流,将视频图像渲染到显示设备上。本发明所述的多视角立体视频通信系 统支持多种显示终端,包括普通的2D视频显示设备、自动立体显示设备、立 体眼镜和全息显示设备等。
此外,在其他实施方式中,还可以包括其它系统单元,比如音频编码/ 解码单元、用户数据单元和系统控制单元,功能如下
音频编码/解码单元(G.711、 G/729等)对来自通信终端的麦克风的音 频信号进行编码发送,另外,对从接收单元接收到的音频码进行解码并输出 到扬声器。
用户数据单元支持远程信息处理应用,如电子白板、静态图像传输、 文件交换、数据库访问、音频图形会议等。
系统控制单元为终端的正确的操作提供信令。它提供呼叫控制、能力 交换、命令和指示的信令、以及消息。
在该网络结构中,当一方发起视频通信会话时,首先通过多点控制单元或自身与对端进行能力协商。如果双方都是多视角立体视频通信系统,则用 户双方都可以从不同视点看到实时的立体视频,_如果一方是普通的2D视频通 信终端,由于不满足立体视频通信的条件,在多点控制单元控制下,双方用
户只能以2D方式进行视频通信。
在进行多视角视频通信时,多视角立体通信系统有两种显示才莫式
(1) 在单视频图像显示模式下,接收端用户可以通过指令发送单元的 GUI界面或遥控器等方式对观看视点进行选择,然后由通信终端将观看视点 的信息通过信令发送到对端,对端的采集控制单元接收到指令后,对摄像及 图像处理单元进行操作,或在接收的视频数据中选择相应视点的视频流输出, 经选择的视频流经编码并传输回接收端的显示设备。用户看到的视频画面可 以是一个立体图像(左右两幅图像,由多视角视频摄像及图像处理单元中的 两台摄像机采集图像),也可以是一个2D图像;
(2) 在多视频图像显示模式下,接收端用户可以在发送端的多视角视频 摄像及图像处理单元工作时时,同时从不同的视点观看对方的场景,系统同 时显示多个图像。
值得说明的是,前述本发明立体视频通信终端第二实施方式中的各单元 可以集成在一个处理模块中,比如将采集控制单元、预处理单元、匹配/深度 提取单元、编码/解码单元、复用/解复用单元、发送/接收单元集成在一个处理 模块中;同理,前述本发明立体视频通信终端、多^L角视频装置其他实施方 式的各单元也可以集成在一个处理模块中;或者,前述各实施方式各单元中 的任何两个或两个以上都可以集成在一个处理^t块中。
还值得说明的是,本发明实施方式中的各单元既可以采用硬件的形式实 现,可软件实现的部分也可以采用软件功能模块的形式实现。相应地,本发 明电话网关实施方式既可以作为独立的产品销售或使用,可软件实现的部分 也可以存储在一个计算机可读取存储介质中进行销售或使用。
参阅图8和图9,本发明还提供立体视频通信方法第一实施方式,分别包 括发送方和接收方的流程,包括以下步骤
进行双向立体视频通信,包括发送视频数据与接收视频数据。其中,参阅图8,发送视频数据包括
步骤802:进行摄像,得到视频数据;
步骤806:从所视频数据中得到成像物体的深度和/或视差信息; 步骤807:对所述视频数据和深度和/或视差信息进行编码; 步骤808:对所述已编码视频数据进行复用;
步骤809:将所述编码数据封装成符合实时传输协议的数据包,通过分组 网络发送所述数据包。
在其他实施方式中,所述步骤进行摄像得到视频数据是进行多视角摄 像得到多视角视频数据。
在所述步骤807:对所述一见频流进行编码之前包括
步骤801:对所述多视角摄像进行图像同步处理。
在步骤802:对同步后的摄像得到的图像进行采集之后包括
步骤803:对采集后的多幅图像进行摄像机标定并返回摄像机参数到图像 采集处理;即获取摄像机的内参和外参,并根据所述内参和外参校正所述摄 像操作;
步骤804:对采集得到的图像进行预处理; 步骤805:判断是否满足视差限制条件;
步骤806:满足视差限制条件时,进行立体匹配、视差/深度提取,即提 取成像物体的三维信息,然后对所述视频流进行编码;
步骤807:不满足视差限制条件时,直接对视频流进行编码。
在其他实施方式中,在发送所述封装数据前,可以进一步包括以下步骤
步骤808:对已编码的视频流进行复用。
所述步骤进行双向立体视频通信还包括发送携带所述摄像及图像处 理单元能力信息的会议发起指令。
在所述步骤809:通过分组网络发送所述数据包之后进一步包括
根据接收到的所述会议发起指令及其携带的能力信息,判断会议双方是否具有立体摄像和立体显示能力;
在判断双方都具有立体摄像和立体显示能力时,通过所述分组网络建立 所述会议双方通信终端的会议连接,启动通信双方的摄^象及图像处理单元和 接收装置。
在判断双方中的一方不具有摄像能力时,进一步包括 将发送方的视频数据转换成二维视频数据并发送给接收方。 参阅图9,接收视频数据包括
步骤901:接收通过分组网络进行实时传输的视频数据包,并去除所述数 据包的协议头,得到已编码立体^L频编码数据;
步骤卯3:对所述已编码视频数据进行解码,得到视频数据以及相应的深 度和/或一见差信息;
步骤905:根据所述深度和/或视差信息、以及视频数据进行用户所处视 角图^象的重构;
步骤906、 907:将所述重构的图像数据渲染到立体显示设备上。 在其他实施方式中,
在去除所述数据包的协议头之后,解码之前,进一步包括
步骤902:判断所述数据包是否是复用的视频数据,在判断为是时对所述 复用数据包进行解复用。
在其他实施方式中,在步骤渲染到立体显示设备上之前,进一步包括
步骤904:判断所述已解码数据是否需要进行图像重构;
在判断为需要进行重构时,进行步骤905,对所述已解码数据进行图像重构。
此外,对所述已编码视频数据进行解码之后,可以进一步包括判断本 端显示设备是否具有立体显示能力,在判断为否时,将解码后的立体视频数 据转换成二维视频数据并向平面显示设备发送。本领域普通技术人员可以理解实现上述立体视频通信方法实施方式中的 全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以 存储于计算机可读取存储介质中,该程序在执行时,可以包括前述本发明立 体视频通信方法各个实施方式的内容。这里所称得的存储介质,如
ROM/RAM、磁碟、光盘等。
综上,本发明至少可以产生如下技术效果
1、 可以实现立体视频远程实时双向通信、可适用于现场直播或娱乐表 演等场景;
2、 可以实现双向、实时的多视角立体视频通信,适用于家庭通信、商 务会议等场景;
3、 充分利用网络资源,并且用户在使用多视角视频通信过程中可以选 择多个观看视角,完全区别于现有技术二维视频通信方式,让用户 得到亲临现场的感觉,提升用户体验;
以上对本发明所提供的一种立体视频通信终端、系统及方法通过具体实 施例进行了详细介绍,以上实施例的说明只是用于帮助理解本发明的方法及 其思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实 施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为 对本发明的限制。
权利要求
1. 一种立体视频通信终端,其特征在于,包括发送装置和接收装置,所述发送装置包括摄像及图像处理单元,用于进行摄像并输出视频数据及其深度和/或视差信息;编码单元,用于进行编码,包括对所述摄像及图像处理单元输出的视频数据及其深度和/或视差信息进行编码;发送单元,用于将所述编码单元输出的编码数据封装成符合实时传输协议的数据包,并通过分组网络进行实时传输;所述接收装置包括接收单元,用于接收数据包,包括接收发送单元发送的数据包并去除所述数据包的协议头,得到所述编码数据;解码单元,用于解码所述接收单元输出的编码数据,得到所述视频数据以及深度和/或视差信息;重构单元,用于根据所述解码单元输出所述深度和/或视差信息、以及所述解码单元输出的视频数据进行用户所处视角图像的重构,并输入到所述渲染单元;渲染单元,用于将所述重构单元输出的重构图像数据渲染到立体显示设备上。
2. 根据权利要求l所述的立体视频通信终端,其特征在于,所述摄像及图 像处理单元是单视角、多视角、或单视角与多视角都支持的摄像及图像处理单 元。
3. 根据权利要求1所述的立体视频通信终端,其特征在于,进一步包括分组网络两侧的通信终端,用于进行通信并控制所述发送装置与接收装置, 包括指令发送单元,用于发送指令,包括发送携带所述摄像及图像处理单元能 力信息的会议发起指令;视频操作单元,用于操作所述发送装置与接收装置,包括在收到会议确认消息后开启所述发送装置与接收装置。
4. 根据权利要求3所述的立体视频通信终端,其特征在于,所述发送装置进一步包括采集控制单元,用于根据指令控制所述摄像及图像处理单元的操作,包括 根据所述视频操作单元发送的指令控制所述摄像及图像处理单元的操作。
5. 根据权利要求1所述的立体视频通信终端,其特征在于,所述通信终端 的指令发送单元进一步用于通过所述发送单元向对方发送控制发送装置的指 令。
6. 根据权利要求5所述的立体视频通信终端,其特征在于,所述控制发送 装置的指令包括控制摄像及图像处理单元内特定摄像机开关或特定视角进行 摄像的指令。
7. 根据权利要求4所述的立体视频通信终端,其特征在于,所述发送装置 进一步包括标定单元,用于获取所述摄像及图像处理单元中摄像机的内参和外参,并 输出校正所述摄像机的指令到所述采集控制单元。
8. 根据权利要求4所述的立体视频通信终端,其特征在于,所述发送装置 进一步包括预处理单元,用于接收所述采集控制单元输出的视频数据和相应的摄像机 参数,并根据预处理算法对所述视频数据进行预处理。
9. 根据权利要求4所述的立体视频通信终端,其特征在于,所述发送装置 进一步包括同步单元,用于产生同步信号并输入到所述摄像及图像处理单元,控制其 进行同步采集;或将所述同步信号输入到所述采集控制单元,通知其控制所述 多摄像及图像处理单元进行同步采集。
10. 根据权利要求1所述的立体视频通信终端,其特征在于,所述发送装置进一步包括复用单元,用于对所述编码单元输出的编码数据 进行复用,并输出到所述发送单元;所述接收装置进一步包括解复用单元,用于对所述接收单元输出的复用数据进行解复用,并输^;到所述解码单元。
11. 根据权利要求1所述的立体视频通信终端,其特征在于,所述摄像及图像处理单元是立体摄像及图像处理单元,输出包括深度和/或视差信息的视频数据;或分开的摄像机和匹配/深度提取单元,所述摄像机用于摄像并输出视频数 据,所述匹配/深度提取单元用于从所述摄像机输出的视频数据中得到成像物体的深度和/或一见差信息并llr出。
12. —种立体^L频通信系统,其特征在于,包括 所述立体视频通信终端,用于进行二维或立体视频通信; 二维视频通信终端,用于进行二维视频通信;分组网络,用于承载所述立体视频通信终端之间、或二维视频通信终端之 间传输的二维或立体视频数据。
13. 根据权利要求12所述的立体视频通信系统,其特征在于,进一步包括多点控制系统,用于控制所述二维视频通信终端和/或立体视频通信终端间 的多点会议连接,包括能力判断单元,用于在接收到所述通信终端的会议发起指令时,根据所述 指令携带的能力信息判断会议双方是否具有立体摄像和立体显示能力;会议建立单元,用于在所述能力判断单元判断双方都具有立体摄像和立体 显示能力时,触发所述多点控制系统通过所述分组网络建立所述会议双方通信 终端的会议连接。
14. 根据权利要求13所述的立体视频通信系统,其特征在于,所述多点 控制系统进一步包括转换单元,用于转换数据格式,包括将从一方终端接收到的视频数据转换 成二维视频数据;转发单元,用于将所述转换单元输出的二维视频数据发送给通信对方;其中,所述多点控制系统的能力判断单元在进行能力判断的结果为会议双 方有一个不具有立体显示能力时,启动所述转换单元工作。
15. 根据权利要求12所述的立体视频通信系统,其特征在于,所述分组 网络是有线分组网络或无线分组网络,所述有线分组网络是局域网、El、窄带 综合业务数字网ISDN或宽带ISDN。
16. 根据权利要求12所述的立体视频通信系统,其特征在于,所述分组 网络中进一步包括网守,4是供所述分组网络各单元的地址转换和网络接入控制;网关,为所述分组网络的通信双方、或者网关之间提供实时双向通信。
17. —种立体视频通信终端,其特征在于,包括摄像及图像处理单元,进行摄像,包括进行摄像并输出视频数据及其深度 和/或视差信息;编码单元,用于进行编码,包括对所述摄像及图像处理单元输出的视频数 据及其深度和/或视差信息进行编码;发送单元,用于将所述编码单元输出的编码数据封装成符合实时传输协议 的数据包,并通过分组网络进行实时传输。
18. —种立体视频通信终端,其特征在于,包括接收单元,用于接收数据包,包括接收发送单元发送的数据包并去除所述 数据包的协议头,得到所述编码数据;解码单元,用于解码所述接收单元输出的编码数据,得到所述视频数据以 及深度和/或视差信息;重构单元,用于根据所述解码单元输出所述深度和/或视差信息、以及所述 解码单元输出的视频数据进行用户所处视角图像的重构,并输入到所述渲染单元;渲染单元,用于将所述重构单元输出的重构图像数据渲染到立体显示设备上。
19.根据权利要求18所述的立体视频通信终端,其特征在于,进一步包括转换单元,用于将解码单元输出的立体视频数据转换成二维视频数据; 平面显示设备,用于显示所述转换单元输出的二维视频数据。
20.—种立体视频通信方法,其特征在于,进行双向立体纟见频通信,包括 进行摄像,得到视频数据;从所视频数据中得到成像物体的深度和/或视差信息; 对所述视频数据和深度和/或视差信息进行编码; 将所述编码数据封装成符合实时传输协议的数据包; 通过分组网络发送所述数据包。
21. 根据权利要求20所述的立体视频通信方法,其特征在于,进行摄像, 得到视频数据包括进行多视角摄像,得到多视角视频数据。
22. 根据权利要求20所述的立体视频通信方法,其特征在于,进行双向立体视频通信还包括发送携带所述摄像及图像处理单元能力信 息的会议发起指令;通过分组网络发送所述数据包之后进一步包括根据接收到的所述会议发起指令及其携带的能力信息,判断会议双方是否 具有立体摄像和立体显示能力;在判断双方都具有立体掘J象和立体显示能力时,通过所述分组网络建立所 述会议双方通信终端的会议连接,启动通信双方的摄像及图像处理单元和接收 装置。
23. 根据权利要求20所述的立体视频通信方法,其特征在于,所述步骤 进行摄像,得到视频数据包括获取摄像机的内参和外参,并根据所述内参和外参校正所述摄像操作。
24. —种立体视频通信方法,其特征在于,包括接收视频数据,包括接收通过分组网络进行实时传输的视频数据包,并去除所述数据包的协议头,得到已编码立体视频编码数据;对所述已编码视频数据进行解码,得到视频数据以及相应的深度和/或视差信息;根据所述深度和/或视差信息、以及视频数据进行用户所处视角图像的重构;将所述重构的图像数据渲染到立体显示设备上。
25. 根据权利要求24所述的立体视频通信方法,其特征在于,对所述已 编码视频数据进行解码之后,进一步包括判断本端显示设备是否具有立体显示能力,在判断为否时,将解码后的立 体视频数据转换成二维视频数据并向平面显示设备发送。
26. 根据权利要求24所述的立体视频通信方法,其特征在于,在去除所 述数据包的协议头之后,解码之前,进一步包括判断所述数据包是否是复用的视频数据,在判断为是时对所述复用数据包 进行解复用。
27. 根据权利要求24所述的立体视频通信方法,其特征在于,在渲染到 立体显示设备上之前,进一步包括判断所述已解码数据是否需要进行图像重构;在判断为需要进行重构时,对所述已解码数据进行图像重构。
全文摘要
本发明公开一种立体视频通信终端、系统以及方法。所述立体视频通信终端包括摄像及图像处理单元,进行摄像,包括进行摄像并输出视频数据;编码单元,用于对视频数据进行编码,包括对所述发送装置输出的视频数据进行编码;发送单元,用于将所述视频编码单元输出的编码数据封装成符合实时传输协议的数据包,并通过分组网络进行实时传输;接收单元,用于接收所述发送单元发送的数据包,并去除所述数据包的协议头,得到所述编码数据;解码单元,用于解码所述接收单元输出的编码数据;渲染单元,用于将所述解码单元输出的已解码数据渲染到显示设备上。本发明可以实现实时的多视角视频双向通信功能。
文档编号H04N13/00GK101453662SQ20071018758
公开日2009年6月10日 申请日期2007年12月3日 优先权日2007年12月3日
发明者源 刘, 静 王 申请人:华为技术有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1