真三维虚拟演播室系统及其实现方法

文档序号:7918391阅读:379来源:国知局
专利名称:真三维虚拟演播室系统及其实现方法
技术领域
本发明涉及一种影视制作中的演播室系统,特别是一种真三维虚拟演播室系统及其实现方法。
二维虚拟演播室系统的技术路线是利用三维场景制作工具软件(如3dmax、maya等)设计三维虚拟场景,按照实际拍摄现场的机位数用摄像机位置和视线方向生成较高分辨率(如2048*2048)的二维图像;在节目拍摄过程中,将前面预先生成的图像载入视频图像处理卡(每幅图像对应一个实际机位),通过传感系统获得摄像机的运动信息(俯仰、摇移和变焦),依据这些运动信息确定虚拟摄像机能够看到的图像范围,并调整所能看到图像的缩放比例以达到满屏效果(720*576,PAL制);将实际摄像机在蓝箱中拍摄到的场景(人物、道具等)进行扣像处理;将扣像处理后的场景和视频处理卡输出的图像进行合成,由于二者的变化都是与真实摄像机的运动相关联的,因而能够达到拍摄场景和虚拟图像一致运动的效果。
二维半虚拟演播室系统的技术路线是在二维系统的基础上,增加一层图像作为前景信号(如桌子、柱子等物体的图像),形成前景-拍摄的场景-背景的三层图像遮挡关系,可以实现人物在前景物体前面或后面的模拟三维关系。
二维和二维半虚拟演播室系统在实际应用中存在以下问题和缺点因为视频图像处理卡的存储空间是非常有限的,所以图像的分辨率有限,当摄像机作变焦运动时虚拟背景会产生虚化或马赛格现象,当摄像机作摇移或俯仰运动时图像的边界常常产生“穿帮”现象,这对摄像机操作人员提出了很高要求,且大大限制了摄像机的运动范围;动画和视频开窗占据图像处理卡的独立通道,因此二者不能同时表现,且同一时刻只能有一个动画起作用;在作多机位切换时,难以做到动画、视频开窗和背景图像的同步切换,且背景切换容易产生“夹帧”现象;对应每个机位的图像按照预置的摄像机位置和视线方向预先生成,当摄像机运动较大时不能保证前景和背景的正确的透视效果,从而在视觉上给人以人物在背景图片上“飘移”的感觉,而不是人物在虚拟背景空间中活动;当摄像机调整位置后,背景图像必须回到场景制作软件中重新生成,对于空间较大的演播室具有很大的局限性;虚拟场景里的光照效果预先生成,因而当动画物体运动和机位运动时,场景内物体的明暗不能随之产生相应的变化,使得虚拟场景的画面非常单调。
本发明的另一目的是提供实现真三维虚拟演播室系统的实现方法。
真三维虚拟演播室系统,包括一摄像机用于获取前景图像;一跟踪子系统设置于摄像机上,用于获取摄像机运动参数;一延时器其输入与摄像机的输出连接,用于对摄像机输出的视频信号延时;一图形发生器一输入与跟踪子系统的输出连接,根据摄像机的运动参数生成虚拟的三维场景;一抠像合成器其输入分别与延时器和图形发生器连接的输出连接,将前景图像和三维场景进行图像合成;主控计算机通过信号线与图形发生器连接,用于控制图形发生器;录像设备其输入与抠像合成器输出连接,用于录制合成的图像。
真三维虚拟演播室系统,包括至少两台摄像机用于获取前景图像;至少两套跟踪子系统每一跟踪子系统设置于一摄像机上,用于获取摄像机运动参数;至少两个延时器每一延时器的输入与分别与一摄像机的输出连接,用于对摄像机输出的视频信号延时;至少两个图形发生器每一图形发生器的输入与一跟踪子系统的输出连接,根据摄像机的运动参数生成虚拟的三维场景;至少两个抠像合成器每一抠像合成器的输入分别与一延时器和一图形发生器连接的输出连接,将前景图像和三维场景进行图像合成;视频切换台其输入与抠像合成器的输出连接,用于切换抠像合成器的输出;主控计算机通过网络方式与图形发生器连接,用于控制图形发生器;录像设备其输入与切换台的输出连接,用于录制合成的图像。
真三维虚拟演播室的实现方法,包括由摄像机获取前景图像,并通过跟踪系统获取摄像机的运动参数;由延时器对摄像机输出的视频信号进行延时;图形发生器根据摄像机的运动参数实时生成三维虚拟场景的背景信号和遮掩信号;将延时后的视频信号、三维虚拟场景的背景信号和遮掩信号在抠像合成器中进行图像合成并输出至录像设备。
本发明采用一对一的通道化的设计结构方式即一台摄像机对应一个设备通道(通道设备包括一套传感系统,一套延时系统,一套图形工作站,一套图形色键合成系统),每个通道输出的信号就是前、后景已经合成好的视频信号(这样就具备预监功能),可以直接在特技切换台上与别的机位输出信号之间做特技切,并且切换无夹帧。本发明采用模块化的设计,保证了系统的顺利升级如同“搭积木”一般方便快捷系统增加机位只是增加一套通道设备即可,不仅保护了用户的原有投资,而且也使得系统的搭接安全可靠,保证了系统的稳定运行。同时,每个通道信号的合成效果可以进行实时预监。
本系统的图形发生器根据机械式跟踪系统获取的摄像机运动参数实时地生成背景图像,因而可以自动测量镜头变焦非线性,并对场景进行相应的校正,以避免出现缩放变化时前景和背景错位的情况。
由于本发明采用机械式跟踪系统和PC图形发生器,因而在还保持系统性能的前提下解决了图形发生器和摄像机跟踪装置的造价问题,从而使其应用能够得以普及。可广泛应用于模拟驾驶训练,模拟航天器、船舶、飞行器运行,虚拟游戏、婚纱摄影等领域。
摄像机用于获取前景图像,其输出的信号经延时器进行延时,同时获取摄像机的云台、机架和变焦参数,在主控计算机的控制下,图形发生器根据获取的参数实时地生成三维场景,将延时后的前景图像和三维场景在抠像器中进行处理以合成图像,然后输出至录像设备。
图2和图6所示的三维虚拟演播室系统主要由两台摄像机、两个跟踪子系统、两个延时器、两个图形发生器、两个抠像合成器、切换台、主控计算机和录像设备构成。跟踪子系统与

图1所示相同。主控计算机通过集线器和网卡与两个图形发生器通讯。切换台用于对两个抠像合成器的输出进行切换。
图1和图2所示系统的实现原理相同,本实施例主要以图2所示结构为主进行说明。
在本系统中,图形发生器还连接有录像机,图形发生器可将录象机输出的活动图像作为虚拟场景的一部分。在抠像合成器的输出还连接有监视器,用以观察抠像合成器输出图像效果,并可通过主控计算机进行控制。
图3进一步显示了跟踪子系统的结构。跟踪子系统的作用是获取摄像机的位置信息和运动数据。虚拟演播室的场景是计算机生成的三维图形,称为虚拟场景。它的运动受计算机中虚拟摄像机的控制,为保证真实摄像机的前景画面与虚拟场景“联动”,必须使这两种摄像机的位置、拍摄角度及运动状态相一致。因此,需要对真实摄像机进行实时跟踪。本系统采用机电跟踪方式,它的优点是延迟小、稳定性好、适合摄像师操作习惯、精度高、实用。在本系统中,需准确跟踪云台的PAN、TILT和镜头的ZOOM这三个自由度,PAN和TILT的测量精度为0.001度,ZOOM满足所购镜头的变焦倍数,能跟踪1个象素移动的分辨率。其构成为检测摄像机摇、俯仰底座的传感器,检测镜头聚焦和变焦的传感器,以及一个与控制计算机接口的编码盒。
参考图4,传感器的设置是在云台轴线结构间隙嵌入精密齿轮盘式结构,并采用软连接结构使齿轮组在一定的弹性压力进行啮合。齿轮盘式结构具有体积小、精度高、可靠性强的优点,即保证了传感精度又减少齿轮的磨损。因此,在不破坏原云台性能的前提下,保证了传感系统的精度。传感装置是由镶嵌在云台转轴上的齿轮盘、传感器咬合齿轮、软连接器和光电码盘组成。摇动摄像机时,云台轮盘的转动带动咬合齿轮,通过软连接器使光电码盘产生相应的转动,光电码盘将机械运动转换成电脉冲信号送至编码盒。由于机加工和装配过程中产生的误差,会造成云台转盘和咬合齿轮之间出现咬合间隙或卡死的现象,通过软连接器,可使它们之间的咬合控制在一定的弹性范围内,从而避免上述现象的发生。
参考图5,各个传感部分将各自检测到的摄像机运动数据通过9芯电缆传输到的校准小盒中与自己相对应的9芯接口上(输入接口)。传感器的信号经过接口电路进行信号整型后传人信号处理器DSP,DSP对信号进行变换运算和误差补偿,转换成转角和位移数据,经由RS485通信接口将这些运动数据传送到图形发生器上。CPU在编码盒内部由ROM内置程序控制各部分电路的工作,同时可接受外部指令进行操作,如复位、同步等。
参考图8、图9,图形发生器为基于视窗操作系统的个人电脑(PC)构成的图形发生器,包括视频采集卡,视频处理卡和遮挡卡。视频处理卡包括GeForce系列图形加速处理器;抗闪烁处理及键信号产生电路;扫描同步补偿电路、YUV分量编码器、数字同步锁相电路、SDI数字接口、AGP总线接口、PCI总线接口。主控计算机可连接串口扩展箱,以连接多个抠像合成器和视频切换台。
参考图7,由传感装置送来的传感数据经RS485接口进入图形发生器,图形发生器即时响应新的摄像机位置参数,匹配相应的虚拟摄像机,从而新的场景图像。三维虚拟场景的模型参数,包括模型大小、位置、表面贴图等属性,在系统启动后经由AGP总线加载到64M显存中。Geforce图形处理器根据摄像机运动参数,将各模型进行计算,生成场景并送入64M缓存。经过抗闪烁处理和键处理后送到输出接口部分电路。SDI数字接口和YUV分量编码器将场景数据转换成不同格式的电视信号,连接至扣像器或切换台进行画面合成。在应用中由于场景信号要和前景的视频信号进行同步合成,因此图形发生器需要接受外部信号的同步。外部同步信号输入到数字同步锁相电路,锁定图形发生器的输出时钟,通过扫描同步和补偿电路,使64M缓存的场景在输出时与外部信号同步。电路的状态控制是由图形发生器的CPU经PCI总线设置PCI接口控制器进行的。
图形发生器的作用在于实时生成三维虚拟运动场景。虚拟演播室系统的场景是计算机绘制的图形。三维虚拟场景中的景物具有Z方向的厚度,是立体的;二维场景则没有厚度,只是一个平面图形。所以二维虚拟场景只能作为背景平面,出现在真实人物的后面。而在三维场景中,虚拟景物既能作为真实人物的背景出现,也能作为前景出现,并且真实人物还能围绕虚拟场景运动,因而在视觉效果上更具纵深感,更加真实。
本虚拟演播室的场景需由三维动画软件建立虚拟场景。在前期的3D建模中,材质、灯光、阴影等建立得越细致,虚拟场景看起来就越逼真、漂亮。虚拟场景的各个部分与实景画面之间的位置关系可以通过PC机的定位与校准软件进行控制。虚拟物体可以出现在真实人物的面前,也能出现在人物的后面。这样,合成画面富于层次,在视觉上也更据立体感、更真实。
由摄像机拍摄的或由录像机播出的活动画面都可以输入到背景图像发生器中,作为虚拟场景的一部分出现在背景画面中。这种形式不仅增强了节目的现场感,使节目形式更加丰富多彩,还能节约演播室在大屏幕、数字特技等方面的投资。但是,当活动视频被放大到充满整个画面时,画面就显得比较粗糙和模糊。所以活动视频只能以小画面的形式出现。
虚拟背景生成系统作用在于跟踪真实摄像机的位置和运动信息,在计算机上实时生成运动的3D虚拟场景。其主要技术指标包括实时3D虚拟场景生成;实时摄像机参数的接收、处理;虚拟摄像机运动模型的建立与实时跟踪;接收一路视频,完成虚拟场景的视频开窗;虚拟背景显示尺寸为720*576;每秒实时生成25帧画面。
图形发生器还具有如下的系统管理功能系统工作前对各子系统状态的获取,各子系统准备好后向主控PC发消息。包括两台摄像机跟踪器、图形发生器、切换台的开/关状态;系统启动的同步协议;系统初始化参数设置,主要在系统安装时使用。主要参数包括演播室参数、摄像机参数、切换台参数;虚拟场景管理。主要包括3D建模、虚拟摄像机的操作、虚拟摄像机的初始位置设置、虚拟背景上的视频开窗管理、主界面上的视频监视;视频、音频同步切换。
遮挡关系的实现在虚拟演播室中,由与真实蓝箱的几何大小有限,摄像机进行推拉摇移等运动时,摄像机镜头拍摄的图像有超出蓝箱的区域,为此必须把这一区域遮住,否则这一区域会出现在最终的视频中,影响合成效果。可以通过如下方法实现(1)通过对真实天花板建模,我们要知道蓝箱的几何尺寸,摄像机的位置、方向、视域,通过为虚拟场景建一个天花板模型并且创建前景掩膜,在alpha缓存中产生一个水平带。将这个水平带输入到色键器,与前景、背景一起合成时,可以遮住不需要的区域。
(2)在合成设备中控制键窗口(在虚拟布景中无天花板也可以使用)。在色键器中一般都有控制键窗口的功能,即控制抠像合成时的窗口,前景进行抠像时即将不需要的区域排除在键窗口之外,使得在合成时该区域为三维虚拟背景,达到遮挡的效果。
演员在蓝箱中表演时没有任何道具,而要在合成图像中体现三维的效果,就需要实现虚拟场景中的物体与演员的遮挡关系,将虚拟场景中的物体如桌子、门和柱子等调度到人物的前面,使人物在虚拟场景中有穿插的效果,在加强画面真实感的同时,也丰富了整体画面的层次感。
本系统采用掩膜(Mask)技术来实现遮挡,同时还实现了无限蓝箱技术。掩膜技术是通过遮挡关系来生成键信号。
FG掩膜从背景信号中生成,外部键标识盖住前景的背景区域在alpha缓存中渲染,以4:0:0的格式输出,直接给色键器。
BG掩膜从前景信号中生成,盖住背景信号的部分区域。
Garage掩膜蓝箱的天花板可能较低或对于宽角度拍摄来说太窄。由此需要知道蓝箱的几何尺寸,摄像机的位置、方向、视域,以便于产生garbage掩膜遮住蓝箱中真实天花板。通过为虚拟布景建一个天花板模型并且创建前景掩膜,在alpha缓存中产生一个水平带。
对真实蓝箱建模,摄像机的位置、方向、视域可以通过摄像机跟踪系统得到,在计算机中通过得到的参数和蓝箱模型实时计算出摄像机拍摄的图像中超出真实蓝箱的区域,在这个区域内填充像素,在alpha缓存中渲染;依据前景、背景以及遮挡关系,将用于遮挡前景的三维虚拟背景中的物体的信息提取出来,在alpha缓存中渲染;将前两步在alpha缓存中渲染生成的图像合成一路视频信号,通过视频卡的alpha通道输出到色键器,作为外部键与前景、背景实时合成,输出一路体现三维的效果的视频图像。同时本发明也可采用Z-mixing技术和距离键技术实现遮挡关系。
信号同步及编码技术虚拟演播室中图形产生装置所实时生成的虚拟场景图像,需要与真实摄像机拍摄的图像严格同步,才能进行合成输出。可以选取电视台中心同步机的标准同步信号或摄像机电荷耦合单元(CCU)提供的复合视频信号作为同步源。首先对同步源信号进行同步分离,得到色同步、行同步及场同步信号,通过数字锁相环进行同步锁相,然后分别同步象素时钟、行同步时钟及场同步时钟,使上述时钟序列与系统保持频率和相位的一致。放置在缓冲存储器中的虚拟场景图像数据严格按照象素时钟、行同步时钟及场同步时钟提供的时序进行输出,从而使虚拟图像和真实图像保持同步。
本系统对虚拟图像进行了抗闪烁抖动、抗锯齿的处理。计算机产生的图像与CCD感光图像不同,没有图像的灰度过渡效应。由于电视扫描分为奇偶场为隔行扫描,单场刷新频率为25Hz,计算机图像中的单水平线和离散单象素点在电视图像上会出现闪烁抖动。采用梅花形采样HRAA算法,使原图像的单线、点在周边产生1/2、1/4亮度点,这样在奇偶场均有该线、点的特征显示,消除了闪烁抖动,同时也减弱了锯齿现象。由于采用的是弱亮度补偿,因此保证了图像的清晰度。虚拟图像的并行RGB数据要经过编码处理,形成标准PAL制式电视信号。本系统采用YUV模拟分量编码和SDI串行数字分量编码两种方式。
在3D加速卡中采用了核心IC-GeForce系列,NVIDIA在GeForce系列芯片中集成了5700万个晶体管,而且是采用了0.15微米技术。GeForce系列架构配备了4条象素管线,每条管线配备2个材质单元,GeForce系列可以让两个象素管线同时处理一个4纹理象素。GeForce系列核心时钟频率是200MHz,象素填充率和材质填充率为200MHz×4个象素管线=800Mpixels/s
200MHz×4个象素管线×2个材质单元每管线=1600Mtexels/sGeForce系列板卡配备64MB of DDR SDRAM,显存时钟频率是230MHz×2(也就是460MHz),GeForce系列理论显存带宽是7.36GB/s460MHz×(128bit bus/8=16 bytes)=7360MB/s应用该技术在GeForce系列中最大限度的提高230MHz DDR带宽的利用效率。交叉显存控制技术(Crossbar memory controller)目前的内存控制器一般都可以传输256bit的数据(其实是把256bit分成2个128bit数据分为两次传输,因为DDR可以在时钟周期的上升沿和下降沿都能传输数据)。不过问题是当传输一个小的三角形数据——这些数据可能只有64bit的时候,传统的内存控制器会用256bit的能力来传输这些64bit数据,也就是说带宽利用率只有25%其余的75%都被浪费了。GeForce系列采取了把显存控制器分成4个显存控制器的方法来提高效率,这4个显存控制器之间以及它们同GPU之间都相互联系、通讯协同合作。每个显存控制器都能独立传输64bit数据,或者协同工作传输256bit数据。未来的游戏为了得到更加逼真的效果,小三角形的使用量会更多,GeFroce3采用交叉显存控制技术能更好的适应这种情况。无损Z轴向压缩算法(lossless Z compression algorithm)这是LMA架构中又一个提高显存带宽利用效率的技术,这项技术同RADEON采用的技术相类似。决定3D场景中的物体景深的就是Z轴向坐标,无损Z轴向压缩算法可以减少Z轴向数据的大小,但是却不会减少数据的精度,同样画质也不会因此受到影响。Z轴遮挡选择算法(Z-Occlusion Culling)这是一项类似于ATI的HierarchicalZ技术,主要通过一定的算法来验证某些象素是否能够被看得见,从而决定是否对其进行处理和渲染。如果一些象素被确定是不可见的,那么显示芯片将不会对其进行渲染,从而大量减少无用数据的生成,节约大量的带宽。一般的3D游戏的精神复杂程度是2,也就是说对于每一个可见象素需要渲染两次才能得到我们看到的结果,可见如果能真正的实现这种处理,带宽的利用率的提高不是一点两点,也就是说在目前的GPU运算能力下,我们还能得到更逼真、更复杂的游戏效果。
“vertex shader”的技术使这些可编程管线能实时产生无限量逼真的图象效果,这个就是nfiniteFX名字的由来。任何的3D对象都是有若干个三角形组成的,每个三角形都由若干条线组成,两天线的校点就是一个顶点(vertex)。vertex shader就是一种图形处理功能,通过处理3D场景中的的对象的顶点,为3D对象加上特殊效果。GeForce系列具有的可编程的vertex shader给了程序设计师的设计空间极大的弹性,Vertex数据属性包括数据x、y、z轴向坐标,色彩,光照,材质指令等等,vertex shader可以控制所有的这些属性。你可以想象vertex shader为一个具有运算功能的盒子,这个功能能对vertex所有的属性进行设定(但是它不会删除或者创建任何数据)只是改变vertex的属性,比如各个轴向的坐标、透明度、颜色等等。当然不是每一个进入盒子的vertex都会被改变属性,而是按照程序的要求来进行的。在GeForce系列中,vertex shader处理单元同硬件T&L处理单元是并行的,也就是说如果vertexshader正在运行,那么硬件T&L单元一定是在休息的。不过图形对象虽然只是经过了vertex shader处理单元处理而没有经过硬件H&L单元处理,但是输出结果依然是经过完全的几何转换和光照处理过的顶点。DirectX 7应用程序利用的是静态T&L原理,所以需要经过硬件T&L处理单元的处理,而复合DirectX8以及以上的应用程序利用的是vertex shader处理单元,而不经过硬件T&L单元的处理可见GeForce系列充分兼容以前的程序,同时又能支持新程序。
在本系统中对象素的处理采用了梅花形采样法,即利用相邻象素的采样点数据计算出来每一个象素最终结果。参阅图9利用梅花形采样实际上每个象素都只是采样2点,也就是说只需要超级采样的2点采样的计算能力,就能得到相当于4点采样的图象质量。请看下表以及图10

梅花形采样在各个分辨率下,只是需要2点采样的资源就能达到4点采样的效果,而比4点采样少用了一般的资源,另外还可以看得出来,梅花形采样当分辨率越高表现出来的优势就越明显。
由于系统在保持优异性能的前提下解决了虚拟场景发生装置和摄像机跟踪装置的造价问题,从而使其应用能够得以普及。可广泛应用于模拟驾驶训练,模拟航天器、船舶、飞行器运行,虚拟游戏、婚纱摄影等领域。
模拟驾驶训练将摄像机跟踪系统装配于相应的驾驶平台上,如档位、油门等。可虚拟实景产生相应的联动效果,驾驶人员可通过视觉感知驾驶效果。
模拟航天器、船舶、飞行器运行将运动对象(航天器、船舶、飞行器等)的运动姿态,通过遥测系统编码后通过本系统的摄像机数据通道送入图形产生系统,即可使虚拟运动对象产生联动。使得在肉眼不可观察的情况下,提供效果清晰的真实运动的虚拟物体的可视图像。
权利要求
1.一种真三维虚拟演播室系统,其特征在于包括一摄像机用于获取前景图像;一跟踪子系统设置于摄像机上,用于获取摄像机运动参数;一延时器其输入与摄像机的输出连接,用于对摄像机输出的视频信号延时;一图形发生器一输入与跟踪子系统的输出连接,根据摄像机的运动参数生成虚拟的三维场景;一抠像合成器其输入分别与延时器和图形发生器连接的输出连接,将前景图像和三维场景进行图像合成;主控计算机通过信号线与图形发生器连接,用于控制图形发生器;录像设备其输入与抠像合成器输出连接,用于录制合成的图像。
2.根据权利要求1所述的真三维虚拟演播室系统,其特征在于所述的跟踪系统为机械式跟踪子系统,包括感器和编码盒,所述的传感器设置在摄像机上,其输出与编码盒连接,所述编码盒通过一接口与所述图形发生器连接;
3.根据权利要求2所述的真三维虚拟演播室系统,其特征在于所述传感器包括两个设置在云台上分别用于检测摄像机摇和俯仰的传感器,一个设置在镜头上用于检测镜头聚焦和变焦的传感器。
4.根据权利要求2或3所述的真三维虚拟演播室系统,其特征在于所述摄像机支持架上设置有位移传感器,用于实时采集摄像机平移时的位移数据。
5.根据权利要求1所述的真三维虚拟演播室系统,其特征在于所述的图形发生器为基于视窗操作系统的PC图形发生器,包括视频采集卡,视频处理卡和遮挡卡。
6.根据权利要求4所述的真三维虚拟演播室系统,其特征在于所述视频处理卡包括GeForce系列图形加速处理器、抗闪烁处理及键信号产生电路、扫描同步补偿电路、YUV分量编码器、数字同步锁相电路、SDI数字接口、AGP总线接口、PCI总线接口。
7.一种真三维虚拟演播室系统,其特征在于包括至少两台摄像机用于获取前景图像;至少两套跟踪子系统每一跟踪子系统设置于一摄像机上,用于获取摄像机运动参数;至少两个延时器每一延时器的输入与分别与一摄像机的输出连接,用于对摄像机输出的视频信号延时;至少两个图形发生器每一图形发生器的输入与一跟踪子系统的输出连接,根据摄像机的运动参数生成虚拟的三维场景;至少两个抠像合成器每一抠像合成器的输入分别与一延时器和一图形发生器连接的输出连接,将前景图像和三维场景进行图像合成;视频切换台其输入与抠像合成器的输出连接,用于切换抠像合成器的输出;主控计算机通过网络方式与图形发生器连接,用于控制图形发生器;录像设备其输入与切换台的输出连接,用于录制合成的图像。
8.根据权利要求7所述的真三维虚拟演播室系统,其特征在于所述的跟踪系统为机械式跟踪子系统,包括感器和编码盒,所述的传感器设置在摄像机上,其输出与编码盒连接,所述编码盒通过一接口与所述图形发生器连接;
9.根据权利要求8所述的真三维虚拟演播室系统,其特征在于所述传感器包括两个设置在云台上分别用于检测摄像机摇和俯仰的传感器,一个设置在镜头上用于检测镜头聚焦和变焦的传感器。
10.根据权利要求8或9所述的真三维虚拟演播室系统,其特征在于所述摄像机支持架上设置有位移传感器,用于实时采集摄像机平移时的位移数据。
11.根据权利要求7所述的真三维虚拟演播室系统,其特征在于所述的图形发生器为基于视窗操作系统的PC图形发生器,包括视频采集卡,视频处理卡和遮挡卡。
12.根据权利要求11所述的真三维虚拟演播室系统,其特征在于所述视频处理卡包括GeForce系列图形加速处理器、抗闪烁处理及键信号产生电路、扫描同步补偿电路、YUV分量编码器、数字同步锁相电路、SDI数字接口、AGP总线接口、PCI总线接口。
13.一种真三维虚拟演播室的实现方法,其特征在于由摄像机获取前景图像,并通过跟踪系统获取摄像机的运动参数;由延时器对摄像机输出的视频信号进行延时;图形发生器根据摄像机的运动参数实时生成三维虚拟场景的背景信号和遮掩信号;将延时后的视频信号、三维虚拟场景的背景信号和遮掩信号在抠像合成器中进行图像合成并输出至录像设备。
14.根据权利要求13所述的真三维虚拟演播室的实现方法,其特征在于通过机械式跟踪系统获取摄像机的摇、俯仰、平移及聚焦和变焦参数。
15.根据权利要求14所述的真三维虚拟演播室的实现方法,其特征在于由机械式跟踪系统中的传感器获取摄像机的运动信息,并将其转换成电信号输出至编码盒,通过编码盒将运动参数输出至图形发生器。
16.根据权利要求13所述的真三维虚拟演播室的实现方法,其特征在于所述的图形发生器采用PC图形工作站,并在视窗操作系统下实时生成三维虚拟场景。
17.根据权利要求15所述的真三维虚拟演播室的实现方法,其特征在于PC图形工作站中进一步包括对生成的三维虚拟场景进行图形加速处理和抗闪烁处理。
18.根据权利要求13所述的真三维虚拟演播室的实现方法,其特征在于通过复数个摄像机获取前景图像,由每一摄像机对应一个跟踪系统、延时器、图形发生器和抠像合成器而形成复数个图像通道。
19.根据权利要求18所述的真三维虚拟演播室的实现方法,其特征在于在录像设备前通过视频切换台对复数个抠像合成器的输出进行切换。
20.根据权利要求18所述的真三维虚拟演播室的实现方法,其特征在于所述的复数个图形发生器通过联网实现场景多层面、多角色动画三维场景。
全文摘要
本发明公开了一种真三维虚拟演播室系统及实现方法,包括机械跟踪子系统、图形发生器和抠像合成器等。首先由一组摄像机采集前景视频信号(FG),同时摄像机上的机械跟踪系统实时提供摄像机移动的信息,这些信息需要实时传给图形发生器,图形发生器根据当前摄像机的位置实时地绘制出相应的背景信号(BG)和掩蔽(mask)信号。然后,由合成系统根据掩蔽信号来合成FG与BG,形成最终图像输出。本发明采用一对一的通道化的设计结构方式,使得系统的搭接安全可靠,保证了系统的稳定运行,同时在还保持系统性能的前提下解决了图形发生器和摄像机跟踪装置的造价问题,从而使其应用能够得以普及。
文档编号H04N5/222GK1477856SQ0212892
公开日2004年2月25日 申请日期2002年8月21日 优先权日2002年8月21日
发明者郑福双 申请人:北京新奥特集团
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1