立体图形处理方法和设备的制作方法

文档序号:8002313阅读:294来源:国知局
立体图形处理方法和设备的制作方法
【专利摘要】本发明涉及一种立体图形处理方法和设备。该方法包括如下步骤:将3D场景的视点定义为左眼视点和右眼视点之间的中心点;基于该定义的视点和3D应用的图形数据绘制该3D场景以形成一幅深度图,该深度图描述其中每个像素的深度值;基于所述每个像素的深度值,计算所述每个像素的用于形成左眼图像的左视差和所述每个像素的用于形成右眼图像的右视差;以及基于所述计算的左视差和右视差形成所述左眼图像和所述右眼图像。本发明的方法具有多个优点,例如,能够降低计算工作量,提供计算速度,可以调节深度感知、节约功耗和成本等等。
【专利说明】立体图形处理方法和设备

【技术领域】
[0001]本发明总体涉及图形处理、30显示以及30显示设备。更具体地,本发明涉及一种立体图形处理方法和设备。

【背景技术】
[0002]30显示设备,包括但不限于30计算机、30电影、30电视和30投影仪,在娱乐产业和消费者电子工业中已经越来越流行。为了吸引并使更多的用户满意,逼真的立体效果和快速的计算速度变得越来越重要。
[0003]通常,30显示设备至少是借助于立体观测能够向观众传递深度感知的立体显示设备。立体观测是指,当观察者用双眼观看视觉场景时,能够感知到深度景象。由于人的双眼处于头部的位置不同,双眼视觉在人的双眼中形成两幅具有细微差别的图像。这些差别被称为双眼视差,其能够提供大脑能使用的信息以用于计算该视觉场景的深度,因而双眼视差是使人获得深度感知的主要手段。
[0004]立体显示的基本技术是通过向左眼和右眼单独地显示有偏差的图像以提高深度感知,从而提供立体效果。对此,一种提高大脑中深度感知的方法是向观察者的双眼提供立体对图像,即,两幅不同的图像。这两幅分别表示同一个物体的两个景象的图像具有微小的偏差,该偏差与双眼自然接收到两个景象之间的偏差相同。这两幅具有偏差的20图像然后在大脑中被合成以提供30深度感知。
[0005]为了在30显示设备中形成立体效果,通常通过图形处理单元(⑶们来处理视觉场景。该形成立体对图像,即,左眼图像和右眼图像,其中每个图像为透视图像,观察每个图像的视点(或观察点,或相机)相对于观察另一个图像的视点在位置上具有水平的偏移。
[0006]迄今为止,大多数并行地产生两幅图像,然后将其合成以用于显示。例如,图1描述了一种传统的用于产生立体对图像的方法。在该方法中,30图形应用(例如30游戏和诸如30嫩X、^11^0^0等之类30建模软件)需要确定两个视点和图形数据。然后,6?^的图形管线基于这两个视点和相应的图形数据来绘制30场景从而产生两幅图像,即,左眼图像和右眼图像。绘制好的左眼图像和右眼图像分别存储在左眼帧缓冲器和右眼帧缓冲器中。然后合成器从左眼帧缓冲器和右眼帧缓冲器中获取这两幅图像并将它们转变为合适的格式以用于在30显示设备中显示。
[0007]在图1所示的方法中,有两种方法来设置两个视点并绘制两幅图像。一种方法是“内倾“06-110”方法,然而,在本领域中,这种方法会引入产生视觉扭曲的垂直视差。因而更优选的是另一种图2所示的轴偏移法。如图2所示,为了将投影平面230设置在零视差的位置,将左眼视点210向左偏移并将右眼视点220向右偏移,同时保持这两视点相互平行。这种偏移使得平行投影的视锥240、241是不对称的,即,基于每个视点的最终投影会显示其轴线一侧的场景对于另一侧的场景。这种轴偏移法利用负视差(其中,物体看起来会位于投影平面前方?、正视差(其中,物体看起来会位于投影平面后方)和零视差(其中至少一部分场景位于投影平面上)以允许形成不具有垂直视差的更平衡的立体图像。


【发明内容】

[0008]图1所示的形成立体图像对的现有的方法具有的缺点是,其帧速率仅仅只是具有一个视点的3D图形应用的帧速率的一半。该帧速率的降低会导致不可接受的显示质量问题。而且,该方法使用图2所示的轴偏移法来形成正确的立体对会导致不对称的视锥,这在GPU中是难以实施的,而且,针对该不对称的视锥,如果使用扩展的对称视锥,那么就需要对不需要的物体(250、260)进行裁剪,由此计算工作量不但会由于两次绘制而且会由于不需要的物体的裁剪而变得非常高。
[0009]此外,在上述的传统方法中,深度范围是由3D图形应用限定的,并且观察者不能基于自己的偏好而对该深度范围进行偏移。因此,该传统的方法通常只能够形成台阶式风格的效果(即,位于屏幕后方),而不能形成全息风格的效果(即,跳出屏幕的效果)。
[0010]为了克服传统的立体图形处理方法中的上述一个或多个缺陷,本发明的各个方面提供了新的立体图形处理方法和设备。
[0011]在采用第一方面的示例性实施方式中,提供了一种立体图形处理方法。该方法包括如下步骤:将3D场景的视点定义为左眼视点和右眼视点之间的中心点;基于所述定义的视点和3D应用的图形数据绘制所述3D场景并形成一幅深度图,所述深度图描述其中每个像素的深度值;基于所述每个像素的深度值,计算所述每个像素的用于形成左眼图像的左视差和所述每个像素的用于形成右眼图像的右视差;以及基于所述计算的左视差和右视差形成所述左眼图像和所述右眼图像。可选地,其中,所述基于所述定义的视点和所述3D应用的所述图形数据绘制所述3D场景包括形成一幅源颜色图像,所述源颜色图像描述其中每个像素的颜色值;以及所述基于所述计算的左视差和右视差形成所述左眼图像和所述右眼图像包括基于所述源颜色图像和所述计算的左视差和右视差形成所述左眼图像和所述右眼图像。
[0012]在采用第二方面的第二示例性实施方式中,提供了一种立体图形处理设备。该设备包括:第一绘制单元,其被设置为将3D场景的视点定义为左眼视点和右眼视点之间的中心点,并基于所述定义的视点和3D应用的图形数据绘制所述3D场景并形成一幅深度图,所述深度图描述其中每个像素的深度值;可编程计算单元,其被设置成基于所述每个像素的深度值,计算所述每个像素的用于形成左眼图像的左视差和所述每个像素的用于形成右眼图像的右视差;第二绘制单元,其被配置成基于所述计算的左视差和右视差形成所述左眼图像和所述右眼图像;以及帧缓冲器,其被设置成用于储存所述深度图、所述左眼图像和所述右眼图像。可选地,所述第一绘制单元被配置成基于所述定义的视点和所述3D应用的所述图形数据绘制所述3D场景以形成一幅深度图和一幅源颜色图像,所述深度图描述其中每个像素的深度值,所述源颜色图像描述其中每个像素的颜色值;所述第二绘制单元被配置成基于所述源颜色图像和所述计算的左视差和右视差形成所述左眼图像和所述右眼图像;以及所述帧缓冲器被配置成存储所述深度图、所述源颜色图像、所述左眼图像和所述右眼图像。
[0013]在采用第三方面的第三示例性实施方式中,提供了一种立体图形处理设备。该设备包括装置,用于将3D场景的视点定义为左眼视点和右眼视点之间的中心点;装置,用于基于所述定义的视点和3D应用的图形数据绘制所述3D场景以形成一幅深度图,所述深度图描述其中每个像素的深度值;装置,用于基于所述每个像素的深度值,计算所述每个像素的用于形成左眼图像的左视差和所述每个像素的用于形成右眼图像的右视差;以及装置,用于基于所述计算的左视差和右视差形成所述左眼图像和所述右眼图像。可选地,所述用于基于所述定义的视点和3D应用的图形数据绘制所述3D场景以形成一幅深度图的装置可包括用于形成一幅源颜色图像的装置,所述源颜色图像描述其中每个像素的颜色值;以及所述用于基于所述计算的左视差和右视差形成所述左眼图像和所述右眼图像的装置包括基于所述源颜色图像和所述计算的左视差和右视差形成所述左眼图像和所述右眼图像的
>j-U ρ?α装直。
[0014]本发明的其它方面和实施方式将在下文中描述。

【专利附图】

【附图说明】
[0015]附图以示例的方式图示了本发明,其并不构成对本发明的限制。在附图中相同的数字表示相同的部件,其中:
[0016]图1描述了一种传统的立体图形处理方法;
[0017]图2描述了图1的方法中使用的用于形成立体对的轴偏移法的示意图;
[0018]图3描述了根据本发明一个示例性实施例的立体图形处理方法的流程图;
[0019]图4描述了本发明的方法中定义的视点和视锥的示意图;
[0020]图5描述了本发明的方法中调整深度图的深度范围的示意图;
[0021]图6描述了本发明的方法中基于源颜色图像和视差来将该源颜色图像映射为目标图像的方法的示意图;
[0022]图7描述了根据本发明的示例性实施例的一种立体图形处理设备的框图;以及
[0023]图8描述了根据本发明的示例性实施方式的用于3D显示的系统。

【具体实施方式】
[0024]下面将参照附图中所示的一些实施例具体描述本发明。在下文的描述中,描述了一些具体的细节以提供对本发明的更深的理解。然而,对于本领域的技术人员来说显而易见的是,即使不具有这些具体细节中的一些,本发明也可被实施。另一方面,一些公知的工艺步骤和/或结构没有被详细描述以避免不必要地使本发明变得难以理解。
[0025]在下文中,参照附图3详细地描述了本发明的一种示例性的立体图形处理方法。
[0026]图3描述了一个示例性实施例的立体图形处理方法的流程图;该方法包括下面的步骤。
[0027]如图3所示,在步骤310,可使用GPU绘制单元来将3D场景的视点定义为左眼视点和右眼视点之间的中心点。具体地,如图4所示,其显示了本发明中定义的视点以及视锥。在该步骤中,3D场景的视点被定义为左眼视点410和右眼视点420之间的中心点430,从中心点430至投影平面450的视锥440是对称的。由此,能够避免上文中所描述的不对称的视点视锥所导致的缺陷。此外,下文中所描述的,这也能够降低计算工作量,并提高计算和处理速度。
[0028]在步骤320,可以通过GPU绘制单元来基于所述定义的视点和3D应用的图形数据绘制该3D场景以形成一幅深度图,该深度图描述该深度图中的每个像素的深度值。或者,在该步骤中,该绘制单元还基于所述定义的视点和30应用的图形数据绘制该30场景以形成一幅源颜色图像7),该源颜色图像描述该图像中的每个像素的颜色值。该源颜色图像与所述深度图是相关联的,即,所述深度图中的每个像素与所述源颜色图像中的每个像素是一一对应的。所述深度图和所述源颜色图像可以同时形成,或者,所述深度图可以在所述源颜色图像形成之前或之后形成。
[0029]在步骤330,基于所述每个像素的深度值,可使用可编程计算单元来计算所述每个像素的用于形成左眼图像的左视差和所述每个像素的用于形成右眼图像的右视差。所述每个像素的左视差或右视差表示每个像素应当被移动的水平偏移,以便形成所述左眼图像和右眼图像。
[0030]如在步骤310中所述的,30场景的视点被定义为左眼视点和右眼视点之间的中心点。因此,能够简化左视差和右视差的计算,因为该左视差和右视差是对称的。从而在左视差和右视差中的一个被计算出以后,就可以容易地得出另一个。
[0031]在一个示例性实施例中,步骤330中所述的左视差和右视差的计算方法如下。因为30场景的视点被定义为左眼视点和右眼视点之间的中心点,所以每个像素的左视差和右视差的绝对值是相同的。因此,如果左视差为016;1,那么右视差比#,则为:
1) =-1)
[0032]该左视差&或者右视差为每个像素的深度值“4”和30显示设备的显示宽度评的函数。用于计算该左视差016;1和该右视差&的函数定义如下:
0他 01-
其中,(1表示每个像素的深度值;1表示显示设备的显示宽度,例如图8中所示的显示设备810。图8中的该显示设备可以是30显示设备(例如,需要被动式眼镜的显示设备)或者带有主动式快门眼镜的20显示设备。
[0033]在一个示例性实施例中,为了满足观察者的偏好,该深度图的深度范围能够被偏移以产生不同的视觉效果。图5显示了偏移深度图的深度范围的示意图。如图5所示,如果将深度范围向前偏移3,则将会产生跳出屏幕的视觉效果。如果将深度范围向后偏移入,则将会产生“潜入”的视觉效果。同时,如果深度范围被偏移,那么上述的用于计算每个像素的视差的函数被重新定义为:
0160 01- 0。郝二?((1,如的)!」^38,评)
其中,印访」3匕8”表示深度图的深度范围被偏移的值。为了简化视差的计算且不影响视觉效果,该函数可被简化为:
0160 01--
其中默认系数0.05彡&彡0.2。优选地,&为0.15。
[0034]在一个示例性实施方式中,所述(1印访」31%例如可以设置在0-255之间,当然,该(1印访也可以是其它值。并且观察者可以通过与可编程计算单元通信的远程控制或其它控制单元来偏移所述(1印访31%。从而观察者能够给予他们的偏好来偏移该如的I131^8以体验逼真多样的显示效果。当(161)1:1031218设置为0时,所有物体都在屏幕的后方。当该(161)1:1031218被设置为255时,所有物体在屏幕的前方。
[0035]如上所述,当偏移所述(1印访」3匕8时,能够计算每一个像素的左视差和右视差。在左视差和右视差之一被计算出以后,另一个视差能够被容易地推出,因为其实被计算的视差的负值。这使得计算和处理更加简单和迅速。
[0036]然后,如步骤340所示,可使用绘制单元来基于所述源颜色图像和所述计算的左视差和右视差形成所述左眼图像和所述右眼图像。例如,对于在源颜色图像中的位置(X,y)处的每一个像素,其左视差和右视差分别为Dleft和Dright。然后,目标左眼图像left_img(x, y)和右眼图像 right_img(x, y)则为:
left_img (x, y) =src_img (x+Dleft, y)
right_img (x, y) =src_img (x+Dright, y)
[0037]图6为形成目标左眼和右眼图像的映射方法示意图。例如,对于在源颜色图像中的位置(x,y)处的像素P (x,y),其具有颜色值。如果该像素P (x,y)右视差是+2,那么就将目标右眼图像中的位置(x+2,y)处的颜色值设置为该源颜色图像中的该像素P (X,y)的颜色值。由此,就可获得目标右眼图像。通过类似的映射方法,也能够形成目标左眼图像。
[0038]然后,可将形成的左眼图像和右眼图像转变成合适的格式并发送到显示设备用于显示,例如图8所示的显示设备810。
[0039]另外,在步骤340之后,为防止形成的左眼图像和右眼图像由于遮挡而产生扭曲,可增加一个平滑步骤以降低该左眼图像和右眼图像的扭曲。例如,可以使用平滑过滤器来平滑该左眼图像和该右眼图像以降低由于遮挡而产生的扭曲。
[0040]图7显示了本发明的示例性的立体图形处理设备600的实施例的框图。如图6所示,该立体图形处理设备600包括第一绘制单元610、帧缓冲器620、可编程计算单元630和第二绘制单元640。
[0041]该第一绘制单元610被设置成将3D场景的视点定义为左眼视点和右眼视点之间的中心点,并且基于该定义的视点和3D应用的图形数据绘制该3D场景以形成一幅深度图,该深度图描述其中每个像素的深度值。该深度图存储在帧缓冲器620中。可选地,该第一绘制单元可以被配置成基于该定义的视点和3D应用的图形数据绘制该3D场景以形成一幅深度图和一幅源颜色图像,该深度图描述其中每个像素的深度值,该源颜色图像描述其中每个像素的颜色值。
[0042]基于所述每个像素的深度值,可编程计算单元630计算所述每个像素的用于形成左眼图像的左视差和所述每个像素的用于形成右眼图像的右视差。该可编程计算单元630可以选择和执行用于计算该每个像素的左视差或者右视差的函数。然后,在左视差和右视差之一被计算出来以后,另一个就可简单地推导出。
[0043]该第二绘制单元640被配置成基于所述计算的左视差和右视差形成左眼图像和右眼图像。该左眼图像和右眼图像都存储在帧缓冲器620中,并且能够被进一步转变成适当的格式并传送给显示设备以用于显示。可选地,该第二绘制单元640可被配置成基于所述源颜色图像和所述计算的左视差和右视差形成左眼图像和右眼图像。可选地,所述帧缓冲器620被配置成存储所述深度图、所述源颜色图像、所述左眼图像和所述右眼图像。
[0044]在一个实施例中,在将该左眼图像和右眼图像发送给显示设备之前,可以使用平滑过滤器来平滑该左眼图像和右眼图像以改善这两幅图像的质量,从而改善3D显示效果。
[0045]本发明还提供了一种用于3D显示的系统,其包括根据本发明的实施方式的立体图形处理设备,例如上文中所描述的立体图形处理设备600。例如,图8描述了一种示例性的用于3D显示的系统800。该系统800可包括立体图形处理设备600和与该立体图形处理设备通信连接的显示设备810。该显示设备810能接收由该立体图形处理设备600形成的左眼图像和右眼图像。该显示设备810可以是包括30设备的任何显示设备。通过与该显示设备810连接的1/0设备830,例如主动式快门眼镜,观察者能够从该显示设备感受到30视觉效果。在另一个实施方式中,该显示设备810可以是30显示设备。通过被动式眼镜,观察者能够从该30显示设备欣赏到30效果。
[0046]在一种实施方式中,所述系统800可进一步包括与所述立体图形处理设备600中的所述可编程计算单元通信连接的1/0设备820,例如远程控制单元,从而观察者可以根据他们的偏好来偏移所述深度图的深度范围以欣赏更逼真的显示效果。
[0047]在一个或更多的实施例中,本发明的方法可以用硬件、软件、固件或者它们的任意组合来实施。如果以软件来实施,那么用于实现本发明的立体图形处理方法的各步骤的功能的计算机可读代码可以存储在计算机可读介质中。本发明的计算机可读介质的例子包括但不限于:磁介质,如硬盘、软盘和磁带;光介质,如0)-801和全息设备;磁-光介质,如光软盘;以及为了存储和执行程序代码专门配置的硬件设备,如专用集成电路(八310、可编程逻辑器件$0))以及801和器件。所述计算机可读代码能够被一个或更多的处理单元例如图形处理单元执行。
[0048]与传统的方法和系统相比较,本发明能够降低传统的方法中形成左眼图像和右眼图像的计算复杂性,从而能够提高计算速度。同时,由于较低的计算工作量,本发明能够降低能耗以及立体图形处理设备的成本。此外,由于本发明只需要确定一个视点,因此本发明能够支持立体显示而无需修改不支持两个视点的现有30应用。而且,基于观察者的偏好,本发明中的深度图的深度范围能够被偏移,这能够产生诸如跳出屏幕逼真的效果。
[0049]对于本领域的技术人员来说显而易见的是,上文描述的实施方式仅仅是示例性的,不能认为是对本发明的显示。并且可以在不背离本发明的精神和权利要求的范围的情况下对本发明作不同的修改和变型。因此,如果对本发明的修改和变型落入了权利要求和它们的等同物的范围内,那么应当认为本发明覆盖了对本发明所描述的不同实施例的修改和变型。
【权利要求】
1.一种立体图形处理方法,该方法包括: 将3D场景的视点定义为左眼视点和右眼视点之间的中心点; 基于所述定义的视点和3D应用的图形数据绘制所述3D场景以形成一幅深度图,所述深度图描述其中每个像素的深度值; 基于所述每个像素的深度值,计算所述每个像素的用于形成左眼图像的左视差和所述每个像素的用于形成右眼图像的右视差; 以及基于所述计算的左视差和右视差形成所述左眼图像和所述右眼图像。
2.根据权利要求1所述的方法,其中: 所述基于所述定义的视点和所述3D应用的所述图形数据绘制所述3D场景包括形成一幅源颜色图像,所述源颜色图像描述其中每个像素的颜色值;以及 所述基于所述计算的左视差和右视差形成所述左眼图像和所述右眼图像包括基于所述源颜色图像和所述计算的左视差和右视差形成所述左眼图像和所述右眼图像。
3.根据权利要求1或2所述的方法,其中所述计算每个像素的左视差和右视差包括: 选择用于计算所述左视差和右视差之一的函数; 执行所述选择的函数以计算所述左视差和右视差之一; 基于计算出的所述左视差和右视差之一,得出所述左视差和右视差中的另一个。
4.根据权利要求3所述的方法,其中所述用于计算所述左视差和右视差之一的函数包括:
Dleft 或 Dright= (d - depth_bias) XkXff 其中Dleft表示所述左视差;Dright表示所述右视差;d表示每个像素的深度值;cbpth_bias表示被偏移的深度图的深度范围的值;W表示显示设备的显示宽度;以及0.05 ^ k ^ 0.2 ; 并且,所述左视差和右视差中的另一个是所述计算出的所述左视差和右视差之一的负数。
5.根据权利要求1或2所述的方法,还包括: 平滑所述形成的左眼图像和右眼图像。
6.根据权利要求1或2所述的方法,还包括: 在计算所述左视差和右视差之前偏移所述深度图的深度范围。
7.根据权利要求4所述的方法,还包括: 在计算所述左视差和右视差之前偏移所述深度图的深度范围。
8.一种立体图形处理设备,该设备包括: 第一绘制单元,其配置成将3D场景的视点定义为左眼视点和右眼视点之间的中心点,并基于所述定义的视点和3D应用的图形数据绘制所述3D场景以形成一幅深度图,所述深度图描述其中每个像素的深度值; 可编程计算单元,其被配置成基于所述每个像素的深度值,计算所述每个像素的用于形成左眼图像的左视差和所述每个像素的用于形成右眼图像的右视差; 第二绘制单元,其被配置成基于所述计算的左视差和右视差形成所述左眼图像和所述右眼图像;以及 帧缓冲器,其被配置成存储所述深度图、所述左眼图像和所述右眼图像。
9.根据权利要求8所述的设备,其中: 所述第一绘制单元被配置成基于所述定义的视点和所述3D应用的所述图形数据绘制所述3D场景以形成一幅深度图和一幅源颜色图像,所述深度图描述其中每个像素的深度值,所述源颜色图像描述其中每个像素的颜色值; 所述第二绘制单元被配置成基于所述源颜色图像和所述计算的左视差和右视差形成所述左眼图像和所述右眼图像;以及 所述帧缓冲器被配置成存储所述深度图、所述源颜色图像、所述左眼图像和所述右眼图像。
10.根据权利要求8或9所述的设备,其中为了计算所述每个像素的左视差和右视差,所述可编程计算单元被配置成选择用于计算所述左视差和右视差之一的函数,执行所述选择的函数以计算所述左视差和右视差之一,并且基于计算出的所述左视差和右视差之一,得出所述左视差和右视差中的另一个。
11.根据权利要求10所述的设备,其中所述用于计算所述左视差和右视差之一的函数包括:
Dleft 或 Dright= (d - depth_bias) XkXff 其中Dleft表示所述左视差;Dright表示所述右视差;d表示每个像素的深度值;cbpth_bias表示被偏移的深度图的深度范围的值;W表示显示设备的显示宽度;以及0.05 ^ k ^ 0.2 ; 并且,所述左视差和右视差中的另一个是所述计算出的所述左视差和右视差之一的负数。
12.根据权利要求8或9所述的设备,还包括平滑过滤器,其被配置成平滑所述形成的左眼图像和右眼图像。
13.根据权利要求8或9所述的设备,还包括与所述可编程计算单元通信的控制单元,其被配置成偏移所述深度图的深度范围。
14.根据权利要求11所述的设备,还包括与所述可编程计算单元通信的控制单元,其被配置成偏移所述深度图的深度范围。
15.一种立体图形处理设备,该设备包括: 装置,用于将3D场景的视点定义为左眼视点和右眼视点之间的中心点; 装置,用于基于所述定义的视点和3D应用的图形数据绘制所述3D场景以形成一幅深度图,所述深度图描述其中每个像素的深度值; 装置,用于基于所述每个像素的深度值,计算所述每个像素的用于形成左眼图像的左视差和所述每个像素的用于形成右眼图像的右视差;以及 装置,用于基于所述计算的左视差和右视差形成所述左眼图像和所述右眼图像。
16.根据权利要求12所述的设备,其中: 所述用于基于所述定义的视点和3D应用的图形数据绘制所述3D场景以形成一幅深度图的装置包括用于形成一幅源颜色图像的装置,所述源颜色图像描述其中每个像素的颜色值;以及 所述用于基于所述计算的左视差和右视差形成所述左眼图像和所述右眼图像的装置包括基于所述源颜色图像和所述计算的左视差和右视差形成所述左眼图像和所述右眼图像的装置。
17.根据权利要求15或16所述的设备,其中用于所述每个像素的左视差和右视差的装置包括: 装置,用于选择用于计算所述左视差和右视差之一的函数; 装置,用于执行所述选择的函数以计算所述左视差和右视差之一;以及 装置,用于基于计算出的所述左视差和右视差之一,得出所述左视差和右视差中的另一个。
18.根据权利要求17所述的设备,其中所述用于计算所述左视差和右视差之一的函数包括:
Dleft 或 Dright= (d - depth_bias) XkXff 其中Dleft表示所述左视差;Dright表示所述右视差;d表示每个像素的深度值;cbpth_bias表示被偏移的深度图的深度范围的值;W表示显示设备的显示宽度;以及0.05 ^ k ^ 0.2 ; 并且,所述左视差和右视差中的另一个是所述计算出的所述左视差和右视差之一的负数。
19.根据权利要求15或16所述的设备,还包括: 装置,用于平滑所述形成的左眼图像和右眼图像。
20.根据权利要求15或16所述的设备,还包括: 装置,用于偏移所述深度图的深度范围。
21.—种用于3D显不的系统,包括: 根据权利要求7-14中任一项所述的立体图形处理设备; 显示设备,用于从所述立体图形处理设备接收所述左眼图像和所述右眼图像。
22.根据权利要求21所述的系统,还包括与所述可编程计算单元通信的控制单元,其被配置成偏移所述深度图的深度范围。
23.根据权利要求22所述的系统,其中所述显示装置为3D显示设备。
24.根据权利要求22所述的系统,其中所述显示装置为2D显示设备。
【文档编号】H04N13/00GK104299258SQ201310294549
【公开日】2015年1月21日 申请日期:2013年7月15日 优先权日:2013年7月15日
【发明者】罗忠祥, 杨建 , 苏宏, 许春嵘 申请人:超威半导体(上海)有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1