控制立体图像视图的方法及使用该方法的立体图像显示器的制作方法

文档序号:2745190阅读:114来源:国知局
专利名称:控制立体图像视图的方法及使用该方法的立体图像显示器的制作方法
技术领域
本发明涉及一种控制立体图像视图(view)的方法及使用该方法的立体图像显示器
背景技术
立体图像显示器分为使用立体技术的显示器和使用自动立体技术的显示器。所述立体技术使用左眼和右眼的视差(disparity)图像,其具有较强的3D效果, 在实际使用中包括使用眼镜的技术和不使用眼镜的技术。使用眼镜的技术改变左右视差图 像的偏振方向,在直观(direct view)显示器或投影仪上显示左右视差图像,或者利用时间 分割方法在直观显示器或投影仪上显示左右视差图像。使用眼镜的技术是使用偏振眼镜或 液晶快门眼镜产生立体图像。不使用眼镜的技术是在显示屏的前方或后方设置用于彼此分 离左右视差图像的光轴的光学板,如视差栅栏(parallax barrier) 0使用眼镜的技术在显示器上交替显示左眼和右眼图像并切换入射到偏振眼镜上 的偏振光的特性。因此,使用眼镜的技术能在时间上分割左眼和右眼图像来产生立体图像, 而不会降低分辨率。近年来,使用立体图像的3D (三维)内容已经变得多样化,包括3D游戏、3D广告、 3D电影等。为了扩大立体图像的应用领域和内容,需要根据用户的动作适应性控制立体图 像的视角和深度。

发明内容
本发明的一个目的是提供一种控制立体图像视图的方法及使用该方法的立体图 像显示器,该方法根据用户的位置改变立体图像的左眼和右眼图像的视角和深度信息,从 而产生不限量的立体图像视图。根据本发明的一个方面,提供了一种控制立体图像视图的方法,所述方法包括检 测每个用户的位置信息并根据所述位置信息改变在显示器上显示的3D图像的视角和深度 信息;以及将用于在空间上分割来自所述显示器的光的空间分割技术、用于在时间上分割 来自所述显示器的光的时间分割技术以及用于将来自所述显示器的光分割为具有彼此不 同偏振特性的光的偏振分割技术中的至少两个技术相结合,使用所结合的技术为每个用户 分割所述3D图像,并为每个用户产生两眼视差。根据本发明的另一个方面,提供了一种立体图像显示器,其包括控制器,其根据 每个用户的位置信息改变在显示器上显示的3D图像的视角和深度信息;和3D驱动元件,其 通过使用用于在空间上分割来自所述显示器的光的空间分割技术、用于在时间上分割来自 所述显示器的光的时间分割技术以及用于将来自所述显示器的光分割为具有彼此不同偏振特性的光的偏振分割技术中的至少两个技术,为各个用户分割所述3D图像,并为每个用 户产生两眼视差。


附图包含在本申请中构成说明书的一部分,用以给本发明提供进一步的理解。附 图例示了本发明的实施方式并与说明书一起用于解释本发明的原理。在附图中图1是显示根据本发明一个实施方式的控制立体图像视图的方法流程图;图2是显示根据图1步骤S1中的摄像机图像,获得用户的位置信息的方法流程 图;图3例示了立体图像显示器和观看立体图像显示器上显示的立体图像的用户的 3D位置信息;图4例示了由图3中所示的摄像机捕获的摄像机捕获图像;图5例示了根据图1步骤S1中的红外传感器输出获得用户的位置信息的方法,其 显示了具有红外传感器的立体图像显示器和用户面部的3D位置信息;图6例示了由图5中所示的红外传感器检测到的红外接收像素位置;图7例示了图5中所示的3D偏振眼镜的红外线发射装置;图8例示了产生左眼和右眼图像的摄像机的位置根据用户的3D位置信息实时改 变的一个例子;图9例示了 3D图像的视角和深度信息根据用户位置的变化而实时调整的一个例 子;图10例示了根据本发明第一个实施方式的立体图像显示器;图11例示了通过图10中所示的动态栅栏彼此分离的左眼图像的光和右眼图像的 光;图12例示了用户看到的3D物体图像;图13例示了根据本发明第二个实施方式的立体图像显示器;图14A,14B和14C例示了根据本发明第三个实施方式的立体图像显示器;图15A,15B和15C例示了根据本发明第四个实施方式的立体图像显示器;以及图16A和16B例示了根据本发明第五个实施方式的立体图像显示器。
具体实施例方式现在将参照图1到16B详细解释本发明的实施方式。参照图1,根据本发明一个实施方式的控制立体图像视图的方法在步骤S1中根 据由图像传感器获得的图像或红外传感器的输出,同时获得多个用户(或观看者)的位置 信息。图像传感器可以是摄像机。用户的位置信息对应于包括用户面部的X轴位置信息 FaceX、用户面部的Y轴位置信息FaceY以及用户与立体图像显示器之间的距离(或Z轴位 置信息Dist)的3D位置信息。根据本发明实施方式的控制立体图像视图的方法在步骤S2中根据每个用户的3D 位置信息,调整用于呈现立体图像显示器上所显示的左眼和右眼图像的视角和深度信息的 参数。左眼图像的呈现参数FaceXL是“FaceXL = FaceX-偏移/2”,其根据每个用户面部的3D位置信息确定。右眼图像的呈现参数FaceXR是“FaceXR = FaceX+偏移/2”,其根据 每个用户面部的3D位置信息确定。这里,“偏移”对应于用户左眼和右眼之间的距离,即用 于产生左眼图像的摄像机和用于产生右眼图像的摄像机之间的距离。左眼和右眼图像的X 轴相关参数可根据每个用户的3D位置信息变化,左眼和右眼图像的Y轴和Z轴相关参数可 根据每个用户的Y轴和Z轴位置信息实时变化。根据本发明实施方式的控制立体图像视图的方法在步骤S3,S4和S5中根据左眼 和右眼图像呈现参数以及每个用户的位置信息产生左眼和右眼图像,并在立体图像显示器 上显示左眼和右眼图像。因为只要每个用户的位置信息一改变,左眼和右眼图像的呈现参 数就被刷新,所以立体图像显示器上显示的左眼和右眼图像视图根据每个用户的位置实时 变化。因此,根据本发明的立体图像显示器能实时产生根据每个用户的位置而变化的立体 图像的视角和深度信息,并给每个用户提供无限的立体图像视图。图2是显示基于图1步骤S1中的摄像机图像的用户位置检测算法的流程图,图3 例示了立体图像显示器10以及观看立体图像显示器10上显示的立体图像的用户的3D位 置信息,图4例示了由附接到立体图像显示器10的摄像机11捕获的摄像机捕获图像。参照图2,3和4,立体图像显示器10包括用于显示左眼和右眼图像的显示屏、包围 显示屏的框架和附接到框架的摄像机11。当用户位于摄像机11的视角中时,由摄像机11 捕获的图像包括用户图像。图4中所示的摄像机捕获图像包括具有根据摄像机的分辨率确 定的CW(px) XCH(px)尺寸的像素矩阵。本发明控制立体图像视图的方法分析如图4中所示的当前帧的摄像机捕获图像, 以确定在该摄像机捕获图像中是否存在前一帧中计算的用户的位置信息。在步骤S11,S12 和S13中,当在当前帧的摄像机捕获图像中存在前一帧中计算的位置信息时,本发明控制 立体图像视图的方法就将用户面部检测范围设为在前一帧中计算的用户位置周围的区域。 在步骤Sll,S12和S14中,当在当前帧的摄像机捕获图像中不存在前一帧中计算的位置信 息时,本发明控制立体图像视图的方法就将用户面部检测范围设为当前帧的整个摄像机捕 获图像。在步骤S15和S16中,本发明控制立体图像视图的方法通过利用已知的面部检 测算法,在步骤S 13或S14中设定的用户面部检测范围内检测用户的面部,以从摄像机 捕获图像提取出与用户面部对应的XYZ 3D位置信息FaceX,FaceY和Dist。尽管可使用 "Viola&Jones的面部检测算法”作为所述面部检测算法,但面部检测算法并不限于此,可使 用任何面部检测算法。由等式1,2,3和4表示Viola&Jones的面部检测算法。在等式1,2, 3和4中,参数FW(mm),SH(mm),e ),CW(px)和CH(px)是由图3和4中所示的立体图 像显示器10、摄像机11和摄像机捕获图像确定的常数,从摄像机捕获图像计算的DW(px)和 DC(px)是通过Viola&Jones的面部检测算法,根据用户的动作实时计算的变量。其中FW表 示用户的面部宽度,SH表示立体显示器10的屏幕高度,0表示用户观看立体图像的角度, CW表示摄像机捕获图像的宽度,CH表示摄像机捕获图像的高度,DW表示从摄像机捕获图像 检测到的用户面部的检测宽度,DC表示从摄像机捕获图像检测到的用户面部的检测中心。[等式1]
<formula>formula see original document page 7</formula>
这里,RPP表示“每一像素的弧度(radian) ”,CW表示摄像机捕获图像的宽度。[等式2]这里,Dist表示图3中的立体图像显示器10与用户之间的面部距离。[等式3]
<formula>formula see original document page 8</formula>
这里,FaceX表示图3中用户面部在X轴上的位置,DC. X表示从摄像机捕获图像检 测到的用户面部中心的X轴像素位置。[等式4]
<formula>formula see original document page 8</formula>这里,FaceY表示图3中用户面部在Y轴上的位置,DC. Y表示从摄像机捕获图像检 测到的用户面部中心的Y轴像素位置。如果在步骤S11到S16中从摄像机捕获图像检测用户面部失败,则在步骤S17和 S18中,本发明控制立体图像视图的方法就在摄像机捕获图像中识别出包括最宽肤色部分 的区域作为用户面部,并重新进行步骤S11到S16,以检测用户面部并提取出XYZ 3D位置信 息 FaceX, FaceY 禾口 Dist。在步骤S19中,本发明控制立体图像视图的方法将面对立体图像显示器10的用户 面部的3D位置信息FaceX,FaceY和Dist取平均,其中这些3D位置信息是通过将步骤S16, S17和S18重复预定的帧期间(例如与几十帧对应的期间)而提取的。这是为了以时间为 基础使用户位置信息变平滑化以确定最终用户面部的3D位置信息的目的,因为即使当用 户不移动时,用户位置信息仍可能随着摄像机捕获图像中包含的细微噪声而稍微变化。图5和6例示了基于图1步骤S1中的红外传感器输出的用户位置检测算法。参照图5和6,立体图像显示器10包括显示左眼和右眼图像的显示屏、包围显示屏 的框架、以及附接到框架的红外传感器12。用户佩戴具有左右红外线发射装置22L和22R 的3D偏振眼镜21。当佩戴3D偏振眼镜21的用户位于红外传感器12的感测范围内时,红 外传感器12接收来自3D偏振眼镜21的左右红外线发射装置22L和22R的红外线。红外 传感器12包括具有根据传感器分辨率确定的IRW(px) XIRH(px)尺寸的传感器矩阵,如图 6中所示。本发明控制立体图像视图的方法在图1的步骤S1中从红外传感器12的输出检测 红外接收点DPI和DP2,如图6中所示,并利用等式5到11计算用户面部的检测宽度DW、用 户面部中心点的XY坐标DC. X和DC. Y以及用户面部的3D位置信息FaceX,FaceY和Dist。[等式5]<formula>formula see original document page 8</formula>
这里,DW表示由红外传感器12检测到的左右红外线发射装置22L和22R之间的距离。[等式6]DC^DPlX+2DP2X这里,DC. X表示用户面部的中心点在X轴上的坐标值。[等式7]DC.Y-DPlY+2DP2Y这里,DC. Y表示用户面部的中心点在Y轴上的坐标值。[等式8]这里,RPPIK表示“每一像素的弧度”,IRW表示红外传感器输出的宽度。[等式9]
(FW_\
Dist=^⑴肌
tan(脚』罕)这里,Dist表示图5中立体图像显示器10与用户面部之间的距离。[等式 10]
FaceX= sin^i PP JdCJ{- ))ED/对这里,FaceX表示图5中用户面部的X轴位置,DC. X表示从红外传感器输出检测到 的用户面部中心的X轴坐标值。[等式11]
FaceY^sm(RPP))ED…-學这里,FaceY表示图5中用户面部的Y轴位置,DC. Y表示从摄像机捕获图像检测到 的用户面部中心的Y轴坐标值。IRW表示红外传感器输出的宽度,SH表示立体图像显示器 10的显示屏的屏幕高度。图7具体显示了图5中所示的3D偏振眼镜21的红外线发射装置22L和22R。参照图7,红外线发射装置22L和22R的每个都包括红外发光二极管(LED)模块 23、开关元件24和电池25。红外LED模块23包括串联或并联的一个或多个红外LED。开 关元件24根据用户的操作切换红外LED模块23与电池25之间的电流通路。尽管图5和6例示了单个用户,但也可使用摄像机或红外传感器同时检测多个用 户的位置信息。本发明控制立体图像视图的方法利用步骤S1和S2中计算的用户的3D位置信息 作为呈现参数来呈现左眼和右眼图像,如图8中所示。本发明的控制立体图像视图的方法
9不存储每一角度的3D物体的图像,该方法通过使用3D模型应用编程接口(API),如OpenGL 和Direc3D产生当位于与用户左右眼彼此之间的偏移对应的距离处的左眼和右眼摄像机 CAM1和CAM2面对3D物体时获得的左眼和右眼图像。本发明根据在步骤S1和S2中计算的 每个用户的3D位置信息,使用API实时调整在与用户左右眼彼此之间的偏移对应的位置处 的、面对同一 3D物体的左眼摄像机位置和右眼摄像机位置,即用于确定左眼和右眼图像的 视角和深度信息的参数。本发明的立体图像显示器根据随着每个用户的3D位置信息而变化的呈现参数来 呈现左眼和右眼图像,在立体图像显示器10上分离显示左眼和右眼图像,并调整立体图像 的视角和深度信息。因而,本发明的立体图像显示器根据每个用户的动作实时改变左眼和 右眼图像的呈现,从而根据每个用户的动作产生可被看见为无限量视图的立体图像。参照图9,当用户从立体图像显示器10的前方移动到左侧时,用户的3D位置信息 变化。因此,根据变化的用户3D位置信息呈现立体图像显示器10上显示的左眼和右眼图 像,因而用户能看到具有从图9的中心移到左侧的视角和深度信息的3D物体图像作为立体 图像。当用户从立体图像显示器10的前方移动到右侧时,如图9中所示,用户的3D位置信 息变化。因此,根据变化的用户3D位置信息呈现立体图像显示器10上显示的左眼和右眼 图像,因而用户能看到具有从图9的中心移到右侧的视角和深度信息的3D物体图像作为立 体图像。本发明利用用户位置检测算法实时检测每个用户的位置并根据每个用户的3D位 置信息调整3D物体图像的呈现参数。此外,本发明结合空间分割3D技术(各种视差栅栏 或透镜技术)、时间分割3D技术和偏振分割3D技术(偏振眼镜型)分离用户的3D图像,如 图10到16B中所示。因为根据空间分割技术、时间分割技术或偏振分割技术分离各个用户 看到的3D图像,所以每个用户能看到具有根据每个用户的位置实时调整的视角和深度信 息的3D图像。参照图10和11,根据本发明第一个实施方式的立体图像显示器包括显示器101、 动态栅栏103、图案延迟器104、多个偏振眼镜105和106以及3D控制器100。动态栅栏 103、图案延迟器104以及偏振眼镜105和106是为各个用户分离3D图像并产生各个用户 的两眼视差的3D驱动元件。显示器101可以是液晶显示器、场发射显示器、等离子体显示面板或者包括无机 电致发光设备和有机发光二极管(0LED)的电致发光设备(EL)。当显示器101是液晶显示 器时,在显示单元101与动态栅栏103之间布置有偏振器102。显示器101以2D模式显示 2D图像并在3D控制器100的控制下以3D模式显示根据用户位置呈现的3D图像。动态栅栏103可由液晶栅栏或者液晶透镜实现,该液晶栅栏具有其上形成有电极 的两个透明基板和形成在透明基板之间的液晶层。动态栅栏103在3D控制器100的控制 下电控液晶分子,以在空间上分割左眼和右眼图像的光。图11例示了动态栅栏103的操作 的一个例子。动态栅栏103能电控液晶分子,以在水平方向上移动透射光的透射部和阻挡 光的阻挡部的位置。因此,动态栅栏103在空间上分割入射到每个用户左眼和右眼上的光, 以产生每个用户的两眼视差。图案延迟器104包括具有不同光吸收轴的第一和第二延迟器,且其将3D图像光分 离为用于每个用户的偏振光。第一延迟器形成在图案延迟器104的奇数线上并透射通过动态栅栏103入射的光的第一偏振光(线性偏振光或圆偏振光)。第二延迟器形成在图案延迟器104的偶数线上并透射通过动态栅栏103入射的光的第二偏振光(线性偏振光或圆偏 振光)。在图10中,第一延迟器由透射右圆偏振光的偏振滤光器实现,第二延迟器由透射左 圆偏振光的偏振滤光器实现。根据从图案延迟器104投射的偏振光,偏振眼镜105和106具有不同的光吸收轴。 例如,由第一用户佩戴的第一偏振眼镜105透射从图案延迟器104的第一延迟器接收的右 圆偏振光并阻挡其他偏振成分。第一偏振眼镜105的左右镜片包括右圆偏振滤光器。由第 二用户佩戴的第二偏振眼镜106透射从图案延迟器104的第二延迟器接收的左圆偏振光并 阻挡其他偏振成分。第二偏振眼镜106的左右镜片包括左圆偏振滤光器。3D控制器100通过使用前述用户位置检测算法从摄像机或红外传感器获得每个 用户的3D位置信息。此外,3D控制器100根据每个用户的3D位置信息调整3D图像的左眼 和右眼图像的呈现参数并控制动态栅栏103。图10中所示的立体图像显示器可根据使用图案延迟器104以及偏振眼镜105和 106进行偏振分割来分离用户,并根据使用动态栅栏103进行空间分割产生每个用户的视 差。立体图像显示器通过使用摄像机或红外传感器检测每个用户的位置,调整3D图像的视 角和深度信息并控制动态栅栏103,以实现多用户追踪。因此,用户能以不同的视角不同地 观看立体图像显示器上显示的3D物体图像,并能观看到具有随着用户位置而变化的深度 信息的3D物体,如图12中所示。图13例示了根据本发明第二个实施方式的立体图像显示器。参照图13,根据本发明第二个实施方式的立体图像显示器包括显示器101、动态 栅栏103、动态延迟器134、多个偏振眼镜135和136,以及3D控制器130。动态栅栏103、动 态延迟器134以及偏振眼镜135和136是为各个用户分离3D图像并产生每个用户的两眼 视差的3D驱动元件。显示器101以2D模式显示2D图像并在3D控制器130的控制下以3D模式显示根 据用户位置呈现的3D图像。动态栅栏103可由液晶栅栏或者液晶透镜实现,该液晶栅栏具有两个透明基板 (其上形成有电极)和形成在透明基板之间的液晶层。动态栅栏103在3D控制器130的控 制下电控液晶分子,以在空间上分割左眼和右眼图像的光。动态延迟器134具有形成在透明基板(其上形成有电极)之间的液晶层。动态延 迟器134的液晶层根据施加给液晶分子的电场改变光的相位延迟,从而调整光的偏振。动 态栅栏103在3D控制器130的控制下以规则的间隔改变输入到偏振眼镜135和136的光 的偏振特性。例如,在第N帧(N是正整数),动态栅栏103将传播到偏振眼镜135和136的 左眼和右眼图像的光变为右圆偏振光,且在第(N+1)帧,其将传播到偏振眼镜135和136的 左眼和右眼图像的光变为左圆偏振光。根据从动态延迟器134投射的偏振光,偏振眼镜135和136具有不同的光吸收轴。 例如,由第一用户佩戴的第一偏振眼镜135透射从动态延迟器134接收的右圆偏振光并阻 挡其他偏振成分。第一偏振眼镜135的左右镜片包括右圆偏振滤光器。由第二用户佩戴的 第二偏振眼镜136透射从动态延迟器134接收的左圆偏振光并阻挡其他偏振成分。第二偏 振眼镜136的左右镜片包括左圆偏振滤光器。
11
3D控制器130通过使用前述用户位置检测算法从摄像机或红外传感器获得每个 用户的3D位置信息。此外,3D控制器130根据每个用户的3D位置信息调整3D图像的左眼 和右眼图像的呈现参数并改变动态栅栏103的位置和动态延迟器134的偏振特性。图13中所示的立体图像显示器可根据使用动态延迟器134以及偏振眼镜135和 136进行偏振分割来分离用户,并根据使用动态栅栏103进行空间分割产生每个用户的两 眼视差。立体图像显示器检测每个用户的位置并调整3D图像的视角和深度信息,以实现多 用户追踪,并以规则的间隔改变动态延迟器134的偏振特性,从而防止每个用户看到的3D 图像的分辨率下降。图14A,14B和14C例示了根据本发明第三个实施方式的立体图像显示器。参照图14A,14B和14C,根据本发明第三个实施方式的立体图像显示器包括显示 器101、动态栅栏103、多个有源眼镜145,146和147、以及3D控制器140。动态栅栏103以 及有源眼镜145,146和147是为各个用户分离3D图像并产生每个用户的两眼视差的3D驱 动元件。显示器101以2D模式显示2D图像并在3D控制器140的控制下以3D模式显示根 据用户位置呈现的3D图像。在3D控制器140的控制下,显示器101显示与有源眼镜145, 146和147同步的为用户时间分割的3D图像。例如,在第N帧,显示器101显示与第一有源 眼镜145同步的第一用户的3D图像,然后在第(N+1)帧,其与第二有源眼镜146同步地显 示第二用户的3D图像。随后在第(N+2)帧,显示器101显示与第三有源眼镜147同步的第 三用户的3D图像。动态栅栏103可由具有两个透明基板(其上形成有电极)和形成在透明基板之间 的液晶层的液晶栅栏或者液晶透镜实现。动态栅栏103在3D控制器140的控制下电控液 晶分子,以在空间上分割左眼和右眼图像的光,从而产生两眼视差。每个有源眼镜145,146和147的每个左右镜片都可由电控光学快门实现,该电控 光学快门包括形成在透明基板(其上形成有电极)之间的液晶层、给所述电极供给驱动电 压的电源以及在3D控制器140的控制下控制驱动电压的控制电路。有源眼镜145,146和 147与为用户时间分割并在显示器101上显示的3D图像同步地依次开启/关闭(打开/遮 蔽)。例如,第一有源眼镜145的左右光学快门在3D控制器140的控制下,在其中显示第 一用户的3D图像的第N帧期间开启以透射光,并在第(N+1)帧和(N+2)帧期间关闭以阻挡 光。第二有源眼镜146的左右光学快门在3D控制器140的控制下,在其中显示第二用户的 3D图像的第(N+1)帧期间开启以透射光,并在第N帧和(N+2)帧期间关闭以阻挡光。第三 有源眼镜147的左右光学快门在3D控制器140的控制下,在其中显示第三用户的3D图像 的第(N+2)帧期间开启以透射光,并在第N帧和(N+1)帧期间关闭以阻挡光。3D控制器140通过使用前述用户位置检测算法从摄像机或红外传感器获得每个 用户的3D位置信息。3D控制器140根据每个用户的3D位置信息调整左眼和右眼图像的 呈现参数。此外,3D控制器140通过有线/无线接口将用户的3D图像的显示时间与有源 眼镜145,146和147的开启时间同步,并通过所述有线/无线接口给有源眼镜145,146和 147传送用于控制有源眼镜145,146和147的开启/关闭的光学快门控制信号。例如,在第 N帧,3D控制器140在显示器101上显示具有根据第一用户位置而变化的视角和深度信息 的第一用户的3D图像,同时开启第一有源眼镜145的左右光学快门。在第(N+1)帧,3D控制器140在显示器101上显示具有根据第二用户位置而变化的视角和深度信息的第二用户的3D图像,改变动态栅栏103的位置,同时开启第二有源眼镜146的左右光学快门。随后 在第(N+2)帧,3D控制器140在显示器101上显示具有根据第三用户位置而变化的视角和 深度信息的第三用户的3D图像,改变动态栅栏103的位置,同时开启第三有源眼镜147的 左右光学快门。图14A,14B和14C中所示的立体图像显示器通过使用动态栅栏103产生每个用户 的两眼视差,并且时分驱动在显示器上显示的用户的3D图像,以通过有源眼镜145,146和 147分离用户。该立体图像显示器可检测每个用户的位置并调整3D图像的视角和深度信 息,以实现多用户追踪。图15A,15B和15C例示了根据本发明第四个实施方式的立体图像显示器。参照图15A,15B和15C,根据本发明第四个实施方式的立体图像显示器包括显示 器101、图案延迟器104、多个有源眼镜155,156和157、以及3D控制器150。图案延迟器 104以及有源眼镜155,156和157是为用户分离3D图像并产生每个用户的两眼视差的3D 驱动元件。显示器101以2D模式显示2D图像并在3D控制器150的控制下以3D模式显示根 据用户位置呈现的3D图像。在3D控制器150的控制下,显示器101显示与有源眼镜155, 156和157同步的为用户时间分割的3D图像。例如,在第N帧,显示器101显示与第一有源 眼镜155同步的第一用户的3D图像,然后在第(N+1)帧,其显示与第二有源眼镜156同步 的第二用户的3D图像。随后,在第(N+2)帧,显示器101显示与第三有源眼镜157同步的 第三用户的3D图像。参考标号“151”表示布置在液晶显示面板与图案延迟器104之间的 偏振膜。图案延迟器104包括具有不同光吸收轴的第一和第二延迟器,且其将用户的3D图 像的左眼和右眼图像光分离为偏振光。第一延迟器形成在图案延迟器104的奇数线上并透 射从显示器101接收的光的第一偏振光(线性偏振光或圆偏振光)的左眼图像光。第二延 迟器形成在图案延迟器104的偶数线上并透射从显示器101接收的光的第二偏振光(线性 偏振光或圆偏振光)的右眼图像光。图15A,15B和15C例示了第一延迟器由透射右圆偏振 光的偏振滤光器实现,第二延迟器由透射左圆偏振光的偏振滤光器实现。每个有源眼镜155,156和157的每个左右镜片都可由电控光学快门实现,该电控 光学快门包括形成在透明基板(其上形成有电极)之间的液晶层、给所述电极供给驱动电 压的电源以及在3D控制器150的控制下控制驱动电压的控制电路。每个有源眼镜155,156 和157的左镜片包括仅透射第一偏振光(右圆偏振光)的左眼图像光的偏振膜,每个有源 眼镜155,156和157的右镜片包括仅透射第二偏振光(左圆偏振光)的右眼图像光的偏振 膜。有源眼镜155,156和157的光学快门与为用户时间分割并在显示器上显示的3D图像 同步地依次开启/关闭,并根据偏振分割来分离左眼和右眼图像。例如,第一有源眼镜155 的左右光学快门在3D控制器150的控制下,在其中显示第一用户的3D图像的第N帧期间 开启以透射光,并在第(N+1)帧和(N+2)帧期间关闭以阻挡光。在第N帧期间,第一有源眼 镜155的左光学快门透射第一偏振光(右圆偏振光)的左眼图像,而第一有源眼镜155的 右光学快门透射第二偏振光(左圆偏振光)的右眼图像。第二有源眼镜156的左右光学快 门在3D控制器150的控制下,在其中显示第二用户的3D图像的第(N+1)帧期间开启以透射光,并在第N帧和(N+2)帧期间关闭以阻挡光。在第(N+1)帧期间,第二有源眼镜156的 左光学快门由于第一偏振膜而透射第一偏振光(右圆偏振光)的左眼图像,而第二有源眼 镜156的右光学快门由于第二偏振膜而透射第二偏振光(左圆偏振光)的右眼图像。第三 有源眼镜157的左右光学快门在3D控制器150的控制下,在其中显示第三用户的3D图像 的第(N+2)帧期间开启以透射光,并在第N帧和(N+1)帧期间关闭以阻挡光。在第(N+2) 帧期间,第三有源眼镜157的左光学快门由于第一偏振膜而透射第一偏振光(右圆偏振光) 的左眼图像,而第三有源眼镜157的右光学快门由于第二偏振膜而透射第二偏振光(左圆 偏振光)的右眼图像。3D控制器150通过使用前述用户位置检测算法从摄像机或红外传感器获得每个用户的3D位置信息。3D控制器150根据每个用户的3D位置信息调整左眼和右眼图像的呈 现参数。此外,3D控制器150通过有线/无线接口将用户的3D图像的显示时间与有源眼镜 155,156和157的开启时间同步,并通过有线/无线接口给有源眼镜155,156和157传送用 于控制有源眼镜155,156和157的开启/关闭的光学快门控制信号。例如,在第N帧,3D控 制器150在显示器101上显示具有根据第一用户位置而变化的视角和深度信息的第一用户 的3D图像,同时开启第一有源眼镜155的左右光学快门。在第(N+1)帧,3D控制器150在 显示器101上显示具有根据第二用户位置而变化的视角和深度信息的第二用户的3D图像, 同时开启第二有源眼镜156的左右光学快门。随后在第(N+2)帧,3D控制器150在显示器 101上显示具有根据第三用户位置而变化的视角和深度信息的第三用户的3D图像,同时开 启第三有源眼镜157的左右光学快门。图15A,15B和15C中所示的立体图像显示器根据偏振分割产生每个用户的两眼视 差,并时分驱动在显示器上显示的用户的3D图像,以通过有源眼镜155,156和157分离用 户。该立体图像显示器可检测每个用户的位置并调整3D图像的视角和深度信息,以实现多 用户追踪。图16A和16B例示了根据本发明第五个实施方式的立体图像显示器。参照图16A和16B,根据本发明第五个实施方式的立体图像显示器包括显示器 101、图案延迟器104、多个有源眼镜165和166、以及3D控制器160。图案延迟器104以及 有源眼镜165和166是为用户分离3D图像并产生每个用户的两眼视差的3D驱动元件。显示器101以2D模式显示2D图像并在3D控制器160的控制下以3D模式显示根 据用户位置呈现的3D图像。在3D控制器160的控制下,显示器101时分显示与有源眼镜 165和166同步的每个用户的左眼和右眼图像。例如,在第N帧,显示器101显示与有源眼 镜165和166的左光学快门同步的每个用户的左眼图像,然后在第(N+1)帧,其显示与有源 眼镜165和166的右光学快门同步的每个用户的右眼图像。图案延迟器104包括具有不同光吸收轴的第一和第二延迟器,其将用户的3D图像 的左眼和右眼图像光分离为偏振光。第一延迟器形成在图案延迟器104的奇数线上并透射 从显示器101接收的光的第一偏振光(线性偏振光或圆偏振光)的左眼图像光。第二延迟 器形成在图案延迟器104的偶数线上并透射从显示器101接收的光的第二偏振光(线性偏 振光或圆偏振光)的右眼图像光。图16A和16B例示了第一延迟器由透射右圆偏振光的偏 振滤光器实现,第二延迟器由透射左圆偏振光的偏振滤光器实现。每个有源眼镜165和166的每个左右镜片都可由电控光学快门实现,该电控光学快门包括形成在透明基板(其上形成有电极)之间的液晶层、给所述电极供给驱动电压的电源以及在3D控制器160的控制下控制驱动电压的控制电路。第一有源眼镜165的左右光 学快门包括仅透射第一偏振光(右圆偏振光)的偏振膜,第二有源眼镜166的左右光学快 门包括仅透射第二偏振光(左圆偏振光)的偏振膜。有源眼镜165和166的左右光学快门 与时分显示的3D图像的左眼和右眼图像同步地交替开启/关闭。例如,第一有源眼镜165 的左光学快门在3D控制器160的控制下,在第N帧期间开启以透射第一偏振光的左眼图像 光,并在第(N+1)帧期间关闭以阻挡光。第一有源眼镜165的右光学快门在3D控制器160 的控制下,在第N帧期间关闭以阻挡光,并在第(N+1)帧期间开启以透射第一偏振光的右眼图像光。第二有源眼镜166的左光学快门在3D控制器160的控制下,在第N帧期间开启以 透射第二偏振光的左眼图像光,并在第(N+1)帧期间关闭以阻挡光。第二有源眼镜166的 右光学快门在3D控制器160的控制下,在第N帧期间关闭以阻挡光,并在第(N+1)帧期间 开启以透射第二偏振光的右眼图像光。3D控制器160通过使用前述用户位置检测算法从摄像机或红外传感器获得每个 用户的3D位置信息。3D控制器160根据每个用户的3D位置信息调整3D图像的左眼和右 眼图像的呈现参数。此外,3D控制器160通过有线/无线接口将用户的3D图像的显示时 间与有源眼镜165和166的开启时间同步,并通过所述有线/无线接口给有源眼镜165和 166传送用于控制有源眼镜165和166的开启/关闭的光学快门控制信号。例如,3D控制 器160在第N帧期间在显示器101上显示每个用户的左眼图像,同时开启有源眼镜165和 166的左光学快门。3D控制器160在第(N+1)帧期间在显示器101上显示每个用户的右眼 图像,同时开启有源眼镜165和166的右光学快门。图16A和16B中所示的立体图像显示器根据时间分割技术分离每个用户的左眼和 右眼图像,以产生每个用户的两眼视差,并根据偏振分割来分离用户。立体图像显示器可检 测每个用户的位置并调整3D图像的视角和深度信息,以实现多用户追踪。尽管在上述本发明实施方式中左圆偏振和右圆偏振分割方法作为偏振分割技术 进行了说明,但偏振分割技术并不限于此。左圆偏振可由水平线性偏振(或垂直线性偏振) 代替,右圆偏振可由垂直线性偏振(或水平线性偏振)代替。如上所述,根据本发明实施方式的控制立体图像视图的方法及使用该方法的立体 图像显示器能通过用户位置检测算法实时检测每个用户的位置,并根据每个用户的3D位 置信息改变3D物体图像的呈现参数,以给用户提供逼真的3D图像。此外,本发明结合空 间分割技术、时间分割技术和偏振分割技术为用户分离3D图像,并产生每个用户的两眼视差。尽管参照典型实施方式具体地显示和描述了本发明,但所属领域技术人员应当理 解,在不脱离所附权利要求限定的本发明的精神和范围的情况下,可在形式和细节上进行 各种变化。
权利要求
一种控制立体图像视图的方法,所述方法包括下述步骤(a)检测每个用户的位置信息,并根据所述位置信息改变在显示器上显示的3D图像的视角和深度信息;和(b)将用于在空间上分割来自所述显示器的光的空间分割技术、用于在时间上分割来自所述显示器的光的时间分割技术以及用于将来自所述显示器的光分割为具有彼此不同偏振特性的光的偏振分割技术中的至少两个技术相结合,使用所结合的技术为每个用户分割所述3D图像,并为每个用户产生两眼视差。
2.根据权利要求1所述的方法,其中所述步骤(b)包括在所述显示器上显示所述3D图像;使用布置在所述显示器前方的图案延迟器将来自所述显示器的光分离为第一偏振光 和第二偏振光;使用透射所述第一偏振光的第一偏振眼镜和透射所述第二偏振光的第二偏振眼镜为 每个用户分离所述3D图像的光;和使用布置在所述显示器与所述图案延迟器之间的动态栅栏,在空间上分割所述3D图 像的左眼图像光和右眼图像光,其中该动态栅栏的位置被电控。
3.根据权利要求1所述的方法,其中所述步骤(b)包括在第一期间在所述显示器上显示第一 3D图像,然后在第二期间显示第二 3D图像;使用布置在所述显示器前方且被电控以改变透射光的偏振特性的动态延迟器以及布 置在所述动态延迟器前方的第一和第二偏振眼镜,在时间上分割所述第一偏振光和所述第 二偏振光;以及使用布置在所述显示器与所述动态延迟器之间的动态栅栏,在空间上分割所述3D图 像的左眼和右眼图像光,其中该动态栅栏的位置被电控。
4.根据权利要求1所述的方法,其中所述步骤(b)包括在第一期间在所述显示器上显示第一 3D图像,并且电控在所述显示器前方布置的第 一有源眼镜的左右光学快门,以在第一期间打开所述第一有源眼镜的所述左右光学快门;在第二期间在所述显示器上显示第二 3D图像,并且电控在所述显示器前方布置的第 二有源眼镜的左右光学快门,以在第二期间打开所述第二有源眼镜的所述左右光学快门; 以及使用布置在所述显示器与所述有源眼镜之间的动态栅栏,在空间上分割所述3D图像 的左眼和右眼图像光,其中该动态栅栏的位置被电控。
5.根据权利要求1所述的方法,其中所述步骤(b)包括在第一期间在所述显示器上显示第一 3D图像,通过使用布置在所述显示器前方的图 案延迟器在第一期间将所述第一 3D图像的左眼图像光变为第一偏振光并且同时将所述第 一 3D图像的右眼图像光变为第二偏振光,并且电控在所述图案延迟器前方布置的第一有 源眼镜的左右光学快门,以在第一期间打开所述第一有源眼镜的左右光学快门;以及在第二期间在所述显示器上显示第二 3D图像,通过使用所述图案延迟器在第二期间 将所述第二 3D图像的左眼图像光变为第一偏振光并且同时将所述第二 3D图像的右眼图 像光变为第二偏振光,并且电控在所述图案延迟器前方布置的第二有源眼镜的左右光学快 门,以在第二期间打开所述第二有源眼镜的左右光学快门,其中所述第一和第二有源眼镜的所述左光学快门包括仅透射所述第一偏振光的第一 偏振膜,所述第一和第二有源眼镜的所述右光学快门包括仅透射所述第二偏振光的第二偏 振膜。
6.根据权利要求1所述的方法,其中所述步骤(b)包括在第一期间在所述显示器上显示第一和第二 3D图像的左眼图像,通过使用布置在所 述显示器前方的图案延迟器在第一期间将所述第一 3D图像的左眼图像光变为第一偏振光 并将所述第二 3D图像的左眼图像光变为第二偏振光,并且电控在所述图案延迟器前方布 置的第一和第二有源眼镜的左光学快门,以在第一期间打开所述第一和第二有源眼镜的左 光学快门;以及在第二期间在所述显示器上显示所述第一和第二 3D图像的右眼图像,通过使用所述 图案延迟器在第二期间将所述第一 3D图像的右眼图像光变为所述第一偏振光并将所述第 二 3D图像的右眼图像光变为所述第二偏振光,并且电控所述第一和第二有源眼镜的右光 学快门,以在第二期间打开所述第一和第二有源眼镜的右光学快门;其中所述第一有源眼镜的所述左右光学快门包括仅透射所述第一偏振光的第一偏振 膜,所述第二有源眼镜的所述左右光学快门包括仅透射所述第二偏振光的第二偏振膜。
7.根据权利要求1所述的方法,其中根据图像传感器和检测具有确定波长的光的光学 传感器中的至少一个的输出,获得每个用户的所述位置信息。
8.一种立体图像显示器,包括控制器,其根据每个用户的位置信息改变在显示器上显示的3D图像的视角和深度信 息;和3D驱动元件,其通过使用用于在空间上分割来自所述显示器的光的空间分割技术、用 于在时间上分割来自所述显示器的光的时间分割技术以及用于将来自所述显示器的光分 割为具有彼此不同偏振特性的光的偏振分割技术中的至少两个技术,为每个用户分割所述 3D图像,并为每个用户产生两眼视差。
9.根据权利要求8所述的立体图像显示器,其中所述3D驱动元件包括布置在所述显示器前方的图案延迟器,该图案延迟器将来自所述显示器的光分离为第 一偏振光和第二偏振光;布置在所述图案延迟器前方且透射所述第一偏振光的第一偏振眼镜; 布置在所述图案延迟器前方且透射所述第二偏振光的第二偏振眼镜;和 布置在所述显示器与所述图案延迟器之间的动态栅栏,所述动态栅栏的位置被电控, 以在空间上分割在所述显示器上显示的所述3D图像的左眼和右眼图像光。
10.根据权利要求8所述的立体图像显示器,其中所述3D驱动元件包括布置在所述显示器前方的动态延迟器,该动态延迟器被电控以在第一期间将显示在所 述显示器上的第一 3D图像的光变为第一偏振光,然后在第二期间将显示在所述显示器上 的第二 3D图像的光变为第二偏振光;布置在所述动态延迟器前方且透射所述第一偏振光的第一偏振眼镜; 布置在所述动态延迟器前方且透射所述第二偏振光的第二偏振眼镜;和 布置在所述显示器与所述动态延迟器之间的动态栅栏,所述动态栅栏的位置被电控, 以在空间上分割在所述显示器上显示的所述3D图像的左眼和右眼图像光。
11.根据权利要求8所述的立体图像显示器,其中所述3D驱动元件包括布置在所述显示器前方的动态栅栏,所述动态栅栏的位置被电控,以在空间上分割在 所述显示器上显示的所述3D图像的左眼和右眼图像光;布置在所述动态栅栏前方的第一有源眼镜,该第一有源眼镜包括在所述控制器的控制 下打开的左右光学快门;和布置在所述动态栅栏前方的第二有源眼镜,该第二有源眼镜包括在所述控制器的控制 下打开的左右光学快门。
12.根据权利要求8所述的立体图像显示器,其中所述3D驱动元件包括布置在所述显示器前方的图案延迟器,该图案延迟器将来自所述显示器的光分离为第 一偏振光和第二偏振光;布置在所述图案延迟器前方的第一有源眼镜,该第一有源眼镜包括在所述控制器的控 制下打开的左右光学快门;和布置在所述图案延迟器前方的第二有源眼镜,该第二有源眼镜包括在所述控制器的控 制下打开的左右光学快门,其中所述第一和第二有源眼镜的左光学快门包括仅透射所述第一偏振光的第一偏振 膜,所述第一和第二有源眼镜的右光学快门包括仅透射所述第二偏振光的第二偏振膜。
13.根据权利要求8所述的立体图像显示器,还包括图像传感器和用于检测具有确定 波长的光的光学传感器中的至少一个,其中所述图像传感器和光学传感器检测每个用户的 位置信息并将所述位置信息提供给所述控制器。
全文摘要
本发明提供控制立体图像视图的方法及使用该方法的立体图像显示器。所述方法包括下述步骤根据每个用户的位置信息改变在显示器上显示的3D图像的视角和深度信息;以及将用于在空间上分割来自所述显示器的光的空间分割技术、用于在时间上分割来自所述显示器的光的时间分割技术以及用于将来自所述显示器的光分割为具有彼此不同偏振特性的光的偏振分割技术中的至少两个技术相结合,使用所结合的技术为每个用户分割所述3D图像,并为每个用户产生两眼视差。
文档编号G02B27/22GK101799584SQ20091020933
公开日2010年8月11日 申请日期2009年11月4日 优先权日2009年2月11日
发明者孙眩镐, 郑湖永 申请人:乐金显示有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1