具有运动视差的三维显示的制作方法

文档序号:7888950阅读:268来源:国知局
专利名称:具有运动视差的三维显示的制作方法
技术领域
本发明涉及三维显示。
背景技术
人类大脑以各种方式得到其三维(3D)线索。这些方式中的一种是经由立体视觉, 它与呈现给左眼和右眼的所观看到的图像之间的差异相对应。另一种方式是通过运动视差,这与在观看角度变化时(如在观看者的头部移动时),观看者看到的场景的变化方式相对应。当前3D显示基于立体视觉。一般而言,3D电视机和其他显示器经由具有阻塞某些帧而令其他帧透过的透镜的3D眼镜或眼镜向每一只眼睛输出分开的视频帧。各示例包括在眼镜带有对应过滤器的情况下对左图像和右图像使用不同的色彩、使用光偏振并且对左图像和右图像使用对应的不同偏振、以及在眼镜中使用快门。大脑以观看者体验到3D深度作为立体线索的结果的方式来组合各帧。当前技术允许在不使用眼镜的情况下将不同的帧定向到每一只眼睛,从而实现相同结果。这样的显示器被设计成通常通过将屏幕的各像素安排在某种光学障碍或光学透镜之间以呈现来自不同的角度的不同视图。在观看者的头部大部分静止的情况下,三维显示技术表现良好。然而,在观看者的头部移动时视图不变化,由此立体线索与运动视差相抵触。这一抵触使得一些观看者在观看3D显示上的内容时体验到疲劳和不适。

发明内容
提供本发明内容以便以简化形式介绍将在以下的具体实施方式
中进一步描述的一些代表性概念。本发明内容不旨在标识出所要求保护的主题的关键特征或必要特征,也不旨在以限制所要求保护的主题的范围的任何方式来使用。简言之,本发明的各方面涉及混合立体图像/运动视差技术,该技术使用立体3D 视觉技术来向观看者的每一只眼睛呈现不同图像,结合运动视差技术针对观看者的眼睛的位置来调整每一图像的呈现或获取。以此方式,在观看者观看3D场景时移动的情况下,该观看者接收立体线索和视差线索两者。在一个方面,左图像和右图像由立体相机捕捉,并被接收和处理以根据与当前观看者位置相对应的位置传感器数据进行运动视差调整。这些经调整的图像随后被分别输出给观看者的左眼和右眼以用作分开的左显示和右显示。或者,当前观看者位置可被用来获取场景的图像,例如通过对应地移动机器人立体相机。本发明还适用于多个观看者观看同一场景,包括在独立地跟踪并给出独立视图的情况下在同一屏幕上。在一个方面,跟踪观看者头部和/或眼睛位置。注意,可直接跟踪每一只眼睛的眼睛位置或从头部跟踪数据估计每一只眼睛的眼睛位置,头部跟踪数据可包括3D空间中的头部位置加头部的注视方向(和/或转动,以及可能更多(如倾斜))并且因而提供与每一只眼睛的位置相对应的数据。因此,“位置数据”包括每一只眼睛的位置的概念,而不管是如何获取的,例如直接或经由根据头部位置数据的估计。带有传感器或发射器的眼镜可被用于跟踪,包括使用透镜或快门来向眼睛通过/ 阻塞不同图像的同一 3D过滤眼镜;(注意,如本文所使用的,“快门”是一种类型的过滤器, 即定时过滤器)。或者,计算机视觉可被用来跟踪头部或眼睛位置,尤其用于无眼镜3D显示技术。然而,计算机视觉系统可被训练来跟踪眼镜的位置或眼镜的一个或多个透镜的位置。跟踪与每一只眼睛相对应的当前观看者位置还允许基于水平视差和垂直视差两者来获取或调整图像。因而,例如,倾斜、观看高度、以及头部转动/倾斜数据也可被用于调整或获取图像,或用于既调整又获取图像。结合附图阅读以下具体实施方式
,本发明的其他优点会变得显而易见。


作为示例而非限制,在附图中示出了本发明,附图中相同的附图标记指示相同或相似的元素,附图中图I是观看者观看立体显示的表示,其中立体相机提供左立体图像和右立体图像。图2是观看者观看立体显示的表示,其中左相机和右相机提供左立体图像和右立体图像,并且运动视差处理基于观看者的当前左眼和右眼位置来调整每一图像的呈现。图3是表示用于对分开的左图像和右图像执行运动视差处理的示例步骤的流程图。图4是表示其中可实现此处所描述各种实施例的一个或多个方面的示例性非限制计算系统或操作环境的框图。
具体实施例方式本发明的各方面一般涉及混合立体图像/运动视差系统,该系统使用立体3D视觉技术来向每一只眼睛呈现不同图像,结合运动视差技术针对观看者的眼睛的位置来调整左图像和右图像。以此方式,当观看者在观看3D场景时移动时,观看者接收立体线索和视差线索两者,这往往对观看者造成较大的视觉舒适度/较少的疲劳。为此,每一只眼睛的位置 (或眼镜透镜,如下所述)可被直接或经由估计来跟踪。使用从观看者的观看点计算得到的透视投影来向每一只眼睛实时地呈现场景的3D图像,从而提供视差线索。应当理解,此处的任何示例均是非限制性的。因此,本发明不限于在此描述的任何具体的实施例、方面、概念、结构、功能或示例。相反,此处所描述的任何实施例、方面、概念、 结构、功能或示例都是非限制性的,并且本发明一般能够以在显示技术方面提供好处和优点的各种方式来使用。图I是的观看者100观看在3D立体显示器104上示出的由左立体相机和右立体相机106捕捉到的3D场景102的表示。在图I中,观看者的眼睛可被假定处于起始位置(零运动视差)。注意,场景102中的物体中的每一个被表示为显得从显示器中出来以指示该场景正示出由观看者100感知为3D的分开的左图像和右图像。图2是同一观看者100通过3D立体显示器104观看由左立体相机和右立体相机106捕捉到的同一 3D场景102的表示;然而,在图2中,观看者相对于图I移动了。示例移动包括垂直和/或水平移动、头的转动、头的俯仰和/或倾斜。如此,从位置传感器/眼睛跟踪传感器110的数据感测到或估计(例如,从头部位置数据(其可包括3D位置、转动、方向、倾斜等)估计)的眼睛位置彼此不同。在下文中描述这样的位置传感器/眼睛跟踪传感器的示例。如在单个图像(“单”)视差场景中已知的,相机捕捉到的图像可通过相对直接的几何计算来调整,以匹配观看者的大致头部位置,并且因而匹配水平观看角度。例如, 基于相机和计算机视觉算法的头部跟踪系统已被用来实现“单3D”效果,如在Cha Zhang, Zhaozheng Yin 及 Dinei Florencio 的“Improving DepthPerception with Motion Parallax and Its Application in Teleconferencing(使用运动视差改进深度感知及其在远程会议中的应用)”,2009年10月5日-7日,MMSP09会议录,http://research, microsoft. com/en-us/um/people/chazhang/publications/mmsp09_ChaZhang. pdf,中角军释的。在这样的单视差场景中,基本上存在“虚拟”相机,它看起来在场景内移动,被看作观看者的头部水平移动。然而,对于分开的左图像和右图像,没有这样的已知技术是有效的, 并且因而没有构想立体图像。此外,头部倾斜、观看高度和/或头部转动不改变观看到的图像。并非虚拟相机,可以理解,图I的相机是立体机器人相机,它在真实环境中移动以从不同的角度捕捉场景,如通过移动到与图2的虚拟相机206相同的位置/定向。另一替换方案是调整预记录的单个立体视频,或对来自从各个角度捕捉/记录3D场景的多个立体相机的视频进行内插。如此,带有本文描述的运动视差技术的三维显示部分地通过基于传感到的观看者位置数据以获取和/或调整左图像和右图像来工作。如本文所描述的,运动视差处理是由运动视差处理组件112分别对左图像和右图像执行的,从而分别提供调整了视差的左图像和右图像114和115。注意,根据头部(或单个眼睛)位置数据来估计双眼的位置是可行的,然而这不能针对头部倾斜、俯仰和/或头部注视转动/方向来调整,除非感测到比只有头部的一般位置更多的与头部有关的信息并将其作为数据提供给运动视差处理组件。因此,感测到的位置数据还可包括头部倾斜、俯仰、 和/或头部转动数据。因此,如图2所概括表示的,虚拟左(立体)相机和右(立体)相机206随观看者的位置有效地移动、转动、和/或倾斜。机器人相机或多个相机的经处理的图像也可做到这样。观看者因而分别经由左立体图像214和右立体图像215看到3D场景,每一图像都针对视差补偿进行了调整。注意,图2中示出的各对象旨在表示从与图I的不同观看点示出的相同对象,但这只是出于说明的目的,并且在附图中,相对大小和/或观看点不旨在是在数学上精确的。概括而言,如图I和2中概括表示的,位置传感器/眼睛传感器110对观看者100 相对于显示器的位置进行评估。观看者的位置被用来驱动一组左虚拟相机和右虚拟相机 206使得从观看者在3D场景中的虚拟位置有效地观看该场景。虚拟相机206捕捉对应于左眼视图和右眼视图的两个图像。这两个图像由立体显示来呈现,从而向观看者100提供3D 视图。在观看者110移动的情况下,实时地跟踪观看者的位置并将其转换成左图像214
6和右图像215两者中的对应变化。这造成了组合了立体线索和运动视差线索两者的沉浸式 3D体验。转向与位置/眼睛跟踪相关的各方面,这样的跟踪可以用各种方式来实现。一种方式包括组合了立体过滤器和头部跟踪设备(例如被实现为该眼镜支撑部中的传感器或发射器)的多用途眼镜。注意,被配置成输出供用于头部跟踪的信号的各种眼镜,如包括被检测并进行三角测量的发射器(例如,红外),是现有技术中已知的。磁感测是另一已知的替换方案。又一替换方案是使用基于相机和计算机视觉算法的头部跟踪系统。将光定向到各单独的眼睛并且因而能够提供分开的左图像和右图像视图来用作3D效果的自动立体视觉 (Autostereoscopic)显示器在美国专利申请号 12/819,238、12/819,239 以及 12/824, 257 中描述,它们通过引用结合于此。在一个实现中,微软公司的Kinect 技术已被用于头部跟踪/眼睛跟踪。一般而言,用于眼睛跟踪的计算机视觉算法使用基于对人类头部的多个图像的分析的模型。标准系统可以与不需要眼镜的显示器一起使用。然而,在观看者佩戴眼镜时,发生了实际问题,因为眼镜覆盖在眼睛上并且因此使得许多现有脸部跟踪机制失败。为了克服这一问题,在一个实现中,使用佩戴眼镜的人的一组图像(作为用正常脸部的图像进行训练的替换或补充)来训练脸部跟踪系统。确实,可以用佩戴特定3D系统所使用的特定眼镜的人的一组图像来训练系统。这造成非常有效的跟踪,因为眼镜往往突出为训练数据中非常可识别的对象。以此方式,可以调节基于计算机视觉的眼睛跟踪系统来考虑眼镜的存在。图3是被配置成分开计算左图像和右图像的运动视差处理机制的示例步骤的流程图。如步骤302所示,该方法从位置/眼睛跟踪传感器接收左眼位置数据和右眼位置数据。如上所述,可另选地提供头部位置数据并将其用于视差计算,包括通过将头部位置数据转换成左眼位置数据和右眼位置数据。步骤304表示基于观看者的左眼位置的几何来计算视差调整。步骤306表示基于观看者的右眼位置的几何来计算视差调整。注意,对两只眼睛使用相同的计算是可行的,诸如在作为头部位置数据获得并且不考虑转动和/或倾斜的情况下,因为立体相机分离已经提供了一些(固定)的视差差数。然而,即使两眼之间两英寸左右的小距离也造成视差和所得的观看者感觉中的差异,包括在转动/倾斜头部等等时。步骤308和310表示基于视差投影计算来调整每一图像。步骤312将经调整的图像输出到显示设备。注意,这可以是提供给常规3D显示设备的常规信号的形式,或可以是提供给被配置成接收分开图像的显示设备的分开的左信号和右信号。确实,本发明可以例如在显示设备本身中包括运动视差处理组件112(以及可能包括一个或多个传感器110), 或可将运动视差处理组件112包括在相机中。步骤314例如对于每一左帧和右帧(或一组帧/持续时间,因为观看者只会移动得太快)重复该过程。注意,各替换方案是可行的,例如左图像视差调整和输出与右图像视差调整和输出轮流进行,例如图3的步骤不必以所示次序发生。同样,例如,并非刷新每一帧或一组帧/持续时间,可检测到阈值量的移动才触发新视差调整。这样的较不频繁的视差调整处理在多观看者环境中可能是合乎需要的,使得计算资源可以在多个观看者之间分布。确实,尽管参考单个观看者描述了本发明,但可以理解,同一显示的多个观看者可各自接收他或她自己的经调整了视差的立体图像。可将不同的左图像和右图像定向到多个观看者的眼睛的显示器是已知的(例如,如在上述专利申请中描述的),并且因而只要处理能力足以感测多个观看者的位置并执行视差调整,多个观看者就可以同时观看具有单独的立体和经调整了视差的左右视图的同一 3D场景。如可看到的,本文描述了将立体显示与左图像和右图像的动态合成以启用运动视差呈现进行组合的混合3D视频系统。这可通过在运动视差眼镜(包括具有分开的过滤透镜的运动视差眼镜)中插入位置传感器来实现,和/或通过用于眼睛跟踪的计算机视觉算法来实现。可以调节头部跟踪软件来考虑佩戴眼镜的观看者。该混合3D系统可被应用于视频和/或显示3D场景的图形应用,并且因而允许观看者在物理上或以其他方式导航立体图像的各部分。例如,所显示的3D场景可对应于视频游戏、3D远程会议、以及数据表示。此外,本发明克服了当前显示技术只考虑水平视差的显著缺陷,即通过还调整垂直视差(假定使用快门眼镜,或者该显示器能够水平且垂直地定向光,与只产生水平视差的一些透镜或其他免眼镜技术不同)。本文描述的分开的眼睛跟踪/头部传感可针对任何头部位置(例如,侧歪了几度)来校正视差。示例性计算设备本文所描述的技术可应用于任何设备。因此,应当理解,构想了结合各实施例使用的所有种类的手持式、便携式和其它计算设备和计算对象。因此,以下在图4中描述的通用远程计算机只是计算设备的一个示例,如被配置成如上所述地接收传感器输出并执行图像视差调整。各实施例可部分地经由操作系统来实现,以供设备或对象的服务开发者使用和/ 或被包括在用于执行此处所述的各实施例的一个或多个功能方面的应用软件内。软件可以在由诸如客户机工作站、服务器或其它设备等一个或多个计算机执行的诸如程序模块等计算机可执行指令的通用上下文中描述。本领域的技术人员可以理解,计算机系统具有可用于传递数据的各种配置和协议,并且由此没有特定配置或协议应当被认为是限制性的。图4由此示出了其中可实现本文所述的各实施例的一个或多个方面的合适的计算系统环境400的一个示例,尽管如上所述,计算系统环境400仅为合适的计算环境的一个示例,并非对使用范围或功能提出任何限制。此外,也不应当将计算系统环境400解释为对在示例性计算系统环境400中所示的组件中的任何一个或其组合有任何依赖。参考图4,用于实现一个或多个实施例的示例性远程设备包括计算机410形式的通用计算设备。计算机410的组件可包括,但不限于,处理单元420、系统存储器430、以及将包括系统存储器的各种系统组件耦合到处理单元420的系统总线422。计算机410通常包括各种计算机可读介质,并且可以是可由计算机410访问的任何可用介质。系统存储器430可包括诸如只读存储器(ROM)和/或随机存取存储器(RAM) 之类的易失性和/或非易失性存储器形式的计算机存储介质。作为示例而非限制,系统存储器430还可包括操作系统、应用程序、其他程序模块、以及程序数据。观看者可通过输入设备410向计算机440输入命令和信息。监视器或其他类型的显示设备也经由诸如输出接口 450之类的接口连接到系统总线422。除监视器以外,计算机还可包括诸如扬声器和打印机之类的其他外围输出设备,它们可通过输出接口 450连接。计算机410可使用到一个或多个其他远程计算机(诸如远程计算机470)的逻辑连接在联网或分布式环境中操作。远程计算机470可以是个人计算机、服务器、路由器、网络PC、对等设备或其他常见网络节点、或者任何其他远程媒体消费或传输设备,并且可包括以上关于计算机410所述的任何或全部元件。图4所示的逻辑连接包括诸如局域网(LAN) 或广域网(WAN)之类的网络472,但也可包括其他网络/总线。这些联网环境在家庭、办公室、企业范围的计算机网络、内联网和因特网中是常见的。如上所述,尽管结合各种计算设备和网络体系结构描述了各示例性实施例,但基本概念可被应用于其中期望改进资源使用的效率的任何网络系统和任何计算设备或系统。而且,存在实现相同或相似功能的多种方法,例如适当的API、工具箱、驱动程序代码、操作系统、控件、独立或可下载软件对象等,它们使得应用和服务能够使用此处提供的技术。由此,此处的各实施例从API (或其他软件对象)的观点以及从实现如此处描述的一个或多个实施例的软件或硬件对象构想。由此,此处所述的各实施例可具有完全采用硬件、 部分采用硬件并且部分采用软件、以及采用软件的方面。本文中所使用的词语“示例性”意味着用作示例、实例、或说明。为避免疑惑,本文所公开的主题不限于这些示例。另外,本文中作为“示例性”所述的任何方面或设计不一定被解释为比其他方面或设计更优选或有利,它也不意味着排除本领域普通技术人员已知的等效示例性结构和技术。此外,在使用术语“包括”、“具有”、“包含”和其他类似词语的程度上,为避免疑惑,这些术语旨在以类似于术语“包括”作为开放的过渡词的方式是包含性的而在用于权利要求时不排除任何附加或其他元素。如所述的,此处所述的各种技术可结合硬件或软件或,在适当时,以两者的组合来实现。如此处所使用的,术语“组件”、“模块”、“系统”等同样旨在指计算机相关实体,或者是硬件、硬件和软件的组合、软件或者是执行中的软件。例如,组件可以是,但不限于是,在处理器上运行的进程、处理器、对象、可执行码、执行的线程、程序和/或计算机。作为说明, 在计算机上运行的应用和计算机都可以是组件。一个或多个组件可以驻留在进程和/或执行线程中,并且组件可以位于一个计算机内和/或分布在两个或更多计算机之间。如前所述的系统已经参考若干组件之间的交互来描述。可以理解,这些系统和组件可包括组件或指定的子组件、某些指定的组件或子组件和/或附加的组件,并且根据上述内容的各种置换和组合。子组件还可作为通信地耦合到其他组件的组件来实现,而不是被包括在父组件内(层次性)。另外,应注意到一个或多个组件可被组合成提供聚集功能的单个组件,或被分成若干单独的子组件,且诸如管理层等任何一个或多个中间层可被设置成通信耦合到这样的子组件以便提供集成功能。此处所述的任何组件也可与一个或多个此处未专门描述的但本领域技术人员一般已知的其他组件进行交互。鉴于本文所述的示例性系统,可根据参考各附图的流程图还可理解根据所述的主题来实现方法。尽管为了说明简洁起见,作为一系列框示出和描述的方法,但是应当理解, 各实施例不仅仅限于框的次序,因为一些框可以与此处所描绘和描述的框不同的次序发生和/或与其他框并发地发生。尽管经由流程图示出了非顺序或分支的流程,但可以理解,可实现达到相同或类似结果的各种其他分支、流程路径和框的次序。此外,某些示出的框在实现下文所述的方法中是可选的。结语尽管本发明易于作出各种修改和替换构造,但其某些说明性实施例在附图中示出并在上面被详细地描述。然而应当了解,这不旨在将本发明限于所公开的具体形式,而是相反地,旨在覆盖落入本发明的精神和范围之内的所有修改、替换构造和等效方案。除此处所述的各实施例以外,应当理解,可使用其他类似实施例,或者可对所述实施例作出修改和添加以便执行对应实施例的相同或等效功能而不背离这些实施例。此外, 多个处理芯片或多个设备可共享此处所述的一个或多个功能的性能,并且类似地,存储可跨多个设备实现。因此,本发明不应限于任何单个实施例,而是应当根据所附权利要求书的广度、精神和范围来解释。
权利要求
1.一种在计算环境中、至少部分地在至少一个处理器上执行的方法,包括(a)接收感测到的与当前观看者位置相对应的位置数据;(b)使用所述位置数据来调整和/或从场景获取左眼图像来考虑与所述当前观看者位置相对应的视差以及右眼图像来考虑与所述当前观看者位置相对应的视差;(C)输出所述左图像以显示给所述观看者的左眼;(d)输出所述右图像以显示给所述观看者的右眼;(e)返回步骤(a)以向所述观看者提供场景的经调整了运动视差的立体视觉表示。
2.如权利要求I所述的方法,其特征在于,还包括跟踪观看者头部位置以提供感测到的位置数据的至少一部分。
3.如权利要求2所述的方法,其特征在于,跟踪所述观看者头部位置包括基于附连在眼镜上的一个或多个传感器来感测所述头部位置,其中所述眼镜包括被配置成用于立体视觉观看的透镜。
4.如权利要求2所述的方法,其特征在于,跟踪所述观看者头部位置包括基于附连在眼镜上的一个或多个发射器来感测所述头部位置,其中所述眼镜包括被配置成用于立体视觉观看的透镜。
5.如权利要求2所述的方法,其特征在于,跟踪所述观看者头部位置包括执行计算机视觉算法。
6.如权利要求2所述的方法,其特征在于,还包括使用与佩戴眼镜的人相对应的数据集来训练所述计算机视觉算法。
7.如权利要求I所述的方法,其特征在于,还包括跟踪观看者眼睛位置或观看者眼睛位置、转动及注视方向。
8.如权利要求7所述的方法,其特征在于,跟踪所述观看者头部位置包括执行计算机视觉算法。
9.如权利要求I所述的方法,其特征在于,还包括分开地针对左眼和右眼来跟踪观看者眼睛位置。
10.如权利要求I所述的方法,其特征在于,还包括跟踪观看者眼镜透镜位置。
11.如权利要求10所述的方法,其特征在于,还包括使用与佩戴眼镜的人相对应的数据集来训练所述计算机视觉算法。
12.如权利要求I所述的方法,其特征在于,使用所述位置数据包括针对水平和垂直位置、转动、俯仰、以及倾斜来调整所述左图像,以及针对水平和垂直位置、转动、俯仰、以及倾斜来调整所述右图像。
13.如权利要求I所述的方法,其特征在于,还包括(i)接收感测到的与当前其他观看者位置相对应的位置数据;( )使用所述位置数据来调整和/或从场景获取左眼图像来考虑与所述当前其他观看者位置相对应的视差以及右眼图像来考虑与所述当前其他观看者位置相对应的视差;(iii)输出所述左图像以显示给所述其他观看者的左眼;(iv)输出所述右图像以显示给所述其他观看者的右眼;(v)返回步骤(i)以向所述其他观看者提供场景的经调整了运动视差的立体视觉表/Jn ο
14.一种在计算环境中的系统,所述系统包括位置跟踪设备、运动视差处理组件,所述位置跟踪设备被配置成输出与观看者位置相对应的位置数据,所述运动视差处理组件被配置成接收来自所述运动跟踪设备的位置数据以及来自立体相机的左图像数据和右图像数据,所述运动视差处理组件还被配置成基于所述位置数据来调整所述左图像数据,以及基于所述位置数据来调整所述右图像数据,并将对应的经调整的左图像数据和右图像数据输出给显示设备。
15.如权利要求14所述的系统,其特征在于,所述位置跟踪设备跟踪所述观看者的头部位置。
16.如权利要求14所述的系统,其特征在于,所述位置跟踪设备跟踪所述观看者的眼睛中的至少一只眼睛的位置。
17.如权利要求14所述的系统,其特征在于,所述位置跟踪设备跟踪所述观看者所佩戴的眼镜的位置或所述眼镜的透镜中的至少一个透镜的位置。
18.—个或多个具有计算机可执行指令的计算机可读介质,所述计算机可执行指令在被执行时执行以下步骤,包括接收一系列左图像,所述左图像中的至少一些被针对运动视差进行了调整;输出所述一系列左图像以显示给所述观看者的左眼;接收一系列右图像,所述右图像中的至少一些被针对运动视差进行了调整;以及输出所述一系列右图像以显示给所述观看者的右眼;
19.如权利要求18所述的一个或多个计算机可读介质,其特征在于,输出所述一系列左图像以显示给所述观看者的左眼包括配置所述一系列左图像以穿过所述观看者的左眼前的过滤器并被所述观看者的右眼前的过滤器所阻挡,并且其中输出所述一系列右图像以显示给所述观看者的右眼包括配置所述一系列右图像以穿过所述观看者的右眼前的过滤器并被所述观看者的左眼前的过滤器所阻挡。
20.如权利要求18所述的一个或多个计算机可读介质,其特征在于,输出所述一系列左图像以显示给所述观看者的左眼包括将所述左图像定向到计算得到的或感测到的左眼位置,并且其中输出所述一系列右图像以显示给所述观看者的右眼包括将所述右图像定向到计算得到的或感测到的右眼位置。
全文摘要
本发明涉及具有运动视差的三维显示。本发明涉及混合立体图像/运动视差系统,该系统使用立体3D视觉技术来向观看者的每一只眼睛呈现不同图像,结合运动视差技术针对观看者的眼睛的位置来调整每一图像。以此方式,当观看者在观看3D场景时移动时,观看者接收立体线索和视差线索两者,这往往对观看者造成较大的视觉舒适度/较少的疲劳。还描述了使用眼镜来跟踪观看者位置,包括训练计算机视觉算法来识别眼镜而非只识别头部/眼睛。
文档编号H04N13/04GK102611909SQ20121002671
公开日2012年7月25日 申请日期2012年2月7日 优先权日2011年2月8日
发明者C·休特玛, E·莱恩, E·萨尔尼科夫 申请人:微软公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1