用于hmd的最优眼部拟合的系统的制作方法_2

文档序号:9693108阅读:来源:国知局
性测量单元132(即IMU 132)包括诸如Ξ 轴磁力计132Α、Ξ轴巧螺仪132B和Ξ轴加速度计132C运样的惯性传感器。惯性测量单元132 传感头戴式显示设备2的位置、方向和突然加速(俯仰、滚转和偏航)。作为磁力计132Α、巧螺 仪132Β和加速度计132C的附加或替代,IMU 132可W包括其他惯性传感器。
[0031] 微型显示器120通过透镜122投射图像。有不同的图像生成技术可用于实现微型显 示器120。例如,微型显示器120可W用透射投射技术实现,其中光源用光学活性材料调制、 白光为背光。运些技术通常用具有强大背光和高光能密度的LCD型显示器来实现。微型显示 器120也可W用反射技术来实现,对该反射技术,外部光由光学活性材料反射和调制。取决 于技术,照明或由白光源或由RGB光源正向照明。数字光处理化LP)、娃上液晶化COS) W及来 自高通公司的Mirasol液显示技术全都是反射技术的示例,由于大多数能量自已调制结构 被反射出并且可用于当前系统中,因此运些反射技术是有效的。此外,微型显示器120可W 用放射性技术来实现,其中光由显示器生成。例如,来自微视公司(Microvisionjnc.)的 PicoP?显示引擎将激光信号W微镜转向或者发射到用作透射元件的小屏幕上,或者被直接 定向发射到眼睛(例如,激光)。
[0032] 导光光学元件115将光从微型显示器120发送到佩戴头戴式显示设备2的用户的眼 睛140。导光光学元件115也允许光从头戴式显示设备2的前方透过导光光学元件115被发送 到眼睛140,如箭头142所示,从而允许用户除了从微型显示器120接收虚拟图像W外,还具 有头戴式显示设备2前方空间的实际直接视图。由此,导光光学元件115的壁是透光的。导光 光学元件115包括第一反射表面124(例如,镜面或其他表面)。来自微型显示器120的光通过 透镜122并且入射至反射表面124。反射表面124反射来自微型显示器120的入射光,W使光 通过内部反射在包括导光光学元件115的平面基板内部被捕集。在基板表面的几次反射之 后,被捕集的光波到达选择性反射表面126的阵列。注意到,五个表面之一被标记126W防止 图的过度密集。反射表面126将入射于那些反射表面上的光波从基板禪合至用户的眼睛 140。导光光学元件的更多细节可W在2008年11月20日公开的美国专利申请公开No. 2008/ 0285140中找到,该专利申请题为"Substrate-Guided Optical Devices(基板引导的光学 设备Γ。
[0033] 按照本技术的各方面,头戴式显示设备2还可W包括用于定位和跟踪用户双眼位 置的系统。该系统包括眼部定位和跟踪组件134(图3),该组件具有眼部跟踪照明器件134A 和眼部跟踪传感器134B(图4)。在一实施例中,眼部跟踪照明设备134A包括朝眼睛发射IR光 的一个或多个红外(IR)发射机。在一实施例中,眼部跟踪传感器134B包括传感所反射的IR 光的一个或多个相机。或者,眼部跟踪传感器134B可W是RGB或深度传感器。在各实施例中 可W有多个传感器134B。
[0034] 用户双眼的位置、W及双眼内的瞳孔可W通过检测角膜反射的已知成像技术来标 识。例如,参见2008年7月22日授权的题为巧ead Mounted Eye Tracking and Display System(头戴式眼部跟踪和显示系统r的美国专利No.7,401,920。运一技术可W定位眼部 中屯、相对于跟踪传感器134B的位置。在各实施例中,对于左眼和右眼的每一个可W有一个 单独的眼部定位和跟踪组件134, W便可W确定用户的IPD。在进一步的实施例中,可W有标 识左眼或右眼的任一者的中屯、的单个眼部定位和跟踪组件134。
[0035] 在一实施例中,系统将使用矩形布局的四个IR L抓和四个IR光电检测器,W使在 头戴式显示设备2的透镜的每个角落处有一个IR Lm)和IR光电检测器。来自Lm)的光从双眼 反射。四个IR光电检测器的每一个处检测到的红外光的量确定了眼睛相对于传感器134B的 位置、W及瞳孔方向。特别是,眼睛中白相对于黑的量将确定对于该特定光电检测器从眼睛 反射的光的量。由此,光电检测器将具有眼睛中白或黑的量的度量。系统可W从四个样本确 定眼睛的方向。
[0036] 另一种替代方式是如W上讨论地使用四个红外LED,但一个红外CCD位于头戴式显 示设备2的透镜一侧上。CCD将使用小镜子和/或透镜(鱼眼使CCD可W对来自眼镜框架的 可视眼睛的多达75%进行成像。然后,CCD将传感图像并且使用计算机视觉来查找该图像, 如同W上讨论的。由此,尽管图3示出具有一个IR发射机的一个组件,但图3的结构可W被调 节为具有四个IR发射机和/或四个IR传感器。也可W使用多于或少于四个IR发射机和/或四 个IR传感器。
[0037] 用于跟踪双眼方向的另一实施例基于电荷跟踪。该概念是基于对视网膜携带可测 量正电荷而角膜具有负电荷的观察。用户耳朵(靠近耳机130)安装有传感器W便在双眼四 处移动并有效地实时读出双眼正在做什么的同时,检测电势。运既提供了用户双眼相对于 头戴式显示设备的位置,也提供了用户瞳孔的位置。也可W使用用于确定用户双眼相对于 头戴式显示设备的位置的其他实施例。
[0038] 通过使用上述实施例的任一个,眼部定位和跟踪系统134能够确定左眼和右眼相 对于眼部定位和跟踪系统134的位置的位置。通过使用系统134相对于光学元件115的已知 位置和几何形状,光学元件115相对于左眼和右眼的位置也已知。该位置包括双眼和光学元 件沿X轴(例如,水平定位)的相对位置。该位置包括双眼和光学元件沿y轴(例如,垂直定位) 的相对位置。且该位置包括双眼和光学元件沿Z轴(例如,双眼和光学元件之间的距离)的相 对位置。
[0039] 除了位置W外,确定光学元件115相对于左眼和右眼的角度方向(俯仰、偏航和滚 转)也是有利的。为此,眼部定位和跟踪组件134也确定每只眼睛的中屯、、W及自眼睛中屯、笔 直向外的眼部矢量。
[0040] 眼睛中屯、可多种方式来确定。在传感器134B捕捉眼睛的图像(或者为彩色图 像和/或为深度图像)时,可W分析该图像W确定眼睛中屯、。例如,图像传感器可W检查角膜 表面,并且从角膜表面确定长轴和角膜中屯、。在进一步实施例中,图像传感器可W检查双眼 的其他特征,包括瞳孔、巩膜(眼睛的白色部分)和/或眼睫毛。可W进一步成像和使用面部 的其他特征,诸如眉毛、鼻子、鼻梁,来确定左眼和右眼的中屯、。
[0041] 包括IR发射机/接收机的示例也可W确定眼睛中屯、W及从中屯、笔直向外的眼部矢 量。例如,在有多个IR发射机/接收机时,诸如四个,运些组件的每一个可W测量他们检测的 眼睛中的巩膜的量。可W确定和比较运四个独立值。当每个值测量到眼睛中相同量的巩膜 时,该眼睛居中(笔直向前看),眼部矢量可W是从瞳孔垂直地笔直向外。该位置可W或者在 每个IR发射机/接收机测量到眼睛中相同量的巩膜时找到,或者它可W从四个发射机/接收 机对测量到眼睛中不同巩膜值的测量推算。
[0042] 如上所述,每只眼睛具有其自身的定位和跟踪组件134,并且可W为每只眼睛确定 一个单独的眼部矢量。或者,可W假定双眼是对称的并且一起移动,可W为双眼确定和使用 单个眼部矢量。
[0043] 图3示出头戴式显示设备2的一半。完整的头戴式显示设备会包括另一组透光透 镜、另一不透明滤光器、另一导光光学元件、另一微型显示器120、另一透镜122、面向房间的 相机112、眼部定位和跟踪组件134、微型显示器、耳机W及溫度传感器。
[0044] 图4是描述头戴式显示设备2的各种组件的框图。图5是描述处理单元4的各种组件 的框图。头戴式显示设备2的组件在图4中示出,头戴式显示设备2用于通过将一个或多个虚 拟图像与用户对现实世界的视图无缝融合来向用户提供混合现实体验。此外,图4的头戴式 显示设备组件包括跟踪各种条件的许多传感器。头戴式显示设备2将从处理单元4接收关于 虚拟图像的指令,并且将把传感器信息提供回处理单元4。处理单元4的组件在图4中示出, 处理单元4将从头戴式显示设备2接收传感信息。
[0045] 通过使用该信息W及可能来自中枢计算系统12的信息,处理单元4可W确定何处 W及何时向用户提供虚拟图像并且相应地向图4的头戴式显示设备发送指令。如W下说明 的,通过使用来自眼部定位和跟踪组件134的信息,处理单元4可另外确定头戴式显示设备2 相对于用户双眼的位置,并且特别是光学元件115与左眼和右眼的任何失准。该信息可用于 向用户提供关于如何调节头戴式显示设备2W便提供光学元件115与用户双眼的居中、最优 对准的精确反馈。
[0046] 图4的组件中的一些组件(例如,面向房间的相机112、眼部跟踪传感器134B、微型 显示器120、不透明滤光器114、眼部跟踪照明134A、耳机130和溫度传感器138) W阴影示出 W表示那些设备的每一种有两个,一个用于头戴式显示设备2左侧,一个用于头戴式显示设 备2右侧。图4示出与功率管理电路202通信的控制电路200。控制电路200包括处理器210、与 存储器214 (例如,D-RAM)通信的存储器控制器212、相机接口 216、相机缓冲器218、显示器驱 动器220、显示器格式化器222、定时生成器226、显示器输出接口 228 W及显示器输入接口 230。
当前第2页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1