用于视觉惯性里程计系统的动态传感器选择的制作方法

文档序号:33507317发布日期:2023-03-18 03:51阅读:515来源:国知局
用于视觉惯性里程计系统的动态传感器选择的制作方法
用于视觉惯性里程计系统的动态传感器选择
相关申请的交叉引用
1.本技术要求2020年6月29日提交的美国临时专利申请号63/045,583和2020年12月15日提交的美国专利申请号17/122,688的优先权,这两个专利申请的全部内容据此以引用方式并入。
技术领域
2.本文所述的示例涉及增强现实(ar)和可穿戴移动设备(诸如眼戴设备)领域。更具体地,但不作为限制,本发明描述了对用户在环境中的增强现实引导。


背景技术:

3.可穿戴移动设备使用各种传感器来确定它们在物理环境内的定位。传感器消耗功率。
附图说明
4.从以下参考附图的具体实施方式中,将容易理解所公开的各种具体实施的特征。在说明书中和附图的几个视图中,每个特征使用了附图标记。当存在多个相似的特征时,可以给相似的特征指定单个附图标记,通过添加小写字母来指代特定的特征。
5.除非另外指出,否则图中所示的各种特征并非按比例绘制的。为了清楚起见,可放大或缩小各个特征的尺寸。若干附图描绘了一个或多个具体实施,并且仅作为示例呈现,而不应被解释为限制。附图中包括以下附图:
6.图1a是适用于视觉惯性追踪系统的眼戴设备的示例性硬件配置的侧视图(右);
7.图1b是图1a的眼戴设备的右角部的局部横截面透视图,其描绘了右可见光相机和电路板;
8.图1c是图1a的眼戴设备的示例性硬件配置的侧视图(左),其示出了左可见光相机;
9.图1d是图1c的眼戴设备的左角部的局部横截面透视图,其描绘了左可见光相机和电路板;
10.图2a和图2b是在增强现实产生系统中利用的眼戴设备的示例性硬件配置的后视图;
11.图3是三维场景、由左可见光相机捕获的左原始图像和由右可见光相机捕获的右原始图像的图形描绘;
12.图4是包括经由各种网络连接的可穿戴设备(例如,眼戴设备)和服务器系统的示例性视觉惯性里程计系统的功能框图;
13.图5是用于图4的增强现实产生系统的移动设备的示例性硬件配置的图形表示;
14.图6是在用于描述即时定位与地图构建的示例性环境中的用户的示意性图示;
15.图7是列出了使用多个传感器来确定眼戴设备在环境内的定位的示例性方法中的
步骤的流程图;
16.图8a、图8b、图8c、图8d、图8e和图8f是列出了使用多个传感器来确定眼戴设备在环境内的定位的示例性方法中的步骤的流程图。
具体实施方式
17.参考示例描述了各种具体实施和细节,这些示例包括一种用于具有多个传感器的眼戴设备的视觉惯性追踪方法。眼戴设备监视视觉惯性里程计系统(vios)的多个传感器,该多个传感器提供用于确定该设备在其环境内的定位的输入。眼戴设备基于来自传感器中的一个或多个的输入信息来确定视觉惯性里程计系统的状态,并且基于所确定的状态来调整传感器(例如,通过打开/关闭传感器、改变采样速率、调节分辨率、调整传感器质量或它们的组合)。然后,眼戴器使用所调整的多个传感器来确定眼戴设备在环境内的定位。
18.使该多个传感器中的每个以其峰值输出通常提高了系统在环境中追踪运动的能力。然而,通过基于例如当前图像中包含的信息量和追踪系统的状态来调整传感器,可实现系统的高效率,而不会显著降低追踪精度。
19.以下具体描述包括说明本公开中阐述的示例的系统、方法、技术、指令序列和计算机器程序产品。出于提供对所公开的主题及其相关教导内容的透彻理解的目的而包括许多细节和示例。然而,相关领域的技术人员能够理解如何在没有此类细节的情况下应用相关教导内容。所公开的主题的各方面不限于所描述的特定设备、系统和方法,因为相关教导内容可以以各种方式来应用或实践。本文中所使用的术语和命名仅仅是为了描述特定方面并非旨在进行限制。通常,公知的指令实例、协议、结构和技术不一定被详细示出。
20.本文中所使用的术语“耦接”或“连接”指的是任何逻辑、光学、物理或电连接(包括链路等),由一个系统元件产生或提供的电或磁信号通过这些连接传递到另一耦接或连接的系统元件。除非另外描述,否则耦接或连接的元件或设备不一定直接彼此连接,并且可以由中间组件、元件或通信介质隔开,中间组件、元件或通信介质中的一者或多者可修改、操纵或承载电信号。术语“上”是指由元件直接支撑或通过集成到元件或由元件支撑的另一元件间接支撑该元件。
21.出于说明和讨论的目的,仅以示例的方式给出了诸如附图中的任一附图所示的设备和相关联部件和结合了相机或惯性测量单元的任何其他完整设备的定向。在操作中,眼戴设备可以在适合于眼戴设备的特定应用的任何其他方向上定向,例如,向上、向下、侧向或任何其他定向。此外,就本文所用的范围而言,任何方向性术语,诸如前、后、内、外、向、左、右、侧向、纵向、上、下、高、低、顶部、底部、侧面、水平、垂直和对角,仅以示例的方式使用,并且不限制如本文所构造或另外描述的任何相机或惯性测量单元的方向或定向。
22.示例的其他目的、优点和新颖特征将部分地在以下具体实施方式中阐述,并且部分地在本领域技术人员检查以下内容和附图后将变得显而易见,或者可通过示例的产生或操作来了解。本主题的目的和优点可借助于所附权利要求书中特别指出的方法、手段和组合来实现和达成。
23.现在详细参考附图所示和下文所讨论的示例。
24.图1a是包括触敏输入设备或触摸板181的眼戴设备100的示例性硬件配置的侧视图(右)。如图所示,触摸板181可具有细微且不易看到的边界;另选地,边界可清楚可见或包
括向用户提供关于触摸板181的位置和边界的反馈的凸起或以其他方式可触知的边缘。在其他具体实施中,眼戴设备100可包括在左侧的触摸板。
25.触摸板181的表面被配置为检测手指触摸、轻击和手势(例如,移动触摸),以便与眼戴设备在图像显示器上显示的gui一起使用,从而允许用户以直观的方式浏览并选择菜单选项,这改善并简化了用户体验。
26.对触摸板181上的手指输入的检测可实现若干功能。例如,触摸触摸板181上的任何地方都可使gui在图像显示器上显示或突出显示项目,该项目可被投影到光学组件180a、180b中的至少一者上。在触摸板181上双击可选择项目或图标。在特定方向上(例如,从前到后、从后到前、从上到下或从下到上)滑动或轻扫手指可使项目或图标在特定方向上滑动或滚动;例如,以移动到下一项目、图标、视频、图像、页面或幻灯片。在另一方向上滑动手指可以在相反方向上滑动或滚动;例如,以移动到前一项目、图标、视频、图像、页面或幻灯片。触摸板181实际上可以在眼戴设备100上的任何地方。
27.在一个示例中,在触摸板181上单击的所识别的手指手势,开始选择或按压呈现在光学组件180a、180b的图像显示器上的图像中的图形用户界面元素。基于所识别的手指手势对呈现在光学组件180a、180b的图像显示器上的图像的调整可以是在光学组件180a、180b的图像显示器上选择或提交图形用户界面元素以用于进一步显示或执行的主要动作。
28.如图所示,眼戴设备100包括右可见光相机114b。如本文进一步描述,两个相机114a、114b从两个单独视点捕获场景的图像信息。两个所捕获的图像可用于将三维显示投影到图像显示器上以利用3d眼镜进行观看。
29.眼戴设备100包括右光学组件180b,其具有图像显示器以呈现图像,诸如深度图像。如图1a和图1b所示,眼戴设备100包括右可见光相机114b。眼戴设备100可包括多个可见光相机114a、114b,其形成被动式三维相机,诸如立体相机,其中右可见光相机114b位于右角部110b。如图1c至图1d所示,眼戴设备100还包括左可见光相机114a。
30.左和右可见光相机114a、114b对可见光范围波长敏感。可见光相机114a、114b中的每个具有不同的前向视场,这些视场重叠以使得能够生成三维深度图像,例如,右可见光相机114b描绘右视场111b。通常,“视场”是场景的一部分,其通过相机在空间中的特定定位处和定向上是可见的。视场111a和111b具有重叠视场304(图3)。当可见光相机捕获图像时,视场111a、111b之外的对象或对象特征未被记录在原始图像(例如,照片或图片)中。视场描述了可见光相机114a、114b的图像传感器在给定场景的所捕获的图像中拾取给定场景的电磁辐射的角度范围或幅度。视场可以被表示为视锥的角度大小;即视角。视角可以水平、垂直或对角地测量。
31.在示例中,可见光相机114a、114b具有视角在40
°
至110
°
之间(例如,大约100
°
)的视场,并且具有480
×
480像素或更大的分辨率。“覆盖角度”描述了可见光相机114a、114b或红外相机410(见图2a)的镜头可有效成像的角度范围。通常,相机镜头产生大到足以完全覆盖相机的胶片或传感器的成像圈,可能包括某种渐晕(例如,与中心相比,图像朝向边缘变暗)。如果相机镜头的覆盖角度未遍及传感器,则成像圈将是可见的,通常具有朝向边缘的强渐晕,并且有效视角将会局限于覆盖角度。
32.此类可见光相机114a、114b的示例包括高分辨率互补金属氧化物半导体(cmos)图像传感器和具有640p(例如,640
×
480像素,总共0.3兆像素)、720p或1080p分辨率的数字
vga相机(视频图形阵列)。相机114a、114b可以是其中传感器阵列的行按顺序曝光的卷帘快门相机,或者是其中传感器阵列的所有行同时曝光的全局快门相机。可使用可见光相机114a、114b的其他示例,其可例如捕获高清晰度(hd)静止图像且以1642
×
1642像素(或更大)的分辨率存储这些图像;或者以高帧速率(例如,每秒三十至六十帧或更多)记录高清晰度视频且以1216
×
1216像素(或更大)的分辨率存储该记录。
33.眼戴设备100可捕获来自可见光相机114a、114b的图像传感器数据以及由图像处理器数字化的地理定位数据,以存储在存储器中。可见光相机114a、114b在二维空间域中捕获相应的左原始图像和右原始图像,这些原始图像包括二维坐标系上的像素矩阵,该二维坐标系包括用于水平定位的x轴和用于垂直定位的y轴。每个像素包括颜色属性值(例如,红色像素光值、绿色像素光值或蓝色像素光值);和定位属性(例如,x轴坐标和y轴坐标)。
34.为了捕获立体图像以用于稍后作为三维投影显示,图像处理器412(在图4中示出)可耦接到可见光相机114a、114b以接收并存储视觉图像信息。图像处理器412或另一处理器控制可见光相机114a、114b的操作以充当模拟人类双眼视觉的立体相机,并且可将时间戳添加到每个图像。每对图像上的时间戳允许将图像一起显示为三维投影的一部分。三维投影产生沉浸式逼真体验,这在包括虚拟现实(vr)和视频游戏的各种情境下是期望的。
35.图1b是图1a的眼戴设备100的右角部110b的横截面透视图,其描绘了相机系统的右可见光相机114b和电路板。图1c是图1a的眼戴设备100的示例性硬件配置的侧视图(左),其示出了相机系统的左可见光相机114a。图1d是图1c的眼戴设备的左角部110a的横截面透视图,其描绘了三维相机的左可见光相机114a和电路板。
36.除了连接和耦接位于左侧面170a上之外,左可见光相机114a的结构和布置基本上类似于右可见光相机114b。如图1b的示例所示,眼戴设备100包括右可见光相机114b和电路板140b,该电路板可以是柔性印刷电路板(pcb)。右铰链126b将右角部110b连接到眼戴设备100的右镜腿125b上。在一些示例中,右可见光相机114b、柔性pcb140b或其他电连接器或触点等部件可位于右镜腿125b或右铰链126b上。
37.右角部110b包括角部体190和角部盖,图1b的横截面中省略了角部盖。设置在右角部110b内部的是各种互连的电路板,诸如pcb或柔性pcb,其包括用于右可见光相机114b、麦克风、低功率无线电路(例如,用于经由bluetooth
tm
的无线短距离网络通信)、高速无线电路(例如,用于经由wi-fi的无线局域网通信)的控制器电路。
38.右可见光相机114b耦接到或设置在柔性pcb140b上且由可见光相机覆盖镜头覆盖,该镜头通过形成在框架105中的开口瞄准。例如,框架105的右边缘107b,如图2a所示,连接到右角部110b,并且包括用于可见光相机覆盖镜头的开口。框架105包括被配置为面向外且远离用户的眼睛的前侧。用于可见光相机覆盖镜头的开口形成在框架105的前向或外向侧面上并穿过该前向或外向侧面。在示例中,右可见光相机114b具有面向外的视场111b(图3所示),其视线或视角与眼戴设备100的用户的右眼相关。可见光相机覆盖镜头也可粘附到右角部110b的前侧或面向外的表面,其中开口形成有面向外的覆盖角度,但朝向不同的向外方向上。耦接也可经由居间部件间接实现。
39.如图1b所示,柔性pcb140b设置在右角部110b内,并且耦接到容纳在右角部110b中的一个或多个其他部件。尽管示出为形成在右角部110b的电路板上,但是右可见光相机114b可形成在左角部110a、镜腿125a、125b或框架105的电路板上。
40.图2a和图2b是眼戴设备100的示例性硬件配置的后透视图,包括两种不同类型的图像显示器。眼戴设备100的尺寸和形状被设计成被配置为供用户佩戴的形式;在该示例中为眼镜的形式。眼戴设备100可采取其他形式并且可结合其他类型的框架,例如,头戴器、头戴式耳机或头盔。
41.在眼镜的示例中,眼戴设备100包括框架105,其包括经由适于由用户的鼻部支撑的鼻梁架106连接到右边缘107b的左边缘107a。左和右边缘107a、107b包括相应的孔口175a、175b,这些孔口保持相应的光学元件180a、180b,诸如镜头和显示设备。在此使用的术语“镜头”旨在包括透明或半透明玻璃或塑料片,其具有弯曲或平坦表面,使光会聚/发散或几乎或完全不引起会聚或发散。
42.虽然被示出为具有两个光学元件180a、180b,但是眼戴设备100可包括其他布置,诸如单个光学元件(或者其可不包括任何光学元件180a、180b),这取决于眼戴设备100的应用或预期用户。如前所述,眼戴设备100包括与框架105的左侧面170a相邻的左角部110a以及与框架105的右侧面170b相邻的右角部110b。角部110a、110b可集成到框架105相应的侧面170a、170b上(如图所示)或实施为附接到框架105相应的侧面170a、170b上的单独部件。另选地,角部110a、110b可集成到附接到框架105的镜腿(未示出)中。
43.在一个示例中,光学组件180a、180b的图像显示器包括集成的图像显示器。如图2a所示,每个光学组件180a、180b包括合适的显示矩阵177,诸如液晶显示器(lcd)、有机发光二极管(oled)显示器或任何其他此类显示器。每个光学组件180a、180b还包括一个或多个光学层176,其可以包括镜头、光学涂层、棱镜、反射镜、波导、光学条带和其他光学部件及任意组合。光学层176a、176b、

、176n(在图2a中示出为176a-n)可包括棱镜,该棱镜具有合适的尺寸和构造并包括用于接收来自显示矩阵的光的第一表面和用于向用户的眼睛发射光的第二表面。光学层176a-n的棱镜在整个或部分孔口175a、175b上延伸,该孔口形成在左和右边缘107a、107b中以在用户的眼睛透过对应的左和右边缘107a、107b观看时允许用户看到棱镜的第二表面。光学层176a-n的棱镜的第一表面从框架105面向上方,并且显示矩阵177覆盖在棱镜上,使得由显示矩阵177发射的光子和光照射在第一表面上。棱镜的尺寸和形状被设计成使得光在棱镜内被折射并且被光学层176a-n的棱镜的第二表面导向用户的眼睛。在这一点而言,光学层176a-n的棱镜的第二表面可以是凸形的以将光导向眼睛的中心。棱镜可选择性的被设计尺寸和形状来放大由显示矩阵177投影的图像,并且光通过棱镜使得从第二表面观察的图像在一个或多个维度上大于从显示矩阵177发射的图像。
44.在一个示例中,光学层176a-n可包括透明的lcd层(保持镜头打开),除非且直到施加电压使该层不透明(关闭或遮挡镜头)。眼戴设备100上的图像处理器412可执行程序以将电压施加到lcd层,以便产生主动式快门系统,从而使得眼戴设备100适于观看被显示为三维投影的视觉内容。除了lcd之外的技术可用于主动式快门模式,包括响应于电压或另一类型的输入的其他类型的反应层。
45.在另一示例中,光学组件180a、180b的图像显示设备包括如图2b所示的投影图像显示器。每个光学组件180a、180b包括激光投影仪150,其是使用扫描镜或检流计的三色激光投影仪。在操作期间,光源(诸如激光投影仪150)被设置在眼戴设备100的镜腿125a、125b中的一个之中或之上。在该示例中,光学组件180b包括一个或多个光学条带155a、155b、

155n(在图2b中示出为155a-n),其在每个光学组件180a、180b的镜头的宽度上,或者在镜头
的前表面和后表面之间的镜头的深度上间隔开。
46.当由激光投影仪150投射的光子行进穿过每个光学组件180a、180b的镜头时,光子遇到光学条带155a-n。当特定光子遇到特定光学条带时,光子要么被重定向到用户的眼睛,要么传递到下一光学条带。激光投影仪150的调制和光学条带的调制的组合可控制特定的光子或光束。在示例中,处理器通过发出机械、声学或电磁信号来控制光学条带155a-n。虽然被示出为具有两个光学组件180a、180b,但是眼戴设备100可包括其他布置,诸如单个或三个光学组件,或者每个光学组件180a、180b可被布置有不同的布置,这取决于眼戴设备100的应用或预期用户。
47.如图2a和图2b进一步所示,眼戴设备100包括与框架105的左侧面170a相邻的左角部110a以及与框架105的右侧面170b相邻的右角部110b。角部110a、110b可集成到框架105相应的侧面170a、170b上中(如图所示)或实施为附接到框架105相应的侧面170a、170b上的单独部件。另选地,角部110a、110b可集成到附接到框架105的镜腿125a、125b中。
48.在另一示例中,图2b中示出的眼戴设备100可包括两个投影仪,左投影仪150a(未示出)和右投影仪150b(示出为投影仪150)。左光学组件180a可包括左显示矩阵177a(未示出)或左光学条带155'a、155'b、

、155'n(155',a至n,未示出),其被配置为与来自左投影仪150a的光交互。类似地,右光学组件180b可包括右显示矩阵177b(未示出)或右光学条155”a、155”b、

、155”n(155”,a至n,未示出),其被配置为与来自右投影仪150b的光交互。在该示例中,眼戴设备100包括左显示器和右显示器。
49.图3是三维场景306、由左可见光相机114a捕获的左原始图像302a和由右可见光相机114b捕获的右原始图像302b的图形描绘。如图所示,左视场111a可与右视场111b重叠。重叠视场304表示由两个相机114a、114b均捕获的图像部分。术语“重叠”在涉及视场时意味着所生成的原始图像中的像素矩阵重叠百分之三十(30%)或更多。“基本上重叠”意味着所生成的原始图像中的像素矩阵或场景的红外图像中的像素矩阵重叠百分之五十(50%)或更多。如本文所述,两个原始图像302a、302b可被处理以包括时间戳,该时间戳允许图像作为三维投影的一部分被一起显示。
50.为了捕获立体图像,如图3所示在给定时刻捕获真实场景306的一对原始红绿蓝(rgb)图像:由左相机114a捕获的左原始图像302a和由右相机114b捕获的右原始图像302b。当(例如,由图像处理器412)处理该对原始图像302a、302b时,生成深度图像。所生成的深度图像可在眼戴设备的光学组件180a、180b上、在另一显示器(例如,移动设备401上的图像显示器580)上、或在屏幕上查看。
51.所生成的深度图像在三维空间域中,并且可包括三维位置坐标系上的顶点矩阵,该三维位置坐标系包括用于水平定位(例如,长度)的x轴、用于垂直定位(例如,高度)的y轴和用于深度(例如,距离)的z轴。每个顶点可包括颜色属性(例如,红色像素光值、绿色像素光值或蓝色像素光值);定位属性(例如,x位置坐标、y位置坐标和z位置坐标);纹理属性;反射率属性;或它们的组合。纹理属性量化深度图像的感知纹理,诸如深度图像的顶点区域中的颜色或强度的空间布置。
52.在一个示例中,交互式增强现实系统400(图4)包括眼戴设备100,其包括框架105、从框架105的左侧面170a延伸的左镜腿110a、以及从框架105的右侧面170b延伸的右镜腿125b。眼戴设备100可进一步包括具有重叠的视场的至少两个可见光相机114a、114b。在一
个示例中,眼戴设备100包括具有左视场111a的左可见光相机114a,如图3所示。左相机114a连接到框架105或左镜腿110a以从场景306的左侧捕获左原始图像302a。眼戴设备100进一步包括具有右视场111b的右可见光相机114b。右相机114b连接到框架105或右镜腿125b以从场景306的右侧捕获右原始图像302b。
53.图4是示例性交互式增强现实系统400的功能框图,该系统包括经由各种网络495(诸如因特网)连接的可穿戴设备(例如,眼戴设备100)、移动设备401和服务器系统498。交互式增强现实系统400包括眼戴设备100与移动设备401之间的低功率无线连接425和高速无线连接437。
54.如图4所示,如本文所述,眼戴设备100包括一个或多个可见光相机114a、114b,它们捕获静止图像、视频图像或静止图像和视频图像两者。相机114a、114b可具有对高速电路430的直接存储器访问(dma)并且用作立体相机。相机114a、114b可用于捕获初始深度图像,这些初始深度图像可被渲染成三维(3d)模型,这些三维模型是红绿蓝(rgb)成像场景的纹理映射图像。设备100还可包括深度传感器213,其使用红外信号来估计对象相对于设备100的定位(例如,高对比度区域)。在一些示例中,深度传感器213包括一个或多个红外发射器215和红外相机410。
55.眼戴设备100进一步包括每个光学组件180a、180b的两个图像显示器(一个与左侧面170a相关联,一个与右侧面170b相关联)。眼戴设备100还包括图像显示器驱动器442、图像处理器412、低功率电路420和高速电路430。每个光学组件180a、180b的图像显示器用于呈现图像,包括静止图像、视频图像、或静止和视频图像。图像显示器驱动器442耦接到每个光学组件180a、180b的图像显示器,以便控制图像的显示。
56.眼戴设备100还包括一个或多个扬声器440(例如,一个与眼戴设备的左侧相关联,另一个与眼戴设备的右侧相关联)。扬声器440被包含到眼戴设备100的框架105、镜腿125或角部110中。一个或多个扬声器440由音频处理器443在低功率电路420、高速电路430或两者的控制下驱动。扬声器440用于呈现音频信号,包括例如节拍音轨。音频处理器443耦接到扬声器440以便控制声音的呈现。
57.图4所示的用于眼戴设备100的部件位于一个或多个电路板上,例如,位于边缘或镜腿中的印刷电路板(pcb)或柔性印刷电路(fpc)。另选地或附加地,所描绘的部件可位于眼戴设备100的角部、框架、铰链或鼻梁架中。左和右可见光相机114a、114b可包括数字相机元件,诸如互补金属氧化物半导体(cmos)图像传感器、电荷耦合器件、镜头、或可用于捕获数据(包括具有未知对象的场景的静止图像或视频)的任何其他相应的可见或光捕获元件。
58.如图4所示,高速电路430包括高速处理器432、存储器434和高速无线电路436。在该示例中,图像显示驱动器442耦接到高速电路430并且由高速处理器432操作,以便驱动每个光学组件180a、180b的左和右图像显示器。高速处理器432可以是能够管理眼戴设备100所需的任何通用计算系统的高速通信和操作的任何处理器。高速处理器432包括使用高速无线电路436来管理到无线局域网(wlan)的高速无线连接437上的高速数据传输所需的处理资源。
59.在一些示例中,高速处理器432执行操作系统,诸如linux操作系统或眼戴设备100的其他此类操作系统,并且操作系统被存储在存储器434中以供执行。除了任何其他职责之外,执行眼戴设备100的软件架构的高速处理器432还用于管理利用高速无线电路436的数
据传输。在一些示例中,高速无线电路436被配置为实现电气和电子工程师协会(ieee)802.11通信标准,本文中也称为wi-fi。在其他示例中,高速无线电路436可实施其他高速通信标准。
60.低功率电路420包括低功率处理器422和低功率无线电路424。眼戴设备100的低功率无线电路424和高速无线电路436可包括短距离收发器(bluetooth
tm
或蓝牙低功耗(ble))和无线广域网、局域网或广域网收发器(例如,蜂窝或wi-fi)。移动设备401,包括经由低功率无线连接425和高速无线连接437通信的收发器,可像网络495的其他元件一样,使用眼戴设备100的架构的细节来实施。
61.存储器434包括能够存储各种数据和应用的任何存储设备,所述数据包括由左和右可见光相机114a、114b、红外相机410、图像处理器412生成的相机数据、以及由图像显示驱动器442在每个光学组件180a、180b的图像显示器生成用于显示的图像。虽然存储器434被示出为与高速电路430集成,但在其他示例中,存储器434可以是眼戴设备100的单独的独立元件。在某些此类示例中,电气布线线路可提供芯片到存储器434的连接,所述芯片包括图像处理器412的高速处理器432或低功率处理器422。在其他示例中,高速处理器432可管理存储器434的寻址,使得低功率处理器422将在需要涉及存储器434的读或写操作的任何时间启动高速处理器432。
62.如图4所示,眼戴设备100的高速处理器432可耦接到相机系统(可见光相机114a、114b)、图像显示器驱动器442、用户输入设备491和存储器434。如图5所示,移动设备401的cpu530可耦接到相机系统570、移动显示驱动器582、用户输入层591和存储器540a。
63.服务器系统498可以是作为服务或网络计算系统的一部分的一个或多个计算设备,例如包括处理器、存储器和网络通信接口以通过网络495与眼戴设备100和移动设备401通信。
64.眼戴设备100的输出部件包括视觉元件,诸如与每个镜头或如图2a和图2b所述光学组件180a、180b相关联的左和右图像显示器(例如,显示器,诸如液晶显示器(lcd)、等离子体显示面板(pdp)、发光二极管(led)显示器、投影仪或波导)。眼戴设备100可包括面向用户的指示器(例如,led、扬声器或振动致动器),或面向外的信号(例如,led、扬声器)。每个光学组件180a、180b的图像显示器由图像显示器驱动器442驱动。在一些示例性配置中,眼戴设备100的输出部件进一步包括额外的指示器,诸如可听元件(例如,扬声器)、触觉部件(例如,致动器,诸如用于生成触觉反馈的振动马达)和其他信号生成器。例如,设备100可包括面向用户的指示器组和面向外的信号组。面向用户的指示器组被配置为由设备100的用户看到或以其他方式感知到。例如,设备100可包括被定位成使得用户可以看见它的led显示器、被定位成生成用户可以听到的声音的一个或多个扬声器、或者提供用户可以感觉到的触觉反馈的致动器。面向外的信号组被配置为由设备100附近的观察者看到或以其他方式感知到。类似地,设备100可包括被配置和定位成由观察者感知到的led、扬声器或致动器。
65.眼戴设备100的输入部件可包括字母数字输入部件(例如,被配置为接收字母数字输入的触摸屏或触摸板、摄影光学键盘或其他字母数字配置的元件)、基于点的输部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指点仪器)、触觉输入部件(例如,按钮开关、感测触摸或触摸手势的位置、力或位置和力的触摸屏或触摸板,或其他触觉配置的元
件)和音频输入部件(例如,麦克风)等。移动设备401和服务器系统498可包括字母数字、基于点、触觉、音频和其他输入部件。
66.在一些示例中,眼戴设备100包括一些被称为惯性测量单元472的运动感测部件。运动感测部件可以是具有微观移动部件的微机电系统(mems),这些微观移动部件通常足够小以成为微芯片的一部分。在一些示例性配置中,惯性测量单元(imu)472包括加速度计、陀螺仪和磁力计。加速度计可感测设备100相对于三个正交轴(x、y、z)的线性加速度(包括由于重力而引起的加速度)。陀螺仪可感测设备100绕三个旋转轴(俯仰、滚转、偏航)的角速度。加速度计和陀螺仪可一起提供关于设备相对于六个轴(x、y、z、俯仰、滚转、偏航)的定位、定向和运动数据。如果存在磁力计,则磁力计可感测设备100相对于磁北极的航向。设备100的定位可以由位置传感器诸如gps单元473、用于生成相对定位坐标的一个或多个收发器、高度传感器或气压计和其他定向传感器来确定。还可经由低功率无线电路424或高速无线电路436从移动设备401通过无线连接425和437接收此类定位系统坐标。
67.imu472可包括数字运动处理器或程序,或者与数字运动处理器或程序协作,该数字运动处理器或程序从部件采集原始数据,并且计算关于设备100的定位、定向和运动的多个有用值。例如,从加速度计采集的加速度数据可被积分以获得相对于每个轴(x、y、z)的速度;并再次被积分以获得设备100的定位(以线性坐标x、y和z表示)。来自陀螺仪的角速度数据可被积分以获得设备100的定位(以球面坐标表示)。用于计算这些有效值的程序可存储在存储器434中并且由眼戴设备100的高速处理器432执行。
68.眼戴设备100可以可选地包括附加的外围传感器,诸如生物计量传感器、特性传感器或者与眼戴设备100集成的显示元件。例如,外围设备元件可包括任何i/o部件,包括输出部件、运动部件、定位部件或本文所述的任何其他此类元件。例如,生物计量传感器可包括检测表情(例如,手势、面部表情、声音表达、身体姿势或眼睛追踪)、测量生物信号(例如,血压、心率、体温、出汗或脑电波)或识别人(例如,基于语音、视网膜、面部特征、指纹或电生物信号诸如脑电图数据的识别)等的部件。
69.移动设备401可以是智能电话、平板电脑、笔记本电脑、接入点或任何能够使用低功率无线连接425和高速无线连接437两者与眼戴设备100连接的其他此类设备。移动设备401连接到服务器系统498和网络495。网络495可包括有线和无线连接的任何组合。
70.如图4所示的交互式增强现实系统400包括通过网络耦接到眼戴设备100的计算设备,诸如移动设备401。交互式增强现实系统400包括用于存储指令的存储器和用于执行指令的处理器。由处理器432执行交互式增强现实系统400的指令将眼戴设备100配置为与移动设备401协作。交互式增强现实系统400可利用眼戴设备100的存储器434或移动设备401的存储器元件540a、540b、540c(图5)。此外,交互式增强现实系统400可利用眼戴设备100的处理器元件432、422或移动设备401的中央处理单元(cpu)530(图5)。此外,交互式增强现实系统400可进一步利用服务器系统498的存储器和处理器元件。在这一方面,交互式增强现实系统400的存储器和处理功能可以跨眼戴设备100、移动设备401和服务器系统498共享或分布。
71.存储器434包括歌曲文件482和虚拟对象484。歌曲文件482包括节奏(例如,节拍音轨)以及可选的音符序列和音符值。音符是表示特定音高或其他乐声的符号。音符值包括相对于节奏而言的弹奏音符的持续时间,并且可包括其他特性,诸如响度、强调、清晰发音和
相对于其他音符的分句。在一些具体实施中,节奏包括用户界面的默认值,用户可通过该用户界面选择在歌曲回放期间使用的特定节奏。虚拟对象484包括用于识别由相机114捕获的图像中的对象或特征的图像数据。这些对象可以是物理特征,诸如用于在环境内定位眼戴设备100的已知的绘画或物理标记。
72.存储器434还包括由处理器432执行的定位检测程序460、标记配准程序462、定位程序464、虚拟对象渲染程序466、物理引擎468和预测引擎470。定位检测程序460将处理器432配置为例如使用定位程序464来确定在环境内的定位(位置和定向)。标记配准工具462将处理器432配置为在环境内配准标记。标记可以是在环境内具有已知位置的预定义物理标记,或者由处理器432指定到相对于眼戴设备100正在其中操作的环境或相对于眼戴器本身的特定位置。定位程序464将处理器432配置为获得定位数据,以用于确定眼戴设备100、由眼戴设备呈现的虚拟对象或它们的组合的定位。位置数据可以从一系列图像、imu单元472、gps单元473或它们的组合中导出。虚拟对象渲染程序466将处理器432配置为渲染用于由图像显示器180在图像显示器驱动器442和图像处理器412的控制下显示的虚拟图像。物理引擎468将处理器432配置为以将物理定律(诸如重力和摩擦)应用于例如虚拟游戏件之间的虚拟单词。预测引擎470将处理器432配置为基于对象(诸如眼戴设备100)的当前航向、来自传感器(诸如imu472)的输入、环境的图像或它们组合来预测该对象的预期移动。
73.图5是示例性移动设备401的高级功能框图。移动设备401包括闪存存储器540a,其存储要由cpu530执行以运行本文所述的所有功能或功能子集的程序。
74.移动设备401可包括相机570,其包括至少两个可见光相机(具有重叠的视场的第一和第二可见光相机)或具有基本上重叠的视场的至少一个可见光相机和深度传感器。闪存存储器540a可进一步包括经由相机570生成的多个图像或视频。
75.如图所示,移动设备401包括图像显示器580、控制图像显示器580的移动显示器驱动器582和显示控制器584。在图5的示例中,图像显示器580包括用户输入层591(例如,触摸屏),其层叠在由图像显示器580使用的屏幕的顶部之上或以其他方式集成到该屏幕中。
76.可使用的触摸屏式的移动设备的示例包括(但不限于)智能电话、个人数字助理(pda)、平板电脑、笔记本电脑或其他便携式设备。然而,触摸屏式的设备的结构和操作是以示例的方式提供的;如本文所述的主题技术并不旨在局限于此。出于该讨论的目的,图5因此提供了具有用户界面的示例性移动设备401的框图图示,该用户界面包括用于接收输入(通过手、触笔或其他工具的触摸、多点触摸或手势等)的触摸屏输入层891和用于显示内容的图像显示器580。
77.如图5所示,移动设备401包括用于经由广域无线移动通信网络进行数字无线通信的至少一个数字收发器(xcvr)510,示为wwanxcvr。移动设备401还包括额外的数字或模拟收发器,诸如用于诸如经由nfc、vlc、dect、zigbee、bluetooth
tm
或wi-fi进行短距离网络通信的短距离收发器(xcvr)520。例如,短距离xcvr520可采用任何可用双向无线局域网(wlan)收发器的形式,该类型与在无线局域网中实施的一个或多个标准通信协议(例如,符合ieee802.11的wi-fi标准之一)兼容。
78.为了生成用于定位移动设备401的位置坐标,移动设备401可包括全球定位系统(gps)接收器。另选地或附加地,移动设备401可利用短距离xcvr520和wwan xcvr510中的任一者或两者来生成用于定位的位置坐标。例如,基于蜂窝网络、wi-fi或bluetooth
tm
的定位
系统可生成非常准确的位置坐标,尤其是当它们组合使用时。此类位置坐标可经由xcvr510、520通过一个或多个网络连接传输到眼戴设备。
79.收发器510、520(即,网络通信接口)符合现代移动网络所利用的各种数字无线通信标准中的一个或多个标准。wwan收发器510的示例包括(但不限于)被配置为根据码分多址(cdma)和第3代合作伙伴计划(3gpp)网络技术操作的收发器,所述技术包括例如但不限于3gpp类型2(或3gpp2)和lte,有时被称为“4g”。例如,收发器510、520提供信息的双向无线通信,所述信息包括数字化音频信号、静止图像和视频信号、用于显示的网页信息以及web相关输入,以及去往/来自移动设备401的各种类型的移动消息通信。
80.移动设备401进一步包括用作中央处理单元(cpu)的微处理器;如图4中的cpu530所示。处理器是一种电路,其具有的元件被构造并布置成执行一个或多个处理功能(通常是各种数据处理功能)。尽管可使用离散的逻辑部件,但是这些示例利用形成可编程cpu的部件。微处理器例如包括一个或多个集成电路(ic)芯片,其结合了执行cpu的功能的电子元件。例如,cpu530可基于任何已知或可用的微处理器架构,诸如使用arm架构的精简指令集计算(risc),正如现今在移动设备和其他便携式电子设备中通常使用的。当然,处理器电路的其他布置可用于形成智能电话、笔记本电脑和平板电脑中的cpu530或处理器硬件。
81.通过将移动设备401配置为例如根据cpu530可执行的指令或程序来执行各种操作,cpu530用作移动设备401的可编程主机控制器。例如,此类操作可包括移动设备的各种一般操作,以及与用于移动设备上的应用的程序相关的操作。尽管处理器可使用硬连线逻辑来配置,但是移动设备中的典型处理器是通过执行程序来配置的通用处理电路。
82.移动设备401包括用于存储程序和数据的存储器或存储系统。在示例中,存储器系统可根据需要包括闪存存储器540a、随机存取存储器(ram)540b和其他存储器部件540c。ram540b用作由cpu530处理的指令和数据的短期存储装置,例如,用作工作数据处理存储器。闪存存储器540a通常提供长期存储。
83.因此,在移动设备401的示例中,闪存存储器540a用于存储由cpu530执行的程序或指令。根据设备的类型,移动设备401存储并运行移动操作系统,特定应用通过该移动操作系统执行。移动操作系统的示例包括googleandroid、appleios(用于iphone或ipad设备)、windowsmobile、amazonfireos、rimblackberryos等。
84.眼戴设备100内的处理器432构建眼戴设备100周围的环境的地图,确定眼戴设备在映射的环境内的位置,并且确定眼戴设备相对于映射的环境中的一个或多个对象(例如,高对比度区域)的相对定位。在一个示例中,处理器432构建地图,并且使用应用于从一个或多个传感器接收的数据的视觉惯性里程计(vio)算法来确定位置和定位信息。在增强现实的场景下,使用vio算法以通过分析从设备环境获得的相关联相机图像来实时确定设备100的定位和定向。数学解可使用各种统计方法来近似,诸如粒子滤波、卡尔曼滤波、扩展卡尔曼滤波(ekf)、协方差交集、非线性优化和机器学习。
85.传感器数据包括从一个或多个相机(例如,相机114a、114b)、imu472、深度传感器接收的图像、从激光测距仪接收的距离、从gps单元473接收的定位信息、或两个或更多个此类传感器数据的组合,或来自提供用于确定定位信息的数据的其他传感器的数据。
86.图6描绘了连通用于自然特征追踪(nft;例如,使用slam算法的追踪应用)的元素一起的示例性环境600。眼戴设备100的用户602存在于示例性物理环境600(在图6中为内部
房间)中。眼戴设备100的处理器432使用所捕获的图像来确定其相对于环境600内的一个或多个高对比度区域(示出为对象604)的定位,使用环境600的坐标系(x,y,z)来构建环境600的地图,并且确定其在坐标系内的位置。另外,处理器432通过使用与单个高对比度区域604a相关联的两个或更多个位置点(例如,三个位置点606a、606b和606c)或者通过使用与两个或更多个高对比度区域604a、604b、604c相关联的一个或多个位置点606来确定眼戴设备100在环境内的头部姿态(滚转、俯仰和偏航)。在一个示例中,眼戴设备100的处理器432定位环境600内的虚拟对象408(诸如图6中所示的钥匙),以经由图像显示器180进行增强现实观看。
87.图7是描绘用于对可穿戴设备(例如,眼戴设备)进行视觉惯性追踪的方法的流程图700。尽管如本文所述,这些步骤是基于眼戴设备100进行了描述,但其他类型的设备,本领域技术人员根据本文描述将理解所描述的步骤的其他具体实施方式。另外,可以设想,在图7中以及在其他附图中示出的并且在本文中描述的一个或多个步骤可省略、同时或依序执行、以不同于所示和所述的次序执行、或结合附加步骤执行。
88.在框702处,眼戴设备100捕获在眼戴设备100附近的物理环境600的一个或多个输入图像。处理器432可连续地从可见光相机114接收输入图像,并且将这些图像存储在存储器434中以供处理。另外,眼戴设备100可以从其他传感器捕获信息(例如,来自gps单元473的位置信息、来自imu472的定向信息、或来自激光距离传感器的距离信息)。
89.在框704处,眼戴设备100将所捕获的图像中的对象与存储在图像库中的对象进行比较以识别匹配。在一些具体实施中,处理器432将所捕获的图像存储在存储器434中。已知对象的图像库存储在虚拟对象数据库484中。
90.在一个示例中,处理器432被编程为识别预定义的特定对象(例如,悬挂在墙壁上的已知位置处的特定照片604a、另一墙壁上的窗口604b、或定位在地板上的对象诸如保险箱604c)。其他传感器数据诸如gps数据可用于缩小在比较中使用的已知对象(例如,仅与通过gps坐标识别出的房间相关联的图像)的数量。在另一示例中,处理器432被编程为识别预定义的一般对象(诸如公园内的一棵或多棵树)。
91.在框706处,眼戴设备100确定其相对于对象的定位。处理器432可通过将所捕获的图像中的两个或更多个点之间(例如,一个对象604上的两个或更多个位置点之间或者两个对象604中的每个对象上的位置点606之间)的距离与所识别的对象中的对应点之间的已知距离进行比较和处理,来确定其相对于对象的定位。所捕获的图像的点之间的距离大于所识别的对象的点之间的距离的指示眼戴设备100比捕获包括所识别的对象的图像的成像器更靠近所识别的对象。另一方面,所捕获的图像的点之间的距离小于所识别的对象的点之间的距离的指示眼戴设备100比捕获包括所识别的对象的图像的成像器更远离所识别的对象。通过处理相对距离,处理器432能够确定相对于对象的定位。另选地或附加地,可使用其他传感器信息(诸如激光距离传感器信息)来确定相对于对象的定位。
92.在框708处,眼戴设备100构建围绕眼戴设备100的环境600的地图,并且确定其在环境内的位置。在一个示例中,在所识别的对象(框704)具有预定义坐标系(x,y,z)的情况下,眼戴设备100的处理器432使用该预定义坐标系来构建地图,并且基于相对于所识别的对象的所确定的定位(框706)来确定其在该坐标系内的定位。在另一示例中,眼戴设备使用环境内的永久或半永久对象604的图像(例如,公园内的树或公园长凳)来构建地图。根据该
示例,眼戴设备100可限定用于环境的坐标系(x

,y

,z

)。
93.在框710处,眼戴设备100确定眼戴设备100在环境内的头部姿态(滚转、俯仰和偏航)。处理器432通过使用一个或多个对象604上的两个或更多个位置点(例如,三个位置点606a、606b和606c)或通过使用两个或更多个对象604上的一个或多个位置点606来确定头部姿态。使用常规图像处理算法,处理器432通过比较在所捕获的图像与已知图像的位置点之间延伸的线的角度和长度来确定滚转、俯仰和偏航。
94.在框712处,眼戴设备100向用户呈现视觉图像。处理器432使用图像处理器412和图像显示器驱动器442在图像显示器180上向用户呈现图像。处理器响应于眼戴设备100在环境600内的位置而经由图像显示器显影并呈现视觉图像。
95.在框714处,随着用户在环境600中移动,重复以上参考框706-712所述的步骤,以更新眼戴设备100的定位以及用户602所观看的内容。
96.再次参考图6,在该示例中,实施本文所述的增强现实虚拟引导应用的方法包括与物理对象(例如,绘画604a)相关联的虚拟标记(例如,虚拟标记610a)和与虚拟对象(例如,钥匙608)相关联的虚拟标记。在一个示例中,眼戴设备100使用与物理对象相关联的标记来确定眼戴设备100在环境中的定位,并且使用与虚拟对象相关联的标记来生成叠层图像,这些叠层图像在眼戴设备100的显示器上的虚拟标记定位处呈现环境600中的相关联虚拟对象608。例如,标记被配准在环境中的位置处,以用于追踪和更新用户、设备和对象(虚拟的和物理的)在映射的环境中的位置。有时将标记与高对比度物理对象(诸如安装在较浅色的墙壁上的相对较暗的对象604a)配准,以帮助相机和其他传感器进行检测标记的任务。标记可以是预先指定的,或者可以由眼戴设备100在进入环境时指定。标记也被配准在环境中的位置处,以用于在映射的环境中的那些位置处呈现虚拟图像。
97.标记可以用信息编码或以其他方式与信息链接。标记可能包括定位信息、物理代码(诸如条形码或qr码;对用户可见或隐藏)或它们的组合。与标记相关联的一组数据被存储在眼戴设备100的存储器434中。该组数据包括关于标记610a、标记的定位(位置和定向)、一个或多个虚拟对象或它们的组合的信息。标记位置可包括一个或多个标记界标616a的三维坐标,诸如图6所示的大致矩形的标记610a的角部。标记定位可以相对于真实世界地理坐标、标记坐标系、眼戴设备100的定位或其他坐标系来表示。一个或多个与标记610a相关联的虚拟对象可包括各种材料中的任何一种,包括静止图像、视频、音频、触觉反馈、可执行应用、交互式用户界面和体验、以及此类材料的组合或序列。在该上下文中,能够被存储在存储器中并且在遇到标记610a时被检索或与所指定的标记相关联的任何类型的内容都可以被分类为虚拟对象。例如,图6所示的钥匙608是在标记位置处显示为2d或3d静止图像的虚拟对象。
98.在一个示例中,标记610a可在存储器中配准为位于物理对象604a(例如,图6所示的装裱艺术品)附近并与其相关联。在另一示例中,标记可在存储器中配准为相对于眼戴设备100的特定定位。
99.图8a至图8e是列出视觉惯性追踪的示例性方法中的步骤的流程图800、810、820、830和840。尽管如本文所述,参考眼戴设备100描述了这些步骤,但是本领域技术人员根据本文的描述将理解所描述的步骤针对其他类型的移动设备的其他具体实施。另外,可以设想,在图8a至图8e中以及在其他附图中示出的并且在本文中描述的一个或多个步骤可省
略、同时或依序执行、以不同于所示和所述的次序执行、或结合附加步骤执行。
100.图8是示出利用眼戴设备100进行视觉惯性追踪的方法的流程图800。在框802处,处理器432监视视觉惯性里程计系统(vios)的多个传感器。该多个传感器中的每个传感器提供用于确定眼戴设备在环境内的定位的输入。传感器包括一个或多个相机(例如,可见光、深度、红外等)、惯性测量单元(imu)472、雷达系统和gps473。在一个示例中,该多个传感器包括惯性测量单元(imu)472和第一相机。在另一方面,在该多个传感器包括惯性测量单元(imu)和第一相机的情况下,第一相机是第一可见光相机114a。在又一方面,在第一相机是第一可见光相机114a的情况下,该多个传感器进一步包括第二相机114b、第一深度相机、第二深度相机、另一imu、雷达系统和gps。
101.在框804处,处理器432确定眼戴设备100的视觉惯性里程计系统的状态。视觉惯性里程计系统的状态可以基于眼戴设备100的当前运动速率、眼戴设备100操作的环境(例如,内部与外部、稀疏与拥挤等)、环境的其他特征或它们的组合。状态提供了提供合适的追踪结果所需的最小传感器需求的指示。在一个示例中,状态包括低设置、中设置和高设置。低设置可以与相对低水平的传感器要求(例如,仅需要一个可用传感器以最低可用采样速率来确定在已知室内环境中以低速率移动时的定位)相关联,中设置可以与中水平的传感器要求(例如,需要三个可用传感器以中等范围采样速率来确定在已知室内环境中以快速率移动时的定位)相关联,并且高设置可以与相对高水平的传感器要求(例如,需要所有可用传感器以最高可用采样速率来确定在未知室外环境中以快速率移动时的定位)相关联。眼戴设备100可被配置为具有更多或更少(例如,至少两个)设置,这些设置可存储在存储器434中的查找表中。查找表可包括水平、适用的传感器和适用的采样速率。
102.在一个示例中,第一或第二相机114中的至少一个相机捕获图像,并且处理器432通过将图像中的对象与关联于特定环境的已知对象进行比较来识别眼戴设备的物理环境,以基于所识别的物理环境来确定视觉惯性里程计系统的状态(见图8b)。在另一示例中,视觉惯性里程计系统的状态基于将运动速率与预定义阈值进行比较,其中处理器432确定具有imu的眼戴设备的运动速率并且将运动速率与预定义阈值进行比较(见图8d)。在一个示例中,阈值是根据来自两个或更多个传感器的输入计算的计算值。
103.在框806处,处理器432基于状态来调整该多个传感器。在示例中,调整该多个传感器包括处理器432选择该多个传感器的子集。处理器432可关断任何其余未选择的传感器。附加地或另选地,处理器432可通过改变该多个传感器中的一个或多个传感器(或其子集)的采样速率来调整该多个传感器。在一个示例中,处理器432通过针对vios的所确定的状态从存储在存储器434中的查找表检索传感器信息(和相关联的采样速率)来识别针对给定状态的所需传感器(和它们的采样速率)。
104.在框808处,处理器432使用所调整的多个传感器来确定眼戴设备在环境内的定位。在一个示例中,处理器432通过将视觉惯性追踪算法应用于从所选择的传感器子集接收的输入来确定眼戴设备100的定位。附加地或另选地,处理器432通过将视觉惯性追踪算法应用于以经调整的采样速率从该多个传感器中的一个或多个传感器(或其子集)接收的输入来确定眼戴设备100的定位。
105.在图8b中,流程图810描绘了用于确定视觉惯性追踪系统的状态的步骤的示例。在框812处,眼戴设备100捕获在眼戴设备100附近的物理环境600的一个或多个输入图像。处
理器432可连续地从可见光相机114接收输入图像,并且将这些图像存储在存储器434中以供处理。在框814处,处理器432被编程为识别眼戴设备的物理环境(例如,内部或外部)。在框816处,处理器432基于所识别的物理环境600来确定视觉惯性里程计系统的状态。
106.在图8c中,流程图820描绘了用于调整该多个传感器的步骤的示例,其中该多个传感器包括至少第一相机和第二相机。在框822处,处理器432将所识别的物理环境与多个已知环境进行比较。在决策框824处,如果在物理环境中存在新信息,则处理器432前进至框826,以例如通过接通第二相机、调整其分辨率等来调整一个或多个传感器。如果在物理环境中不存在新信息,则处理器432前进至关断或调整该一个或多个传感器以降低功率消耗。
107.在图8d中,流程图830描绘了用于确定视觉惯性追踪系统的状态的步骤的示例。在框832处,处理器432确定与确定vios的状态相关的参数的值。以示例的方式,参数包括运动速率、系统的不确定性估计、追踪点的数量、观测的次数、追踪点的质量、追踪精度等。例如,在框832处,处理器432确定具有imu472的眼戴设备100的运动速率。在框834处,处理器432将参数值(例如,运动速率)与预定义阈值进行比较。在框836处,处理器432基于将参数值(例如,运动速率)与预定义阈值进行比较来确定视觉惯性里程计系统的状态。在一个示例中,为了评估vios的状态,获得参数(例如,不确定性估计)的第二值并将其与第一值进行比较。计算第一值与第二值之间的方差,并且将所计算的方差与预定义阈值进行比较以确定vios的状态。除了系统的不确定性估计之外,参数还包括追踪点的数量、观测的次数、追踪点的质量、追踪精度等。
108.在图8e中,流程图840描绘了用于调整该多个传感器以使用一个或多个传感器来确定眼戴设备在环境内的定位的步骤的示例。图8e示出了用于调整一个或多个接通的相机的步骤。在框842处,处理器432将运动速率与阈值进行比较。在决策框844处,如果运动速率小于预定义阈值,则处理继续并且处理器432关断第二相机。或者,如果运动速率等于或大于预定义阈值,则处理继续回到框842,并且处理器432将运动速率与阈值进行比较。在其他示例中,可调整除了功率状态之外的其他传感器参数;例如分辨率、帧速率、由功率模式(例如,低功率模式和高功率模式)调整的质量等。
109.在图8f中,流程图850描绘了用于使用一个或多个参数值来确定vios的状态的步骤的示例。在框852处,处理器432确定与确定vios的状态相关的参数的值。以示例的方式,参数包括运动速率、系统的不确定性估计、追踪点的数量、观测的次数、追踪点的质量、追踪精度等。例如,在框852处,处理器432确定具有imu472的眼戴设备100的运动速率或不确定性参数值。在框854处,处理器432基于将所确定的参数值(例如,运动速率或不确定性)映射到vios状态配置选项中的一个选项来确定视觉惯性里程计系统的状态。以示例的方式,状态配置选项包括低功率水平和高功率水平。例如,当运动参数值和不确定性参数值低时,将vios置于较低功率水平。相反,当运动参数值和不确定性参数值高时,将vios置于较高功率水平。表1中示出了可如何将所确定的参数值映射到vios状态配置选项中的一个选项的示例。表1
110.表1示出了描绘由传感器感测的设备的运动改变速率和系统的不确定性估计的矩阵。改变速率表示为低或高,其中如该示例所示,低改变速率可指定为0至1英尺每秒,而高改变速率可大于一英尺每秒。不确定性可以以0至1作为参考范围,其中如表1的示例所示,0.1或更小的值被认为是低的,而超过0.1的值是高的。示出了它们对应的状态配置。低功率水平的一个示例是使一个相机以大约每秒五帧工作。中功率水平的一个示例可以是在imu传感器被激活的情况下使一个相机以每秒60帧工作。高功率水平的一个示例可包括使所有传感器以其最大速率工作。
111.如本文所述,本文所述功能中的任何功能可以被体现在一个或多个计算机软件应用或编程指令集中。根据一些示例,“功能”、“应用”、“指令”或“程序”是执行在程序中定义的功能的程序。可采用各种程序设计语言来产生以各种方式结构化的应用中的一个或多个应用,诸如面向对象的程序设计语言(例如,objective-c、java或c++)或面向过程程序设计语言(例如,c语言或汇编语言)。在特定示例中,第三方应用(例如,由除特定平台的供应商之外的实体使用android
tm
或ios
tm
软件开发工具包(sdk)开发的应用)可包括在移动操作系统(诸如ios
tm
、android
tm
、电话或另一移动操作系统)上运行的移动软件。在该示例中,第三方应用可调用由操作系统提供的api调用,以促进本文所述的功能。
112.因此,机器可读介质可采取许多形式的有形存储介质。非易失性存储介质包括例如光盘或磁盘,诸如任何计算机设备等中的任何存储设备,诸如可用于实施附图中所示的客户端设备、媒体网关、代码转换器等。易失性存储介质包括动态存储器,诸如此类计算机平台的主存储器。有形传输介质包括同轴电缆;铜线和光纤,包括构成计算机系统内的总线的导线。载波传输介质可采取电信号或电磁信号、或声波或光波的形式,诸如在射频(rf)和红外(ir)数据通信期间生成的那些。因此,计算机可读介质的常见形式包括例如:软盘、软磁盘、硬盘、磁带、任何其他磁介质、cd-rom、dvd或dvd-rom、任何其他光学介质、穿孔卡片纸带、任何其他具有孔图案的物理存储介质、ram、prom和eprom、flash-eprom、任何其他存储器芯片或盒、传输数据或指令的载波、传输此类载波的电缆或链路、或计算机可以从其中读取程序代码或数据的任何其他介质。许多这些形式的计算机可读介质可参与将一个或多个指令的一个或多个序列承载到处理器以供执行。
113.除了上文刚刚陈述的,无论是否在权利要求书中陈述,已陈述或说明的内容都不旨在或不应解释为导致任何部件、步骤、特征、对象、益处、优点或等效物献给公众。
114.应当理解,除非本文另外阐述了特定的含义,否则本文所用的术语和表达具有与关于它们对应的相应调查和研究领域的此类术语和表达一致的通常含义。诸如“第一”和“第二”等的关系术语仅可用于将一个实体或动作与另一个实体或动作区分开,而不一定要求或暗示这些实体或动作之间的任何实际的此类关系或顺序。术语“包括”、“包含”、“含有”、“具有”或其任何其他变型形式旨在涵盖非排他性的包括,使得包括或包含一系列元素
或步骤的过程、方法、制品或装置不仅包括那些元素或步骤,而是还可以包括未明确列出的或对于此类过程、方法、制品或装置固有的其他元素或步骤。在没有进一步限制的情况下,前缀为“一”或“一个”的元素并不排除在包括该元素的过程、方法、制品或装置中另外的相同元素的存在。
115.除非另有说明,否则本说明书中,包括所附权利要求书中阐述的任何和所有测量、值、额定值、定位、量值、尺寸和其他规格是近似的,而不是精确的。此类量旨在具有与它们涉及的功能和它们所属的领域中的惯例一致的合理范围。例如,除非另外明确说明,否则参数值等可以从所述量变化多达
±
10%。
116.此外,在前述具体实施方式中可看出,出于使本公开简化的目的,各种特征在各种示例中被组合在一起。公开的本方法不应被解释为反映所要求保护的示例需要比每个权利要求中明确记载的特征更多的特征的意图。相反,如以下权利要求所反映的,要求保护的本主题在于少于任何单个公开的示例的所有特征。因此,将以下权利要求据此并入到具体实施方式中,其中每个权利要求作为独立要求保护的主题而独立存在。
117.虽然前文已描述了被认为是最佳模式的示例和其他示例,但应当理解,可在其中作出各种修改且本文所公开的主题可以各种形式和示例来实施,并且其可应用于许多应用中,本文仅描述了其中的一些应用。所附权利要求书旨在要求保护落入本发明构思的真实范围内的任何和所有修改和变型。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1