混合现实观察器系统和方法与流程

文档序号:18972285发布日期:2019-10-29 02:59阅读:167来源:国知局
混合现实观察器系统和方法与流程

本申请要求2017年3月6日提交的题为“systemsandmethodsfordigitaloverlayinanamusementparkenvironment”的美国临时专利申请号62/467,817的优先权和权益,该美国临时专利申请通过引用以其整体被并入本文中。



背景技术:

本文中公开的主题涉及游乐园景点,更具体地,涉及在游乐园景点中提供增强和虚拟现实体验。

游乐园或主题公园可以包括向游乐园的客人(例如,家庭和/或所有年龄的人)提供乐趣的各种娱乐景点。通常,景点可以包括可以使用装备、家具、建筑布局、道具、装饰等等建立的主题环境。取决于主题环境的复杂性,可以证明设置和替换主题环境非常困难且耗时。此外,设置令所有客人都感到愉快的主题环境可能非常困难。实际上,同样的主题环境可能对一些客人有吸引力,而对其他客人没有吸引力。因此,现在认识到合期望的是:包括其中有可能以相对于传统的技术而言灵活且高效的方式改变景点主题的景点,或者包括或移除这样的景点中的某些主题特征。现在还认识到可能合期望的是:加强客人对这样的景点的沉浸式体验,并且为客人提供更个性化或定制的体验。



技术实现要素:

以下总结在范围方面与本公开相称的某些实施例。这些实施例不意图限制本公开的范围,而更确切地说,这些实施例仅意图提供对本实施例的可能形式的简要概述。实际上,本实施例可以涵盖可以与下面阐述的实施例相似或不同的各种各样的形式。

在一个实施例中,混合现实观看系统包括:被配置成被固定到稳定平台并且可由用户操作以通过观察器来观看主题的观察器。观察器包括:显示设备、包括缩放控制装置的用户界面,以及至少一个传感器,该至少一个传感器包括至少一个相机。混合现实观看系统还包括:通信地耦合到观察器的计算机图形生成系统。该计算机图形生成系统被配置成基于经由观察器的至少一个相机所捕获的图像数据来生成现实世界环境的流媒体,生成增强现实图形,虚拟现实图形,或两者,其被叠合(superimpose)在现实世界环境的流媒体上,并且一起传送现实世界环境的流媒体与经叠合的增强现实图形、虚拟现实图形或两者,以在观察器的显示设备上显示。

在另一个实施例中,固定定位观察器包括:被配置成向用户显示流媒体的显示器,其中所显示的流媒体包括混合现实(mr)环境,该混合现实(mr)环境包括增强现实(ar)图形、虚拟现实(mr)图形,或两者。固定定位观察器包括相机,该相机被配置成捕获围绕固定定位观察器的现实世界环境的图像数据。固定定位观察器还包括:至少一个传感器,其被配置成收集与流媒体的生成相关的信息。

在另一个实施例中,一种方法包括:经由计算机图形生成系统接收和分析实时数据,其中接收实时数据包括:经由计算机图形生成系统接收来自固定定位观察器的至少一个传感器和用户界面的数据。该方法包括:经由计算机图形生成系统、基于接收到的实时数据来生成游戏效果,其中该游戏效果包括增强现实(ar)图形、虚拟现实(vr)图形,或两者。该方法包括:经由计算机图形生成系统,将生成的游戏效果叠加到现实世界环境的可视化上以产生混合现实可视化。该方法还包括:经由计算机图形生成系统,将混合现实可视化传送到固定定位观察器,并且经由计算机图形生成系统,在固定定位观察器的显示器上显示混合现实可视化。

附图说明

当参考附图阅读以下详细描述时,本公开的这些和其他特征、方面和优点将变得更好理解,在所述附图中,相同的字符遍及附图表示相同的部分,其中:

图1图示了根据本实施例的游乐园的实施例,该游乐园具有由包括一个或多个固定定位ar/vr观察器的增强现实和/或虚拟现实(ar/vr)系统所加强的主题景点;

图2是根据本实施例的图1的固定定位ar/vr观察器的实施例的透视图;

图3是根据本实施例的图1的ar/vr系统的实施例的框图;

图4是图示了根据本实施例的在由图1的ar/vr系统渲染的ar与vr环境之间的示例转换的示意图;

图5是图示了根据本实施例的由用于多个固定定位ar/vr观察器的图1的ar/vr系统渲染的示例ar/vr环境的示意图;以及

图6是图示了根据本实施例的使用图1的ar/vr系统创建ar/vr体验的过程的流程图。

具体实施方式

以下将描述本公开的一个或多个特定实施例。为了提供对这些实施例的简洁描述,可能没有在说明书中描述实际实现方式的全部特征。应当领会的是,在任何这样的实际实现方式的开发中,如在任何工程或设计项目中,必须做出众多实现方式特定的决策来实现开发者的特定目标,诸如符合系统相关和商业相关的约束,该约束可能从一个实现方式到另一个实现方式不同。而且,应当领会的是,这样的开发努力可能是复杂且耗时的,但是对于受益于本公开的普通技术人员而言将仍然是设计、制造和制作的例行任务。

本实施例涉及如下系统和方法:所述系统和方法提供增强现实(ar)体验、虚拟现实(vr)体验、混合现实(例如,ar和vr的组合)体验、或其组合,作为与游乐园或主题公园中的景点的部分。特别地,ar和/或vr(ar/vr)系统可以包括一个或多个观察器以向游乐园的客人提供ar/vr体验。例如,客人可以通过观察器盯着风景看,并且观察器可以便于ar体验、vr体验、或两种体验的组合。在一个实施例中,观察器可以是固定定位观察器(例如,类似于双筒望远镜、取景器或望远镜的观察器,其被固定到稳定平台或地面)。因此,观察器可以被称为固定定位ar/vr观察器。固定定位ar/vr观察器可以包括至少一个相机,该相机可以被用来捕获现实世界环境(例如,实体(physical)游乐园的各方面)的实时图像数据(例如,在现场使用期间捕获并且大体上实时传送的图片和/或视频)。固定定位ar/vr观察器可以包括显示器。例如,固定定位ar/vr观察器可以包括:分别与使用固定定位ar/vr观察器的用户的每只眼睛相对应的至少两个显示器。固定定位ar/vr观察器可以被设计成旋转和倾斜,使得用户能够改变视角、环视场景等等。

ar/vr系统可以包括计算机图形生成系统,其从固定定位ar/vr接收实时图像数据(例如,在现场使用期间捕获并且大体上实时传送的图片和/或视频),并且可以将现实世界环境的视频流和各种ar、vr或组合的ar和vr(ar/vr)图形图像一起渲染到固定定位ar/vr观察器的显示器。在一个实施例中,固定定位ar/vr观察器可以可操作以对ar/vr环境中的某些区域进行放大或缩小,以及在ar与vr环境之间转换。特别地,用户可以对ar环境中的区域(例如,特征、对象)进行放大,并且随着用户继续放大,视频流转换到vr环境。在一个实施例中,固定定位ar/vr观察器可以由用户经由固定定位ar/vr观察器的用户界面(例如,一个或多个按钮、操纵杆)进行操作,以融入ar/vr环境中的特征或对象或者与之交互(例如,抓取、选择、对准和/或移动对象)。另外,ar/vr系统的某些实施例可以为多个用户提供类似的体验,例如使用一系列联网的固定定位ar/vr观察器。

虽然本实施例可以用各种各样的设置来实现,但是在图1中描绘了具有本公开的特征的示例游乐园10。如图示的,游乐园10包括主题景点12。主题景点12可以包括:与主题相对应的实体结构14,其包括固定装备、建筑物布局、道具、装饰品等等。在图示的示例中,主题景点12被装饰为农场/谷仓房屋。主题景点12可以包括ar/vr系统15,其包括一个或多个固定定位ar/vr观察器16,从而为游乐园10的客人创建更加沉浸式、个性化和/或交互式的体验。特别地,客人或用户可以通过固定定位ar/vr观察器16环视主题景点12以用于加强的观看体验。固定定位ar/vr观察器16可以固定到稳定平台或地面18,并且用户20可以接近固定定位ar/vr观察器16,并且使用固定定位ar/vr观察器16来环视主题景点12。

固定定位ar/vr观察器16可以具有典型的双筒望眼镜或取景器可以具有的功能。例如,固定定位ar/vr观察器16可以由用户20旋转或倾斜,以观看主题景点12的不同区域。例如,固定定位ar/vr观察器16可以具有缩放效果,使得用户20可以对主题景点12的区域进行放大或缩小。此外,固定定位ar/vr观察器16可以便于ar体验、vr体验或两种体验的组合。特别地,固定定位ar/vr观察器16可以在显示器24上渲染ar/vr环境22,并且ar/vr环境22可以包括ar/vr图形26。在图示的示例中,在不使用固定定位ar/vr观察器16的情况下,看着主题景点12的客人可能仅看到谷仓房屋28。然而,使用固定定位ar/vr观察器16的用户20可以看到谷仓房屋28以及ar/vr图形26,诸如在谷仓房屋28前面的两匹马30。

在图2中示出了固定定位ar/vr观察器16的实施例的透视图。如所示的,固定定位ar/vr观察器16可以固定到稳定平台或地面18。固定定位ar/vr观察器16可以包括观察器部分40和固定装置部分42,该观察器部分40包括显示器24,并且固定装置部分42将固定定位ar/vr观察器16固定到稳定平台或地面18。用户20可以站在观看区域44中以观察固定定位ar/vr观察器16的显示器24。显示器24可以包括一个或多于一个显示器(例如,分别对应于用户20的每只眼睛的两个显示器46)。显示器46可以具有任何合适的形状,诸如圆形、正方形、矩形、椭圆形等。显示器46可以具有特征尺寸48。在一些实施例中,显示器24可以采用用户20附近的客人也可以看到正在呈现给用户20的内容的方式进行配置。例如,显示器46的特征尺寸48足够大,使得在用户20后面和/或邻近的客人可以看到显示器46上正示出的内容。

固定定位ar/vr观察器16具有视角49。在一个实施例中,用户20可以通过沿着旋转方向50(例如,大体上平行于稳定平台或地面18)、沿着旋转方向52(例如,大体上平行于旋转方向50)或其组合旋转或倾斜观察器部分40来改变视角49。在一个实施例中,用户20还可以通过沿着方向54(例如,垂直于稳定平台或地面18的方向)升高或降低观察器部分40来改变视角49。如可以领会的,固定定位ar/vr观察器16可以包括其他硬件和/或软件组件,如将在图3中讨论的那样。

图3是ar/vr系统15的各种组件的框图。在图示的实施例中,ar/vr系统15包括:一个或多个固定定位ar/vr观察器16,其经由通信网络62通信地且可操作地耦合到(例如,在游乐园10内的)计算机图形生成系统60。通信网络62可以包括无线局域网、无线广域网、近场通信和/或经由以太网电缆、光纤等的有线网络。一个或多个固定定位ar/vr观察器16可以向计算机图形生成系统60传送信号或数据并从计算机图形生成系统60接收信号或数据,以创建ar/vr环境22(例如,经由一个或多个固定定位ar/vr观察器16呈现的ar/vr图形26和/或声音效果)。计算机图形生成系统60可以经由通信网络62通信地耦合到数据服务器64。数据服务器64可以是可以存储和/或处理用户20的用户信息的远程或现场数据服务器。用户信息可以包括由用户20提供或授权的任何合适的信息,诸如支付信息、会员信息、个人信息(例如,年龄、身高、特殊需求等)、游戏信息(例如,关于与主题景点12相关联的视频游戏的信息、关于用户20在视频游戏中与之相关联的特定角色的信息、关于用户20的游戏历史的信息),等等。

如图3中图示的,固定定位ar/vr观察器16可以包括传感器66、用户界面68、呈现设备70,以及通信地耦合到传感器66和用户界面68的数据编码器72。数据编码器72可以接收和/或处理(例如,编码)由传感器66和用户界面68提供的数据或信号。例如,编码器72可以被实现为一个或多个处理器,其可以遵循特定算法来收集由传感器66和用户界面68提供的可流式传输的(streamable)数据,并且生成经编码的数据。编码器72可以例如经由通信网络62通信地耦合到计算机图形生成系统60,以将经编码的数据(对应于来自传感器66和用户界面68的数据和信号)流式传输到计算机图形生成系统60。编码器72可以大体上实时地和/或在从计算机图形生成系统60接收到指令时将经编码的数据流式传输到计算机图形生成系统60。

传感器66可以包括一个或多个相机74、一个或多个取向和定位传感器76(例如,加速度计、磁力计、陀螺仪、全球定位系统(gps)接收器、一个或多个多自由度(mdof)惯性测量单元(imu)等等)、一个或多个光传感器78、一个或多个存在传感器80(例如,运动传感器、超声传感器、反射传感器、中断射束(break-beam)传感器等等),以及一个或多个天线82。

一个或多个相机74可以在用户20的现场使用期间捕获现实世界图像(例如,现实世界环境的图像和/或实时视频数据,诸如主题景点12)。一个或多个相机74可以大体上实时地传送捕获的现实世界图像。在一个实施例中,固定定位ar/vr观察器16可以包括至少两个相机74,它们可以分别对应于用户20的相应视点(例如,右眼和左眼视图)。在一个实施例中,一个或多个相机74可以是高分辨率和/或高速相机。例如,一个或多个相机74可以是4k分辨率数字高速相机(例如,帧速率超过大约每秒60帧并且水平分辨率大约为4,000像素)。由于一个或多个相机74(例如,一个或多个相机74被设置在固定定位ar/vr观察器16上)具有高速和高分辨率能力,因此捕获的现实世界图像可以具有高分辨率和高三维(3d)深度,这可以帮助生成具有高水平的现实感的ar/vr图形。一个或多个取向和定位传感器76可以捕获指示固定定位ar/vr观察器16的视角49的数据。一个或多个光传感器78可以是用于检测环境光水平(例如,其亮/暗的程度)的任何合适的光传感器。

一个或多个存在传感器80可以捕获指示可以阻断或进入固定定位ar/vr观察器16的视角49的对象(例如,现实世界对象、人)的存在的数据。一个或多个存在传感器80可以捕获指示用户20的存在的数据。在一个实施例中,可以基于由一个或多个存在传感器80捕获的数据来激活(例如,经由处理器90)和停用固定定位ar/vr观察器16。例如,如果固定定位ar/vr观察器16未在使用中(例如,没有检测到用户20的存在),则可以将固定定位ar/vr观察器16停用至睡眠或待机模式,并且响应于检测到用户20的存在,可以从睡眠或待机模式激活固定定位ar/vr观察器16。在一个实施例中,一个或多个存在传感器80可以被设置在客人侧(挨着用户20的客人)并且通信地耦合(例如,经由有线或无线连接)到固定定位ar/vr观察器16。一个或多个天线82可以是被用来识别用户20的射频识别(rfid)天线82。

用户界面68(例如,游戏控制装置)可以包括任何合适的输入设备(例如,按钮、操纵杆、旋转器、旋钮),以使得用户20能够提供涉及固定定位ar/vr观察器16的操作的指令。例如,用户界面68可以包括缩放控制装置84(例如,旋转器、旋钮),其被配置成使得用户20能够对显示器24上示出特征(例如,现实字特征、ar/vr图形26)进行放大和缩小。用户界面68还可以包括按钮86,该按钮86可以被配置成使得不同的动作和/或效果能够被应用在ar/vr环境22中。例如,按钮86可以使得用户20能够控制ar/vr图形26的角色或对象以在ar/vr环境22中在不同方向(例如,上、下、左、右)上移动。例如,按钮86可以使得用户20能够在ar/vr环境22中进行ar/vr图形26的选择或者抓取/释放ar/vr图形26的对象。在某些实施例中,由一个或多个取向和定位传感器76捕获的数据和/或用户界面68的使用可以被用于分析哪些景点特征(例如,现实世界对象、ar/vr图形26)用户20花费最多时间来看和/或互动。

呈现设备70可以经由通信网络62通信地且可操作地耦合到计算机图形生成系统60,以接收对应于呈现内容的信号或数据,并且显示所述呈现内容(例如,ar/vr图形图像或视频流、ar/vr图形26)以创建ar/vr环境22。呈现设备70可以包括显示器24和音频换能器88(例如,扬声器)。如上面阐述的,显示器24可以包括一个或多个显示器46,例如两个显示器46,其分别对应于使用固定定位ar/vr观察器16的用户20的每只眼睛。显示器24还可以被配置成使得挨着用户20的客人也可以看到在显示器24上向用户20示出的内容。在一个实施例中,显示器24可以是4k分辨率显示器(例如,水平分辨率大约为4,000像素)。音频换能器88可以包括任何合适的设备(诸如一个或多个扬声器)以呈现声音效果。

为了支持ar/vr环境22的创建,计算机图形生成系统60可以包括处理电路,诸如处理器90和存储器92。处理器90可以可操作地耦合到存储器92以执行用于实施目前公开的技术的指令,该技术生成与ar/vr图形26合并的捕获的现实世界图像以加强用户20的ar/vr体验。这些指令可以被编码在存储于有形非暂时性计算机可读介质(诸如存储器92和/或其他存储装置)中的程序或代码中。处理器90可以是通用处理器、片上系统(soc)设备、专用集成电路(asic)或某个其他类似的处理器配置。

计算机图形生成系统60可以包括任何合适的硬件、软件(例如,游戏引擎)和算法,从而使得能够实现合适的ar/vr平台。例如,计算机图形生成系统60可以在存储器92中存储或者在数据服务器64中访问主题景点12和固定定位ar/vr观察器16的定位的模型(例如,具有空间信息的三维模型、计算机辅助设计(cad)文件)。特别地,该模型可以包括固定定位ar/vr观察器16相对于现实世界周围环境(例如,主题景点12)的定位信息。该模型与来自数据编码器72的其他输入(例如,来自固定定位ar/vr观察器16的用户界面68和传感器66的经编码的数据)一起被用来向呈现设备70提供信号。特别地,当用户20操作固定定位ar/vr观察器16(例如,改变视角49、放大和缩小、接通按钮86)时,计算机图形生成系统60被动态地更新以生成和渲染ar/vr图形26,其被叠合在所捕获的现实世界图像上以创建ar/vr环境22。

如可以领会的,因为主题景点12和固定定位ar/vr观察器16的定位被建模,并且模型(例如,具有空间信息的三维模型、计算机辅助设计(cad)文件)被存储在计算机图形生成系统60中或者可由计算机图形生成系统60访问,计算机图形生成系统60可以仅需要确定固定定位ar/vr观察器16的视角49来确定用户20正在看的地方并且确定ar/vr图形和所捕获的现实世界图像的合适叠加。因此,计算机图形生成系统60可以更高效地(例如,使用更少的计算能力)组合ar/vr图形26和所捕获的现实世界图像来生成ar/vr环境22。特别地,计算机图形生成系统60可以高效地生成ar/vr图形26并且将其叠合到所捕获的现实世界图像上,使得ar/vr图形26和现实世界图像以高水平的现实感对齐,从而使得ar/vr图形26能够表现出它们在正常条件下将如何。例如,如果根据固定定位ar/vr观察器16的视角49,ar/vr图形26应该被任何现实世界的对象(例如,实体结构14、客人、建筑物、现实世界中的对象)完全或部分地遮盖,则计算机图形生成系统60可以生成完全或部分透明的ar/vr图形26。例如,计算机图形生成系统60可以生成ar/vr图形26来叠加现实世界对象,使得现实世界对象似乎不再存在或被删除(例如,现实世界对象被利用ar/vr图形26完全或者部分遮盖)。

此外,因为在捕获现实世界图像时,生成了ar/vr图形26,并且将其大体上实时地叠加在所捕获的现实世界图像上,所以ar/vr图形26的现实感可以被加强。例如,在用户20经由ar/vr环境22中的缩放控制装置84进行放大时,计算机图形生成系统60基于由一个或多个相机74大体上实时捕获的光学放大图像来生成或更新ar/vr图形26,使得ar/vr图形26看起来更逼真(与基于数字放大的现实世界图像生成的ar/vr图形26相比)。在某些实施例中,还可以生成ar/vr图形26来提示用户20选择某些游戏选项(例如,选择角色、选择团队成员、选择与ar/vr环境22中的游戏相对应的工具/实用程序),或者向用户20提供游戏暗示(例如,在哪里探索、要收集哪些元素等的暗示)。计算机图形生成系统60还可以经由音频换能器88来生成和渲染声音效果,以加强用户在ar/vr环境22中的体验。

在一个实施例中,计算机图形生成系统60可以基于涉及用户20的信息(例如,经由一个或多个天线82传送和/或存储在数据服务器64上)来生成ar/vr环境22。例如,计算机图形生成系统60可以根据用户的游戏历史、游戏状态、成员资格状态等而在ar/vr环境22中显示某些角色、工具/实用程序和/或游戏场景。在一个实施例中,计算机图形生成系统60可以基于用户输入(例如,基于来自缩放控制装置84和/或按钮86的信号)来生成和渲染ar/vr图形26。例如,计算机图形生成系统60可以根据由用户20经由缩放控制装置84所应用的缩放效果的程度来在ar/vr环境22中显示放大或缩小的图像。在一个示例中,计算机图形生成系统60可以显示ar/vr图形26来反映由用户20经由按钮86所应用的游戏操作。例如,ar/vr图形26可以响应于按钮86正由用户20应用而示出对象被移动或抓取,对应于移动或抓取功能。如可以领会的,缩放控制装置84和按钮86可以起到游戏控制装置或操纵杆的作用。

为了加强所生成的环境的现实感,在某些实施例中,计算机图形生成系统60可以基于现实世界实体环境(例如,经由一个或多个光传感器78检测到的照明信息、经由一个或多个存在传感器80检测到的信息)来生成ar/vr图形26。例如,基于由一个或多个光传感器78收集的数据,计算机图形生成系统60可以确定现实世界实体环境是黑暗的(例如,在夜晚)。响应于该确定,计算机图形生成系统60可以降低所生成的ar/vr图形26的亮度,使得ar/vr环境22以合适的亮度呈现给用户20。例如,基于由一个或多个光传感器78收集的数据,计算机图形生成系统60可以确定现实世界实体环境过于黑暗。响应于该确定,计算机图形生成系统60可以在与ar/vr图形26组合之前增加所捕获的现实世界图像的亮度,使得ar/vr环境22以合适的亮度呈现给用户20。例如,计算机图形生成系统60可以处理来自一个或多个存在传感器80的经编码的数据,并且确定固定定位ar/vr观察器16的视角49可以被阻挡或限制(例如,被现实世界对象、人阻挡)。响应于确定了视角49可能被阻挡或限制,计算机图形生成系统60可以暂时停止将来自一个或多个相机74的所捕获的现实世界图像用于生成ar/vr图形26,而是代替地可以使用来自一个或多个相机74的先前获取的现实世界图像。

在某些实施例中,为了加强所生成的环境的现实感,计算机图形生成系统60可以生成包括实时数字阴影的ar图形(例如,ar/vr图形26)。计算机图形生成系统60可以基于相对于现实世界对象的相应视角49和现实世界照明信息(例如,经由一个或多个光传感器78检测到的照明信息、经由一个或多个存在传感器80检测到的信息、由计算机图形生成系统60的日历的内部时钟指示的一天的时间和/或一年的一天)来生成针对数字对象和ar对象的实时数字阴影。例如,可以生成具有合适形状和亮度的针对谷仓房屋28和两匹马30的数字阴影,该形状和亮度是基于现实世界光源(诸如太阳)和现实世界照明元件的入射角并且基于相对于透视视角49而言光是否被现实世界对象或人阻挡来确定的。

此外,计算机图形生成系统60可以经由通信网络62通信地且可操作地耦合到一个或多个远程观看设备65。一个或多个远程观看设备65可以包括设置在游乐园10内部或远离游乐园10设置的任何合适的显示器(例如,计算机、视频和/或音频显示器、计算机)。一个或多个远程观看设备65还可以是具有应用程序可移植性简档或app的移动设备(例如,移动电话、智能电话和平板设备)。计算机图形生成系统60可以将生成的ar/vr图形26和/或声音效果流式传输到一个或多个远程观看设备65,使得观看该一个或多个远程观看设备65的用户可以看到与固定定位ar/vr观察器16的用户20相同的ar/vr图形26,和/或听到与所述用户20相同的声音效果。

此外,计算机图形生成系统60可以基于用户对缩放控制装置84的操作而在ar/vr环境22中的ar环境与vr环境之间进行切换。图4是图示了根据本公开的方面的在ar与vr环境之间的示例转换的示意图。在图示的实施例中,通过显示器24观看主题景点12的用户20可以看到仅包括ar图形23的ar/vr图形26。用户20可以操作固定定位ar/vr观察器16(例如,经由缩放控制装置84)以对ar特征中的一个ar特征25(例如,马)进行放大,从而看到ar特征25的细节,如在步骤100中指示的。用户20可以如在步骤102和104中指示的那样进一步放大,以看到具有更多细节的ar特征25的更放大的视图。如可以领会的,用户20可以在相反方向上操作缩放控制装置84,以从ar特征25进行缩小。在另一个实施例中,用户20可以操作固定定位ar/vr观察器16(例如,经由缩放控制装置84)以对ar特征中的另一个ar特征27(例如,谷仓房屋的门)进行放大,从而看到ar特征27的放大细节,如在步骤106中指示的。如在步骤108中指示的,用户20可以进一步放大以看到ar特征27的进一步放大视图。随着用户20继续放大,如在步骤110中指示的(例如,缩放超过预定的放大倍数阈值),计算机图形生成系统60可以生成vr图形29,使得用户的体验从ar体验转换到vr体验。例如,在步骤110中,用户的体验转换到vr环境,并且用户20可以享受vr图形29,好像用户20处于被谷仓动物围绕的谷仓房屋内部。如可以领会的,用户20可以在相反方向上操作缩放控制装置84以从vr体验往回转换到ar体验,从而对ar特征27进行缩小,或者对任何vr特征进行缩小。

在一个实施例中,计算机图形生成系统60可以通信地且可操作地耦合到多个固定定位ar/vr观察器16,以使得多个用户20能够参与同一游戏和/或以看到由其他用户20应用的动作。图5是图示了根据本公开的方面的在ar/vr环境22中的多个固定定位ar/vr观察器16之间的这样的连通性/参与(engagement)的示例的示意图。在图示的示例中,计算机图形生成系统60通信地且可操作地耦合到由第一用户122操作的第一固定定位ar/vr观察器120和由第二用户126操作的第二固定定位ar/vr观察器124。第一用户122和第二用户126两者都可以看到在相应显示器24上示出的相同的ar/vr特征128,但是从不同的角度看。此外,第一用户122和第二用户126二者都可以在相应显示器24上看到由第一用户122和第二用户126中的任一个应用的动作129(例如,在ar/vr环境22中的动作)。在图示的示例中,第一用户122操作第一固定定位ar/vr观察器120来执行动作129,诸如填充用于喂养谷仓动物132的水箱130,如在区域134中示出的。例如,第一用户122可以调整相应视角49以瞄准水箱130,使用缩放控制装置84来对水箱130进行放大或缩小,并且按下按钮86之一来开始填充水箱130。对应地,第二用户126可以从相应显示器24看到由第一用户122应用的动作129(例如,填充水箱130)。在一个实施例中,计算机图形生成系统60可以确定第二用户126也在观看区域134(例如,第二固定定位ar/vr观察器124的相应视角49与区域134的一部分重叠),并且响应于该确定,计算机图形生成系统60可以在第一固定定位ar/vr观察器120和第二固定定位ar/vr观察器124的相应显示器24上显示包括动作129的结果的相同ar/vr特征128。在另一个实施例中,计算机图形生成系统60可以确定第二用户126参与了与第一用户122相同的游戏(例如,第二用户126可以使用用户界面68提供指示来同意与第一用户122一起加入游戏),并且响应于该确定,计算机图形生成系统60可以在第一固定定位ar/vr观察器120和第二固定定位ar/vr观察器124的相应显示器24上显示包括动作129的结果的相同ar/vr特征128。

图6是图示了使用ar/vr系统15来创建ar体验、vr体验和/或其他计算中介的体验的方法140的实施例的过程流程图。方法140可以表示存储在非暂时性计算机可读介质(例如,存储器92)中,并且例如由计算机图形生成系统60的处理器90执行的启动代码或指令。一个或多个用户20和/或其他客人可以使用一个或多个固定定位ar/vr观察器16和/或一个或多个远程观看设备65来享受所生成的ar体验、vr体验和/或其他计算机中介的体验。方法140可以开始于处理器90接收和分析(框142)来自传感器66和一个或多个固定定位观察器16中的每一个的用户界面68的实时数据。该实时数据可以包括由一个或多个相机74捕获的图片和/或视频、由一个或多个取向和定位传感器76检测到的取向和/或定位信息和/或视角49、由一个或多个光传感器78检测到的照明信息、由一个或多个存在传感器80检测到的指示在固定定位观察器16附近的对象或用户的存在的信息、由一个或多个天线82接收到的指示用户的身份的信息,等等。实时数据还可以包括由用户20使用用户界面68经由缩放控制装置84和/或按钮86提供的输入(例如,指令和/或操作输入)。

方法140可以然后以处理器90生成(框144)游戏效果来继续。在一个实施例中,游戏效果可以包括基于接收到的和所分析的实时数据而生成的ar/vr图像数据和声音数据。例如,游戏效果包括涉及与用户20相关联的游戏角色的特定ar/vr图像数据。例如,取决于由用户20调整的固定定位ar/vr观察器16的视角49(例如,取决于用户20的注意力/观看兴趣),游戏效果包括某些ar/vr特征。例如,游戏效果可以包括在ar与vr环境之间的转换,这取决于由用户20应用的缩放效果(例如,放大超过某个阈值以从ar环境转换到vr环境)。作为另外的示例,游戏效果可以包括以多个用户20可以共享相同游戏体验的方式的、针对多个固定定位ar/vr观察器16的经协调ar/vr图像数据。游戏效果还可以包括与ar/vr图像数据相对应的声音数据。

方法140可以然后以下述内容继续:处理器90将生成的游戏效果叠加(框146)或叠合到所生成的现实世界环境的可视化上。处理器90可以生成现实世界图像(例如,图1中所示的实体结构14、谷仓房屋28)的视频数据流,并且使用一种或多种视频合并和/或光学合并技术,将ar/vr图形26(例如,图1中所示的两匹马30)叠加或叠合到现实世界图像上。作为示例,图形生成系统60的处理器90可以与用以观看某些特征(例如,基于视角49)的固定定位ar/vr观察器16的用户20的操作一致地或者在预定的时间流逝之后渲染ar/vr图形26。图形生成系统60可以对经由一个或多个相机74捕获的视频或图像数据执行一个或多个几何或光度识别算法,以确定视角49以及引入ar/vr图形26的时间。图形生成系统60可以基于用户20经由用户界面68所提供的输入来确定引入ar/vr图形26的时间。

该方法140可以然后以下述内容结束:处理器90传送(框148)游戏效果(例如,叠加的ar/vr图形26与现实世界环境数据和/或声音效果一起),并且在相应的一个或多个固定定位ar/vr观察器16的显示器24上和/或在一个或多个远程观看设备65上显示(框150)。

虽然在本文中图示和描述了本实施例的仅某些特征,但是本领域技术人员将想到许多修改和改变。因此,要理解的是,所附权利要求意图覆盖如落入本公开的真实精神内的全部这样的修改和改变。此外,应当理解的是,所公开的实施例的某些元件可以彼此组合或交换。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1