借助可穿戴电子设备的遥视方法和系统与流程

文档序号:19164492发布日期:2019-11-19 20:14阅读:314来源:国知局
借助可穿戴电子设备的遥视方法和系统与流程

本公开的各个实施例涉及遥视。更具体地,本公开的各个实施例涉及借助可穿戴电子设备的遥视。



背景技术:

可穿戴技术领域的发展已扩展各种可穿戴电子设备和相关应用的功能。就其作为实用信息源的应用来说,诸如可穿戴智能眼镜设备之类的可穿戴电子设备正在快速进化。例如,诸如智能眼镜设备佩戴者之类的用户可利用可穿戴智能眼镜设备,捕捉真实世界场景和观看捕捉的场景。

在某些情况下,用户难以观看超出可穿戴智能眼镜设备的嵌入式摄像头的预定范围的物体。另外,可穿戴智能眼镜设备不具有在多个用户之间,共享视场的能力。此外,不能按用户喜好,控制共享的视场。从而,不能向智能眼镜设备佩戴者提供增强并且有用的遥视体验。

通过说明的系统和如在本申请的剩余部分中,并且参考附图记载的本公开的一些方面的比较,对本领域的技术人员来说,常规和传统方法的其它限制和缺点将变得明显。



技术实现要素:

在附图至少之一中表示了和/或结合附图至少之一说明了借助可穿戴电子设备的遥视方法和系统,在权利要求书中更彻底地记载了借助可穿戴电子设备的遥视方法和系统。

根据本公开的以下详细说明,以及其中相同的附图标记表示相同部分的附图,可理解本公开的这些和其它特征和优点。

附图说明

图1是按照本公开的实施例,图解说明用于遥视的网络环境的方框图。

图2是按照本公开的实施例,图解说明例证的可穿戴电子设备的方框图。

图3按照本公开的实施例,图解说明公开的借助可穿戴电子设备的遥视方法和系统的实现的第一例证情形。

图4按照本公开的实施例,图解说明公开的借助可穿戴电子设备的遥视方法和系统的实现的第二例证情形。

图5a和5b按照本公开的实施例,共同描述图解说明借助可穿戴电子设备的例证遥视方法的流程图。

具体实施方式

在公开的借助可穿戴电子设备的遥视方法和系统中,可发现下述实现。本公开的例证方面可包含一种从第一可穿戴电子设备传送共享第二可穿戴电子设备的视场(fov)的至少一部分的请求的方法。可从第二可穿戴电子设备接收响应,作为传送的请求的确认。可使第一可穿戴电子设备的用户至少能够观看第二可穿戴电子设备的fov的共享部分。

按照实施例,第一可穿戴电子设备和第二可穿戴电子设备可以是可穿戴智能眼镜设备。可根据第一可穿戴电子设备的用户的虹膜的移动,传送共享第二可穿戴电子设备的fov的所述部分的请求。按照实施例,可根据由第一可穿戴电子设备的用户提供的语音命令和/或手势命令,传送共享第二可穿戴电子设备的fov的所述部分的请求。

按照实施例,传送的请求还可包含第一可穿戴电子设备的位置信息,认证请求,图像捕捉请求,和/或视频捕捉请求。所述请求可经由通信网络,从在第一位置的第一可穿戴电子设备传送给在第二位置的第二可穿戴电子设备。

按照实施例,可根据第一可穿戴电子设备的用户的虹膜的移动,控制第二可穿戴电子设备的fov的共享部分的视线和/或定向。按照实施例,可根据第一可穿戴电子设备的用户的虹膜的持续移动,持续控制第二可穿戴电子设备的fov的共享部分的视线和/或定向。按照实施例,可根据在用户规定的时间戳,第一可穿戴电子设备的用户的虹膜的视线,持续控制第二可穿戴电子设备的fov的共享部分的视线和/或定向。

按照实施例,可根据第一可穿戴电子设备的用户提供的语音命令和/或手势命令,控制第二可穿戴电子设备的fov的共享部分的视线和/或定向。

按照实施例,可根据与第一可穿戴电子设备相关的用户定义的距离参数和/或方向参数,定位第二可穿戴电子设备和/或一个或多个其它可穿戴电子设备。按照实施例,可根据从第二可穿戴电子设备和/或一个或多个其它可穿戴电子设备接收的传感器数据的分析,选择第二可穿戴电子设备和/或一个或多个其它可穿戴电子设备。

按照实施例,可根据第二可穿戴电子设备和/或一个或多个其它可穿戴电子设备的距离、方向和/或位置,选择第二可穿戴电子设备和/或一个或多个其它可穿戴电子设备。第二可穿戴电子设备和/或一个或多个其它可穿戴电子设备可位于用户定义的距离参数和/或用户定义的方向参数的阈值范围之内。

按照实施例,第二可穿戴电子设备的fov的共享部分可被放大和/或缩小。按照实施例,第二可穿戴电子设备的fov的共享部分可被摇移。

图1是按照本公开的实施例,图解说明遥视的网络环境的方框图。参见图1,图中表示了网络环境100。网络环境100可包括第一可穿戴电子设备102,第二可穿戴电子设备104,和一个或多个其它可穿戴电子设备,比如第三可穿戴电子设备106。网络环境100还可包括服务器108,通信网络110,和一个或多个用户,比如第一用户112,第二用户114和第三用户116。

第一可穿戴电子设备102可经通信网络110,通信耦接到第二可穿戴电子设备104,第三可穿戴电子设备106,和一个或多个服务器,比如服务器108。第一可穿戴电子设备102、第二可穿戴电子设备104和第三可穿戴电子设备106可分别与第一用户112、第二用户114和第三用户116关联。

第一可穿戴电子设备102可包括可观看由第二可穿戴电子设备104共享的视场(fov)的至少一部分的适当逻辑、电路、接口和/或代码。第一可穿戴电子设备102可控制第二可穿戴电子设备104的fov的共享部分的视线和/或定向。第二可穿戴电子设备104和第三可穿戴电子设备106的功能可类似于第一可穿戴电子设备102的功能。第一可穿戴电子设备102、第二可穿戴电子设备104和第三可穿戴电子设备106的例子可包括(但不限于)智能眼镜设备,智能手表,和/或其它可穿戴电子设备。

服务器108可包括可接收来自一个或多个预订的可穿戴电子设备,比如可穿戴电子设备102-106的请求的适当逻辑、电路、接口和/或代码。可利用本领域的技术人员公知的几种技术,实现服务器108。

通信网络110可包括第一可穿戴电子设备102可通过其,与第二可穿戴电子设备104,以及一个或多个其它可穿戴电子设备,比如第三可穿戴电子设备106通信的介质。通信网络110的例子可包括(但不限于)因特网、蜂窝网络、云网络、无线保真(wi-fi)网络、无线局域网(wlan)、局域网(lan)、简易老式电话服务(pots)、和/或城域网(man)。网络环境100中的各个设备可按照各种有线和无线通信协议,连接到通信网络110。这种有线和无线通信协议的例子可包括(但不限于)传输控制协议和网际协议(tcp/ip),用户数据报协议(udp),超文本传输协议(http),文件传输协议(ftp),zigbee,edge,红外(ir),ieee802.11,802.16,蜂窝通信协议,和/或蓝牙(bt)通信协议。

操作中,第一可穿戴电子设备102可检查要被连接的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的地址信息是否被提供。所述地址信息可对应于第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的媒体存取控制(mac)标识符(id),用户号码(比如电话号码),个人识别号码(pin),和/或其它设备标识符。

按照实施例,第一可穿戴电子设备102可定位第二可穿戴电子设备104,和/或一个或多个其它可穿戴电子设备,比如第三可穿戴电子设备106。当第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的地址信息未被提供时,可进行第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的这种定位。可根据与第一可穿戴电子设备102相关的用户定义的距离参数和/或方向参数,确定第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的位置。按照实施例,第一用户112可经由第一可穿戴电子设备102的用户接口(ui)提供输入,第一可穿戴电子设备102可定位在用户定义的距离参数和用户定义的方向参数之内的第二可穿戴电子设备104,和/或一个或多个其它可穿戴电子设备。

按照实施例,第一可穿戴电子设备102可选择第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备,比如第三可穿戴电子设备106。当提供了第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的地址信息时,可进行所述选择。按照实施例,当第二可穿戴电子设备104,和/或一个或多个其它可穿戴电子设备被定位时,可进行所述选择。

第一可穿戴电子设备102可传送共享第二可穿戴电子设备104(比如选择的可穿戴电子设备)的fov的至少一部分的请求。按照实施例,所述请求可经由通信网络110,从在第一位置的第一可穿戴电子设备102传送给在第二位置的第二可穿戴电子设备104。传送的请求可包含第一可穿戴电子设备102的设备标识符,第一可穿戴电子设备102的位置信息,第二可穿戴电子设备104的地址信息,认证请求,图像捕捉请求,和/或视频捕捉请求。认证请求可充当从第二可穿戴电子设备104寻求共享fov的许可的允许或拒绝的认证机制。按照实施例,传送的请求还可包含与第一用户112的视线相关的信息,和/或与第一可穿戴电子设备102的第一用户112的至少虹膜的移动相关的信息。

按照实施例,第二可穿戴电子设备104可接收从第一可穿戴电子设备102传送的请求。按照实施例,第二可穿戴电子设备104可向第一可穿戴电子设备102传送响应,以确认传送的请求。来自第二可穿戴电子设备104的响应可充当允许或拒绝共享fov的许可的认证机制。例如,第二可穿戴电子设备104的第二用户114可接受或拒绝传送的请求。接受指的是允许与第一可穿戴电子设备102的连接的授权。拒绝指的是与第一可穿戴电子设备102的连接的拒绝。

按照实施例,第一可穿戴电子设备102可接收来自第二可穿戴电子设备104的响应,作为传送的请求的确认。例如,接收的响应可以是接受响应,比如“你的请求被接受;正在提供共享视图”。接收的响应可以是拒绝响应,比如“你的请求被拒绝;核对用户号码并重试”。按照实施例,响应可以是基于文本的响应,比如显示在第一可穿戴电子设备102上的文本消息,音频响应,比如在第一可穿戴电子设备102播放的语音消息,或者它们的组合。

按照实施例,当收到的响应是接受响应时,第一可穿戴电子设备102可使第一用户101能够观看第二可穿戴电子设备104的fov的共享部分。按照实施例,第一可穿戴电子设备102还可同时与第二可穿戴电子设备104同时共享第一可穿戴电子设备102的fov的至少一部分。

按照实施例,第一可穿戴电子设备102可控制第二可穿戴电子设备104的fov的共享部分的视线和/或定向。可根据第一可穿戴电子设备102的第一用户112的虹膜的移动,进行所述控制。按照实施例,可根据第一用户112提供的语音命令和/或手势命令,进行所述控制。

按照实施例,第二可穿戴电子设备104可根据接收的与第一用户112的视线相关的信息,动态调整第二可穿戴电子设备104的fov的至少所述部分的视线。按照实施例,第二可穿戴电子设备104可持续至少使第二可穿戴电子设备104的fov的所述部分同步。可每隔连续的时间间隔,根据接收的第一可穿戴电子设备102的第一用户112的虹膜的视线和/或移动的信息,进行所述持续同步。

按照实施例,第一可穿戴电子设备102可放大和/或缩小第二可穿戴电子设备104的fov的共享部分。第一可穿戴电子设备102可摇移第二可穿戴电子设备104的fov的共享部分。

按照本公开的另一个方面,第一可穿戴电子设备102可利用服务器108定位第二可穿戴电子设备104,和/或一个或多个其它可穿戴电子设备,比如第三可穿戴电子设备106。按照实施例,借助第一可穿戴电子设备102,第一用户112可向服务器108传送搜索请求,以定位在用户定义的距离参数和用户定义的方向参数之内的第二可穿戴电子设备104,和/或一个或多个其它可穿戴电子设备。根据搜索请求,服务器108可确定第二可穿戴电子设备104,和/或一个或多个其它可穿戴电子设备,比如第三可穿戴电子设备106的位置。服务器108可利用一种或多种功能服务和传感器数据确定第二可穿戴电子设备104,和/或一个或多个其它可穿戴电子设备的位置。功能服务可对应于地图服务,地理空间定位服务,基于网际协议(ip)的电话服务,基于蜂窝网络的电话服务,和/或社交网络服务。传感器数据可对应于从第二可穿戴电子设备104,和/或一个或多个其它可穿戴电子设备接收的确定被定位的可穿戴电子设备的有利fov捕捉位置和定向的传感器数据。

服务器108可在地图上标示定位的第二可穿戴电子设备104,和/或一个或多个其它可穿戴电子设备相对于第一可穿戴电子设备102的距离、方向和/或位置。可顺着沿用户定义的方向,一直到用户定义的距离的路径,在阈值范围内标示第二可穿戴电子设备104,和/或一个或多个其它可穿戴电子设备的位置。

服务器108可选择第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备,比如第三可穿戴电子设备106。可根据从第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备接收的传感器数据的分析,进行所述选择。

按照实施例,可根据位于用户定义的距离参数和/或用户定义的方向参数的阈值范围内的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的位置,进行所述选择。按照实施例,可根据用户喜好,进行所述选择。例如,服务器108可在呈现在第一可穿戴电子设备102的显示器上的ui上,呈现选择的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备。可按照优先级,或者关于用户定义的距离、方向和/或地理坐标参数的最近的所识别设备的顺序,列出第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的所述呈现。在这种情况下,第一可穿戴电子设备102可从提供的列表中,接收另外的用户选择,以连接到选择的可穿戴电子设备。按照实施例,服务器108可建立到选择的可穿戴电子设备的连接。例如,第一可穿戴电子设备102可如上所述,通过传送共享选择的可穿戴电子设备的fov的一部分的请求,连接到选择的可穿戴电子设备,比如第二可穿戴电子设备104。尽管如此,本公开并不局限于此,可以选择不止一个可穿戴电子设备,比如第二可穿戴电子设备104和第三可穿戴电子设备106,而不脱离本公开的范围。

按照实施例,共享选择的可穿戴电子设备的fov的一部分的请求可首先被传送给服务器108。服务器108可分析所述请求,随后把分析后的请求传送给选择的可穿戴电子设备。服务器108进行的所述通信可基于在传送的请求中提供的地址信息。按照实施例,所述请求可经通信网络110,被直接传送给选择的可穿戴电子设备。

收到所述请求的所选可穿戴电子设备可捕捉fov。选择的可穿戴电子设备可与第一可穿戴电子设备102共享fov。第一可穿戴电子设备102可把选择的可穿戴电子设备的fov的共享部分的视图提供给第一用户112。当选择的可穿戴电子设备位于远程位置(比如在近的用户定义距离附近)时,在观看选择的可穿戴电子设备的fov的共享部分时,第一用户112会体验远距离“变焦似效果”。

按照实施例,服务器108的功能可部分或完全在其它可穿戴电子设备,比如第一可穿戴电子设备102中实现。按照实施例,服务器108的功能可部分或完全在其它服务器,比如云服务器,和/或在其它计算设备,比如智能电话机中实现,而不脱离本公开的范围。

图2是按照本公开的实施例,图解说明例证的可穿戴电子设备的方框图。结合图1的元件,说明图2。参见图2,图中表示了第一可穿戴电子设备102。第一可穿戴电子设备102可包含一个或多个电路,比如处理器202,存储器204,一个或多个输入/输出(i/o)设备,比如i/o设备206,一个或多个感测设备,比如感测设备208,和收发器210。

处理器202可通信耦接到存储器204,i/o设备206,感测设备208和收发器210。收发器210可经由通信网络110,与第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备,比如第三可穿戴电子设备106通信。按照实施例,收发器210可经通信网络110,与一个或多个服务器,比如服务器108通信。

处理器202可包含执行保存在存储器204中的一组指令的适当逻辑、电路、接口和/或代码。处理器202可提供由第二可穿戴电子设备104共享的第二可穿戴电子设备104的fov的一部分的视图。处理器202可控制第二可穿戴电子设备104或第三可穿戴电子设备106的fov的共享部分的视线和/或定向。可根据本领域已知的许多处理器技术,实现处理器202。处理器202的例子可以是基于x86的处理器,精简指令集计算(risc)处理器,专用集成电路(asic)处理器,复杂指令集计算(cisc)处理器,微处理器,状态机,和/或其它处理器。

存储器204可包含可保存机器代码和/或具有可由处理器202执行的至少一个代码段的计算机程序的适当逻辑、电路和/或接口。存储器204还可保存一个或多个用户简介,一个或多个文本-语音转换算法,一个或多个语音生成算法,和/或其它数据。存储器204还可保存与第二可穿戴电子设备104的fov的共享部分对应的视图。所述视图可以是保存为静止图像和/或视频的实时取景。存储器204还可保存可由处理器202执行的操作系统和相关应用。存储器204的实现的例子可包括(但不限于)随机存取存储器(ram)、只读存储器(rom)、硬盘驱动器(hdd)、闪存和/或安全数字(sd)卡。

i/o设备206可包含对应于可与处理器202通信的各种输入和输出设备的适当逻辑、电路、接口和/或代码。输入设备可接收来自第一用户112的输入。输出设备可把输出提供给第一用户112。输入设备的例子可包括(但不限于)图像捕捉单元(比如嵌入式摄像头),触摸屏,麦克风,运动传感器、光传感器和/或扩展坞。输出设备的例子可包括(但不限于)智能眼镜设备的显示屏,透视显示器,基于投影的显示器,电致变色显示器,和/或扬声器。透视显示器可以是透明或半透明显示器。按照实施例,透视显示器和/或基于投影的显示器可产生fov在与用户,比如第一用户112的眼睛相隔预定距离之处,悬浮在空中的光学错觉。输出设备可生成fov的3维(3d)或2维(2d)视图。

图像捕捉单元(未图示)可包含可以静止图像或视频的形式,捕捉实时取景的适当逻辑、电路、接口和/或代码。显示屏(未图示)可包含可显示第二可穿戴电子设备104和/或第三可穿戴电子设备106的fov的共享部分的适当逻辑、电路、接口和/或代码。

感测设备208可包含可保存机器代码和/或具有可由处理器202执行的至少一个代码段的计算机程序的适当逻辑、电路和/或接口。感测设备208可包含用于检测虹膜移动,以确定用户,比如第一用户112的凝视方向和/或视线的一个或多个传感器。感测设备208还可包括检测第一可穿戴电子设备102的定向和/或其它手势检测的一个或多个传感器。所述一个或多个传感器可包括生物特征识别传感器,比如麦克风,以检测语音模式,从而确认用户,比如第一用户112的识别、辨认和/或验证。所述一个或多个传感器的其它例子可包括(但不限于)加速计,全球定位系统(gps)传感器,指南针或磁力计(magnometer),环境光传感器,三录仪,陀螺仪,接近传感器,图像传感器,照度计,触摸传感器和/或红外传感器。

收发器210可包含可经由通信网络110,与第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备,比如第三可穿戴电子设备106通信的适当逻辑、电路、接口和/或代码。按照实施例,收发器210可经由通信网络110,与一个或多个服务器,比如服务器108通信。收发器210可实现已知的技术,以支持第一可穿戴电子设备102与通信网络110的有线或无线通信。收发器210可包括(但不限于)天线,射频(rf)收发器,一个或多个放大器,调谐器,一个或多个振荡器,数字信号处理器,编码器-解码器(codec)芯片集,用户识别模块(sim)卡,和/或本地缓存器。

收发器210可借助无线通信,与网络,比如因特网,企业内部网和/或无线网络,比如蜂窝电话网,无线局域网(lan)和/或城域网(man)通信。无线通信可利用多种通信标准、协议和技术任意之一,比如全球移动通信系统(gsm),增强数据gsm环境(edge),宽带码分多址接入(w-cdma),码分多址接入(cdma),长期演进(lte),时分多址接入(tdma),蓝牙,无线保真(wi-fi)(比如ieee802.11a、ieee802.11b、ieee802.11g和/或ieee802.11n),网际协议语音(voip),wi-max,电子邮件用协议,即时消息接发和/或短消息服务(sms)。

操作中,处理器202可检查要被连接的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的地址信息是否被提供。所述地址信息可对应于媒体存取控制(mac)标识符(id),用户号码(比如电话号码),和/或个人识别号码(pin)。

按照实施例,当所述地址信息未被提供时,处理器202可定位第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备。可根据与第一可穿戴电子设备102相关的用户定义的距离参数和/或用户定义的方向参数,进行可穿戴电子设备的这种定位。例如,第一用户112可经由第一可穿戴电子设备102的ui,提供输入,第一可穿戴电子设备102可定位在用户定义的距离和用户定义的方向之内的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备。ui可对应于使第一用户112可以与第一可穿戴电子设备102的一个或多个应用和/或操作系统交互的可视界面。ui可被呈现在第一可穿戴电子设备102的显示器(未图示)上。所述输入可对应于基于触摸的输入或者非触摸输入。基于触摸的输入可包含呈现在第一可穿戴电子设备102的显示器上的ui元件的用户选择。非触摸输入可包含由第一用户112提供的音频输入或基于手势的输入。

按照实施例,处理器202可选择第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备。按照实施例,当提供了可穿戴电子设备(比如供连接的目标可穿戴电子设备)的地址信息时,可进行所述选择。例如,第一用户112可经由第一可穿戴电子设备102的ui,提供输入,以选择第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备。

按照实施例,所述选择可由处理器202智能进行,而不存在用户干预。可根据从第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备接收的传感器数据的分析,进行所述选择。传感器数据可对应于第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的fov的照明状况,定向数据和/或分辨率。例如,处理器202可优先于位于面向太阳之处的第三可穿戴电子设备106,选择位于背对太阳之处的第二可穿戴电子设备104。按照实施例,可根据第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的距离,方向和/或位置,发生所述选择。位置信息可对应于被定位的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的定向。位于用户定义的距离参数和/或用户定义的方向参数的阈值范围之内的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的位置信息可用于所述选择。例如,用户定义的距离参数可为“5公里(km)”,用户定义的方向参数可为西方向。相对于第一可穿戴电子设备102,可以预先设定距离阈值范围“0-5km”,和方向阈值范围“正西方向±30°”。被定位的2个可穿戴电子设备可以是第二可穿戴电子设备104和第三可穿戴电子设备106。第二可穿戴电子设备104可沿“西偏北10°”的方向,位于相隔“5.4km”的地方。不过,可以定向朝向南方地确定第二可穿戴电子设备104的位置。第三可穿戴电子设备106可沿“西偏南20°”的方向,位于相隔“3.5km”的地方。不过,可以定向朝向西方地确定第三可穿戴电子设备106的位置。在这个例子中,可以选择第三可穿戴电子设备106,以获得期望的视图。

按照实施例,处理器202可经收发器210,传送共享选择的第二可穿戴电子设备104的fov的至少一部分的请求。按照实施例,可根据第一可穿戴电子设备102的第一用户112的虹膜的移动,进行所述传送。按照实施例,可根据第一用户112提供的语音命令和/或手势命令,发生所述请求的这种传送。按照实施例,当第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的地址信息被提供时,可以直接传送所述请求。例如,第一用户112可经由第一可穿戴电子设备102的ui,提供输入,以传送请求。传送的请求可包含认证请求,第一可穿戴电子设备102的设备标识符(id),待连接的可穿戴电子设备的地址信息,第一可穿戴电子设备102的位置信息,图像捕捉请求,和/或视频捕捉请求。

按照实施例,传送的请求还可包含第一用户112的视线信息,和/或第一可穿戴电子设备102的第一用户112的虹膜的移动信息。所述请求可由在第一位置的收发器210经通信网络110,传送给在第二位置的第二可穿戴电子设备104。按照实施例,借助图像捕捉模式或视频捕捉模式的选择,图像捕捉请求或视频捕捉请求可被分别传送给在第二位置的第二可穿戴电子设备104。可经由第一可穿戴电子设备102的ui,选择图像捕捉模式或视频捕捉模式。

按照实施例,处理器202可接收作为传送的请求的确认,来自第二可穿戴电子设备104的响应。按照实施例,处理器202可接收来自一个或多个其它可穿戴电子设备的响应。按照实施例,处理器202可检查接收的响应是接受响应还是拒绝响应。

按照实施例,当从第二可穿戴电子设备104接收的响应是接受响应时,处理器202可建立与第二可穿戴电子设备104的连接。类似地,当从一个或多个其它可穿戴电子设备接收的响应是接受响应时,处理器202可建立与所述一个或多个其它可穿戴电子设备的连接。可基于在传送的请求中提供的第一可穿戴电子设备102的设备标识符(id),发生所述连接。按照实施例,处理器202可把第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备预置在可信设备群,比如朋友群和/或亲属群中。可在保存在存储器204中的用户简介(比如第一用户112的用户简介)中,更新与可信设备群相关的信息。

按照实施例,处理器202可把连接的第二可穿戴电子设备104的fov的共享部分的视图提供给第一可穿戴电子设备102的第一用户112。按照实施例,处理器202可在第一可穿戴电子设备102,提供一个或多个其它可穿戴电子设备的fov的共享部分的视图。换句话说,处理器202可使第一用户112能够观看第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的fov的共享部分。

按照实施例,处理器202可检测第一用户112的视线和/或至少虹膜的持续移动。虹膜移动对应于左眼、右眼或者双眼的虹膜移动。例如,处理器202可检测左眼的虹膜相对于基准轴,从左方向到右方向的移动。

按照实施例,处理器202可传送与检测的第一用户112的视线和/或至少虹膜的持续移动相关的信息。这样的信息可被传送给连接的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备。

按照实施例,处理器202可控制第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的fov的共享部分的视线和/或定向。可根据第一可穿戴电子设备102的第一用户112的虹膜的移动,进行所述控制。按照实施例,可根据第一用户112提供的语音命令和/或手势命令,进行所述控制。按照实施例,定向的这种控制对应于第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的图像捕捉单元的定向的控制。按照实施例,处理器202可持续控制第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的fov的共享部分的定向。这种持续控制可与第一可穿戴电子设备102的第一用户112的虹膜的持续移动同步发生。

按照实施例,处理器202可放大或缩小第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的fov的共享部分。按照实施例,处理器202可摇移第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的fov的共享部分。

按照实施例,处理器202还可持续显示第二可穿戴电子设备104的fov的共享部分。处理器202还可连接到一个或多个其它可穿戴电子设备,比如第三可穿戴电子设备106。基于所述连接,可在第一可穿戴电子设备102,显示连接的第三可穿戴电子设备106的fov的共享部分。按照实施例,处理器202可提供与第二可穿戴电子设备104和第三可穿戴电子设备106两者的fov的共享部分对应的分屏视图。可在第一可穿戴电子设备102同时提供和控制所述分屏视图。按照实施例,处理器202可把第一可穿戴电子设备102的fov的共享部分的视图同时提供给连接的第二可穿戴电子设备104和第三可穿戴电子设备106。

按照实施例,处理器202可把第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的fov的受控部分记录在存储器204中。按照实施例,fov的被记录部分可对应于图像或视频流。按照实施例,当记录的部分是图像时,fov的被记录部分可以与第一用户112的虹膜的视线同步。按照实施例,fov的被记录部分可与第一用户112的虹膜的持续移动同步。处理器202还可通过i/o设备206,显示第二可穿戴电子设备104或选择的可穿戴电子设备的fov的记录部分。

图3按照本公开的实施例,图解说明公开的利用可穿戴电子设备的遥视方法和系统的实现的第一例证情形。结合图1和图2的元件,说明图3。参见图3,图中表示了第一智能眼镜设备302,第一摄像头302a,第一显示器302b,第二智能眼镜设备304,第二摄像头304a和第二显示器304b。图中还表示了第一fov“v1”,第二fov“v2”,第三fov“v3”,第二摄像头304a的基准轴“ra”,第一用户112的左眼的基准轴“ra1”,第一用户112的右眼的基准轴“ra2”,左方向“l”和右方向“r”。第一智能眼镜设备302被表示在第一位置“l1”,第二智能眼镜设备304被表示在第二位置“l2”。

按照第一例证情形,第一智能眼镜设备302可对应于第一可穿戴电子设备102(图1)。第二智能眼镜设备304可对应于第二可穿戴电子设备104(图1)。第一摄像头302a和第二摄像头304a可对应于图像捕捉单元(图2)。第一显示器302b和第二显示器304b可对应于显示屏幕(图2)。

参见图3,用户,比如第一用户112(图1)可戴着第一智能眼镜设备302,另一个用户,比如第二用户114(图1)可戴着第二智能眼镜设备304。在第一位置“l1”的第一用户112可能想要看在第二位置“l2”的第二用户114正在观看的事物。第一用户112还可能想要实时检查环绕第二用户114的区域。第二智能眼镜设备304的地址信息可由第一智能眼镜设备302的第一用户112提供。

第一智能眼镜设备302可传送共享第二智能眼镜设备304的fov的至少一部分的请求。所述请求可包含第二智能眼镜设备304的地址信息。根据所述地址信息,所述请求可经由通信网络110,从在第一位置“l1”的第一智能眼镜设备302被传送给在第二位置“l2”的第二智能眼镜设备304。传送的请求可包含图像捕捉请求,视频捕捉请求,和/或设备id,比如第一智能眼镜设备302的“g001”。

第二智能眼镜设备304可向第一智能眼镜设备302传送响应,以确认传送的请求的接收。所述响应可以是由第二用户提供的指示所述请求的接受的输入。第二智能眼镜设备304可进一步至少捕捉和随后共享fov的所述一部分。捕捉的fov的例子可以是第二智能眼镜设备304的fov“v1”~“v3”。fov“v1”~“v3”可由第二摄像头304a捕捉。按照实施例,捕捉的fov“v1”~“v3”可对应于请求的类型。换句话说,fov“v1”~“v3”可以是图像,当传送的请求包含图像捕捉请求时,和/或fov“v1”~“v3”可以是视频,当传送的请求包含视频捕捉请求时。

第一智能眼镜设备302可接收来自第二智能眼镜设备304的响应,作为传送的请求的确认(比如接受)。按照实施例,第一智能眼镜设备302可向第一用户112,提供第二智能眼镜设备304的fov的共享部分的视图。从而,可使在第一位置“l1”的第一用户112能够观看在第二位置“l2”的第二用户114正在观看的东西。类似地,按照实施例,第一智能眼镜设备302利用第一摄像头302a捕捉的视图也可同时与第二智能眼镜设备304共享。

此外,在第一位置“l1”的第一用户112可能想要控制由在第二位置“l2”的第二智能眼镜设备提供的实时取景。按照第一用户112的喜好,第一用户112还可能想要实时使环绕第二用户114的区域可见。

按照实施例,第一智能眼镜设备302可检测第一用户112的左眼的视线。所述视线可以是从基准轴“ra1”向(第一用户112的)左方向“l”30°。第一智能眼镜设备302还可进一步至少检测第一用户112的虹膜的持续移动。所述持续移动可以从(第一用户112的)初始左方向“l”到从基准轴“ra1”和/或“ra2”向右方向“r”70°。

第一智能眼镜设备302可把检测的第一用户112的至少虹膜的视线信息或连续移动传送给第二智能眼镜设备304。所述检测的信息可以连同传送的请求一起被传输。按照实施例,可在来自第二智能眼镜设备304的响应(确认)的接收之后,或者按用户喜好,传送所述检测的信息。按照实施例,第一智能眼镜设备302可控制第二智能眼镜设备304的fov的共享部分的视线和/或定向。

按照实施例,第二智能眼镜设备304可动态调整第二可穿戴电子设备104的fov的至少所述部分的视线。视线的动态调整可基于传送的请求中的与第一用户112的视线相关的接收信息。例如,第二摄像头304a的视线和/或定向可被调整(比如从基准轴“ra”起向左方向“l”30°),以与接收的第一用户112的视线信息同步。第二智能眼镜设备304可根据调整后的第二摄像头304a的视线和/或定向,借助第二摄像头304a,捕捉第一fov“v1”。第二智能眼镜设备304可与第一智能眼镜设备302共享捕捉的第一fov“v1”。

第一智能眼镜设备302可向第一用户112提供第二智能眼镜设备304的第一fov“v1”的共享部分的视图。第一fov“v1”的共享部分可被显示在第一智能眼镜设备302的第一显示器302b上。

类似地,按照实施例,当收到第一用户112的至少虹膜的一连串持续移动时,第二智能眼镜设备304可动态调整第二智能眼镜设备304的fov的所述至少一部分的定向。例如,第一用户112可至少把左眼的虹膜从初始左方向“l”移动到相对于左眼的基准轴“ra1”,朝向右方向“r”70°。从而,第二摄像头304a的定向可从初始左方向“l”被动态调整到相对于第二智能眼镜设备304的基准轴“ra”,朝向右方向“r”70°。可以进行这种调整,以使第二摄像头304a的定向与接收的第一用户112的虹膜的一连串持续移动同步。

按照实施例,第二智能眼镜设备304可捕捉具有不同fov,比如从第一fov“v1”到第三fov“v3”的实时取景(比如视频)。第二智能眼镜设备304可与第一智能眼镜设备302共享捕捉的实时取景(比如具有受控fov的视频流)。

第一智能眼镜设备302可向第一用户112提供第二智能眼镜设备304的动态变化的fov的共享部分的实时取景。从而,根据第一用户112的虹膜的移动,可以容易并且有效地控制环绕第二用户114的区域的实时取景。实时取景可被显示在第一智能眼镜设备302的第一显示器302b上。

图4按照本公开的实施例,图解说明公开的利用可穿戴电子设备的遥视方法和系统的实现的第二例证情形。结合图1、图2和图3的元件,说明图4。参见图4,图中表示了第三智能眼镜设备402,第三摄像头402a,物体404,另外如图3中所示,通信网络110,第一智能眼镜设备302,第一摄像头302a,第二智能眼镜设备304,第二摄像头304a。

按照第二种例证情形,第三智能眼镜设备402可对应于第三可穿戴电子设备106(图2)。物体404可位于远离第一智能眼镜设备302,例如“8km”的位置。第二智能眼镜设备304和第三智能眼镜设备402可分别位于与第一智能眼镜设备302相隔“7.90km”和“7.98km”的地方。

参见图4,第一用户112可能想要观看位于“8km”处的物体404的放大的清晰视图。不过,第一智能眼镜设备302的第一摄像头302a是不能变焦的图像捕捉设备。

操作中,第一智能眼镜设备302可定位第二智能眼镜设备304和/或一个或多个其它可穿戴电子设备,比如第三智能眼镜设备402。一个或多个其它可穿戴电子设备的这种定位可基于与第一智能眼镜设备302相关的用户定义的距离参数和/或用户定义的方向参数。例如,第一智能眼镜设备302可经由第一智能眼镜设备302的ui,提供诸如“沿东北方向,搜索相隔8km距离的可穿戴电子设备”之类的输入。从而,第一智能眼镜设备302可定位一个或多个其它可穿戴电子设备,比如第二智能眼镜设备304和第三智能眼镜设备402。第一智能眼镜设备302可在地图上标绘第二智能眼镜设备304和第三智能眼镜设备402的距离和/或方向,可在用户定义的东北方向内,顺着一直到“8km”的路径,在阈值范围内定位所述第二智能眼镜设备304和第三智能眼镜设备402。通过利用地图服务,地理空间定位服务,从一个或多个其它可穿戴电子设备接收的传感器数据,和/或从蜂窝通信网络接收的网络信号,可进行一个或多个其它可穿戴电子设备的这种定位和标绘。

第一智能眼镜设备302可选择第二智能眼镜设备304,以连接到第二智能眼镜设备304。如在图1和图2中所示,借助共享第二智能眼镜设备304的fov的一部分的请求的传送,第一智能眼镜设备302可连接到第二智能眼镜设备304。

第一智能眼镜设备302可使第一智能眼镜设备302的第一用户112能够观看可能位于离物体404“100米”距离之处的第二智能眼镜设备304的共享部分。从而,当第一智能眼镜设备302提供位于该远处位置的物体404的特写清晰视图时,可以产生“变焦似效果”。

按照实施例,第一智能眼镜设备302可按用户喜好,选择第三智能眼镜设备402,以连接到第三智能眼镜设备402。第三智能眼镜设备402可与第一智能眼镜设备302共享利用第三摄像头402a捕捉的fov。

第一智能眼镜设备302可向第一智能眼镜设备302的第一用户112,提供第三智能眼镜设备402的fov的共享部分的视图。由于第三智能眼镜设备402位于离物体404相隔“2米”距离之处,因此当第一智能眼镜设备302提供位于该距离的物体404的特写清晰视图时,可以产生“变焦似效果”。

按照实施例,第一智能眼镜设备302可远程放大、缩小、摇移第二智能眼镜设备304或第三智能眼镜设备402的fov的共享部分和/或控制第二智能眼镜设备304或第三智能眼镜设备402的fov的共享部分的定向。从而,这样的操作可按用户喜好,提供位于远处的物体404的增强可视化。

图5a和5b按照本公开的实施例,共同描述图解说明借助可穿戴电子设备的例证遥视方法的流程图。参见图5a和5b,图中表示了流程图500。结合图1和图2,说明流程图500。所述方法始于步骤502,然后进入步骤504。

在步骤504,可以检查要被连接的可穿戴电子设备的地址信息是否被提供。在地址信息被提供的情况下,控制转到步骤510。在地址信息未被提供的情况下,控制转到步骤506。在步骤506,可以定位第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备。可根据与第一可穿戴电子设备102相关的用户定义的距离参数和/或用户定义的方向参数,进行可穿戴电子设备的所述定位。按照实施例,第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备可位于用户定义的距离参数和/或用户定义的方向参数的阈值范围之内。

在步骤508,可以选择被定位的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备中的一个或多个可穿戴电子设备。可根据从第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备接收的传感器数据的分析,进行所述选择。按照实施例,可根据位置、距离和/或方向,进行一个或多个可穿戴电子设备的这种选择。

在步骤510,可从第一可穿戴电子设备102传送共享选择的第二可穿戴电子设备104的fov的至少一部分的请求。按照实施例,所述请求可被传送给一个或多个其它可穿戴电子设备之一,以共享选择的一个或多个其它可穿戴电子设备的fov的至少一部分。按照实施例,可根据用户,比如第一可穿戴电子设备102的第一用户112的虹膜的移动,进行请求的所述传送。按照实施例,可根据第一可穿戴电子设备102的第一用户112提供的语音和/或手势命令,进行请求的所述传送。

在步骤512,可从选择的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备,接收响应。所述响应可对应于传送的请求的确认。在步骤514,可检查接收的响应是接受响应还是拒绝响应。在接收的响应是拒绝响应的情况下,控制转到步骤516。在接收的响应是接受响应的情况下,控制转到步骤518。

在步骤516,与选择的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的连接可被拒绝。在所述连接被拒绝的情况下,在用户定义的时间间隔之后,控制转回到步骤504。按照实施例,在所述连接被拒绝的情况下,按用户喜好,控制可转到结束步骤540。在步骤518,可以建立与选择的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的连接。可以建立这样的连接,以共享选择的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的fov。

在步骤520,可以提供连接的第二可穿戴电子设备104或一个或多个其它可穿戴电子设备的fov的共享部分的视图。可在第一可穿戴电子设备102提供所述视图。换句话说,可使第一用户112能够观看第二可穿戴电子设备104或一个或多个其它可穿戴电子设备的fov的共享部分。在步骤522,用户可在第一可穿戴电子设备102,选择图像捕捉模式或视频捕捉模式之一。在选择视频捕捉模式的情况下,控制转到步骤524。在选择图像捕捉模式的情况下,控制转到步骤530。

在步骤524,可检测第一用户112的至少虹膜的持续移动。按照实施例,所述移动可对应于左眼、右眼或双眼的虹膜移动。在步骤526,与检测的第一用户112的虹膜的持续移动相关的信息可被传送给第二可穿戴电子设备104。按照实施例,这样的信息可被传送给一个或多个其它可穿戴电子设备。按照实施例,所述传送可与视频捕捉请求同时发生。

在步骤528,可控制连接的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的fov的共享部分的定向。可根据第一可穿戴电子设备102的用户的虹膜的移动,进行所述控制。按照实施例,可根据第一可穿戴电子设备102的第一用户112提供的语音和/或手势命令,进行所述控制。控制转到步骤536。按照实施例,当第一可穿戴电子设备102收到来自第一用户112的记录fov的受控共享部分的输入(未图示)时,控制可转到步骤538。按照实施例,当第一可穿戴电子设备102收到来自第一用户112的把模式从视频捕捉模式改变成图像捕捉模式的输入(未图示)时,控制可转回到步骤522。

在步骤530,可检测第一用户112的至少虹膜的视线。按照实施例,所述视线检测可对应于用户,比如第一用户112的凝视方向的检测。在步骤532,与检测的第一用户112的虹膜的视线相关的信息可被传送给第二可穿戴电子设备104。按照实施例,所述信息可被传送给一个或多个其它可穿戴电子设备。按照实施例,可以与图像捕捉请求同时进行所述传送。

在步骤534,可以控制连接的第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的fov的共享部分的视线。所述控制可基于检测的第一可穿戴电子设备102的第一用户112的虹膜的视线进行。按照实施例,所述控制可基于第一可穿戴电子设备102的第一用户112提供的语音和/或手势命令发生。

在步骤536,第二可穿戴电子设备104或一个或多个其它可穿戴电子设备的fov的受控共享部分可被放大或缩小。按照实施例,可按用户喜好,摇移第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的fov的共享部分。

在步骤538,可作为图像或视频流,记录第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的fov的受控共享部分。按照实施例,fov的受控共享部分可对应于不断地与第一可穿戴电子设备102的用户的虹膜的持续移动同步的视频流。按照实施例,fov的受控部分可对应于可与第一用户112的虹膜的视线同步的图像(比如,远距离位置的图像)。例如,可作为图像,接收第二可穿戴电子设备104和/或一个或多个其它可穿戴电子设备的fov的受控部分。在这种情况下,可在第一可穿戴电子设备102,显示接收的图像或视频流。控制转到结束步骤540。

按照本公开的实施例,公开一种遥视系统。该系统(比如第一可穿戴电子设备102(图1))可包括一个或多个处理器(下面称为处理器202(图2))。处理器202可以传送共享另一个可穿戴电子设备,比如第二可穿戴电子设备104(图1)的fov的至少一部分的请求。处理器202可接收作为传送的请求的确认,来自第二可穿戴电子设备104的响应。处理器202可使第一可穿戴电子设备102的用户,比如第一用户112至少能够观看第二可穿戴电子设备104的fov的共享部分。

本公开的各个实施例可提供非临时性计算机可读介质和/或存储介质,和/或上面保存有使机器和/或计算机遥视的一组计算机可执行指令的非临时性机器可读介质和/或存储介质。服务器中的至少一个代码段可使机器和/或计算机执行包括共享第二可穿戴电子设备104的fov的至少一部分的请求的传送的步骤。可从第二可穿戴电子设备104接收响应,作为传送的请求的确认。可使用户,比如第一可穿戴电子设备102的第一用户112至少能够观看第二可穿戴电子设备104的fov的共享部分。

本公开可用硬件,或者硬件和软件的组合实现。可在至少一个计算机系统中集中地,或者不同元件散布在几个互连计算机系统间分布地实现本公开。适合于执行这里说明的方法的计算机系统或其它设备是适宜的。硬件和软件的组合可以是具有计算机程序的通用计算机系统,当被加载和执行时,所述计算机程序可控制计算机系统,以致计算机系统执行这里说明的方法。可用包含还实现其它功能的集成电路的一部分的硬件,实现本公开。

本公开也可被嵌入计算机程序产品中,所述计算机程序产品包含使这里说明的方法的实现成为可能的所有特征,当被载入计算机系统中时,所述计算机程序产品能够实现这些方法。在本上下文中,计算机程序意味一组指令的采用任何语言、代码或符号的任意表达,所述一组指令用于直接地,或者在a)转换成另一种语言、代码或符号;和/或b)用不同的材料形式再现之后,使具有信息处理能力的系统完成特定功能。

尽管参考一些实施例,说明了本公开,不过,本领域的技术人员明白可以作出各种变化,可以替换各种等同物,而不脱离本公开的范围。另外,为了适应特殊情况或材料,可对本公开的教导作出许多修改,而不脱离本公开的范围。于是,本公开并不局限于公开的特定实施例,相反,本公开将包含在附加权利要求的范围内的所有实施例。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1