显示设备的制造方法_2

文档序号:10372289阅读:来源:国知局
的显示部件102,其中,所述显示部件包括分镜盒子;
[0035]左眼摄像头104和右眼摄像头106,设置于所述显示部件102中背向显示方向的一侦U,其中所述左眼摄像头104与所述右眼摄像头106的间距为人体双眼间距。
[0036]通过上述结构,使得在基于VR技术的显示部件中添加了仿照人眼间距放置的左眼摄像头与所述右眼摄像头,从而可以通过添加的摄像头获取到现实场景,为实现增强现实技术与虚拟现实技术的结合提供了基础。解决了相关技术中对于虚拟现实技术和增强现实技术的结合并没有很好的方案的技术问题,成本较低,且极大提升了用户体验度。
[0037]可选地,为了节省成本以及降低设备的结构复杂度,在本实施例中,所述显示部件102,与所述左眼摄像头104和右眼摄像头106之间,可以通过OTG技术(即使用OTG转接线)相连。其中,OTG技术指的是On-The-Go技术,即一种在没有主设备(Host)的情况下,实现从设备间的数据传送的技术。
[0038]由于上述OTG技术通常实现于USB技术中,因此在本实施例中以USB OTG为例进行描述。具体地,在本实施例中,所述左眼摄像头104和右眼摄像头106可以通过USB OTG转接线连接至所述显示部件。USB,是英文Universal Serial Bus(通用串行总线)的缩写,而其中文简称为“通串线”,是一个外部总线标准,用于规范电脑与外部设备的连接和通讯。是应用在PC领域的接口技术。USB接口支持设备的即插即用和热插拔功能。
[0039 ]考虑到本实施例中的左眼摄像头104和右眼摄像头106在实际使用过程中的实现情况,可以通过以下方式进行具体实现:
[0040]在所述左眼摄像头104为单芯片摄像头,且右眼摄像头106也为单芯片摄像头的情况下,所述左眼摄像头104和右眼摄像头106是两个独立的摄像头,此时可以通过USB集线器(Hub)结合起来,然后与所述USB OTG转接线相连;
[0041]而在所述左眼摄像头104和右眼摄像头106是由一个单芯片的双目摄像头来实现的情况下,此时所述左眼摄像头104和右眼摄像头106的输出已经结合在一起,则直接与所述USB OTG转接线相连即可。
[0042]可选地,由于所述分镜盒子的壳体中包括用于放置移动终端的凹槽,所述左眼摄像头和右眼摄像头可以设置于所述壳体上背向所述用于放置移动终端的凹槽的一侧。
[0043]可选地,所述显示部件中还可以包括移动终端,设置于所述凹槽中,与所述左眼摄像头和右眼摄像头通过OTG转接线相连;所述移动终端用于接收来自所述左眼摄像头和右眼摄像头的视频流,对捕获的所述视频流使用增强现实技术和虚拟现实技术处理,并对处理后的视频流进行显示。
[0044]可选地,所述移动终端可以通过IibUVC捕获来自左眼摄像头和右眼摄像头的视频流。
[0045]可选地,所述移动终端还可以捕获所述视频流中预设的动作,并将所述动作对应的指令作为输入指令。
[0046]可选地,所述分镜盒子上还可以设置有预留接线口,以便于所述左眼摄像头和所述右眼摄像头通过所述OTG转接线与所述移动终端相连接。预留接线口的形状及位置可以根据具体走线情况设置。
[0047]根据本实用新型实施例,还提供了一种基于上述显示设备的显示方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
[0048]图2是根据本实用新型实施例的显示方法的流程图,该方法可应用于上述的显示设备中,如图2所示,该方法包括如下步骤:
[0049]步骤S202,嵌入显示部件中的移动终端捕获来自左眼摄像头和右眼摄像头的视频流;
[0050]步骤S204,所述移动终端对捕获的所述视频流使用增强现实技术和虚拟现实技术处理;
[0051]步骤S206,所述移动终端基于处理后的视频流进行显示。
[0052]通过上述步骤,在基于VR技术的显示设备中添加了仿照人眼间距放置的左眼摄像头与所述右眼摄像头,并由嵌入显示部件中的移动终端捕获来自左眼摄像头和右眼摄像头的现实场景的视频流,从而可以对捕获的所述视频流使用增强现实技术和虚拟现实技术处理,实现了增强现实技术与虚拟现实技术的结合,达到了实现增强现实技术与虚拟现实技术的结合的目的,并且成本较低。进一步,在获取到处理后的视频流后,还可以基于处理后的视频流进行其他方式的加工,然后再进行显示,大大提升了方案的可扩展性,自由度很高,极大提升了用户体验度,进而解决了在相关技术中对于这两种技术的结合并没有很好的方案的技术问题。
[0053]可选地,考虑到目前市场上的移动终端(例如手机)多数是基于安卓(Android)系统的,而Android是基于Linux的移动系统,Linux上比较常用的捕获视频接口是V4L2(VideoFor Linux 2),但Android中对该接口的支持并不好,某些Android机器会由于权限、设备映射等原因导致V4L2访问失败。所以,本实施例中利用类似比V4L2更底层的UVC接口(USBVideo Class)来访问摄像头。
[0054]具体地,在本实施例中,所述移动终端可以通过IibUVC捕获来自左眼摄像头和右眼摄像头的视频流。IibUVC,是基于UVC的链接库,是一个跨平台的库,支持枚举、控制、流式访问USB协议的摄像头,其提供了控制USB视频设备的应用程序接口供开发者调用。
[0055]可选地,为进一步提高方案的交互性,可以预设一些手势动作指令,具体地,所述移动终端捕获所述视频流中预设的动作,并将所述动作对应的指令作为输入指令。在摄像头捕获到这些手势动作指令后则可以作为用户的输入指令。从而大大提高了用户的交互性和可参与度。
[0056]可选地,在基于处理后的视频流进行其他方式的加工时,移动终端还可以在处理后的视频流中添加虚拟物体,并将添加虚拟物体后的视频流进行显示。这样,用户可以通过输入指令与这些虚拟物体进行交互或者影响这些虚拟物体,从而实现实时交互性及游戏性。
[0057]下面结合优选实施例进行描述,以下优选实施例结合了上述实施例及其优选实施方式。
[0058]在以下优选实施例中,具体针对手机设备的增强现实和虚拟现实的混合应用,考虑解决以下问题:利用手机实时捕获双目成像的适配画面;可以在目前市场上的大部分手机上加上简单的装置实现;用户可以通过体感输入与增强的物体交互;装置价格低廉。
[0059]基于上述考虑,本优选实施例给出了以下方案:
[0060]1、分镜盒子跟摄像头结合,提供USB接口。
[0061 ] 2、利用USB OTG技术和USB hub将两个USB协议的摄像头连接到手机上,或使用USBOTG技术将单芯片的USB协议双目摄像头连接到手机上。
[0062]3、利用USB通用协议编写了手机读取双目摄像头的驱动。
[0063]4、将双目摄像头的视频输入增强,计算空间,识别手势等体感动作,实时输出画面显示在手机上。
[0064]下面对上述方案内容进行详细说明。
[0065]1、分镜盒子跟摄像头结合:
[ΟΟ??]如之前提到的,相关技术中的类似Google Cardboard的分镜盒子,不带摄像头,图3是根据本实用新型优选实施例的基于虚拟现实和增强现实的显示设备的整体示意图,如图3所示,本优选实施例中使用两个USB通用摄像头,镜头朝前,以双眼距离为距,分左右两边,固定在cardboard的前端,线路通进cardboard内部。参考图3所示,还可以在分镜盒子上预留接线口,便于摄像头与cardboard内部相连接。
[0067]2、利用USB OTG技术和USB hub将两个USB协议的摄像头连接到手机上,或使用USBOTG技术将单芯片的USB协议双目摄像头连接到手机上。
[0068]图4是根据本实用新型优选实施例的基于虚拟现实和增强现实的显示设备的内部接口示意图,如图4所示,普通的周边设备可以通过USB总线,作为PC的周边,在PC的控制下进行数据交换。但这种方便的
当前第2页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1