沉浸式漫游实景VR呈现方法与流程

文档序号:29630302发布日期:2022-04-13 15:45阅读:203来源:国知局
沉浸式漫游实景vr呈现方法
技术领域
1.本发明涉及vr技术领域,具体涉及沉浸式漫游实景vr呈现方法。


背景技术:

2.目前关于vr技术,有采用数字建模的方式实现的数字vr技术,也有实景拍摄为素材的实景vr技术,数字vr技术的做法是在建好的数字场景中放入水平的两个虚拟相机,人的左右眼在场景中看到的视角就由这两个虚拟相机提供,这样佩戴vr头盔的人在这个建好的三维数字场景中漫游时根据这两个虚拟相机的视差就能够提供很好的3d体验。而实景vr的做法大多是利用全景相机拍摄一段视频加上一些常规电影的处理方式,但其实这只是全景视频,只能通过播放的方式展现给观看者,并非实景vr,它所呈现出来的3d立体效果和观看者的互动都没有达到vr应有的标准,而vr是让佩戴vr头盔的人能够在另外一个时空里面进行游走和互动,这种事先就做好的vr视频给观看者千篇一律的感觉,不够真实,体验感不是很好,而且更加消耗资源。
3.基于此,做出本申请。


技术实现要素:

4.为了解决现有技术中存在的上述缺陷,本发明提供了一种沉浸式漫游实景vr呈现方法,通过无人机拍摄创建一个能够让人在3d实景vr中进行漫游的视觉效果,打造3d实景vr里面新的互动模式,让观看者更加真实的体验vr场景。
5.为了实现上述目的,本发明采取的技术方案如下:
6.一种沉浸式漫游实景vr呈现方法,包括如下:
7.步骤一、利用无人机进行全景视频拍摄,并实时传输给观看者vr头盔终端,用以建立数字场景;
8.步骤二、根据观看者的瞳距及全景视频的参数确定侧向真3d时双眼帧差及正向假3d时数字场景中双眼对应的虚拟相机之间的距离;
9.步骤三、漫游中观看者出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机的场景。
10.作为优选,所述步骤三中,通过如下公式计算双眼场景中的双眼的帧差:
11.t=int(sin(yaw)
·
tmax)yaw∈[0,2π]
[0012]
其中,yaw表示观看者头部的水平旋转角度,tmax表示侧向真3d时双眼的帧差;
[0013]
t表示在yaw角度下双眼的帧差。
[0014]
作为优选,所述步骤三中,通过如下公式计算双眼对应的虚拟相机的场景的双眼对应的虚拟相机的距离:d=abs(cos(yaw))
·
dmaxyaw∈[0,2π]
[0015]
其中,yaw表示观看者头部的水平旋转角度,dmax表示正向假3d时双眼对应的虚拟相机之间的距离,d表示在yaw角度下双眼对应的虚拟相机之间的距离。
[0016]
与现有技术相比,本发明能实现如下有益技术效果:
[0017]
本发明沉浸式漫游实景vr呈现方法,通过无人机拍摄创建一个能够让人在3d实景vr中进行漫游的视觉效果,打造3d实景vr里面新的互动模式,让观看者更加真实地体验vr场景。
具体实施方式
[0018]
为了使本发明的技术手段及其所能达到的技术效果,能够更清楚更完善的披露,兹提供了以下实施例作如下详细说明:
[0019]
本实施例沉浸式漫游实景vr呈现方法通过以下步骤实现:
[0020]
步骤一、沿需要漫游的方向利用无人机进行全景视频拍摄并利用5g技术实时传输给体验者头戴终端,用以建立数字场景;具体的,沿需要漫游的方向并根据体验者的动作幅度及速度综合计算出无人机的飞行速度及摄像头的偏角进行全景视频拍摄,用以建立数字场景;当然在本实施例中,根据需要可以选择规则的线路也可以选择不规则的线路。
[0021]
步骤二、根据观看者的瞳距及全景视频的参数确定侧向真3d时双眼帧差及正向假3d时数字场景中双眼对应的虚拟相机之间的距离;具体的,根据观看者的瞳距、全景视频的拍摄行进速度和全景视频拍摄的帧率之间的对应关系确定侧向真3d时双眼帧差及正向假3d时数字场景中双眼对应的虚拟相机之间的距离。
[0022]
步骤三、漫游中出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机场景,同时在拍摄全景视频的过程中拍摄视角的高度要兼顾到观看者的视觉高度,在沿需要漫游的方向进行,并在前进的过程中进行全景视频的拍摄。
[0023]
本实施例中的技术方案,当观看者面向漫游行进方向时双眼看到的立体场景是同一个场景经过假3d技术处理过的效果(也称正向假3d),而当将头部转到与漫游行进方向垂直时看到的是全景视频中的两个场景,其帧差距离等于观看者的瞳距(也称侧向真3d);根据拍摄行进速度及拍摄帧率可以计算出相邻两帧之间的距离,观看者面向垂直于漫游行进方向观看侧向真3d效果时双眼的帧差距离应该等于观看者的瞳距,而当观看者面向漫游行进方向观看正向假3d效果时通过调整双眼虚拟相机之间的距离参数可以找到适合观看者瞳距的匹配值。当观看者沿漫游行进方向向两侧转头时:根据计算公式可以计算出双眼场景的帧差会越来越大,亦即侧向真3d的效果会越来越明显;而在同时根据计算公式可以计算出双眼场景中的虚拟相机距离会越来越小,亦即正向假3d的效果会越来越弱;反之当观看者的头部从漫游行进的侧向转向正向时:根据计算公式可以计算出双眼场景的帧差会越来越小,亦即侧向真3d的效果会越来越弱;而在同时根据计算公式可以计算出双眼场景中的虚拟相机距离会越来越大,亦即正向假3d的效果会越来越明显。
[0024]
为此,设置本实施例初始条件:设全景视频拍摄时,拍摄行进的速度为21厘米/秒,视频拍摄速度(拍摄帧率)为30帧/秒,设定瞳距为7厘米,对应的虚拟相机距离为dmax(通过调整双眼虚拟相机之间的距离参数可以找到适合观看者瞳距的匹配值),则可以计算出在侧向真3d时在全景视频中选取的两个场景之间的帧差为10(tmax=10)。
[0025]
因此,本实施例利用5g技术及无人机技术实现沉浸式实景vr呈现,可以利用这一沉浸式实景vr呈现方法可实现更真实的3d观景体验,也可以利用这一方法做动态监控(比如森林监控追踪等)。
[0026]
以上内容是结合本发明的优选实施方式对所提供技术方案所作的进一步详细说
明,不能认定本发明具体实施只局限于上述这些说明,对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。


技术特征:
1.一种沉浸式漫游实景vr呈现方法,其特征在于,包括如下:步骤一、利用无人机进行全景视频拍摄,并实时传输给观看者vr头盔终端,用以建立数字场景;步骤二、根据观看者的瞳距及全景视频的参数确定侧向真3d时双眼帧差及正向假3d时数字场景中双眼对应的虚拟相机之间的距离;步骤三、漫游中观看者出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机的场景。2.如权利要求1所述的沉浸式漫游实景vr呈现方法,其特征在于,所述步骤三中,通过如下公式计算双眼场景中的双眼的帧差:t=int(sin(yaw)
·
tmax)yaw∈[0,2π]其中,yaw表示观看者头部的水平旋转角度,tmax表示侧向真3d时双眼的帧差;t表示在yaw角度下双眼的帧差。3.如权利要求1所述的沉浸式漫游实景vr呈现方法,其特征在于,所述步骤三中,通过如下公式计算双眼对应的虚拟相机的场景的双眼对应的虚拟相机的距离:d=abs(cos(yaw))
·
dmax yaw∈[0,2π]其中,yaw表示观看者头部的水平旋转角度,dmax表示正向假3d时双眼对应的虚拟相机之间的距离,d表示在yaw角度下双眼对应的虚拟相机之间的距离。4.如权利要求1所述的沉浸式漫游实景vr呈现方法,其特征在于,所述步骤一中,利用5g技术实现实时传输。5.如权利要求1所述的沉浸式漫游实景vr呈现方法,其特征在于,所述步骤一中,利用无人机进行全景视频拍摄时,根据观看者的动作幅度及速度综合计算出无人机的拍摄行进速度及摄像头的偏角进行全景视频拍摄。6.如权利要求1所述的沉浸式漫游实景vr呈现方法,其特征在于,所述步骤一中,在拍摄全景视频的过程中,拍摄视角的高度适应观看者的视觉高度,在沿漫游行进方向进行拍摄。7.如权利要求1所述的沉浸式漫游实景vr呈现方法,其特征在于,所述步骤二中,所述全景视频的参数包括全景视频的拍摄行进速度和全景视频的拍摄帧率之间的对应关系。

技术总结
本发明提供了一种沉浸式漫游实景VR呈现方法,属于VR技术领域,包括利用无人机进行全景视频拍摄,并实时传输给观看者VR头盔终端,用以建立数字场景;根据观看者的瞳距及全景视频的参数确定侧向真3D时双眼帧差及正向假3D时数字场景中双眼对应的虚拟相机之间的距离;漫游中观看者出现头部旋转时,分别计算出在全景视频中应调取的双眼场景和双眼对应的虚拟相机的场景。本发明沉浸式漫游实景VR呈现方法,通过无人机拍摄创建一个能够让人在3D实景VR中进行漫游的视觉效果,打造3D实景VR里面新的互动模式,让观看者更加真实地体验VR场景。让观看者更加真实地体验VR场景。


技术研发人员:张福军 李祥兵 罗豪
受保护的技术使用者:绿城科技产业服务集团有限公司
技术研发日:2021.12.31
技术公布日:2022/4/12
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1