图像处理方法和装置与流程

文档序号:12269723阅读:189来源:国知局
图像处理方法和装置与流程

本申请涉及一种图像处理方法和装置。优选的,本申请涉及一种用于虚拟现实的图像处理处理方法和装置。



背景技术:

虚拟现实技术是一种具沉浸感、交互性和构想性的技术,其实现的交互方式之一就是三维立体显示技术。三维立体显示可以全面的展现出图像的位置、层次和纵深,使观察者更直观地了解图像的现实分布状况,从而更全面了解图像或立体投影。

目前,在虚拟现实中应用的是双目立体技术:人的左右眼分别从不同位置和角度观看同一物体时在双眼视网膜结像会出现的微小水平像位差,即水平视差。3D立体显示的基本原理就是要以人工方式来重现视差,即将具有水平视差的左眼图像和右眼图像分别输送给观察者的左眼和右眼,使得观察者能够感知到立体深度,形成立体感。在这个基础之下发展出各式各样的3D立体显示技术,目前相对成熟的是基于眼镜的立体显示。

实现虚拟现实的现有技术之一的方法流程如图11所示,其通过虚拟摄像机投影到屏幕上,并通过虚拟摄像机视锥体对人眼视域进行建模。然后将视锥体里的三维物体通过透视投影变化投影在视口上,最后将视口元素渲染到显示器屏幕。在得到空间任一点在左右图像中的对应坐标和两摄像机参数矩阵的条件下,即可进行空间点的重建,即实现基于人眼视觉原理的虚拟现实显示。

上述现有技术时目前虚拟现实中立体显示的主流技术。其核心是获取三维场景中任一点满足人眼需求的左右图像,并将左右图像分别输入左眼和右眼,从而产生立体视觉效果。

然而,从其技术层面上讲,双目立体技术仍然与观察自然环境的3D效果存在差距。究其根本原因是我们只将需要的主要信息通过左右图像的形式表示出来,而并没有将场景的全部信息呈现在人眼面前。所以,传统方法由于场景信息缺失而存在技术壁垒,只能在严苛条件下产生立体感,无法呈现出真实和舒适的三维效果。

其次,从算法和成本上讲,传统方法通常利用两个以上的多相机阵列进行数据采集,利用多相机阵列来优化采集过程,此方法需要的相机数量大,成本过高,并且大量相机的标定工作繁复。

最后,从实时性上讲,传统方法一定采用左右图像的两个或者两个以上通道的信息,因此信息量大,需要的存储空间大,传输效率低,从而导致运算速度慢,系统实时性差的问题。因此,找到一种存储空间大而又易于传输的数据方式提高传输效率和运算速度,增强系统的实用性显得尤为重要。



技术实现要素:

针对现有技术中存在的问题,本申请提出一种用于实现虚拟现实的图像处理方法以解决现有技术中存在的问题。

根据本申请的一个方面,提供一种图像处理方法,包括:获取物体的三维信息;根据所述三维信息生成数字全息图;以及根据所述数字全息图以及与所述数字全息图相关的第一参考光信息生成分别对应于左视点和右视点的左图像和右图像。

根据本申请的另一个方面,提供一种图像处理装置,包括:三维信息获取模块,用于获取物体的三维信息;全息图生成模块,用于根据所述三维信息生成数字全息图;以及左右图像生成模块,用于根据所述数字全息图以及与所述数字全息图相关的第一参考光信息生成分别对应于左视点和右视点的左图像和右图像。

根据本申请的另一个方面,提供一种图像处理方法,包括:获取物体的多组三维信息;根据所述多组三维信息中的每一组分别生成数字全息图,从而生成数字全息图序列;以及将所生成的数字全息图序列以及与每个所述数字全息图对应的第一参考光信息作为数据流进行发送。

根据本申请的另一个方面,提供一种图像处理装置,包括:三维信息获取模块,用于获取物体的多组三维信息;全息图生成模块,用于根据所述多组三维信息中的每一组分别生成数字全息图,从而生成数字全息图序列;以及发送模块,用于将所生成的数字全息图序列以及与每个所述数字全息图对应的第一参考光信息作为数据流进行发送。

根据本申请的另一个方面,提供一种图像处理方法,包括:获取数据流,所述数据流包括数字全息图序列以及与所述数字全息图序列中的每个数字全息图对应的第一参考光信息;以及针对所述数字全息图序列中的每个数字全息图,结合对应的所述第一参考光信息,生成分别对应于左视点和右视点的左图像和右图像。

根据本申请的另一个方面,提供一种图像处理装置,包括:获取模块,用于获取数据流,所述数据流包括数字全息图序列以及与所述数字全息图序列中的每个数字全息图对应的第一参考光信息;以及图像生成模块,用于针对所述数字全息图序列中的每个数字全息图,结合对应的所述第一参考光信息,生成分别对应于左视点和右视点的左图像和右图像。

通过本申请的图像处理方法和装置,能够解决现有技术中存在的生成左图像和右图像的成本过高、工作繁复、传输效率低以及运算速度慢等问题。从而在降低成本的同时提高了数据源的可选择性和自由度。

附图说明

此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:

图1是示出根据本申请实施例1的图像处理方法的流程图;

图2是示出根据本申请实施例2的图像处理装置的示意图;

图3是示出根据本申请实施例3的图像处理方法的流程图;

图4是示出根据本申请实施例4的图像处理装置的示意图;

图5是示出根据本申请实施例5的图像处理方法的流程图;

图6是示出根据本申请实施例6的图像处理装置的示意图;

图7是示出根据本申请实施例7的形成立体视觉的方法的流程图;

图8(a)至图8(d)是说明根据实施例7的方法的效果图;

图9(a)至图9(d)是说明进行鲁棒性检测的效果图;

图10是根据本申请的根据全息图再现左图像和右图像的示意图;

图11是根据现有技术的用于模拟现实的方法的流程图。

图12是对图7中的步骤作出进一步说明的流程示意图。

具体实施方式

为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。

需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或模块或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块或单元。

实施例1

附图1示出了根据实施例1的图像处理方法的流程图,如附图1所示,该方法包括:

S102:获取虚拟对象的三维信息;

S104:根据所述三维信息生成数字全息图;以及

S106:根据所述数字全息图以及与所述数字全息图相关的第一参考光信息生成分别对应于左视点和右视点的左图像和右图像。

由于实施例1根据数字全息图生成对应于左视点和右视点的左图像和右图像,因此在实际操作中,只需要根据数字全息图再现生成系统需要的左右图像,即可作为信息源输入虚拟现实系统,从而减少相机数量和相机标定工作,降低算法和成本代价。并且由于数字全息图来记录三维虚拟对象的信息,因此可以有效地防止场景信息的缺失。

可选地,该方法还包括分别对该左图像和右图像进行显示。通过将该左图像和右图像进行显示,从而左右图像分别输入用户左眼和右眼,产生立体视觉效果。但是需要注意的是,对左图像和右图像进行显示的步骤并不是本申请所必需的。作为内容供应商,可以不必考虑左图像和右图像的显示,而仅仅将其发送给远程的用户即可。

可选地,获取虚拟对象的三维信息的步骤S102包括:获取所述虚拟对象的预设记录距离;以及计算所述虚拟对象在所述预设记录距离处的波前函数,其中,所述波前函数包括振幅信息和相位信息。与之对应的,根据所述三维信息生成数字全息图的步骤S104包括:根据所述波前函数以及第二参考光信息计算生成所述数字全息图。根据该方法,利用波前函数以及参考光信息计算生成数字全息图,从而整个数字全息图的生成过程都是通过计算模拟实现的,因此节省了生成数字全息图的硬件成本。并且由于不需要引入实际的光源以及成像装置,因此也使得该方法更容易实现。此外,除了上述方法外,任何用于获取虚拟对象的三维信息以便生成数字全息图的方式都适用于本申请,都能得到本技术方案的支持。

可选地,所述第一参考光信息包括与所述左视点和右视点对应的左视点再现参考光信息和右视点再现参考光信息,其中,所述左视点再现参考光信息包括:模拟从与左视点对应的左再现参考光源发出的光线照射到所述数字全息图时的入射角度,所述右视点再现参考光信息包括:模拟从与右视点对应的右再现参考光源发出的光线照射到所述数字全息图时的入射角度。并且所述根据所述数字全息图以及与所述数字全息图相关的第一参考光信息生成分别对应于左视点和右视点的左图像和右图像,包括:基于所述左视点再现参考光信息和右视点再现参考光信息以及所述数字全息图生成所述左图像和右图像。根据该方法,只需要基于所述参考光信息生成与所述左视点和右视点对应的左视点再现参考光信息和右视点再现参考光信息,再基于所述左视点再现参考光信息和右视点再现参考光信息以及所述数字全息图即可生成所述左图像和右图像。由于在实际操作中,所述左视点参考光信息和所述右视点参考光信息均可根据所述参考光信息产生(例如根据从所述左视点和右视点发出的光线照射到所述数字全息图时的入射角,基于所述参考光信息生成与所述左视点和右视点对应的左视点再现参考光信息和右视点再现参考光信息),因此可以仅仅利用参考光信息与所述全息图即可生成所述左图像和右图像,因此减少了生成所述左图像和右图像所需的数据量。此外对于本申请而言,除了该方法之外,其他的用于产生左图像和右图像的方法也适用于本申请的技术方案。

可选地,所述预设记录距离至少为两个。并且所述计算所述虚拟对象在所述预设记录距离处的波前函数,包括:分别计算所述虚拟对象在各个所述预设记录距离处的波前函数,并对所述波前函数进行叠加。以及所述根据所述波前函数以及第二参考光信息计算生成所述数字全息图,包括:根据叠加后的所述波前函数以及所述第二参考光信息计算生成所述数字全息图。

因为三维虚拟对象的波前函数具有不同的预设记录距离d(不同的预设记录距离d对应不同的层),因此将三维虚拟对象在不同预设记录距离下的波前函数进行叠加,再与参考光信息结合,形成全息图的过程就成为分层信息记录的过程。而全息再现时,只能在对应的再现距离d下,才能够清晰的再现出相应的再现像,这样就不会产生相应的干扰。

实施例2

附图2示出了根据本申请实施例2的图像处理装置200的示意图。如图2所示,该图像处理装置200包括:三维信息获取模块201,用于获取虚拟对象的三维信息;全息图生成模块202,用于根据所述三维信息生成数字全息图;以及左右图像生成模块203,用于根据所述数字全息图以及与所述数字全息图相关的第一参考光信息生成分别对应于左视点和右视点的左图像和右图像。

参照实施例1中所述,该图像处理装置能够减少相机数量和相机标定工作,降低算法和成本代价,并且有效地防止场景信息的缺失。

可选地,所述三维信息获取模块配置为:获取所述虚拟对象的二维图像,并根据所述二维图像获取所述虚拟对象的三维信息。

可选地,还包括显示模块,分别对所述左图像和右图像进行显示。从而将左右图像分别输入用户左眼和右眼,产生立体视觉效果。

可选地,所述三维信息获取模块包括:预设记录距离获取单元,用于获取所述虚拟对象的预设记录距离;以及波前函数计算单元,用于计算所述虚拟对象在所述预设记录距离处的波前函数其中,所述波前函数包括振幅信息和相位信息。并且所述全息图生成模块包括:全息图计算单元,用于根据所述波前函数以及第二参考光信息计算生成所述数字全息图。由于图像处理装置利用波前函数以及参考光信息计算生成数字全息图,从而整个数字全息图的生成过程都是通过计算模拟实现的,因此节省了生成数字全息图的硬件成本。并且由于不需要引入光源以及成像装置,因此也使得该方法更容易实现。

可选地,所述第一参考光信息包括与所述左视点和右视点对应的左视点再现参考光信息和右视点再现参考光信息,其中,所述左视点再现参考光信息包括:模拟从与左视点对应的左再现参考光源发出的光线照射到所述数字全息图时的入射角度,所述右视点再现参考光信息包括:模拟从与右视点对应的右再现参考光源发出的光线照射到所述数字全息图时的入射角度。并且所述左右图像生成模块包括:左右图像生成单元,用于基于所述左视点再现参考光信息和右视点再现参考光信息以及所述数字全息图生成所述左图像和右图像。基于该图像处理装置,只需要基于所述参考光信息生成与所述左视点和右视点对应的左视点再现参考光信息和右视点再现参考光信息,再基于所述左视点再现参考光信息和右视点再现参考光信息以及所述数字全息图即可生成所述左图像和右图像。由于在实际操作中,所述左视点参考光信息和所述右视点参考光信息均可根据所述参考光信息产生(例如根据从所述左视点和右视点发出的光线照射到所述数字全息图时的入射角,基于所述参考光信息生成与所述左视点和右视点对应的左视点再现参考光信息和右视点再现参考光信息),因此可以仅仅利用参考光信息与所述全息图即可生成所述左图像和右图像,因此减少了生成所述左图像和右图像所需的数据量。

可选地,所述预设记录距离至少为两个。并且所述波前函数计算单元包括:波前函数叠加元件,分别计算所述虚拟对象在各个所述预设记录距离处的波前函数,并对所述波前函数进行叠加,以及所述全息图计算单元包括:数字全息图生成元件,用于根据叠加后的所述波前函数以及所述第二参考光信息计算生成所述数字全息图。因为三维虚拟对象的波前函数具有不同的预设记录距离d(不同的预设记录距离d对应不同的层),因此将三维虚拟对象在不同预设记录距离下的波前函数进行叠加,再与参考光信息结合,形成全息图的过程就成为分层信息记录的过程。而全息再现时,只能在对应的再现距离d下,才能够清晰的再现出相应的再现像,这样就不会产生相应的干扰。

实施例3

附图3示出了根据实施例3的图像处理方法的流程图,如附图3所示,该方法包括:

S302:获取虚拟对象的多组三维信息;

S304:根据所述多组三维信息中的每一组分别生成数字全息图,从而生成数字全息图序列;以及

S306:将所生成的数字全息图序列以及与每个所述数字全息图对应的第一参考光信息作为数据流进行发送。

随着网络技术的发展,通过远程服务的方式提供虚拟现实服务将会成为一个趋势,尤其是提供虚拟现实的视频,由于虚拟现实需要提供左图像的视频以及右图像的视频,因此势必导致传输的数据量过大。

根据实施例3,在实施例1的基础上形成多个左右图像从而可以形成左右图像的视频流,极大地减少了需要传输的数量,有利于提供更加优质的服务。

实施例4

附图4示出了根据本申请实施例4的图像处理装置400的示意图。如图4所示,该图像处理装置400,包括:三维信息获取模块401,用于获取虚拟对象的多组三维信息;全息图生成模块402,用于根据所述多组三维信息中的每一组分别生成数字全息图,从而生成数字全息图序列;以及发送模块403,用于将所生成的数字全息图序列以及与每个所述数字全息图对应的第一参考光信息作为数据流进行发送。

参照实施例3所述,在实施例2的基础上形成多个左右图像从而可以形成左右图像的视频流,极大地减少了需要传输的数量,有利于提供更加优质的服务。

实施例5

附图5示出了根据本申请的实施例5的图像处理方法的流程图。如图5所示,所述图像处理方法包括:

S502:获取数据流,所述数据流包括数字全息图序列以及与所述数字全息图序列中的每个数字全息图对应的第一参考光信息;以及

S504:针对所述数字全息图序列中的每个数字全息图,结合对应的所述第一参考光信息,生成分别对应于左视点和右视点的左图像和右图像。

其中,实施例5是与实施例3对应的接收侧的图像处理方法。

实施例6

附图6示出了根据本申请的实施例6的图像处理装置600的流程图,如图6所示,所述图像处理装置包括:

获取模块601,用于获取数据流,所述数据流包括数字全息图序列以及与所述数字全息图序列中的每个数字全息图对应的第一参考光信息;以及

图像生成模块602,用于针对所述数字全息图序列中的每个数字全息图,结合对应的所述第一参考光信息,生成分别对应于左视点和右视点的左图像和右图像。

实施例7

图7示出了根据本申请实施例7的用于形成立体视觉的方法流程图。

如图7所示,所述方法包括:

S702,获取三维虚拟对象A。即用于虚拟现实时显示给用户的三维虚拟对象。其中,本实施例中的虚拟对象是指通过计算模拟产生的三维虚拟对象(而不是真实存在的物体),例如通过计算模拟产生的人体、物体等的三维立体对象。

S704,全息记录。即针对所述三维虚拟对象A进行全息记录产生数字全息图。例如通过菲涅耳衍射积分计算方法,得到三维虚拟对象A的波前复振幅函数(该函数包括物光的振幅和相位信息)。可选地,将所述三维虚拟对象A的不同层面的不同衍射距离(本文中,衍射距离与前面实施例所述的预设记录距离相对应,为同一距离在不同应用场景下的表述)下的波前复振幅信息进行叠加,将叠加的波前复振幅函数记录在同一张数字全息图中,从而对三维物体进行分层数字全息记录,完成三维信息获取。

S706,再现生成左右图像。即根据虚拟现实系统的视点需求,根据从所述左视点和右视点发出的光线照射到所述数字全息图时的入射角,基于生成所述数字全息图的参考光信息,生成与所有视点对应的左右图像,作为信息源输入虚拟现实系统中。

为便于理解,结合附图12简要解释关于步骤S702至步骤S706。如上面所述,三维虚拟对象A是一个通过模拟计算产生的三维虚拟对象,附图12中的步骤S1202对应于上述步骤S702,图12中的步骤S1204和S1206对应于上述的步骤704,并且图12中的步骤S1208对应于上述步骤S706。如图12所示,在步骤S1202,通过计算机C模拟计算产生关于小汽车的三维虚拟对象A,其中包括三维虚拟对象A的各个点的坐标(x,y,z)等数据。为了将三维虚拟对象A呈现给用户以形成虚拟现实的场景,需要生成显示三维虚拟对象A的左图像和右图像以分别显示到用户的左眼和右眼。为了获得上述左图像和右图像,在步骤S1204,计算机C针对三维虚拟对象A通过菲涅耳衍射积分计算方法计算其在衍射距离处的波前复振幅函数,即,模拟来自三维虚拟对象A的物光在衍射距离处的波前复振幅函数,其中该波前复振幅函数包含该物光的振幅和相位信息。可选的,由于三维虚拟对象A是立体的,因此对于其不同的层面,可以根据不同层面的衍射距离分别计算波前复振幅函数并进行叠加。然后在步骤S1206,计算机C根据所获得的三维虚拟对象A的波前复振幅函数,计算获得数字全息图。并且在步骤S1208,计算机C根据该数字全息图计算获得进行虚拟现实的左图像和右图像。其中,关于数字全息图以及左图像和右图像的产生和计算,将在后面结合附图8-10进行详细说明。需要注意的是,尽管为了简化说明,上述过程都是由相同的计算机C完成的,但是根据具体的实际情况,可以通过不同的计算装置分别完成上述的各个步骤。下面继续介绍附图7中的步骤。

S708,利用新生成的左右图像更新左右输入数据。

S710,利用更新后的左右输入数据进行左右画面的分屏显示。

S712,利用显示设备对左右眼的画面分别进行过滤,使得左眼画面只能由左眼看到以及所述右眼画面只能由右眼看到。

S714,用户在看到所述左右眼画面后形成立体的视觉。

可选地,实施例7还包括对全息图进行鲁棒性检测的流程,具体的,在全息记录(步骤S704)之后,在步骤S716对生成的数字全息图进行鲁棒性攻击,例如,对全息图进行裁剪、压缩以及施加噪声等处理。并且在步骤S718对进行鲁棒性攻击后的全息图进行再现,以进行鲁棒性判断。从而在通过鲁棒性检测后,在步骤S706,再现生成的左右图像。

下面结合图8中的效果图,来说明对三维虚拟对象A进行全息记录以及最终生成左图像和右图像的过程。

首先,在步骤S702获取三维虚拟对象A,如图8(a)所示。其中图8(a)示出了关于三维虚拟对象A(即泰迪熊)的图像。并且其中,图像大小为360×300,观测距离(本文中,观测距离与前面所述的衍射距离以及预设记录距离相对应,为同一距离在不同应用场景下的表述)为z。

然后,在步骤S704进行全息记录,即通过菲涅尔衍射积分方法,计算出三维虚拟对象A在观测距离z(即泰迪熊图像到全息图平面的距离)的波前函数OZ,包括振幅和相位信息。即,对泰迪熊图像进行距离为z的菲涅尔衍射积分运算,并根据预定的参考光信息,模拟与参考光的干涉而计算得到全息图,从而完成三维信息的记录。其中,图8(b)示出了设定从虚拟对象A反射的物光与参考光的夹角为30°时,计算生成的离轴全息图。

然后在步骤S706再现生成左右图像,根据模拟从所述左视点和右视点发出的光线照射到所述数字全息图时的入射角,基于生成所述数字全息图的参考光信息,计算生成与所有视点对应的左右图像。其中图8(c)是根据全息图图8(b),模拟参考光相对于全息图的入射角为15°时再现的与左视点对应的左图像,再现距离z=500mm(即从左视点到全息图的距离,与上述观测距离大小相同),大小为360×300。图8(d)是根据全息图图8(b),模拟参考光相对于全息图的入射角为45°时再现的与右视点对应图像,再现距离z=500mm(即从右视点到全息图的距离,与上述观测距离大小相同),大小为360×300。

进而在步骤S708,利用生成的左右图像图8(c)和图8(d),更新左右输入数据,并在步骤S710利用更新后的左右输入数据进行左右画面的分屏显示。并最终在步骤S714形成立体视觉。

下面结合图9中的效果图,说明对全息图进行的鲁棒性检测。

其中图9(a)是对全息图9(b)进行圆形裁剪攻击后的全息图。图9(b)是利用裁剪后的全息图再现的图像,其是模拟参考光相对于全息图的入射角为30°时再现的图像,其中的再现距离z=500mm;而图9(c)是根据全息图图9(a),模拟参考光相对于全息图的入射角为15°时再现的与左视点对应的左图像,再现距离z=500mm。图9(d)是根据全息图图9(a),模拟参考光相对于全息图的入射角为45°时再现的与右视点对应图像,再现距离z=500mm。

根据图9可以看出,本申请的方法具有非常好的鲁棒性。

生成全息图以及再现左右图像的具体算法及原理

下面说明本申请的用于生成全息图以及再现左右图像的具体算法及原理,并且以下记载的用于生成全息图以及再现左右图像的方法适用于前面任意一项实施例中的有关生成全息图以及再现左右图像的操作。

算法及原理

具体地,算法及原理一是通过菲涅耳衍射积分计算三维虚拟对象的波前复振幅函数,采用波前信息叠加的方法生成全息图,具体如下:

步骤1)计算从三维虚拟对象反射的物光的物光波前复振幅

首先,可以通过下述(公式1)计算衍射距离为d的物光波前复振幅函数:

其中,d为衍射距离,(x0,y0)为初始物波平面上与坐标x0和y0对应的点,O(x0,y0)为初始物波平面信息函数,U(x,y)为经过衍射距离为d的物光波前复振幅函数,λ为物光的波长,j为虚数单位,k为波数,x0、y0为原始物平面坐标,x、y为经过衍射距离d衍射的波前函数平面坐标。

然后,对(公式1)进行积分处理,将与积分变量无关的项提到积分号前,得到(公式2):

从上述(公式2)中可以看出,(公式2)是对做了一次傅里叶变换,然后,将变换结果再乘以一个二次相位因子,即就可以得到经衍射距离d衍射之后的物光波前复振幅。为了利用快速傅立叶变换FFT计算上式,可以F表示傅立叶变换,物平面取样宽度为L0,采样数为N×N,采样间距为Δx0=Δy0=L0/N,然后,将上述(公式2)改写为(公式3),即:

在(公式3)中,Δx=Δy是离散傅立叶变换后对应的空域采样间距,此时,根据傅立叶变换和离散傅立叶变换的关系,可以得到(公式4):其中,(公式4)中L为经衍射距离d的衍射图样采样范围。将(公式4)进行变换得到(公式5):

另一方面,根据奈奎斯特取样定理可知,当只有满足(公式6):所描述的条件时,离散计算结果才能近似满足奈奎斯特取样定理的衍射场。此时,物平面和衍射场平面的取样宽度相等,并且由(公式5)可知,此时物平面和衍射场宽度相等,即

因此,以上结果表明,如果保持物平面的取样间隔和观测区域不变,离散傅立叶变换计算结果在观测平面上的衍射图样取样范围L不仅是波长λ和取样数N的函数,并且会随着衍射距离d的增加而增加。当衍射距离很小时,如果取样数N保持不变,计算结果只能对应于观测平面上邻近光轴很小区域的衍射图像。

步骤2)根据全息原理对三维虚拟对象A进行全息制作,即模拟通过参考光干涉物光波前复振幅U(x,y),得到目标全息图IH(x,y),IH(x,y)包含了虚拟对象的三维信息(增幅和相位信息)。在本申请实施例中,可以通过下述(公式7)计算得到目标全息图,其中,R(x,y)表示参考光,U(x,y)表示经过衍射的物光波前复振幅函数(即,上述波前信息),R*(x,y)表示参考光共轭,U*(x,y)表示物光波前复振幅函数共轭。

步骤3)根据虚拟现实系统的视点需求,生成与左视点和右视点对应的左图像和右图像。即模拟不同的参考光入射角(即入射的参考光与全息图的法线的夹角),对全息图进行再现。当参考光为R(x,y),菲涅耳全息图为IH(x,y)时,再现的光场分布为:

式8)中,F为函数傅立叶变换符号,d为衍射距离,λ为波长,j为虚数单位,k为波数,(x,y)为经过衍射距离d衍射的波前函数生成的全息图平面坐标,(x′,y′)为经过参考光照射全息图生成的再现像平面坐标,(Δx′,Δy′)对应空域采样间距。下面,参考附图10所示对步骤3)做出具体说明。

首先,人眼的视场角范围是30度到100度,全息再现时,根据人眼视场角范围选择符合系统需求的左视点和右视点,并根据参考光设定与左视点和右视点对应的左视点再现参考光和右视点再现参考光。例如,设定再现时再现参考光入射角度为α,则再现参考光的表达式变为R(x,y)exp(jkxsinα)。根据公式(8),将次再现参考光表达式代入公式(8)中:

由公式(9)可以看出,入射角度只影响到了再现结果的相位信息。因此,选择两个不同的入射角度α,即选择出两个不同相位信息的再现参考光,从而在对应左右视点上,再现生成系统需要的左右图像。

上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。

在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。

在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元或模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,模块或单元的间接耦合或通信连接,可以是电性或其它的形式。

所述作为分离部件说明的单元或模块可以是或者也可以不是物理上分开的,作为单元或模块显示的部件可以是或者也可以不是物理单元或模块,即可以位于一个地方,或者也可以分布到多个网络单元或模块上。可以根据实际的需要选择其中的部分或者全部单元或模块来实现本实施例方案的目的。

另外,在本申请各个实施例中的各功能单元或模块可以集成在一个处理单元或模块中,也可以是各个单元或模块单独物理存在,也可以两个或两个以上单元或模块集成在一个单元或模块中。上述集成的单元或模块既可以采用硬件的形式实现,也可以采用软件功能单元或模块的形式实现。

所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。

以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1