基于增强现实的三维显示方法和增强现实眼镜的制作方法_2

文档序号:8907864阅读:来源:国知局
标物体;然后,采用SIFT (Scale-1nvariantfeature transform,尺度不变特征变换)匹配算法对所述目标物体进行追踪。并利用所述双目立体摄相头主动射出的红外光往返的相位差来测量所述目标物体的视差信息,根据所述视差信息获取所述目标物体的深度信息和三维坐标,根据所述目标物体的三维坐标,对所述目标物体进行三维重构。其中,视差信息就是从有一定距离的两个点上观察同一个目标所产生的方向差异。深度信息是指存储每个像素所用的位数,也用于量度图像的色彩分辨率。
[0048]步骤S200、将与所述目标物体对应的增强现实场景分别叠加到所述左右图像对上。
[0049]增强现实眼镜在增强现实交互环境中,预先构建与所述目标物体对应的虚拟现实场景,例如,根据所述目标物体的运动状况,构建与所述运动状况相匹配的增强现实运动项目场景,如所述增强现实眼镜追踪到所述目标在跑步时,则构建与所述跑步项目相适配的增强现实跑步机。并将所述构建的增强现实场景预先保存在增强现实数据库中,以便感知到所述目标物体的运动状况时,及时调用增强现实数据库中事先保存的增强现实场景。同时将增强现实场景分别叠加到双目立体摄像头获取的所述左右图像对上。
[0050]步骤S300、对所述叠加的左右图像对进行分屏显示,并将所述分屏显示的左右图像对相应投射到左右目镜上。
[0051]增强现实眼镜通过左右屏幕对所述左右图像对进行分屏显示,并将所述分屏显示的左右图像对相应投射到左右目镜上,例如,将左屏幕画面上的图像投射到左目镜上,将右屏幕画面上的图像投射到右目镜上,从则使每个眼睛看到独立的左右画面,形成立体视觉。
[0052]本实施例提出的基于增强现实的三维显示方法,通过采用双目立体摄像头从两个不同的视点获取目标物体在不同视角下的左右图像对;将与所述目标物体对应的增强现实场景分别叠加到所述左右图像对上;对所述叠加的左右图像对进行分屏显示,并将所述分屏显示的左右图像对相应投射到左右目镜上。虚实融合效果好、且易于携带。
[0053]如图2所示,图2为图1中所述步骤SlOO第一实施例的细化流程示意图,在本实施例中,所述步骤SlOO包括:
[0054]步骤S110、利用背景差分法和帧间差分法相结合提取出所述左右图像对中的所述目标物体。
[0055]增强现实眼镜利用背景差分法和帧间差分法相结合提取出所述左右图像对中的所述目标物体,其中,帧间差分法是利用图像序列中相邻帧图像之间做差来提取出所述左右图像对中的运动区域。首先将数帧图像校正在同一坐标系中,然后将同一背景不同时刻的两幅图像进行差分运算,灰度不发生变化的背景部分被减掉,由于运动目标在相邻两帧中的位置不同,且与背景灰度有所差异,两帧相减后将所述目标物体突现出来,从而大致确定所述目标物体在所述左右图像对中的位置。背景差分法是利用图像序列和参考背景模型相减实现所述目标物体检测的。背景差分法能够提供较为完整的特征数据从而提取出所述左右图像对的所述目标物体,但其对光照和外部条件造成的动态场景变化过于敏感,在非受控情部下需要加入背景图像更新机制,且不是用于与双目立体摄像头运动,或背景灰度变化较大的情况。在本实施例中,首先根据帧间差分法确定运动区域,然后在确定的运动区域内采用背景差分法和帧间差分法对所述目标物体进行提取,从而大大提高了所述目标物体识别的效率。
[0056]步骤S120、采用尺度不变特征变换匹配算法对所述目标物体进行追踪。
[0057]增强现实眼镜米用SIFT (Scale-1nvariant feature transform,尺度不变特征变换匹配)算法对所述目标物体进行追踪。其主要思想是建立目标库,将所述左右图像对第一帧中的所述目标物体提取出来,进行SIFT变换后将特征数据库存入目标数据库中,每个数据库包括目标标号、质心坐标、目标坐标块以及SIFT信息。每个目标的特征信息又包括特征点坐标、特征向量以及特征向量对应的留存优选级。然后以目标库为中介,与第二帧中目标SIFT特征信息进行匹配,找到前后二帧的关联性,确定所述目标物体的位置及轨迹,然后利用库中目标与第二帧目标的匹配关系,采用特定策略更新、淘汰目标库信息。之后再以目标库为中介继续对后续帧进行处理。SIFT算法分为匹配和更新两个过程。匹配过程通过二个目标特征的匹配概率,找出前后两帧相同的目标,对目标进行关联。更新过程则是在匹配的基础上对目标库进行补充与更新,确保目标库信息与最近几帧目标保持相似性,以保证识别的正确性。
[0058]本实施例提出的基于增强现实的三维显示方法,采用双目立体摄像头从两个不同的视点获取目标物体在不同视角下的左右图像对;并采用尺度不变特征变换匹配算法对所述目标物体进行追踪,从而快速保证目标物体识别的正确性,提升识别的效率和准确性。
[0059]如图3所示,图3为图1中所述步骤SlOO第二实施例的细化流程示意图,在本实施例中,所述步骤SlOO包括:
[0060]步骤S130、通过所述双目立体摄像头从两个不同的视点获取所述目标物体在不同视角下的倒立的图像对。
[0061]增强现实眼镜通过所述双目立体摄像头从两个不同的视点对所述目标物体进行观察,通过双目立体摄像头的小孔成像原理,在感光元件上成像,获取所述目标物体在不同视角下的倒立的图像对。
[0062]步骤S140、对所述倒立的图像对进行翻转处理,转化为正立的图像对。
[0063]增强现实眼镜对所述倒立的图像通过光电转换,将所述倒立的图像对的光学图像转换为电信号,并对所述倒立的图像对进行翻转处理,转化为正立的图像对。
[0064]本实施例提出的基于增强现实的三维显示方法,通过所述双目立体摄像头从两个不同的视点获取所述目标物体在不同视角下的倒立的图像对,并对所述倒立的图像对进行翻转处理,转化为正立的图像对,以符合人们观察目标物体的视觉习惯,从而获得更好的视觉效果。
[0065]如图4所示,图4为图1中所述步骤SlOO第三实施例的细化流程示意图,在本实施例中,所述步骤SlOO包括:
[0066]步骤S150、利用所述双目立体摄相头主动射出的红外光往返的相位差来测量所述目标物体的视差信息。
[0067]增强现实眼镜利用所述双目立体摄相头主动射出的红外光往返的相位差来测量所述目标物体的视差信息。将反光镜放置在所述目标物体上,分别对双目立体摄相头主动射出的红外光进行幅度调制,并测定调制光往返双目立体摄相头与目标物体之间一次所产生的相位延迟,再根据调制光的波长,换算此两个相位延迟所代表的距离,再对换算的两个距离作差,获取所述目标物体的视差信息。
[0068]步骤S160、根据所述视差信息获取所述目标物体的三维坐标,根据所述目标物体的三维坐标,对所述目标物体进行三维重构。
[0069]增强现实眼镜根据所述视差信息,从而获取所述增强现实眼镜的深度信息和所述目标物体特征点的三维坐标,并根据所述目标物体特征点的三维坐标,对所述目标物体进行三维重构。
[0070]本实施例提出的基于增强现实的三维显示方法,利用所述双目立体摄相头主动射出的红外光往返的相位差来测量所述目标物体的视差信息,并根据所述视差信息获取所述目标物体的三维坐标,根据所述目标物体的三维坐标
当前第2页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1