3D互动方法及系统与流程

文档序号:17430735发布日期:2019-04-17 03:27阅读:506来源:国知局
3D互动方法及系统与流程

本发明属于立体图像处理领域,尤其涉及3d互动方法及系统。



背景技术:

传统的三维图像播映方式为:通过投影设备将图像投放到屏幕上,观看者戴上立体眼镜即可观看到屏幕上的三维图像。但是,这种方式无法根据观看者位置的变化,自适应调节屏幕上的三维图像位置,尤其是在移动终端如pad,智能手机上进行立体图像视频播放时,无法进行终端播放位置的校准,也无法实现与用户的交互。



技术实现要素:

为解决现有技术的不足,本发明的目的在于提供一种3d互动方法及系统,该方法能够实现对移动终端或投放屏幕播放位置的自动校准,并能够基于用户行为进行交互。

为了实现上述目标,本发明采用如下的技术方案:

一种3d互动方法,包括以下步骤:s1,获取用户的位置,并基于用户位置获取用户距离屏幕的距离;s2,基于预先设定的用户距离屏幕的距离与视差的关系,获取当前用户距离屏幕的距离对应的视差;s3,基于所述视差,将当前投放屏幕或移动终端屏幕上播放的视频或图像数据生成两张图像,该两张图像分别对应于左眼图像、右眼图像;s4,将所述左眼图像、右眼图像同时播放在投放屏幕或移动终端屏幕上,从而使得用户能够观看到立体视频;s5,在固定间隔对用户的位置进行检测,重新获取用户的位置,从而能够基于用户的位置的变化自动调节所述视差;其中,当利用移动终端播放所述图像时,获取当前用户距离屏幕的距离对应的视差还包括:利用移动终端摄像头获取用户的图像,利用人脸识别的方式识别两只眼睛的位置,并获取两只眼睛的中点,将该点对移动终端的几何中心进行校准,重新获取用户的位置还包括重新获取用户眼睛的位置,并进行移动终端的几何中心进行校准;从而使得移动终端在播放左眼图像和右眼图像时,能够针对特定的人自适应调节视差。

所述方法进一步包括:步骤s6,利用深度摄像机实现对用户位置的追踪、标记,利用图像处理的方法提取用户的姿势信息,利用所述姿势信息控制播放内容的改变。

相应的,本申请还包括一种3d互动系统,该系统包括:位置获取模块,获取用户的位置,并基于用户位置获取用户距离屏幕的距离;视差获取模块,基于预先设定的用户距离屏幕的距离与视差的关系,获取当前用户距离屏幕的距离对应的视差;图像生成模块,基于所述视差,将当前投放屏幕或移动终端屏幕上播放的视频或图像数据生成两张图像,该两张图像分别对应于左眼图像、右眼图像;图像播放模块,将所述左眼图像、右眼图像同时播放在投放屏幕或移动终端屏幕上,从而使得用户能够观看到立体视频;自适应调节模块,在固定间隔对用户的位置进行检测,重新获取用户的位置,从而能够基于用户的位置的变化自动调节所述视差;其中,当利用移动终端播放所述图像时,获取当前用户距离屏幕的距离对应的视差还包括:利用移动终端摄像头获取用户的图像,利用人脸识别的方式识别两只眼睛的位置,并获取两只眼睛的中点,将该点对移动终端的几何中心进行校准,重新获取用户的位置还包括重新获取用户眼睛的位置,并进行移动终端的几何中心进行校准;从而使得移动终端在播放左眼图像和右眼图像时,能够针对特定的人自适应调节视差。

所述系统进一步包括:互动模块,利用深度摄像机实现对用户位置的追踪、标记,利用图像处理的方法提取用户的姿势信息,利用所述姿势信息控制播放内容的改变。

本发明的有益之处在于:可以自适应的基于用户的个体特征、位置特征进行3d图像播放的校准,并可以基于深度信息进行用户位置的识别、追踪,实现用户与播放内容互动,提高立体播放的娱乐效果,并可在游戏等领域中,基于用户动作实现操作控制,提高易用性。

附图说明

图1是本发明所述3d交互方法流程示意图。

具体实施方式

以下结合附图对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。

如图1所示:该3d交互方法包括以下步骤:

s1,获取用户的位置,并基于用户位置获取用户距离屏幕的距离;

s2,基于预先设定的用户距离屏幕的距离与视差的关系,获取当前用户距离屏幕的距离对应的视差;

s3,基于所述视差,将当前投放屏幕或移动终端屏幕上播放的视频或图像数据生成两张图像,该两张图像分别对应于左眼图像、右眼图像;

在具体实现中,例如对现有的一张图像,其可以基于视差生成对应于左眼视觉的左眼图像和对应于右眼视觉的右眼图像。

s4,将所述左眼图像、右眼图像同时播放在投放屏幕或移动终端屏幕上,从而使得用户能够观看到立体视频;

s5,在固定间隔对用户的位置进行检测,重新获取用户的位置,从而能够基于用户的位置的变化自动调节所述视差;

其中,当利用移动终端播放所述图像时,获取当前用户距离屏幕的距离对应的视差还包括:利用移动终端摄像头获取用户的图像,利用人脸识别的方式识别两只眼睛的位置,并获取两只眼睛的中点,将该点对移动终端的几何中心进行校准,重新获取用户的位置还包括重新获取用户眼睛的位置,并进行移动终端的几何中心进行校准;从而使得移动终端在播放左眼图像和右眼图像时,能够针对特定的人自适应调节视差。

所述方法进一步包括:

步骤s6,利用深度摄像机实现对用户位置的追踪、标记,利用图像处理的方法提取用户的姿势信息,利用所述姿势信息控制播放内容的改变。

相应的,本申请还包括一种3d互动系统,该系统包括:

位置获取模块,获取用户的位置,并基于用户位置获取用户距离屏幕的距离;

视差获取模块,基于预先设定的用户距离屏幕的距离与视差的关系,获取当前用户距离屏幕的距离对应的视差;

图像生成模块,基于所述视差,将当前投放屏幕或移动终端屏幕上播放的视频或图像数据生成两张图像,该两张图像分别对应于左眼图像、右眼图像;

图像播放模块,将所述左眼图像、右眼图像同时播放在投放屏幕或移动终端屏幕上,从而使得用户能够观看到立体视频;

自适应调节模块,在固定间隔对用户的位置进行检测,重新获取用户的位置,从而能够基于用户的位置的变化自动调节所述视差;

其中,当利用移动终端播放所述图像时,获取当前用户距离屏幕的距离对应的视差还包括:利用移动终端摄像头获取用户的图像,利用人脸识别的方式识别两只眼睛的位置,并获取两只眼睛的中点,将该点对移动终端的几何中心进行校准,重新获取用户的位置还包括重新获取用户眼睛的位置,并进行移动终端的几何中心进行校准;从而使得移动终端在播放左眼图像和右眼图像时,能够针对特定的人自适应调节视差。

所述系统进一步包括:

互动模块,利用深度摄像机实现对用户位置的追踪、标记,利用图像处理的方法提取用户的姿势信息,利用所述姿势信息控制播放内容的改变。

具体的,例如在游戏操作时,由于深度摄像机可以获取用户的深度信息,提取用户的姿势,对用户进行识别、追踪,如识别腿部姿势为走路时,可认为该用户在移动,对应的,3d播放对象也实现走动等效果,在识别用户单手举起时,播放对象中可以单手举起,以表示举手表决等动作。

本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、rom、ram、磁碟或者光盘等各种存储程序代码的介质。

以上结合附图详细描述了本发明的优选实施方式,但是,本发明并不限于此。在本发明的技术构思范围内,可以对本发明的技术方案进行多种简单变型,为了避免不必要的重复,本发明对各种可能的组合方式不再另行说明。但这些简单变型和组合同样应当视为本发明所公开的内容,均属于本发明的保护范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1