本发明涉及一种基于3D摄像机的信息获取装置及方法。
背景技术:
3D摄像机,利用的是3D镜头制造的摄像机,通常具有两个摄像镜头以上,间距与人眼间距相近,能够拍摄出类似人眼所见的针对同一场景的不同图像。全息3D具有圆盘5镜头以上,通过圆点光栅成像或蔆形光栅全息成像可全方位观看同一图像,可如亲临其境。
第一台3D摄像机迄今3D革命全部围绕好莱坞重磅大片和重大体育赛事展开。随着3D摄像机的问世,这项技术距离家庭用户又近了一步。在这款摄像机推出以后,我们今后就可以用3D镜头捕捉人生每一个难忘瞬间,比如孩子迈出的第一步,大学毕业庆典等。
3D摄像机通常有两个以上镜头。3D摄像机本身的功能就像人脑一样,可以将两个镜头图像融合在一起,变成一个3D图像。这些图像可以在3D电视上播放,观众佩戴所谓的主动式快门眼镜即可观看,也可通过裸眼3D显示设备直接观看。3D快门式眼镜能够以每秒60次的速度令左右眼镜的镜片快速交错开关。这意味着每只眼睛看到的是同一场景的稍显不同的画面,所以大脑会由此以为其是在欣赏以3D呈现的单张照片。
现有的3D摄像机存在功能单一,应用范围较小的缺陷。
技术实现要素:
本发明要解决的技术问题是为了克服现有技术中3D摄像机存在功能单一,应用范围较小的缺陷,提供一种能够通过3D摄像机获取人体的影像,并根据影像获取拍摄目标的关注度,方便家长、教师对学生的学习状态进行掌握,提高学生学习效率的基于3D摄像机的信息获取装置及方法。
本发明是通过下述技术方案来解决上述技术问题:
一种基于3D摄像机的信息获取装置,其特点在于,所述信息获取装置包括若干3D摄像机以及一处理端,所述处理端包括一生成模块、一识别模块以及一获取模块,
所述3D摄像机用于获取一空间内拍摄目标的连续的3D影像;
所述生成模块用于根据同一时刻的3D影像生成3D模型;
所述识别模块用于识别3D模型中的人脸模型;
所述获取模块通过人脸模型获取拍摄目标关注目标对象的信息。
较佳地,所述信息包括关注时长,
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于获取人脸模型的方向在目标范围中的时长作为所述关注时长。
较佳地,所述信息获取装置还包括一麦克风,所述信息包括关注时长除以目标语音持续时长的值,
所述麦克风用于采集所述空间内的语音并通过声纹识别获取目标语音的持续时长;
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于在目标语音持续的情况下获取人脸模型的方向在目标范围中的时长作为所述关注时长。
较佳地,所述信息包括低头时长除以目标分贝持续时长的值,
所述麦克风用于采集所述空间内的语音并获取目标分贝的持续时长;
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于在目标分贝持续的情况下获取人脸模型的方向在低头范围中的时长作为所述低头时长。
较佳地,所述信息获取装置还包括一人眼追踪模块,
所述人眼追踪模块用于获取人脸模型中眼睛的方向;
所述获取模块还用于在眼睛的方向不变的持续时间大于预设时长时,在所述关注时长中减去所述持续时间作为最新的关注时长。
本申请还提供一种基于3D摄像机的信息获取方法,其特点在于,所述信息获取方法通过一信息获取装置实现,所述信息获取装置包括若干3D摄像机以及一处理端,所述信息获取方法包括:
所述3D摄像机获取一空间内拍摄目标的连续的3D影像;
所述处理端根据同一时刻的3D影像生成3D模型;
所述处理端识别3D模型中的人脸模型;
所述处理端通过人脸模型获取拍摄目标关注目标对象的信息。
较佳地,所述信息包括关注时长,所述信息获取方法包括:
所述处理端获取人脸模型的方向;
所述处理端获取人脸模型的方向在目标范围中的时长作为所述关注时长。
较佳地,所述信息获取装置还包括一麦克风,所述信息包括关注时长除以目标语音持续时长的值,所述信息获取方法包括:
所述麦克风采集所述空间内的语音并通过声纹识别获取目标语音的持续时长;
所述处理端获取人脸模型的方向;
所述处理端在目标语音持续的情况下获取人脸模型的方向在目标范围中的时长作为所述关注时长。
较佳地,所述信息包括低头时长除以目标分贝持续时长的值,所述信息获取方法包括:
所述麦克风用于采集所述空间内的语音并获取目标分贝的持续时长;
所述处理端获取人脸模型的方向;
所述处理端在目标分贝持续的情况下获取人脸模型的方向在低头范围中的时长作为所述低头时长。
较佳地,所述信息获取方法包括:
所述处理端获取人脸模型中眼睛的方向;
所述处理端在眼睛的方向不变的持续时间大于预设时长时,在所述关注时长中减去所述持续时间作为最新的关注时长。
在符合本领域常识的基础上,上述各优选条件,可任意组合,即得本发明各较佳实例。
本发明的积极进步效果在于:本发明的基于3D摄像机的信息获取装置及方法能够通过3D摄像机获取人体的影像,并根据影像获取拍摄目标的关注度,方便家长、教师对学生的学习状态进行掌握,提高学生的学习效率。
附图说明
图1为本发明实施例1的信息获取方法的流程图。
图2为本发明实施例2的信息获取方法的流程图。
图3为本发明实施例2的信息获取方法的另一流程图。
具体实施方式
下面通过实施例的方式进一步说明本发明,但并不因此将本发明限制在所述的实施例范围之中。
实施例1
本实施例提供一种基于3D摄像机的信息获取装置,所述信息获取装置包括若干3D摄像机、一处理端以及若干用户终端。
所述处理端包括一生成模块、一识别模块以及一获取模块。
所述3D摄像机用于获取一空间内拍摄目标的连续的3D影像。
所述生成模块用于根据同一时刻的3D影像生成3D模型。
所述处理端可以为手机、电脑或云端服务器。
所述3D摄像机用于获取一空间内拍摄目标的连续的3D影像。
所述连续的3D影像可以是每隔一预设间隔拍摄的3D影像,如每间隔0.1秒就获取一个3D影像。
3D影像具有连续性,时间性,能够记录拍摄目标的运动状态。
本实施例中,所述3D摄像机用于拍摄所述空间内拍摄目标的3D录像;
所述处理端以预设间隔在所述3D影像中截取若干3D影像。
所述生成模块用于根据同一时刻的3D影像生成3D模型。具体来说,所述生成模块用于对比相邻3D影像中的不同点并将不同点的3D影像生成所述3D模型。
所述3D模型可以是由一个3D摄像机拍摄的3D影像生成,也可以是多个3D摄像机同一时刻获取的3D影像拼接而成。
本实施例获取了多幅3D影像,3D影像具有拍摄时序,相邻是指时序上的相邻。
模型的具体通过拼接方式生成,所述生成模块用于识别同一时刻下3D影像上的像素层特征点,并将3D影像按相同像素层特征点重合的方式拼接以获取所述3D模型。
拍摄的影像中背景是静止的,而人体是运动的,通过对不同点的识别能够获取活动的影像,去除背景能够获取运动的3D模型。
运动的3D模型由一幅幅的单独模型组成,每一单独3D模型通过多张3D影像拼接而成。
所述识别模块用于识别3D模型中的人脸模型;
所述获取模块通过人脸模型获取拍摄目标关注目标对象的信息。
关注目标对象可以包括眼睛的注视方向以及瞳孔的变化,能够分析出用户的关注程度。
本实施例中,所述信息包括关注时长。所述处理端还包括一识别模块及一获取模块。
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于获取人脸模型的方向在目标范围中的时长作为所述关注时长。
所述信息获取装置还用于将所述信息向目标终端发送。即向家长汇报学生的听课状态。
利用上述信息获取装置,本实施例还提供一种信息获取方法,包括:
步骤100、所述3D摄像机获取一空间内拍摄目标的连续的3D影像;
步骤101、所述处理端根据同一时刻的3D影像生成3D模型;
步骤102、所述处理端识别3D模型中的人脸模型;
步骤103、所述处理端通过人脸模型获取拍摄目标关注目标对象的信息。
其中步骤103中的信息包括关注时长,所述关注时长通过处理端获取,具体为:
所述处理端获取人脸模型的方向在目标范围中的时长作为所述关注时长。
本实施例的基于3D摄像机的信息获取装置及方法能够通过3D摄像机获取人体的影像,并根据影像获取拍摄目标的关注度,方便家长、教师对学生的学习状态进行掌握,提高学生的学习效率。
实施例2
本实施例与实施例1基本相同,不同之处仅在于:
所述信息获取装置还包括一麦克风,所述信息包括关注时长除以目标语音持续时长的值。
所述麦克风用于采集所述空间内的语音并通过声纹识别获取目标语音的持续时长;
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于在目标语音持续的情况下获取人脸模型的方向在目标范围中的时长作为所述关注时长。
所述信息还包括低头时长除以目标分贝持续时长的值,
所述麦克风用于采集所述空间内的语音并获取目标分贝的持续时长;
所述识别模块还用于获取人脸模型的方向;
所述获取模块还用于在目标分贝持续的情况下获取人脸模型的方向在低头范围中的时长作为所述低头时长。
所述信息获取装置还包括一人眼追踪模块,
所述人眼追踪模块用于获取人脸模型中眼睛的方向;
所述获取模块还用于在眼睛的方向不变的持续时间大于预设时长时,在所述关注时长中减去所述持续时间作为最新的关注时长。
在老师讲课时,通过采集学生的人脸方向,能够更加准确的获取所述信息;而在自习、考试的时候通过采集人脸低头时长能够检测学生的认真程度并能够辅助监考。
通过对人眼追踪能够识别出学生愣神、发呆的时长,并从关注时长中减去所述发呆时长,进一步提高所述信息的准确度。
参见图2,利用上述信息获取装置,本实施例还提供一种信息获取方法,包括:
步骤200、所述麦克风采集所述空间内的语音并通过声纹识别获取目标语音的持续时长;
步骤201、所述处理端获取人脸模型的方向;
步骤202、所述处理端在目标语音持续的情况下获取人脸模型的方向在目标范围中的时长作为所述关注时长。
参见图3,所述信息获取方法还包括:
步骤300、所述麦克风用于采集所述空间内的语音并获取目标分贝的持续时长;
步骤301、所述处理端获取人脸模型的方向;
步骤302、所述处理端在目标分贝持续的情况下获取人脸模型的方向在低头范围中的时长作为所述低头时长。
步骤200至202以及步骤300至302都是实施例1步骤103的细化,为了进一步限定所述信息。步骤200至202以及步骤300至302可以通过麦克风采集的音量、声纹做出相应的判断,如检测出目标语音则执行步骤200,若检测分贝低于预设值(即处于目标分贝的范围内)则执行步骤300。
其中,步骤202可以进一步改进为:
所述处理端获取人脸模型中眼睛的方向;
所述处理端在眼睛的方向不变的持续时间大于预设时长时,在所述关注时长中减去所述持续时间作为最新的关注时长。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这些仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。