位姿识别方法、装置、存储介质及电子设备与流程

文档序号:33290645发布日期:2023-02-28 19:23阅读:47来源:国知局
位姿识别方法、装置、存储介质及电子设备与流程

1.本技术涉及图像处理技术领域,具体涉及一种位姿识别方法、装置、存储介质及电子设备。


背景技术:

2.物体的位姿体现了物体的空间位置和姿态,在空间定位、三维建模等诸多方面需要识别物体的位姿。
3.一般地,通过在电子设备上安装红外摄像头以发射红外光至物体上,而物体上设置有红外反光点以反射红外光,红外摄像头通过捕捉反射的红外光以确定物体的位姿。
4.但通过安装红外摄像头以及红外反光点的方式会造成电子设备的造价昂贵,不利于节省生产成本。


技术实现要素:

5.本技术实施例提供一种位姿识别方法、装置、存储介质及电子设备,能够节省识别物体位姿时所需的成本。
6.第一方面,本技术实施例提供一种位姿识别方法,应用于电子设备,方法包括:
7.获取电子设备和外部设备对待识别对象同步拍摄得到的第一图像和第二图像,第一图像和第二图像的拍摄角度不同;
8.根据第一图像和第二图像,获取待识别对象的深度信息;
9.根据深度信息对待识别对象进行三维建模,得到待识别对象的三维模型;
10.根据三维模型确定待识别对象的当前对象位姿。
11.第二方面,本技术实施例还提供一种位姿识别装置,包括:
12.图像获取模块,用于获取电子设备和外部设备对待识别对象同步拍摄得到的第一图像和第二图像,第一图像和第二图像的拍摄角度不同;
13.深度计算模块,用于根据第一图像和第二图像,获取待识别对象的深度信息;
14.三维建模模块,用于根据深度信息对待识别对象进行三维建模,得到待识别对象的三维模型;
15.位姿识别模块,用于根据三维模型确定待识别对象的当前对象位姿。
16.第三方面,本技术实施例还提供一种计算机可读存储介质,其上存储有计算机程序,当计算机程序在计算机上运行时,使得计算机执行如本技术任一实施例提供的位姿识别方法。
17.第四方面,本技术实施例还提供一种电子设备,包括处理器和存储器,存储器有计算机程序,处理器通过调用计算机程序,用于执行如本技术任一实施例提供的位姿识别方法。
18.本技术实施例提供的技术方案,通过基于电子设备自带的摄像头以及一个外部设备的摄像头对待识别对象进行同步拍摄,且外部设备将其拍摄的第二图像传输至电子设备
进行图像处理。其中,电子设备通过分析其拍摄的第一图像以及外部设备拍摄的第二图像,得到待识别对象的深度信息,深度信息能够表述待识别对象与电子设备之间的相对位置。之后,基于待识别对象的二维图像和深度信息进行三维建模,以得到待识别对象的三维模型,进而可以基于三维模型识别待识别对象的位姿。相比于现有技术而言,本技术的方法并不需要使用红外摄像头,且不需要在待识别对象上设置红外反光点,能够降低识别待识别对象的位姿所耗用的设备成本。且本技术的方法灵活易用,能够适用于各类场合中以识别物体的位姿,以及对物体进行位姿追踪。
附图说明
19.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
20.图1为本技术实施例提供的位姿识别系统的示意图。
21.图2为本技术实施例提供的位姿识别方法的流程示意图。
22.图3为本技术实施例提供的位姿识别方法中根据第一图像和第二图像确定待识别对象的深度信息的示意图。
23.图4为本技术实施例提供的位姿识别方法中根据当前相机位姿对初始图像位姿进行修正的示意图。
24.图5为本技术实施例提供的位姿识别装置的结构示意图。
25.图6为本技术实施例提供的电子设备的结构示意图。
具体实施方式
26.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本技术的保护范围。
27.在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本技术的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
28.相关技术中为识别待识别对象的位姿,涉及到要求电子设备具有相关的组件以支持位姿识别功能,但此种方式会造成电子设备的造价昂贵,或者电子设备的体积较大不易灵活地使用在各类场景中。
29.为解决相关技术中所涉及的技术问题,本技术实施例提供了一种位姿识别方法、装置、存储介质及电子设备。该位姿识别方法的执行主体可以是本技术实施例提供的位姿识别装置,或者集成了该位姿识别装置的电子设备,其中该位姿识别装置可以采用硬件或者软件的方式实现。其中,该电子设备可以是智能手机、折叠屏手机、平板电脑、掌上电脑、笔记本电脑、摄像头、摄像机、相机、车载终端等具有拍摄功能的设备。
30.在介绍本技术实施例提供的位姿识别方法之前,此处先提供一个系统,具体请参阅图1,图1为本技术实施例提供的位姿识别系统的示意图。该位姿识别系统包括两个具有拍摄功能的设备,其中一个称为电子设备,另一个称为外部设备,其中,电子设备和外部设备是相对而言的。比如,以移动终端和车载终端为例,在将移动终端作为电子设备时,车载终端作为外部设备,在将车载终端作为电子设备时,移动终端作为外部设备。以下实施例中则以移动终端作为电子设备、车载终端作为外部设备为例对本技术实施例提供的位姿识别方法进行介绍。
31.其中,移动终端和车载终端通信连接,两者能够进行数据传输。在实施本技术实施例提供的位姿识别方法时,可以通过控制移动终端和车载终端同步对待识别对象进行拍摄,以得到移动终端拍摄的第一图像和车载终端拍摄的第二图像。之后,选择移动终端或者车载终端其中之一处理第一图像和第二图像以得到待识别对象的位姿。
32.具体地,本技术实施例还在设置有上述车载终端的车辆上设置了支架,其中,支架与车载终端之间呈一定角度,该角度可以预先设定为固定角度,在将移动终端搭载在支架上时,移动终端与车载终端之间呈固定拍摄夹角以进行同步拍摄。当然地,支架与车载终端之间的角度还可以根据需求调整,比如,已知支架的初始角度,在调整支架的角度过程中可以根据变更的角度和初始角度得到支架的变更后角度。具体地,预先为支架设置多个角度,在实际拍摄时,用户可以选择性地切换支架的角度。可以理解地,在支架与车载终端之间的角度可变更时,移动终端与车载终端之间的拍摄夹角相应变更,从而对车辆内部的物体进行选择性拍摄,提高了拍摄视角的同时也提高了拍摄的灵活性。
33.在以下实施例中则进一步介绍本技术实施例提供的位姿识别方法。请参阅图2,图2为本技术实施例提供的位姿识别方法的流程示意图。本技术实施例提供的位姿识别方法的具体流程可以如下:
34.101、获取电子设备和外部设备对待识别对象同步拍摄得到的第一图像和第二图像,第一图像和第二图像的拍摄角度不同。
35.其中,可以设置电子设备和外部设备进行同步拍摄,以得到相同拍摄时刻对待识别对象拍摄的图像,其中,电子设备拍摄的图像称为第一图像,相同拍摄时刻外部设备拍摄的图像称为第二图像。
36.示例性地,设置电子设备和外部设备进行同步拍摄的方式有多种,比如,基于电子设备和外部设备其中之一发送同步拍摄信号以使得两者的拍摄帧率相同,且拍摄开始时间相同。或者,通过电子设备和外部设备分别对其拍摄的第一图像和第二图像添加时间戳,以使得电子设备和外部设备同步拍摄,由于控制两者进行同步拍摄的方式有多种,此处不再逐一列举。
37.其中,电子设备和外部设备所处的空间方位之间呈拍摄夹角,在进行拍摄时,电子设备和外部设备以不同拍摄视角对待识别对象进行拍摄。
38.本实施例中,待识别对象可以为当前拍摄场景中的所有人或物。也可以为特定的人或物,比如,电子设备和外部设备可以对人进行追踪拍摄。
39.以上述车载终端为例,在通过车载终端和移动终端进行拍摄时,拍摄场景为拍摄车辆内部空间的内容。其中,车辆内部空间的内容可以称为待识别对象,车辆内部的驾驶者可以称为待识别对象,车辆内部的乘客也可以称为待识别对象,具体可根据实际需求选择,
此处并不进行限定。
40.102、根据第一图像和第二图像,获取待识别对象的深度信息。
41.其中,根据第一图像和第二图像获取待识别对象的深度信息的方式可比如为:将第一图像和第二图像发送至服务器进行处理以得到待识别对象的深度信息,或者,有电子设备进行本地处理以得到待识别对象的深度信息。
42.在拍摄待识别对象时,电子设备和外部设备之间具有相应的拍摄夹角,且该拍摄夹角已知,在已知拍摄夹角的前提下,可以根据电子设备和外部设在待识别对象上的交点,并根据交点至电子设备的距离得到待识别对象的深度信息。其中,待识别对象的深度信描述待识别对象至电子设备之间的距离。
43.示例性地,可以通过对第一图像和第二图像进行分析以确定电子设备和外部设备在待识别对象上的交点。其中,第一图像和第二图像均包含待识别对象,通过对待识别对象在第一图像和第二图像上的像素坐标进行分析,从而可以确定电子设备和外部设备在待识别对象上的交底,以此得到待识别对象的深度信息。
44.103、根据深度信息对待识别对象进行三维建模,得到待识别对象的三维模型。
45.其中,第一图像和第二图像能够表述待识别对象在二维空间的位置信息,通过加入待识别对象的深度信息进行分析可以得到待识别对象在三维空间的位置信息,进而,通过三维建模的方式得到待识别对象的三维模型。
46.示例性地,可以根据第一图像和第二图像得到待识别对象在二维空间内x轴和y轴的位置坐标,然后将待识别对象的深度信息作为z轴的位置坐标,从而基于相机坐标系和世界坐标系之间的转换关系,得到待识别对象在三维空间的位置坐标。
47.其中,根据待识别对象在三维空间的位置坐标可以组成待识别对象的三维模型,该三维模型描述了构成待识别对象的像素点在三维空间的位置分布。
48.104、根据三维模型确定待识别对象的当前对象位姿。
49.在构建待识别对象的三维模型之后,即可根据三维模型的得到待识别对象的当前对象位姿,其中,三维模型能够体现待识别对象的空间位置、方位以及姿态。
50.具体实施时,本技术不受所描述的各个步骤的执行顺序的限制,在不产生冲突的情况下,某些步骤还可以采用其它顺序进行或者同时进行。
51.由上可知,本技术实施例提供的位姿识别方法,通过呈拍摄角度的电子设备和外部设备对待识别对象进行同步拍摄以得到待识别对象的第一图像和第二图像,之后基于第一图像、第二图像和拍摄角度分析待识别对象在三维空间的位置坐标,从而基于该位置坐标构建待识别对象的三维模型,以通过三维模型展示待识别对象的当前对象位姿,能够通过经济的手段识别待识别对象的位姿,且该方法能够灵活地应用在各类场景中,比如应用于驾驶场景中可以对车辆内部的待识别对象进行位姿识别。再者,本技术实施例提供的位姿识别方法还可以灵活地更换电子设备以与外部设备组成位姿识别系统对待识别对象进行位姿识别,其使用方式更加灵活且应用更为广泛。
52.在一些实施例中,根据第一图像和第二图像,获取待识别对象的深度信息,包括:
53.确定待识别对象的特征点在第一图像中的第一坐标,以及在第二图像中的第二坐标;
54.根据第一坐标、第二坐标以及电子设备与外部设备之间的拍摄夹角,通过三角化
算法确定特征点的像素深度;
55.基于特征点的像素深度确定待识别对象的深度信息。
56.请参阅图3,图3为本技术实施例提供的位姿识别方法中根据第一图像和第二图像确定待识别对象的深度信息的示意图。图中左侧显示电子设备和电子设备拍摄的第一图像,用o1表示电子设备。右侧显示外部设备和外部设备拍摄的第二图像,用o2表示外部设备。待识别对象有多个特征点,以其中一个特征点为例,该特征点在第一图像中的第一坐标以p表示,在第二图像中的第二坐标以p'表示,其中,第一坐标和第二坐标均指示像素位置。而电子设备和外部设备之间的拍摄夹角已知,以r表示该拍摄夹角。根据第一坐标、第二坐标和拍摄夹角,基于三角化算法确定出该特征点的像素深度。其中,该特征点的像素深度描述该特征点在空间的位置,以t表示空间的位置。
57.其中,待识别对象的特征点的最小单元可以为像素点,通过对待识别对象的每一特征点进行分析,以得到各特征点的像素深度,而所有特征点的像素深度构成待识别对象的深度信息。
58.在一些实施例中,根据三维模型确定待识别对象的当前对象位姿,包括:
59.根据三维模型确定待识别对象的初始图像位姿;
60.获取待识别对象的历史对象位姿;
61.根据历史对象位姿对初始图像位姿进行修正,得到当前对象位姿。
62.本实施例中,将根据三维模型得到的位姿确定为初始图像位姿,之后还通过历史对象位姿对初始图像位姿进行修正处理,以对初始图像位姿进行纠偏,得到当前对象位姿。
63.示例性地,通过电子设备和外部设备对待识别对象进行连续拍摄,可以得到连续的第一图像的图像序列和连续的第二图像的图像序列,根据相同拍摄时刻得到的第一图像和第二图像即可构建待识别对象在该拍摄时刻的三维模型,进而根据三维模型得到该拍摄时刻的对象位姿。其中,将当前拍摄时刻之前所得到的对象位姿均称为历史对象位姿。
64.本实施例中,可以获取上一拍摄时刻的对象位姿作为历史对象位姿,也可以获取当前拍摄时刻之前的预设时长内的两个或多个对象位姿作为历史对象位姿。
65.其中,根据历史对象位姿对初始图像位姿进行修正的方式有多种,可比如为:根据历史对象位姿推断当前拍摄时刻的待识别对象的位置和姿态的变化幅度,以对初始图像位姿进行修正。再比如为:基于历史对象位姿体现的关键点之间的连接关系对初始图像位姿体现的关键点之间的连接关系进行修正。
66.本实施例通过基于历史对象位姿对当前图像位姿进行修正处理,以实现对初始图像位姿的纠偏,使得修正处理后得到的当前对象位姿更加准确。
67.在一些实施例中,根据历史对象位姿对初始图像位姿进行修正,得到当前对象位姿,包括:
68.根据历史对象位姿对初始图像位姿进行修正,得到当前图像位姿;
69.获取电子设备的当前相机位姿;
70.根据当前相机位姿对当前图像位姿进行修正,得到当前对象位姿。
71.本实施例中,将根据历史对象位姿对初始图像位姿进行修正后的位姿称为当前图像位姿,之后,还结合电子设备的当前相机位姿对当前图像位姿进行修正。
72.具体地,通过上述提及的方式获取到待识别对象的历史对象位姿之后,基于历史
对象位姿对初始图像位姿进行修正,以得到当前图像位姿。之后,结合电子设备的当前相机位姿对当前图像位姿进行修正。其中,通过当前相机位姿对当前图像位姿进行修正能够减小因倾斜对待识别对象进行拍摄造成的误差。
73.比如,在电子设备倾斜对驾驶者进行拍摄时,电子设备与驾驶者之间具有拍摄偏差角,使得的第一图像中所显示的驾驶者图像并非为正投影图像,在通过第一图像构建待识别对象的三维模型时会影响三维模型的精度。
74.示例性地,在根据当前相机位姿对当前图像位姿进行修正时,即可通过当前相机位姿相对于待识别对象所在平面的拍摄偏差角,以根据拍摄偏差角对当前图像位姿进行修正。具体地,可参阅图4,图4为本技术实施例提供的位姿识别方法中根据当前相机位姿对初始图像位姿进行修正的示意图。其中,电子设备与待识别对象之间的拍摄偏差角表示为a,在根据当前相机位姿得到拍摄偏差角a之后,即可得到待识别对象的正投影,进而根据正投影对初始图像位姿进行修正,其中,修正方式为根据正投影对初始图像位姿进行纠偏,使得当前对象的投影和该正投影重合,从而完成对初始图像位姿的修正处理。
75.本技术实施例通过基于电子设备的当前相机位姿对当前图像位姿进行修正,能够实现对三维模型进行仿射变换处理,纠正三维模型表述的待识别对象的位姿偏差,从而得到尺度、投影视角更加准确的当前对象位姿。
76.如上,通过历史对象位姿对初始图像位姿进行修正时,还可采用pnp(perspective-n-point)方法,pnp方法是求解3d到2d点对运动的方法,目的是求解相机坐标系相对世界坐标系的位姿。比如,在得到历史对象位姿和初始图像位姿之后,还可根据两者估计电子设备的预测相机位姿,进而将预设相机位姿和电子设备真实的当前相机位姿进行对比,以基于缩减两者之间的差异的方式对初始图像位姿进行修正。
77.可以理解地,本技术实施例中可以根据历史对象位姿和电子设备的当前相机位姿中的至少一者对初始图像位姿进行修正,以得到当前对象位姿,而具体采用两者中的几者以及在两者都采用时的修正顺序此处也并不进行限定,只要能够实现对初始图像位姿进行修正的方式均可用于本实施例中,也均属于本技术所要求的保护范围。
78.在一些实施例中,根据历史对象位姿对初始图像位姿进行修正,得到当前对象位姿,包括:
79.获取电子设备的当前相机位姿和历史相机位姿;
80.根据当前相机位姿、历史相机位姿和历史对象位姿估计待识别对象的预测图像位姿;
81.对预测图像位姿和初始图像位姿进行融合处理,得到待识别对象的当前对象位姿。
82.本实施例中,还可根据当前相机位姿、历史相机位姿和历史对象位姿估计待识别对象的预测图像位姿,进而对预测图像位姿和初始图像位姿进行融合以得到当前对象位姿。
83.其中,同一拍摄时刻具有一对位姿数据,该一对位姿数据包括该拍摄时刻的历史相机位姿和历史对象位姿,在已知多对历史相机位姿和历史对象位姿时,即可根据当前相机位姿估计待识别对象的预测图像位姿。
84.而对预测图像位姿和初始图像位姿进行融合处理的方式可比如为:对两者中同一
关键点之间的位置偏差取中间值,进而基于多个关键点的中间值得到当前对象位姿。
85.本实施例中结合电子设备的历史相机位姿和历史对象位姿之间的关联关系,估计待识别对象在当前拍摄时刻的预测图像位姿,以基于预测图像位姿和初始图像位姿的融合数据得到当前对象位姿。此种方式能够减小对初始图像位姿进行修正时的数据量,从而快速且准确地对初始图像位姿进行修正。
86.在一些实施例中,获取电子设备的当前相机位姿,包括:
87.获取电子设备的陀螺仪数据;
88.根据陀螺仪数据解算出电子设备的当前相机位姿。
89.其中,电子设备中还设置有陀螺仪或者惯性测量单元,也称imu,通过陀螺仪检测电子设备的陀螺仪数据能够分析出电子设备的当前位姿,而电子设备的当前位姿也体现了其上相机的当前相机位姿。
90.其中,陀螺仪数据包括电子设备的三轴的角速度和加速度数据。
91.具体地,通过对电子设备的陀螺仪数据进行积分,可以解算出电子设备的当前相机位姿。
92.可以理解地,在电子设备中没有设置陀螺仪或者惯性测量单元时,还可以通过外设的方式在其上设置此类组件,以实现对电子设备的陀螺仪数据的检测。
93.在一些实施例中,根据三维模型确定待识别对象的当前对象位姿之后,还包括:
94.将当前对象位姿发送至显示设备,以驱动待识别对象在显示设备加载的虚拟场景中的虚拟形象。
95.本实施例中,在得到待识别对象的当前对象位姿之后,还可基于当前对象位姿驱动虚拟形象,其中,虚拟形象可以在电子设备上显示、可以在上述提及的外部设备上显示,还可在另一外部设备上显示,具体可根据实际需求选择。
96.其中,将显示虚拟形象的设备称为显示设备,显示设备可以通过加载虚拟场景,并在虚拟场景中显示虚拟形象,该虚拟形象可以基于三维模型构建。
97.本实施例中通过当前对象位姿驱动虚拟形象,可以实现远程与虚拟形象进行互动,当然地,显示设备还可将该互动场景同步给其它外部设备显示,从而实现多终端联动。
98.作为一种实施方式,可以根据当前对象位姿驱动虚拟形象的位姿进行同步变更。
99.具体地,可以根据虚拟形象的关键点,从当前对象位姿上匹配相应的关键点,进而根据当前对象位姿指示的关键点位置调整虚拟形象对应关键点的位置,以使得虚拟形象的位姿和待识别对象的位姿同步。
100.其中,该关键点可以包括骨骼关键点或肢体关键点等,具体可根据实际需求选择。
101.作为另一种实施方式,可以根据当前对象位姿调整虚拟形象的面部表情,以根据面部特征点对虚拟形象的面部进行渲染。
102.具体地,在虚拟形象为人物形象时,还可以确定虚拟形象的五官的关键点位置,并从当前对象位姿中匹配五官的关键点位置,以当前对象位姿对应的五官关键点位置调整虚拟形象的五官。或者,还可以根据当前对象位姿确定待识别对象的面部方位,进而同步调整虚拟形象的面部方位,之后,以待识别对象的三维模型的面部信息对虚拟形象的模型的面部进行渲染。
103.可以理解地,除上述驱动虚拟形象的方式之外,还可根据待识别对象的三维模型
生成虚拟场景中的虚拟对象,以发送至显示设备并呈现在虚拟场景的相应空间位置。
104.为更好地理解本技术实施例提供的驱动虚拟形象的方案,此次提供两个应用场景进行解释说明。
105.其中一个应用场景比如为vr游戏场景,用户在vr游戏所使用的游戏车辆中使用vr眼镜,该游戏车辆上设置有车载终端,用户可以将手机放置在车辆的支架上,当通过手机选中一个游戏模式之后,手机和车载终端对用户进行拍摄,并根据两者拍摄的图像得到用户的三维模型,手机可以将该三维模型发送至vr眼镜,以显示在游戏模式对应的游戏场景中,比如,游戏场景中呈现用户在车辆中的图像。或者,游戏场景中已经存在一个虚拟形象,手机将分析出的用户的当前对象位姿发送至vr眼镜,vr眼镜驱动该虚拟形象的位姿根据当前对象位姿进行同步变更。再或者,还可以将虚拟形象的面部替换成用户的三维图像的面部,且替换后的面部的位姿根据当前对象位姿中面部的位姿进行同步变更。此种方式能够提高游戏沉浸感,给用户带来良好的游戏体验。
106.另一个应用场景比如为直播场景,比如,用户可以在车辆上进行直播,并通过车辆上的车载终端以及用于直播的手机拍摄用户的图像,进而通过三维建模、位姿修正等方式得到用户的当前对象位姿,通过当前对象位姿驱动手机加载的直播间中的虚拟形象进行同步的位姿变更,比如,肢体变更、头部朝向变更、面部表情变更等,从而实现灵活地进行直播,且能够较快且准确地驱动虚拟形象的位姿变更。
107.在一些实施例中,外部设备包括车载终端,待识别对象包括车载终端所在车辆的驾驶者,根据三维模型确定待识别对象的当前对象位姿之后,还包括:
108.若车辆处于行驶状态,则根据当前对象位姿对驾驶者进行驾驶行为识别,得到识别结果。
109.其中,车辆处于行驶状态的识别方式可以为检测车辆的驱动机制是否启动,或者,检测车载终端是否开启且进行历程计算,还可以为通过传感器检测车辆是否有行驶速度等。由于识别方式有多种,此处不再列举。
110.示例性地,在进行驾驶行为识别时,将驾驶位姿与当前对象位姿进行比对,确定差异信息。其中,驾驶位姿根据驾驶者的体型和车辆的驾驶座类型确定出,或者为一个预设的标准驾驶姿势。该驾驶位姿能够校验驾驶者驾驶行为是否异常。
111.具体地,可以将驾驶位姿与当前对象位姿进行比对,以确定两者之间的偏差。在进行位姿比对时,可以进行整体比对以确定两者位姿的拟合性是否较小,在较大时确定驾驶者驾驶行为异常,在较小时确定驾驶者驾驶行为正常,而评估拟合性的标准可以通过预先设定一个拟合偏差度进行判别。
112.当然地,还可以进行局部比对以确定两者位姿的拟合性。比如,对针对头部、肩颈部、背部分别进行比对,当三者的拟合性均较小时,才判断驾驶者的驾驶行为正常,否则视为驾驶行为异常。其中,还可为不同部位设置不同的权重,比如,头部的对比权重较高,背部的比对权重较低,从而能够更加准确地对用户的驾驶行为进行识别。
113.在一些实施例中,根据当前对象位姿对驾驶者进行驾驶行为识别,得到识别结果之后,还包括:
114.若识别结果描述驾驶者的驾驶行为异常,则根据当前对象位姿与驾驶位姿之间的差异信息对驾驶者进行位姿纠正提示。
115.本实施例中,在判定驾驶者的驾驶行为异常时,还根据当前对象位姿与驾驶位姿之间的差异信息进行位姿纠正提示,从而提醒驾驶者及时调整驾驶位姿,以避免交通事故的发生。
116.具体地,两者之间的差异信息可以指示驾驶者相对于驾驶位姿的姿态偏差、位置偏差等信息,进而基于驾驶位姿对驾驶者进行位姿纠正提示。比如,相对于驾驶位姿而言,驾驶者的当前对象位姿的头部偏右,在提醒时可以提醒驾驶者的头部靠左移动,或者,还可以根据两者位姿的差距大小,以根据差距大小在提醒时进行纠正程度的提示。比如,驾驶者的当前对象位姿过于偏右,在提醒时可以提醒驾驶者头部向左大幅纠正。
117.如上,根据驾驶者的当前对象位姿识别驾驶者的驾驶行为,不仅能够保障驾驶者的驾驶安全,还能够纠正驾驶者的驾驶位姿,更甚至在驾驶者疲劳驾驶时对其进行及时提醒。
118.由上可知,本发明实施例提出的位姿识别方法,可以连续地识别待识别对象的位姿,以根据实时的位姿驱动虚拟形象的位姿进行同步变更,还可通过实时追踪位姿的变化信息以预测用户的行为,进而根据用户的异常行为进行及时提醒。且本技术在识别待识别对象的位姿时,通过经济性地结合电子设备和外部设备的拍摄功能进行位姿识别,从而提高了对待识别对象进行位姿捕捉的灵活性,另一方便还结合电子设备的陀螺仪数据位姿进行实时修正,且该修正方法计算量小,修正快速、且准确,在将位姿应用于各类场景中均能够得到良好的实现效果,便于用户使用。
119.在一实施例中还提供一种位姿识别装置。请参阅图5,图5为本技术实施例提供的位姿识别装置200的结构示意图。其中该位姿识别装置200应用于电子设备,该位姿识别装置200包括:
120.图像获取模块201,用于获取电子设备和外部设备对待识别对象同步拍摄得到的第一图像和第二图像,第一图像和第二图像的拍摄角度不同;
121.深度计算模块202,用于根据第一图像和第二图像,获取待识别对象的深度信息;
122.三维建模模块203,用于根据深度信息对待识别对象进行三维建模,得到待识别对象的三维模型;
123.位姿识别模块204,用于根据三维模型确定待识别对象的当前对象位姿。
124.在一些实施例中,位姿识别模块204还用于:
125.根据三维模型确定待识别对象的初始图像位姿;
126.获取待识别对象的历史对象位姿;
127.根据历史对象位姿对初始图像位姿进行修正,得到当前对象位姿。
128.在一些实施例中,位姿识别模块204还用于:
129.根据历史对象位姿对初始图像位姿进行修正,得到当前图像位姿;
130.获取电子设备的当前相机位姿;
131.根据当前相机位姿对当前图像位姿进行修正,得到当前对象位姿。
132.在一些实施例中,位姿识别模块204还用于:
133.获取电子设备的陀螺仪数据;
134.根据陀螺仪数据解算出电子设备的当前相机位姿。
135.在一些实施例中,位姿识别装置200还包括数据传输模块,用于:
136.将当前对象位姿发送至显示设备,以驱动待识别对象在显示设备加载的虚拟场景中的虚拟形象。
137.在一些实施例中,外部设备包括车载终端,待识别对象包括车载终端所在车辆的驾驶者,位姿识别模块204还用于:
138.若车辆处于行驶状态,则根据当前对象位姿对驾驶者进行驾驶行为识别,得到识别结果。
139.在一些实施例中,位姿识别模块204还用于:
140.若识别结果描述驾驶者的驾驶行为异常,则根据当前对象位姿与驾驶位姿之间的差异信息对驾驶者进行位姿纠正提示。
141.应当说明的是,本技术实施例提供的位姿识别装置200与上文实施例中的位姿识别方法属于同一构思,通过该位姿识别装置200可以实现位姿识别方法实施例中提供的任一方法,其具体实现过程详见位姿识别方法实施例,此处不再赘述。
142.由上可知,本技术实施例提出的位姿识别装置200,可以连续地识别待识别对象的位姿,以根据实时的位姿驱动虚拟形象的位姿进行同步变更,还可通过实时追踪位姿的变化信息以预测用户的行为,进而根据用户的异常行为进行及时提醒。且本技术在识别待识别对象的位姿时,通过经济性地结合电子设备和外部设备的拍摄功能进行位姿识别,从而提高了对待识别对象进行位姿捕捉的灵活性,另一方便还结合电子设备的陀螺仪数据位姿进行实时修正,且该修正方法计算量小,修正快速、且准确,在将位姿应用于各类场景中均能够得到良好的实现效果,便于用户使用。
143.本技术实施例还提供一种电子设备,该电子设备可以是智能手机、折叠屏手机、平板电脑、掌上电脑、笔记本电脑、摄像头、摄像机、相机、车载终端等具有拍摄功能的设备。如图6所示,图6为本技术实施例提供的电子设备的结构示意图。该电子设备300包括有一个或者一个以上处理核心的处理器301、有一个或一个以上计算机可读存储介质的存储器302及存储在存储器302上并可在处理器上运行的计算机程序。其中,处理器301与存储器302电性连接。本领域技术人员可以理解,图中示出的电子设备结构并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
144.处理器301是电子设备300的控制中心,利用各种接口和线路连接整个电子设备300的各个部分,通过运行或加载存储在存储器302内的软件程序和/或模块,以及调用存储在存储器302内的数据,执行电子设备300的各种功能和处理数据,从而对电子设备300进行整体监控。
145.在本技术实施例中,电子设备300中的处理器301会按照如下的步骤,将一个或一个以上的应用程序的进程对应的指令加载到存储器302中,并由处理器301来运行存储在存储器302中的应用程序,从而实现各种功能:
146.获取电子设备和外部设备对待识别对象同步拍摄得到的第一图像和第二图像,第一图像和第二图像的拍摄角度不同;
147.根据第一图像和第二图像,获取待识别对象的深度信息;
148.根据深度信息对待识别对象进行三维建模,得到待识别对象的三维模型;
149.根据三维模型确定待识别对象的当前对象位姿。
150.以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
151.尽管图6中未示出,电子设备300还可以包括摄像头、传感器、无线保真模块、蓝牙模块等,在此不再赘述。
152.在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
153.由上可知,本实施例提供的电子设备,可以连续地识别待识别对象的位姿,以根据实时的位姿驱动虚拟形象的位姿进行同步变更,还可通过实时追踪位姿的变化信息以预测用户的行为,进而根据用户的异常行为进行及时提醒。且本技术在识别待识别对象的位姿时,通过经济性地结合电子设备和外部设备的拍摄功能进行位姿识别,从而提高了对待识别对象进行位姿捕捉的灵活性,另一方便还结合电子设备的陀螺仪数据位姿进行实时修正,且该修正方法计算量小,修正快速、且准确,在将位姿应用于各类场景中均能够得到良好的实现效果,便于用户使用。
154.本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
155.为此,本技术实施例提供一种计算机可读存储介质,其中存储有多条计算机程序,该计算机程序能够被处理器进行加载,以执行本技术实施例所提供的任一种位姿识别方法中的步骤。例如,该计算机程序可以执行如下步骤:
156.获取电子设备和外部设备对待识别对象同步拍摄得到的第一图像和第二图像,第一图像和第二图像的拍摄角度不同;
157.根据第一图像和第二图像,获取待识别对象的深度信息;
158.根据深度信息对待识别对象进行三维建模,得到待识别对象的三维模型;
159.根据三维模型确定待识别对象的当前对象位姿。
160.以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
161.其中,该存储介质可以包括:只读存储器(rom,read only memory)、随机存取记忆体(ram,random access memory)、磁盘或光盘等。由于该存储介质中所存储的计算机程序,可以执行本技术实施例所提供的任一种位姿识别方法中的步骤,因此,可以实现本技术实施例所提供的任一种位姿识别方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
162.以上对本技术实施例所提供的一种位姿识别方法、装置、介质及电子设备进行了详细介绍,本文中应用了具体个例对本技术的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本技术的方法及其核心思想;同时,对于本领域的技术人员,依据本技术的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本技术的限制。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1