用于车窗控制系统的视频智能识别方法与流程

文档序号:33396295发布日期:2023-03-08 13:38阅读:46来源:国知局
用于车窗控制系统的视频智能识别方法与流程

1.本发明涉及数据识别技术领域,具体涉及用于车窗控制系统的视频智能识别方法。


背景技术:

2.车窗控制是日常驾驶中经常使用到的功能之一。比较常见的车窗控制方法为:基于简单的电机和举升机构,通过安装在车门上的车窗升降按钮,控制电机的转速与方向,以实现车窗玻璃的升降,当采用该方法进行车窗控制时,往往需要人的手和眼睛的配合才可以完成,使用相当的不便。鉴于上面的问题,目前提出了一种采用手势进行车窗控制的手势车窗控制方法包括:获取手势监控视频中的手势图像,对手势图像进行手势识别,将识别出的手势与预先设置的模板手势进行对比,根据对比结果,对车窗进行控制。
3.然而,当采用手势进行车窗控制时,经常会存在如下技术问题:第一,由于多种原因,如长袖遮挡,手势图像中的手势可能不完整,往往导致对手势的判断不准确,从而导致对比结果错误,进而导致对车窗控制的准确度低下;第二,由于车窗状态往往包括车窗玻璃完全打开、车窗玻璃完全关闭、车窗玻璃完全打开与完全关闭之间的多个高度,所以采用手势进行车窗控制时,往往需要多个模板手势对不同的车窗状态进行区分,因此,当用户采用手势进行车窗控制时,往往需要回忆或查看多个模板手势,往往导致时间的浪费,从而导致对车窗控制的效率低下,并且,回忆的曾经记忆的模板手势可能不准确,从而导致对车窗控制的准确度低下。


技术实现要素:

4.本发明的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本发明的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
5.为了解决对车窗控制的准确度低下的技术问题,本发明提出了用于车窗控制系统的视频智能识别方法。
6.本发明提供了用于车窗控制系统的视频智能识别方法,该方法包括:获取车窗控制区域的车窗控制视频,对所述车窗控制视频中的各帧车窗控制图像进行运动区域识别,当从车窗控制图像中识别出运动区域时,将车窗控制图像,确定为目标控制图像,得到目标控制图像集合;当所述目标控制图像集合中的目标控制图像中的运动区域的面积大于或等于预先设置的面积阈值时,将运动区域确定为疑似手臂区域,得到疑似手臂区域集合;对所述疑似手臂区域集合中的每个疑似手臂区域进行手臂形态特征识别,得到所述疑似手臂区域对应的手臂可能性;对所述疑似手臂区域集合中的每个疑似手臂区域进行手臂运动可能特征识别,得到所述疑似手臂区域对应的手臂运动可能性;
根据所述疑似手臂区域集合中的各个疑似手臂区域对应的手臂可能性和手臂运动可能性,确定目标手臂运动可能性;当所述目标手臂运动可能性大于预先设置的运动阈值时,确定所述疑似手臂区域集合中的每个疑似手臂区域对应的手臂高度指标和手臂速度指标;从所述疑似手臂区域集合中的各个疑似手臂区域对应的手臂高度指标和手臂速度指标中筛选出最大的手臂高度指标和手臂速度指标,分别作为目标高度指标和目标速度指标;根据所述目标高度指标或所述目标速度指标,控制目标车窗的升降。
7.进一步地,所述对所述疑似手臂区域集合中的每个疑似手臂区域进行手臂形态特征识别,得到所述疑似手臂区域对应的手臂可能性,包括:对于所述疑似手臂区域边缘上的每个像素点,对所述像素点和所述像素点对应的预先设置的目标邻域中的边缘像素点进行拟合向量化,得到所述像素点对应的拟合向量;将所述疑似手臂区域边缘上的每个像素点对应的拟合向量与预先设置的目标方向之间的夹角,确定为所述像素点对应的目标夹角;根据所述疑似手臂区域边缘上的各个像素点对应的目标夹角,对所述疑似手臂区域边缘上的各个像素点进行聚类,得到所述疑似手臂区域对应的边缘像素点聚簇集合;根据所述疑似手臂区域对应的边缘像素点聚簇集合中的各个边缘像素点聚簇包括的聚簇中心对应的目标夹角,确定所述疑似手臂区域对应的聚簇差异;对于所述疑似手臂区域边缘上的每个像素点,从所述疑似手臂区域对应的边缘像素点聚簇集合中所述像素点所在的边缘像素点聚簇中筛选出距离所述像素点最近的边缘像素点,作为所述像素点对应的目标边缘像素点;将所述疑似手臂区域边缘上的每个像素点与所述像素点对应的目标边缘像素点对应的目标夹角之间的差值的绝对值,确定为所述像素点对应的边缘差异;根据所述疑似手臂区域边缘上的各个像素点对应的位置,确定所述疑似手臂区域对应的目标长度和目标宽度;根据所述疑似手臂区域对应的聚簇差异、目标长度和目标宽度、预先获取的标准宽长比、所述疑似手臂区域边缘上的各个像素点对应的边缘差异、所述疑似手臂区域边缘上的各个像素点所在的边缘像素点聚簇包括的聚簇中心对应的目标夹角、所述疑似手臂区域边缘上的各个像素点所在的边缘像素点聚簇中的各个边缘像素点对应的目标夹角,确定所述疑似手臂区域对应的第一手臂可能性和第二手臂可能性;将所述疑似手臂区域对应的第一手臂可能性和第二手臂可能性的乘积,确定为所述疑似手臂区域对应的手臂可能性。
8.进一步地,所述确定所述疑似手臂区域对应的第一手臂可能性和第二手臂可能性,包括:确定所述疑似手臂区域对应的第一手臂可能性对应的公式为:其中,是疑似手臂区域集合中的第j个疑似手臂区域对应的第一手臂可能性,j是疑似手臂区域集合中疑似手臂区域的序号,是疑似手臂区域集合中的第j个疑似手臂
区域对应的聚簇差异,是疑似手臂区域集合中的第j个疑似手臂区域边缘上像素点的数量,是疑似手臂区域集合中的第j个疑似手臂区域边缘上的第i个像素点对应的边缘差异,i是疑似手臂区域边缘上像素点的序号,是疑似手臂区域集合中的第j个疑似手臂区域边缘上的第i个像素点所在的边缘像素点聚簇中边缘像素点的数量,是疑似手臂区域集合中的第j个疑似手臂区域边缘上的第i个像素点所在的边缘像素点聚簇中第x个边缘像素点对应的目标夹角,是疑似手臂区域集合中的第j个疑似手臂区域边缘上的第i个像素点所在的边缘像素点聚簇包括的聚簇中心对应的目标夹角,是预先设置的参数指标;确定所述疑似手臂区域对应的第二手臂可能性对应的公式为:其中,是疑似手臂区域集合中的第j个疑似手臂区域对应的第二手臂可能性,j是疑似手臂区域集合中疑似手臂区域的序号,是取绝对值函数,是疑似手臂区域集合中的第j个疑似手臂区域对应的目标宽度,是疑似手臂区域集合中的第j个疑似手臂区域对应的目标长度,u是标准宽长比。
9.进一步地,所述对所述疑似手臂区域集合中的每个疑似手臂区域进行手臂运动可能特征识别,得到所述疑似手臂区域对应的手臂运动可能性,包括:以所述疑似手臂区域所在的车窗控制图像的左下角为原点,建立坐标系,作为所述疑似手臂区域对应的目标坐标系;将所述疑似手臂区域边缘上距离目标原点最近的像素点对应的位置,确定为所述疑似手臂区域对应的第一边缘点位置,其中,目标原点是所述疑似手臂区域对应的目标坐标系的原点;根据预先训练完成的目标手臂点识别网络,确定所述疑似手臂区域对应的第二边缘点位置和第三边缘点位置;将所述疑似手臂区域边缘上距离目标原点最远的像素点对应的位置,确定为所述疑似手臂区域对应的第四边缘点位置;根据所述疑似手臂区域对应的参考手臂区域以及所述疑似手臂区域对应的第一边缘点位置、第二边缘点位置、第三边缘点位置和第四边缘点位置,确定所述疑似手臂区域对应的手臂运动可能性,其中,所述疑似手臂区域对应的参考手臂区域是所述疑似手臂区域所在的车窗控制图像的上一帧车窗控制图像包括的疑似手臂区域。
10.进一步地,所述根据所述疑似手臂区域对应的参考手臂区域以及所述疑似手臂区域对应的第一边缘点位置、第二边缘点位置、第三边缘点位置和第四边缘点位置,确定所述疑似手臂区域对应的手臂运动可能性,包括:根据所述疑似手臂区域对应的参考手臂区域对应的第一边缘点位置和所述疑似手臂区域对应的第一边缘点位置,确定所述疑似手臂区域对应的第一移动距离;根据所述疑似手臂区域对应的参考手臂区域以及所述疑似手臂区域对应的第二边缘点位置、第三边缘点位置和第四边缘点位置,确定所述疑似手臂区域对应的第二移动距离、第三移动距离和第四移动距离;根据所述疑似手臂区域对应的第一移动距离和第二移动距离,确定所述疑似手臂
区域对应的第一相对移动速度指标;根据所述疑似手臂区域对应的第一移动距离、第二移动距离和第三移动距离,确定所述疑似手臂区域对应的第二相对移动速度指标;根据所述疑似手臂区域对应的第一移动距离、第二移动距离、第三移动距离和第四移动距离,确定所述疑似手臂区域对应的第三相对移动速度指标;将所述疑似手臂区域对应的第一相对移动速度指标、第二相对移动速度指标与第三相对移动速度指标的和,确定为所述疑似手臂区域对应的手臂运动可能性。
11.进一步地,所述根据所述疑似手臂区域对应的第一移动距离、第二移动距离、第三移动距离和第四移动距离,确定所述疑似手臂区域对应的第三相对移动速度指标,包括:获取所述疑似手臂区域对应的目标时长;将所述疑似手臂区域对应的第四移动距离和第一移动距离的差,确定为所述疑似手臂区域对应的第一相对距离;将所述疑似手臂区域对应的第四移动距离和第二移动距离的差,确定为所述疑似手臂区域对应的第二相对距离;将所述疑似手臂区域对应的第四移动距离和第三移动距离的差,确定为所述疑似手臂区域对应的第三相对距离;将所述疑似手臂区域对应的第一相对距离、第二相对距离和第三相对距离的均值,确定为所述疑似手臂区域对应的相对距离均值;将所述疑似手臂区域对应的相对距离均值与目标时长的比值,确定为所述疑似手臂区域对应的第三相对移动速度指标。
12.进一步地,所述确定所述疑似手臂区域集合中的每个疑似手臂区域对应的手臂高度指标和手臂速度指标,包括:将所述疑似手臂区域对应的第四边缘点位置对应的第四坐标包括的纵坐标,确定为所述疑似手臂区域对应的手臂高度指标,其中,第四坐标是第四边缘点位置对应在目标坐标系下的坐标;将所述疑似手臂区域对应的第四移动距离与目标时长的比值,确定为所述疑似手臂区域对应的手臂速度指标。
13.进一步地,所述根据所述目标高度指标或所述目标速度指标,控制目标车窗的升降,包括:当所述目标速度指标大于预先设置的速度指标阈值时,根据所述疑似手臂区域集合中的最后一个疑似手臂区域对应的第四移动距离对应的两个边缘像素点,控制目标车窗完全打开或完全关闭;当所述目标速度指标小于或等于速度指标阈值时,根据所述目标高度指标,控制目标车窗的高度。
14.进一步地,所述根据所述疑似手臂区域集合中的最后一个疑似手臂区域对应的第四移动距离对应的两个边缘像素点,控制目标车窗完全打开或完全关闭,包括:将最后一个疑似手臂区域对应的第四移动距离对应的两个边缘像素点,合并到预先设置的标准坐标系下;根据最后一个疑似手臂区域对应的第四移动距离对应的两个边缘像素点在所述
标准坐标系下的位置,确定目标向量;将所述目标向量与预先设置的纵轴向量之间的夹角,确定为方向夹角,其中,纵轴向量的方向与标准坐标系纵轴的正方向相同;当所述方向夹角大于90
°
时,控制目标车窗完全打开;当所述方向夹角小于或等于90
°
时,控制目标车窗完全关闭。
15.进一步地,所述根据所述目标高度指标,控制目标车窗的高度,包括:当目标高度指标大于或等于预先获取的第一目标高度时,控制目标车窗完全打开;当目标高度指标小于或等于预先获取的第二目标高度时,控制目标车窗完全关闭;当目标高度指标小于第一目标高度并且大于第二目标高度时,将预先获取的目标比例系数和目标高度指标的乘积,确定为目标调节高度,控制目标车窗,将目标车窗的高度,调节至目标调节高度。
16.本发明具有如下有益效果:本发明的用于车窗控制系统的视频智能识别方法,采用图形识别的方式,获取车窗控制视频,并进行相关的数据识别,解决了对车窗控制的效率和准确度低下,提高了对车窗控制的效率和准确度。首先,对获取的车窗控制视频中的各帧车窗控制图像进行运动区域识别,将识别出运动区域的车窗控制图像筛选出来,得到目标控制图像集合。由于本发明通过识别手臂的运动状态,对车窗进行控制,当车窗控制图像不存在运动区域时,往往说明车窗控制图像中不存在运动的手臂,因此,筛选出可能包括运动手臂的目标控制图像,可以使后续不需对不存在运动区域的车窗控制图像进行识别处理,减少了计算量,减少了计算资源的占用。接着,根据运动区域的面积,判断运动区域是否为疑似手臂区域,可以初步判断运动区域是否为运动的手臂区域。对疑似手臂区域进行手臂形态特征识别和手臂运动可能特征识别,确定目标手臂运动可能性,可以提高目标手臂运动可能性确定的准确度。之后,当目标手臂运动可能性大于预先设置的运动阈值时,确定疑似手臂区域集合中的每个疑似手臂区域对应的手臂高度指标和手臂速度指标。确定手臂高度指标和手臂速度指标,可以便于后续对目标车窗进行控制。而后,从疑似手臂区域集合中的各个疑似手臂区域对应的手臂高度指标和手臂速度指标中筛选出最大的手臂高度指标和手臂速度指标,分别作为目标高度指标和目标速度指标。最后,根据目标高度指标或目标速度指标,控制目标车窗的升降。由于,当对手的拍摄不完整时,往往不会影响本发明对手臂运动状态的识别,因此,本发明相较于依赖手势的手势车窗控制方法,可以提高对车窗控制的准确度。并且相较于需要回忆或查看多个模板手势的手势车窗控制方法,提高了对车窗控制的效率。
附图说明
17.为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
18.图1为根据本发明的用于车窗控制系统的视频智能识别方法的流程图;
图2为根据本发明的车窗控制区域示意图;图3为根据本发明的摄像头安装位置示意图;图4为根据本发明的拟合向量示意图;图5为根据本发明的参与车窗控制的手臂状态示意图;图6为根据本发明的移动距离示意图。
19.其中,附图标记包括:第一矩形201、第二矩形202、位置301、像素点401、第一边缘像素点402、第二边缘像素点403、拟合线段404、第三边缘像素点601、第四边缘像素点602、第五边缘像素点603、第六边缘像素点604、第七边缘像素点605、第八边缘像素点606、第九边缘像素点607和第十边缘像素点608。
具体实施方式
20.为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的技术方案的具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一个实施例。此外,一个或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
21.除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
22.本发明提供了用于车窗控制系统的视频智能识别方法,该方法包括以下步骤:获取车窗控制区域的车窗控制视频,对车窗控制视频中的各帧车窗控制图像进行运动区域识别,当从车窗控制图像中识别出运动区域时,将车窗控制图像,确定为目标控制图像,得到目标控制图像集合;当目标控制图像集合中的目标控制图像中的运动区域的面积大于或等于预先设置的面积阈值时,将运动区域确定为疑似手臂区域,得到疑似手臂区域集合;对疑似手臂区域集合中的每个疑似手臂区域进行手臂形态特征识别,得到疑似手臂区域对应的手臂可能性;对疑似手臂区域集合中的每个疑似手臂区域进行手臂运动可能特征识别,得到疑似手臂区域对应的手臂运动可能性;根据疑似手臂区域集合中的各个疑似手臂区域对应的手臂可能性和手臂运动可能性,确定目标手臂运动可能性;当目标手臂运动可能性大于预先设置的运动阈值时,确定疑似手臂区域集合中的每个疑似手臂区域对应的手臂高度指标和手臂速度指标;从疑似手臂区域集合中的各个疑似手臂区域对应的手臂高度指标和手臂速度指标中筛选出最大的手臂高度指标和手臂速度指标,分别作为目标高度指标和目标速度指标;根据目标高度指标或目标速度指标,控制目标车窗的升降。
23.下面对上述各个步骤进行详细展开:参考图1,示出了根据本发明的用于车窗控制系统的视频智能识别方法的一些实施例的流程。该用于车窗控制系统的视频智能识别方法,包括以下步骤:步骤s1,获取车窗控制区域的车窗控制视频,对车窗控制视频中的各帧车窗控制
图像进行运动区域识别,当从车窗控制图像中识别出运动区域时,将车窗控制图像,确定为目标控制图像,得到目标控制图像集合。
24.在一些实施例中,可以获取车窗控制区域的车窗控制视频,对上述车窗控制视频中的各帧车窗控制图像进行运动区域识别,当从车窗控制图像中识别出运动区域时,将车窗控制图像,确定为目标控制图像,得到目标控制图像集合。
25.其中,车窗控制区域可以是预先设置的以车窗为起始位置的区域。如图2所示,第一矩形201可以表征车辆的车头内部区域。第一矩形201是图2中较大的矩形。第一矩形201左边的线段可以表征安装有待控制车窗的车门。第二矩形202可以表征车窗控制区域。第二矩形202是图2中较小的矩形。车窗控制视频录制的车窗控制区域内预设时间段内的视频。预设时间段可以是预先设置的时间段。例如,预设时间段对应的时长可以是1秒。可以根据实际情况所需要的车窗控制图像的数量的多少,设置预设时间段对应的时长的大小。如,车窗控制视频中车窗控制图像的数量可以是20。车窗控制图像可以是组成车窗控制视频的图像。运动区域可以是车窗控制图像中运动物体所在的区域。例如,运动物体可以是运动的手臂。由于运动区域的连续性,所以目标控制图像集合中的目标控制图像往往是连续帧的图像。相邻两帧车窗控制图像之间的时长可以相等。
26.需要说明的是,预设时间段对应的时长越短,后续对车窗控制的时效性往往越高。由于后续需要判断手臂在车窗控制区域内的运动状态,所以预设时间段对应的时长往往不能设置的过于短,可以根据实际情况进行设置。判断手臂在车窗控制区域内的运动状态,可以便于后续根据手臂在车窗控制区域内的运动状态,对车窗进行控制。根据关节,可以将手臂分为大臂、小臂和手。车窗控制系统可以是用于车窗控制的软件系统。
27.作为示例,本步骤可以包括以下步骤:第一步,获取车窗控制区域的车窗控制视频。
28.例如,如图3所示,可以通过安装在位置301处的摄像头,录制车窗控制区域内的车窗控制视频。
29.第二步,对上述车窗控制视频中的各帧车窗控制图像进行运动区域识别,判断车窗控制图像中是否存在运动区域。
30.例如,可以通过帧差法,对上述车窗控制视频中的各帧车窗控制图像进行运动区域识别,判断车窗控制图像中是否存在运动区域。
31.第三步,当从车窗控制图像中识别出运动区域时,将车窗控制图像,确定为目标控制图像,得到目标控制图像集合。
32.可选地,当车窗控制视频中的各帧车窗控制图像中均不存在运动区域时,往往不需要对车窗状态进行调整。车窗状态可以包括:车窗是否打开和车窗打开的高度。
33.步骤s2,当目标控制图像集合中的目标控制图像中的运动区域的面积大于或等于预先设置的面积阈值时,将运动区域确定为疑似手臂区域,得到疑似手臂区域集合。
34.在一些实施例中,当上述目标控制图像集合中的目标控制图像中的运动区域的面积大于或等于预先设置的面积阈值时,将运动区域确定为疑似手臂区域,得到疑似手臂区域集合。
35.其中,运动区域的面积可以用运动区域内像素点的数量表征。面积阈值可以是预先设置的在目标控制图像中用于判断手臂状态时所需要的最小的手臂区域的面积。例如,
面积阈值对应的公式可以为:其中,s是面积阈值。是预先设置的占比,可以根据实际情况进行调整。比如,。m是目标控制图像中像素点的数量。
36.根据运动区域在目标控制图像面积占比,确定运动区域是手臂区域时的面积阈值,可以提高面积阈值确定的准确度,可以初步判断运动区域是不是手臂区域。
37.需要说明的是,疑似手臂区域属于运动区域,由于运动区域的连续性,所以疑似手臂区域集合中的疑似手臂区域所在的图像往往是连续帧的图像。
38.可选地,当目标控制图像集合中的各个目标控制图像中的运动区域的面积均小于面积阈值时,往往说明运动区域不是手臂区域,往往不需要对车窗状态进行调整。
39.步骤s3,对疑似手臂区域集合中的每个疑似手臂区域进行手臂形态特征识别,得到疑似手臂区域对应的手臂可能性。
40.在一些实施例中,可以对上述疑似手臂区域集合中的每个疑似手臂区域进行手臂形态特征识别,得到上述疑似手臂区域对应的手臂可能性。
41.其中,手臂可能性可以表征疑似手臂区域是手臂区域的可能程度。
42.作为示例,本步骤可以包括以下步骤:第一步,对于上述疑似手臂区域边缘上的每个像素点,对上述像素点和上述像素点对应的预先设置的目标邻域中的边缘像素点进行拟合向量化,得到上述像素点对应的拟合向量。
43.其中,边缘像素点是上述疑似手臂区域边缘上的像素点。目标邻域可以是预先设置的邻域。比如,目标邻域可以是5
×
5邻域。
44.例如,对像素点和该像素点对应的目标邻域中的边缘像素点进行拟合向量化,得到该像素点对应的拟合向量可以包括以下子步骤:第一子步骤,对像素点和该像素点对应的目标邻域中的边缘像素点进行拟合,得到该像素点对应的拟合线段。
45.第二子步骤,将像素点对应的拟合线段的长度,确定为该像素点对应的拟合向量的大小,将该像素点对应的拟合线段在目标邻域中从左至右的趋势方向,确定为该像素点对应的拟合向量的方向。
46.比如,当目标邻域为八邻域时,如图4所示,像素点401的八邻域中两个边缘像素点,分别为第一边缘像素点402和第二边缘像素点403。对像素点401、第一边缘像素点402和第二边缘像素点403进行拟合,得到像素点401对应的拟合线段404。图4中箭头所指的方向可以是拟合线段404在目标邻域中从左至右的趋势方向。
47.第二步,将上述疑似手臂区域边缘上的每个像素点对应的拟合向量与预先设置的目标方向之间的夹角,确定为上述像素点对应的目标夹角。
48.其中,目标方向可以是预先设置的方向。例如,目标方向可以是从左至右的水平方向。
49.第三步,根据上述疑似手臂区域边缘上的各个像素点对应的目标夹角,对上述疑似手臂区域边缘上的各个像素点进行聚类,得到上述疑似手臂区域对应的边缘像素点聚簇集合。
50.例如,根据疑似手臂区域边缘上的各个像素点对应的目标夹角,利用k-means聚类,并设置k=2,对该疑似手臂区域边缘上的各个像素点进行聚类,得到两个边缘像素点聚簇,作为该疑似手臂区域对应的边缘像素点聚簇集合。
51.第四步,根据上述疑似手臂区域对应的边缘像素点聚簇集合中的各个边缘像素点聚簇包括的聚簇中心对应的目标夹角,确定上述疑似手臂区域对应的聚簇差异。
52.例如,可以将疑似手臂区域对应的边缘像素点聚簇集合中的各个边缘像素点聚簇包括的聚簇中心对应的目标夹角之间的差值的绝对值的均值,确定为该疑似手臂区域对应的聚簇差异。
53.又如,当边缘像素点聚簇集合中边缘像素点聚簇的数量为2时,确定疑似手臂区域对应的聚簇差异对应的公式可以为:其中,是疑似手臂区域集合中的第j个疑似手臂区域对应的聚簇差异。j是疑似手臂区域集合中疑似手臂区域的序号。是取绝对值函数。是疑似手臂区域集合中的第j个疑似手臂区域对应边缘像素点聚簇集合包括的第1个边缘像素点聚簇包括的聚簇中心对应的目标夹角。是疑似手臂区域集合中的第j个疑似手臂区域对应边缘像素点聚簇集合包括的第2个边缘像素点聚簇包括的聚簇中心对应的目标夹角。
54.需要说明的是,疑似手臂区域对应的聚簇差异越大,往往说明聚簇之间的差异越大,往往说明对该疑似手臂区域边缘上的各个像素点进行聚类的效果往往越好。
55.第五步,对于上述疑似手臂区域边缘上的每个像素点,从上述疑似手臂区域对应的边缘像素点聚簇集合中上述像素点所在的边缘像素点聚簇中筛选出距离上述像素点最近的边缘像素点,作为上述像素点对应的目标边缘像素点。
56.例如,首先,可以将疑似手臂区域边缘上的一个像素点,作为第一像素点。接着,可以从该疑似手臂区域对应的边缘像素点聚簇集合中第一像素点所在的边缘像素点聚簇中筛选出距离第一像素点最近的边缘像素点,作为第一像素点对应的目标边缘像素点。
57.第六步,将上述疑似手臂区域边缘上的每个像素点与上述像素点对应的目标边缘像素点对应的目标夹角之间的差值的绝对值,确定为上述像素点对应的边缘差异。
58.例如,确定像素点对应的边缘差异对应的公式可以为:其中,是疑似手臂区域集合中的第j个疑似手臂区域边缘上的第i个像素点对应的边缘差异。j是疑似手臂区域集合中疑似手臂区域的序号。i是疑似手臂区域边缘上像素点的序号。是取绝对值函数。是疑似手臂区域集合中的第j个疑似手臂区域边缘上的第i个像素点对应的目标夹角。是疑似手臂区域集合中的第j个疑似手臂区域边缘上的第i个像素点对应的目标边缘像素点对应的目标夹角。
59.需要说明的是,第i个像素点对应的边缘差异越小,往往说明第i个像素点与目标边缘像素点对应的边缘方向变化越小,往往说明第i个像素点与目标边缘像素点为相邻的边缘像素点,其中,目标夹角可以表征边缘方向。
60.第七步,根据上述疑似手臂区域边缘上的各个像素点对应的位置,确定上述疑似
手臂区域对应的目标长度和目标宽度。
61.例如,根据上述疑似手臂区域边缘上的各个像素点对应的位置,确定上述疑似手臂区域对应的目标长度和目标宽度可以包括以下子步骤:第一子步骤,根据上述疑似手臂区域边缘上的各个像素点对应的位置,确定上述疑似手臂区域边缘上的各个像素点之间的距离,得到上述疑似手臂区域对应的距离集合。
62.第二子步骤,从上述疑似手臂区域对应的距离集合中筛选出最大的距离,作为上述疑似手臂区域对应的目标长度。
63.第三子步骤,根据上述疑似手臂区域对应的目标长度对应的两个像素点,确定上述疑似手臂区域对应的目标线段。
64.比如,当两个像素点之间的距离是目标长度时,这两个像素点可以是目标长度对应的两个像素点。可以连接疑似手臂区域对应的目标长度对应的两个像素点,将连接得到的线段,作为该疑似手臂区域对应的目标线段。
65.第四子步骤,将垂直于上述疑似手臂区域对应的目标线段的直线,确定为上述疑似手臂区域对应的滑动直线。
66.第五子步骤,根据上述疑似手臂区域边缘、上述疑似手臂区域对应的目标线段和滑动直线,确定上述疑似手臂区域对应的目标宽度。
67.其中,疑似手臂区域对应的目标宽度可以表征该疑似手臂区域的平均宽度。
68.比如,根据疑似手臂区域边缘上的各个像素点对应的位置、疑似手臂区域对应的目标线段和滑动直线,确定疑似手臂区域对应的目标宽度可以包括以下步骤:首先,在疑似手臂区域内滑动滑动直线,使该滑动直线遍历该疑似手臂区域。
69.接着,当该滑动直线与该疑似手臂区域边缘之间交点的数量为1时,将该交点到该疑似手臂区域对应的目标线段之间的距离,确定为宽度距离。
70.然后,当该滑动直线与该疑似手臂区域边缘之间交点的数量为2时,将这两个交点分别作为第一交点和第二交点,将该滑动直线与该疑似手臂区域对应的目标线段之间的交点,确定为第三交点,当第一交点和第二交点在目标线段的同一侧时,将第一交点和第三交点之间的距离确定为第一距离,将第二交点和第三交点之间的距离确定为第二距离,将第一距离与第二距离的差的绝对值确定为宽度距离。当第一交点和第二交点在目标线段的不同侧时,将第一交点和第二交点之间的距离,确定为宽度距离。
71.之后,当该滑动直线与该疑似手臂区域边缘之间交点的数量大于2时,确定这些交点之间的距离,筛选出距离最远的两个交点,可以参考滑动直线与疑似手臂区域边缘之间交点的数量为2时确定宽度距离的方法,确定宽度距离。
72.最后,将各个宽度距离的均值,确定为该疑似手臂区域对应的目标宽度。
73.第八步,根据上述疑似手臂区域对应的聚簇差异、目标长度和目标宽度、预先获取的标准宽长比、上述疑似手臂区域边缘上的各个像素点对应的边缘差异、上述疑似手臂区域边缘上的各个像素点所在的边缘像素点聚簇包括的聚簇中心对应的目标夹角、上述疑似手臂区域边缘上的各个像素点所在的边缘像素点聚簇中的各个边缘像素点对应的目标夹角,确定上述疑似手臂区域对应的第一手臂可能性和第二手臂可能性。
74.其中,标准宽长比可以表征手臂的宽长比。比如,标准宽长比可以是0.25。
75.例如,确定疑似手臂区域对应的第一手臂可能性对应的公式可以为:
其中,是疑似手臂区域集合中的第j个疑似手臂区域对应的第一手臂可能性。j是疑似手臂区域集合中疑似手臂区域的序号。是疑似手臂区域集合中的第j个疑似手臂区域对应的聚簇差异。是疑似手臂区域集合中的第j个疑似手臂区域边缘上像素点的数量。是疑似手臂区域集合中的第j个疑似手臂区域边缘上的第i个像素点对应的边缘差异。i是疑似手臂区域边缘上像素点的序号。是疑似手臂区域集合中的第j个疑似手臂区域边缘上的第i个像素点所在的边缘像素点聚簇中边缘像素点的数量。是疑似手臂区域集合中的第j个疑似手臂区域边缘上的第i个像素点所在的边缘像素点聚簇中第x个边缘像素点对应的目标夹角。是疑似手臂区域集合中的第j个疑似手臂区域边缘上的第i个像素点所在的边缘像素点聚簇包括的聚簇中心对应的目标夹角。是预先设置的参数指标,主要用于防止分母为0。比如,。
76.需要说明的是,第j个疑似手臂区域对应的聚簇差异越大,往往说明聚簇之间的差异越大,往往说明对该疑似手臂区域边缘上的各个像素点进行聚类的效果往往越好。疑似手臂区域边缘上各个像素点对应的边缘差异越小,往往说明疑似手臂区域边缘越平稳,往往说明疑似手臂区域边缘可能是一个区域边缘。可以第i个像素点所在的边缘像素点聚簇中的各个边缘像素点之间的差异。所以,越大,往往说明第i个像素点所在的边缘像素点聚簇的聚类效果越不好,因此,越小,往往越大,往往说明第j个疑似手臂区域往往越可能是手臂区域。
77.又如,确定疑似手臂区域对应的第二手臂可能性对应的公式可以为:其中,是疑似手臂区域集合中的第j个疑似手臂区域对应的第二手臂可能性。j是疑似手臂区域集合中疑似手臂区域的序号。是取绝对值函数。是疑似手臂区域集合中的第j个疑似手臂区域对应的目标宽度。是疑似手臂区域集合中的第j个疑似手臂区域对应的目标长度。u是标准宽长比。
78.需要说明的是,越接近标准宽长比u时,越小,越大,即第j个疑似手臂区域对应的第二手臂可能性越大,往往说明第j个疑似手臂区域越可能是手臂区域。
79.第九步,将上述疑似手臂区域对应的第一手臂可能性和第二手臂可能性的乘积,确定为上述疑似手臂区域对应的手臂可能性。
80.例如,确定疑似手臂区域对应的手臂可能性对应的公式可以为:其中,是疑似手臂区域集合中的第j个疑似手臂区域对应的手臂可能性。j是疑似
手臂区域集合中疑似手臂区域的序号。是疑似手臂区域集合中的第j个疑似手臂区域对应的第一手臂可能性。是疑似手臂区域集合中的第j个疑似手臂区域对应的第二手臂可能性。
81.需要说明的是,由于手臂的形状往往与其他物体的形状不同,因此,本步骤对疑似手臂区域进行手臂形态特征识别,得到该疑似手臂区域对应的手臂可能性,可以便于后续判断疑似手臂区域是否为手臂区域。并且,由于手臂运动过程往往是大臂带动小臂和手的运动(大臂由肱骨构成,小臂由有尺骨和桡骨组成),在运动过程中小臂和手往往同步运动,其边缘方向往往一致,小臂和手之间的夹角往往较小,大臂往往与小臂之间存在夹角,因此,根据疑似手臂区域边缘上的各个像素点对应的目标夹角,对该疑似手臂区域边缘上的各个像素点进行聚类,当聚类为两类时,聚类效果越好,该疑似手臂区域对应的手臂可能性往往越大,往往说明该疑似手臂区域越可能是手臂区域。并且,疑似手臂区域边缘上的各个像素点对应的边缘差异越小,往往说明疑似手臂区域边缘越平稳,往往说明疑似手臂区域边缘越符合边缘特点,该疑似手臂区域对应的手臂可能性往往越大,往往说明该疑似手臂区域越可能是手臂区域。
82.步骤s4,对疑似手臂区域集合中的每个疑似手臂区域进行手臂运动可能特征识别,得到疑似手臂区域对应的手臂运动可能性。
83.在一些实施例中,可以对上述疑似手臂区域集合中的每个疑似手臂区域进行手臂运动可能特征识别,得到上述疑似手臂区域对应的手臂运动可能性。
84.其中,手臂运动可能性可以表征疑似手臂区域是运动手臂区域的可能程度。
85.作为示例,本步骤可以包括以下步骤:第一步,以上述疑似手臂区域所在的车窗控制图像的左下角为原点,建立坐标系,作为上述疑似手臂区域对应的目标坐标系。
86.其中,目标坐标系可以是以车窗控制图像的左下角为原点,以该车窗控制图像下面的边为横轴,以该车窗控制图像左面的边为纵轴,使该车窗控制图像位于第一象限的坐标系。
87.比如,如图5所示,图5中手臂所在的区域可以是车窗控制图像中的疑似手臂区域。在该疑似手臂区域对应的目标坐标系下,图5中手臂包括的大臂距离该目标坐标系的原点最近,图5中手臂包括的手距离该目标坐标系的原点最远。其中,该疑似手臂区域对应的目标坐标系可以是以该疑似手臂区域所在的车窗控制图像的左下角为原点,以该车窗控制图像下面的边为横轴,以该车窗控制图像左面的边为纵轴,使该车窗控制图像位于第一象限的坐标系。当该疑似手臂区域对应的目标坐标系是以该疑似手臂区域所在的车窗控制图像的左下角为原点时,该原点可以在该疑似手臂区域的左下方,即该原点可以在图5中手臂所在的区域的左下方。
88.第二步,将上述疑似手臂区域边缘上距离目标原点最近的像素点对应的位置,确定为上述疑似手臂区域对应的第一边缘点位置。
89.其中,目标原点是上述疑似手臂区域对应的目标坐标系的原点。第一边缘点位置可以用第一位置像素点在目标坐标系下的坐标表征。第一位置像素点可以是疑似手臂区域边缘上距离目标原点最近的像素点。如果疑似手臂区域是手臂区域,则第一边缘点位置可以表征大臂边缘上距离目标原点最近的像素点对应的位置。
90.第三步,根据预先训练完成的目标手臂点识别网络,确定上述疑似手臂区域对应的第二边缘点位置和第三边缘点位置。
91.其中,目标手臂点识别网络可以是bp(back propagation,多层前馈)神经网络。如果疑似手臂区域是手臂区域,则第二边缘点位置可以表征大臂和小臂的交接位置,第三边缘点位置可以表征小臂和手的交接位置。
92.例如,可以将疑似手臂区域输入目标手臂点识别网络,通过目标手臂点识别网络,确定该疑似手臂区域对应的第二边缘点位置和第三边缘点位置。
93.可选地,目标手臂点识别网络的训练过程可以包括以下子步骤:第一子步骤,获取样本手臂区域集合。
94.其中,样本手臂区域集合中的样本手臂区域可以是样本手臂区域图像中的手臂区域。样本手臂区域图像与样本手臂区域可以一一对应。样本手臂区域可以是已知第一手臂位置和第二手臂位置的手臂区域。其中,第一手臂位置可以表征大臂和小臂的交接位置。第二手臂位置可以表征小臂和手的交接位置。第一手臂位置和第二手臂位置对应的坐标可以是在样本坐标系下坐标。样本坐标系可以是以样本手臂区域图像的左下角为原点,以该样本手臂区域图像下面的边为横轴,以该样本手臂区域图像左面的边为纵轴,使该样本手臂区域图像位于第一象限的坐标系。样本手臂区域图像的尺寸大小可以与车窗控制图像的尺寸大小相同。
95.第二子步骤,可以将样本手臂区域集合作为训练样本,将样本手臂区域集合中的各个样本手臂区域对应的第一手臂位置和第二手臂位置,作为训练标签,对构建的目标手臂点识别网络进行训练,得到训练完成的目标手臂点识别网络。
96.第四步,将上述疑似手臂区域边缘上距离目标原点最远的像素点对应的位置,确定为上述疑似手臂区域对应的第四边缘点位置。
97.其中,第四边缘点位置可以用第四位置像素点在目标坐标系下的坐标表征。第四位置像素点可以是疑似手臂区域边缘上距离目标原点最远的像素点。如果疑似手臂区域是手臂区域,则第四边缘点位置可以表征手的边缘上距离目标原点最远的像素点对应的位置。
98.第五步,根据上述疑似手臂区域对应的参考手臂区域以及上述疑似手臂区域对应的第一边缘点位置、第二边缘点位置、第三边缘点位置和第四边缘点位置,确定上述疑似手臂区域对应的手臂运动可能性。
99.其中,上述疑似手臂区域对应的参考手臂区域可以是上述疑似手臂区域所在的车窗控制图像的上一帧车窗控制图像包括的疑似手臂区域。
100.例如,根据上述疑似手臂区域对应的参考手臂区域以及上述疑似手臂区域对应的第一边缘点位置、第二边缘点位置、第三边缘点位置和第四边缘点位置,确定上述疑似手臂区域对应的手臂运动可能性可以包括以下子步骤:第一子步骤,根据上述疑似手臂区域对应的参考手臂区域对应的第一边缘点位置和上述疑似手臂区域对应的第一边缘点位置,确定上述疑似手臂区域对应的第一移动距离。
101.其中,第一移动距离可以是疑似手臂区域对应的参考手臂区域对应的第一边缘点位置和该疑似手臂区域对应的第一边缘点位置之间的距离。如果疑似手臂区域是手臂区
域,则第一移动距离可以表征大臂的移动距离。
102.比如,确定疑似手臂区域对应的第一移动距离对应的公式可以为:其中,是疑似手臂区域集合中的第j个疑似手臂区域对应的第一移动距离。j是疑似手臂区域集合中疑似手臂区域的序号。是疑似手臂区域集合中的第j个疑似手臂区域对应的第一边缘点位置包括的横坐标。是疑似手臂区域集合中的第j个疑似手臂区域对应的第一边缘点位置包括的纵坐标。是疑似手臂区域集合中的第j-1个疑似手臂区域对应的第一边缘点位置包括的横坐标。是疑似手臂区域集合中的第j-1个疑似手臂区域对应的第一边缘点位置包括的纵坐标。疑似手臂区域集合中的第j-1个疑似手臂区域对应的第一边缘点位置可以是第j个疑似手臂区域对应的参考手臂区域。
103.第二子步骤,根据上述疑似手臂区域对应的参考手臂区域以及上述疑似手臂区域对应的第二边缘点位置、第三边缘点位置和第四边缘点位置,确定上述疑似手臂区域对应的第二移动距离、第三移动距离和第四移动距离。
104.其中,第二移动距离可以是疑似手臂区域对应的参考手臂区域对应的第二边缘点位置和该疑似手臂区域对应的第二边缘点位置之间的距离。第三移动距离可以是疑似手臂区域对应的参考手臂区域对应的第三边缘点位置和该疑似手臂区域对应的第三边缘点位置之间的距离。第四移动距离可以是疑似手臂区域对应的参考手臂区域对应的第四边缘点位置和该疑似手臂区域对应的第四边缘点位置之间的距离。如果疑似手臂区域是手臂区域,则第二移动距离可以表征大臂和小臂的交接处的移动距离,第三移动距离可以表征小臂和手的交接处的移动距离,第四移动距离可以表征手的移动距离。
105.比如,第二移动距离、第三移动距离和第四移动距离的确定方式可以参考第一移动距离的确定方式。
106.第三子步骤,根据上述疑似手臂区域对应的第一移动距离和第二移动距离,确定上述疑似手臂区域对应的第一相对移动速度指标。
107.其中,如果疑似手臂区域是手臂区域,则第一相对移动速度指标可以表征大臂和小臂的交接处相对于大臂的移动速率。
108.比如,可以将疑似手臂区域对应的第二移动距离和第一移动距离的差值,确定为该疑似手臂区域对应的第一相对移动速度指标对应的公式可以为:其中,dr1是疑似手臂区域对应的第一相对移动速度指标。是疑似手臂区域对应的第二移动距离。是疑似手臂区域对应的第一移动距离。
109.又如,可以将疑似手臂区域对应的第一目标差值与目标时长的比值,确定为该疑似手臂区域对应的第一相对移动速度指标。其中,疑似手臂区域对应的第一目标差值可以是该疑似手臂区域对应的第二移动距离和第一移动距离的差值。目标时长可以是相邻两帧车窗控制图像之间的时长。如,确定疑似手臂区域对应的第一相对移动速度指标对应的公式可以为:
其中,dr1是疑似手臂区域对应的第一相对移动速度指标。是疑似手臂区域对应的第二移动距离。是疑似手臂区域对应的第一移动距离。t是目标时长。
110.第四子步骤,根据上述疑似手臂区域对应的第一移动距离、第二移动距离和第三移动距离,确定上述疑似手臂区域对应的第二相对移动速度指标。
111.其中,如果疑似手臂区域是手臂区域,则第二相对移动速度指标可以表征小臂和手的交接处相对于大臂、大臂和小臂的交接处的移动速率。
112.比如,确定疑似手臂区域对应的第二相对移动速度指标对应的公式可以为:其中,dr2是疑似手臂区域对应的第二相对移动速度指标。是疑似手臂区域对应的第一移动距离。是疑似手臂区域对应的第二移动距离。是疑似手臂区域对应的第三移动距离。
113.又如,确定疑似手臂区域对应的第二相对移动速度指标对应的公式可以为:其中,dr2是疑似手臂区域对应的第二相对移动速度指标。是疑似手臂区域对应的第一移动距离。是疑似手臂区域对应的第二移动距离。是疑似手臂区域对应的第三移动距离。t是目标时长。
114.第五子步骤,根据上述疑似手臂区域对应的第一移动距离、第二移动距离、第三移动距离和第四移动距离,确定上述疑似手臂区域对应的第三相对移动速度指标。
115.其中,如果疑似手臂区域是手臂区域,则第三相对移动速度指标可以表征手相对于大臂、大臂和小臂的交接处、小臂和手的交接处的移动速率。
116.比如,根据上述疑似手臂区域对应的第一移动距离、第二移动距离、第三移动距离和第四移动距离,确定上述疑似手臂区域对应的第三相对移动速度指标可以包括以下步骤:首先,获取上述疑似手臂区域对应的目标时长。
117.其中,目标时长可以是相邻两帧车窗控制图像之间的时长。
118.接着,将上述疑似手臂区域对应的第四移动距离和第一移动距离的差,确定为上述疑似手臂区域对应的第一相对距离。
119.然后,将上述疑似手臂区域对应的第四移动距离和第二移动距离的差,确定为上述疑似手臂区域对应的第二相对距离。
120.之后,将上述疑似手臂区域对应的第四移动距离和第三移动距离的差,确定为上述疑似手臂区域对应的第三相对距离。
121.而后,将上述疑似手臂区域对应的第一相对距离、第二相对距离和第三相对距离的均值,确定为上述疑似手臂区域对应的相对距离均值。
122.最后,将上述疑似手臂区域对应的相对距离均值与目标时长的比值,确定为上述疑似手臂区域对应的第三相对移动速度指标。
123.又如,确定疑似手臂区域对应的第三相对移动速度指标对应的公式可以为:
其中,dr3是疑似手臂区域对应的第三相对移动速度指标。是疑似手臂区域对应的第一移动距离。是疑似手臂区域对应的第二移动距离。是疑似手臂区域对应的第三移动距离。是疑似手臂区域对应的第四移动距离。
124.如图6所示,第一移动距离可以是第三边缘像素点601和第四边缘像素点602之间的距离。第二移动距离可以是第五边缘像素点603和第六边缘像素点604之间的距离。第三移动距离可以是第七边缘像素点605和第八边缘像素点606之间的距离。第四移动距离可以是第九边缘像素点607和第十边缘像素点608之间的距离。
125.第六子步骤,将上述疑似手臂区域对应的第一相对移动速度指标、第二相对移动速度指标与第三相对移动速度指标的和,确定为上述疑似手臂区域对应的手臂运动可能性。
126.比如,确定疑似手臂区域对应的手臂运动可能性对应的公式可以为:其中,是疑似手臂区域集合中的第j个疑似手臂区域对应的手臂运动可能性。j是疑似手臂区域集合中疑似手臂区域的序号。是疑似手臂区域集合中的第j个疑似手臂区域对应的第一相对移动速度指标。是疑似手臂区域集合中的第j个疑似手臂区域对应的第二相对移动速度指标。是疑似手臂区域集合中的第j个疑似手臂区域对应的第三相对移动速度指标。
127.需要说明的是,手臂运动时,手臂包括的大臂、小臂和手这三部分之间的相对运动情况往往不同,区别往往在于,小臂和手之间的相对运动程度往往较小,小臂和大臂之间的相对运动程度往往较大,所以综合考虑大臂、小臂和手这三部分之间的相对运动程度,可以提高对疑似手臂区域是否为手臂区域判断的准确度。其中,运动程度可以用相对移动速度指标表征。即当疑似手臂区域对应的第一相对移动速度指标、第二相对移动速度指标和第三相对移动速度指标越大时,该疑似手臂区域往往越可能是手臂区域。
128.步骤s5,根据疑似手臂区域集合中的各个疑似手臂区域对应的手臂可能性和手臂运动可能性,确定目标手臂运动可能性。
129.在一些实施例中,可以根据上述疑似手臂区域集合中的各个疑似手臂区域对应的手臂可能性和手臂运动可能性,确定目标手臂运动可能性。
130.作为示例,确定目标手臂运动可能性对应的公式可以为:其中,fp是目标手臂运动可能性。n是疑似手臂区域集合中疑似手臂区域的数量。j是疑似手臂区域集合中疑似手臂区域的序号。是疑似手臂区域集合中的第j个疑似手臂区域对应的手臂可能性。是疑似手臂区域集合中的第j个疑似手臂区域对应的手臂运动可能性。
131.需要说明的是,当各个疑似手臂区域对应的第一相对移动速度指标、第二相对移动速度指标和第三相对移动速度指标越大时,疑似手臂区域往往越可能是手臂区域,车窗
控制视频往往越可能录制到了运动的手臂,往往需要对车窗进行控制。
132.步骤s6,当目标手臂运动可能性大于预先设置的运动阈值时,确定疑似手臂区域集合中的每个疑似手臂区域对应的手臂高度指标和手臂速度指标。
133.在一些实施例中,当上述目标手臂运动可能性大于预先设置的运动阈值时,可以确定上述疑似手臂区域集合中的每个疑似手臂区域对应的手臂高度指标和手臂速度指标。
134.其中,运动阈值可以是预先设置的疑似手臂区域不是运动的手臂区域时,所允许的最大的目标手臂运动可能性。例如,运动阈值可以是5。手臂高度指标可以表征手的高度。手臂速度指标可以表征手的速度。
135.实际情况中,当目标手臂运动可能性小于或等于运动阈值时,往往说明疑似手臂区域不是运动的手臂区域,往往不需要对车窗状态进行调整。
136.作为示例,本步骤可以包括以下步骤:第一步,将上述疑似手臂区域对应的第四边缘点位置对应的第四坐标包括的纵坐标,确定为上述疑似手臂区域对应的手臂高度指标。
137.其中,第四坐标是第四边缘点位置对应在目标坐标系下的坐标。
138.第二步,将上述疑似手臂区域对应的第四移动距离与目标时长的比值,确定为上述疑似手臂区域对应的手臂速度指标。
139.可选地,可以将疑似手臂区域对应的第四移动距离,确定为该疑似手臂区域对应的手臂速度指标。
140.需要说明的是,由于,手臂运动过程中,手的运动速度往往是手臂运动过程中的最大速度,并且,当疑似手臂区域是手臂区域时,第四边缘点位置可以表征手的边缘上距离目标原点最远的像素点对应的位置,因此,疑似手臂区域对应的手臂速度指标可以表征疑似手臂区域对应的时刻下,手臂的最大速度。其次,由于,手臂运动过程中,手的高度往往是手臂运动过程中的最大高度,因此,疑似手臂区域对应的手臂高度指标可以表征疑似手臂区域对应的时刻下,手臂的最大高度。
141.步骤s7,从疑似手臂区域集合中的各个疑似手臂区域对应的手臂高度指标和手臂速度指标中筛选出最大的手臂高度指标和手臂速度指标,分别作为目标高度指标和目标速度指标。
142.在一些实施例中,可以从上述疑似手臂区域集合中的各个疑似手臂区域对应的手臂高度指标和手臂速度指标中筛选出最大的手臂高度指标和手臂速度指标,分别作为目标高度指标和目标速度指标。
143.其中,目标高度指标可以表征车窗控制视频对应的时间段内,手臂的最高高度。目标速度指标可以表征车窗控制视频对应的时间段内,手臂的最大速度。
144.作为示例,可以从疑似手臂区域集合中的各个疑似手臂区域对应的手臂高度指标中筛选出最大的手臂高度指标,作为目标高度指标。从疑似手臂区域集合中的各个疑似手臂区域对应的手臂速度指标中筛选出最大的手臂速度指标,作为目标速度指标。
145.步骤s8,根据目标高度指标或目标速度指标,控制目标车窗的升降。
146.在一些实施例中,可以根据上述目标高度指标或上述目标速度指标,控制目标车窗的升降。
147.其中,目标车窗可以是待进行状态调整的车窗。
148.作为示例,本步骤可以包括以下步骤:第一步,当上述目标速度指标大于预先设置的速度指标阈值时,根据上述疑似手臂区域集合中的最后一个疑似手臂区域对应的第四移动距离对应的两个边缘像素点,控制目标车窗完全打开或完全关闭。
149.其中,速度指标阈值可以是预先设置的速度指标。比如,速度指标阈值可以是10。当两个边缘像素点之间的距离为第四移动距离时,这两个边缘像素点可以是第四移动距离对应的两个边缘像素点。
150.例如,根据上述疑似手臂区域集合中的最后一个疑似手臂区域对应的第四移动距离对应的两个边缘像素点,控制目标车窗完全打开或完全关闭可以包括以下子步骤:第一子步骤,将最后一个疑似手臂区域对应的第四移动距离对应的两个边缘像素点,合并到预先设置的标准坐标系下。
151.其中,标准坐标系可以是预先设置的二维坐标系。
152.比如,将最后一个疑似手臂区域对应的第四移动距离对应的两个边缘像素点,合并到预先设置的标准坐标系下可以包括以下步骤:首先,可以根据最后一个疑似手臂区域对应的第四移动距离对应的两个边缘像素点所在的车窗控制图像对应的采集时间,将这两个边缘像素点分别作为第一目标边缘点和第二目标边缘点。其中,车窗控制图像对应的采集时间可以是采集该车窗控制图像的时间。第二目标边缘点所在的车窗控制图像对应的采集时间相较于第一目标边缘点所在的车窗控制图像对应的采集时间,更接近当前时间。
153.接着,可以将第一目标边缘点移动至标准坐标系的第一坐标处,将第二目标边缘点移动至标准坐标系的第二坐标处。其中,第一坐标可以与第一目标边缘点在目标坐标系下的坐标相同。第二坐标可以与第二目标边缘点在目标坐标系下的坐标相同。
154.第二子步骤,根据最后一个疑似手臂区域对应的第四移动距离对应的两个边缘像素点在上述标准坐标系下的位置,确定目标向量。
155.比如,根据最后一个疑似手臂区域对应的第四移动距离对应的两个边缘像素点在上述标准坐标系下的位置,确定目标向量可以包括以下步骤:首先,可以根据最后一个疑似手臂区域对应的第四移动距离对应的两个边缘像素点所在的车窗控制图像对应的采集时间,将这两个边缘像素点分别作为第一目标边缘点和第二目标边缘点。其中,车窗控制图像对应的采集时间可以是采集该车窗控制图像的时间。第二目标边缘点所在的车窗控制图像对应的采集时间相较于第一目标边缘点所在的车窗控制图像对应的采集时间,更接近当前时间。
156.接着,可以在标准坐标系下,连接第一目标边缘点和第二目标边缘点,将连接得到的线段的长度,确定为目标向量的大小,将从第一目标边缘点指向第二目标边缘点的方向,确定为目标向量的方向。
157.第三子步骤,将上述目标向量与预先设置的纵轴向量之间的夹角,确定为方向夹角。
158.其中,纵轴向量的方向与标准坐标系纵轴的正方向相同。纵轴向量可以是单位向量。
159.第四子步骤,当上述方向夹角大于90
°
时,控制目标车窗完全打开。
160.其中,方向夹角大于90
°
时,往往认为车窗控制视频中的手臂向上运动。
161.第五子步骤,当上述方向夹角小于或等于90
°
时,控制目标车窗完全关闭。
162.其中,方向夹角小于或等于90
°
时,往往认为车窗控制视频中的手臂向下运动。
163.需要说明的是,当目标速度指标大于速度指标阈值时,往往说明手臂的运动速度比较快,一般情况下,开窗或关窗比较紧急时,用户的手臂运动速度往往比较大,并且开窗时,比如,开窗刷卡时,手臂运动方向往往向上,关窗时,手臂运动方向往往向下。因此,根据方向夹角,控制目标车窗完全打开或完全关闭,比较符合用户习惯,可以提高用户体验。
164.第二步,当上述目标速度指标小于或等于速度指标阈值时,根据上述目标高度指标,控制目标车窗的高度。
165.其中,目标车窗的高度可以用目标车窗玻璃的高度表征。
166.例如,根据上述目标高度指标,控制目标车窗的高度可以包括以下子步骤:第一子步骤,当目标高度指标大于或等于预先获取的第一目标高度时,控制目标车窗完全打开。
167.其中,第一目标高度可以是预先获取的高度。比如,第一目标高度可以是目标车窗的最高的高度处的位置点被车窗控制图像采集到时,该位置点在目标坐标系下的纵坐标。目标车窗的最高的高度可以是目标车窗完全关闭时的高度。
168.第二子步骤,当目标高度指标小于或等于预先获取的第二目标高度时,控制目标车窗完全关闭。
169.其中,第二目标高度可以是预先获取的高度。比如,第二目标高度可以是目标车窗的最低的高度处的位置点被车窗控制图像采集到时,该位置点在目标坐标系下的纵坐标。目标车窗的最低的高度可以是目标车窗完全打开时的高度。
170.第三子步骤,当目标高度指标小于第一目标高度并且大于第二目标高度时,将预先获取的目标比例系数和目标高度指标的乘积,确定为目标调节高度,控制目标车窗,将目标车窗的高度,调节至目标调节高度。
171.其中,目标比例系数可以是在目标坐标系下,预先设置的参考车窗高度与该参考车窗高度对应的纵坐标的比值。参考车窗高度可以是目标车窗打开时的可能高度。如,参考车窗高度的取值范围可以是(第二高度,第一高度)。其中,第二高度可以是目标车窗完全打开时的高度。第一高度可以是目标车窗完全关闭时的高度。参考车窗高度对应的纵坐标可以是该参考车窗高度处的位置点被车窗控制图像采集到时,该位置点在目标坐标系下的纵坐标。
172.比如,确定目标调节高度对应的公式可以为:其中,是目标调节高度。q是目标比例系数。是目标高度指标。
173.需要说明的是,当目标速度指标小于或等于速度指标阈值时,往往说明手臂的运动速度比较慢,一般情况下,当开窗或关窗比较不紧急时,往往可以将车窗打开目标调节高度时,目标调节高度可以表征手臂相对于车窗玻璃的高度,可以直接根据手臂的高度,确定车窗的高度,可以不需要记忆该高度对应的模板手势,提高了用户体验。
174.本发明的用于车窗控制系统的视频智能识别方法,采用图形识别的方式,获取车窗控制视频,并进行相关的数据识别,解决了对车窗控制的效率和准确度低下,提高了对车
窗控制的效率和准确度。首先,对获取的车窗控制视频中的各帧车窗控制图像进行运动区域识别,将识别出运动区域的车窗控制图像筛选出来,得到目标控制图像集合。由于本发明通过识别手臂的运动状态,对车窗进行控制,当车窗控制图像不存在运动区域时,往往说明车窗控制图像中不存在运动的手臂,因此,筛选出可能包括运动手臂的目标控制图像,可以使后续不需对不存在运动区域的车窗控制图像进行识别处理,减少了计算量,减少了计算资源的占用。接着,根据运动区域的面积,判断运动区域是否为疑似手臂区域,可以初步判断运动区域是否为运动的手臂区域。对疑似手臂区域进行手臂形态特征识别和手臂运动可能特征识别,确定目标手臂运动可能性,可以提高目标手臂运动可能性确定的准确度。之后,当目标手臂运动可能性大于预先设置的运动阈值时,确定疑似手臂区域集合中的每个疑似手臂区域对应的手臂高度指标和手臂速度指标。确定手臂高度指标和手臂速度指标,可以便于后续对目标车窗进行控制。而后,从疑似手臂区域集合中的各个疑似手臂区域对应的手臂高度指标和手臂速度指标中筛选出最大的手臂高度指标和手臂速度指标,分别作为目标高度指标和目标速度指标。最后,根据目标高度指标或目标速度指标,控制目标车窗的升降。由于,当对手的拍摄不完整时,往往不会影响本发明对手臂运动状态的识别,因此,本发明相较于依赖手势的手势车窗控制方法,可以提高对车窗控制的准确度。并且相较于需要回忆或查看多个模板手势的手势车窗控制方法,提高了对车窗控制的效率。
175.以上实施例仅用以说明本技术的技术方案,而非对其限制;尽管参照前述实施例对本技术进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本技术各实施例技术方案的范围,均应包含在本技术的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1