一种连续记录视频、影像的内容识别方法

文档序号:9432579阅读:502来源:国知局
一种连续记录视频、影像的内容识别方法
【技术领域】
[0001]本发明涉及视频识别方法,尤其是一种适用于连续记录视频、影像的内容识别方法。
【背景技术】
[0002]随着智能穿戴技术的发展,人们通过智能穿戴设备获取的视频也越来越多,在观看这些记录视频时,需要对视频进行搜索,对视频的搜索通常需要对视频进行识别。
[0003]在对视频进行识别时,通常是利用单纯的视频场景分割方法来进行识别,或单纯的人脸识别,已经有成熟的多种算法,然而依然在持续发展改善,识别准确率低、效率低,且现有的分析算法不能对连续的视频进行不间断的识别,无法给人们带来方便。

【发明内容】

[0004]为了解决上述技术问题,本发明提供一种连续记录视频、影像的内容识别方法,能够更快捷准确地识别出视频画面中的场景特征与人脸特征。
[0005]为了实现上述目的,本发明所采用的技术方案是:
一种连续记录视频、影像的内容识别方法,该方法包括,
从连续实时视频中获取视频片段;
根据所述视频片段进行画面分割生成画面片段;
对所述画面片段提取特征信息,根据提取的特征信息进行至少包括场景识别和人脸识别的识别处理,分类得到相应的内容片段并进行标记;
根据所述标记的内容片段确定所对应的视频片段并进行识别标记。
[0006]从经过分割的画面片段中提取图像的特征信息进行识别,能有效降低识别判断的出错率,且能够同时对场景和人脸进行识别处理,处理过程更高效。
[0007]优选的,从连续实时视频中获取视频片段的具体方法,包括:
对连续实时视频进行等时间间隔提取N个关键帧,对于连续实时视频中除提取的N个关键帧之外的视频帧,相邻关键帧之间的视频帧以中心位置的视频帧为代表,定义为中心帧;
将各中心帧与相近的关键帧分别进行对比确定相似度;
选取与关键帧相似度最低的中心帧,以该中心帧所对应的视频帧作为提取的视频片段。
[0008]上述的视频片段进行画面分割生成画面片段的过程是依据对画面内容的变化情况进行判断;
若判断画面的特征信息出现显著的差异,则确定该画面内容变化的位置作为分割点,完成画面分割;
若判断画面的特征信息持续出现相同的内容,则确定该画面内容连续不变化,输出该画面内容为画面片段。
[0009]在对画面内容的变化情况进行判断时,还结合由智能穿戴设备获取的用户的生理数据和位置信息进行比对,通过对所述特征信息的检测,判断分析用户视频内容的行为。
[0010]在所述视频片段完成画面分割生成画面片段后,建立片段文件,将生成的画面片段保存在该片段文件中,具体地,将片段文件按标记顺序命名区分开来,便于快速查找。
[0011]上述方法中,所述画面的特征信息包括画面的亮度、画面的对比度、场景特征、人脸图像中的至少一种。
[0012]该方法中,所述场景识别过程包括,根据从画面片段中提取的特征信息进行场景分析运算,结合通过位置传感器获取的位置信息来判断用户所处的场景,并建立场景数据表进行记录,当下一次从连续实时视频中检测到相同的特征信息时,直接从场景数据表中提取相应的位置信息。
[0013]该方法中,所述人脸识别过程包括,根据从画面片段中提取人脸图像进行人脸分析运算,从人脸图像中提取关键点;根据所述关键点对所述人脸图像进行校正,得到校正后的人脸图像和校正后的关键点;对所述校正后的人脸图像进行特征提取,得到特征点数据集合;在所述特征点数据集合中获取所述校正后的关键点所在关键区域内的特征点数据,将所述关键区域内的特征点数据组合成特征向量;根据所述特征向量进行人脸识别,并进行记录。
[0014]根据所述场景识别和人脸识别建立社交指数因子表,用于记录任意两个人脸之间的因子数值,代表两个人的关系亲密度,建立社交指数因子表的过程包括,获取所述两个人之间的人物特性,根据所述两个人脸之间的距离和相应的距离加权系数,得到所述两个人脸之间的关系指数;利用所述两个人脸之间的关系指数,判断所述两个人脸的社交关系亲密度;其中,所述人物特性包括人物的性别、年龄、种族、衣服、眼镜信息、人脸在图片中的位置、图片的拍摄时间和连拍信息中的任意一个或任意多个组合。
[0015]该方法中,所述连续实时视频通过智能穿戴设备进行记录获取,该内容识别方法的处理过程在智能穿戴设备上完成,或者通过智能穿戴设备将连续实时视频上传至云端服务器,再由云端服务器对连续实时视频进行内容识别处理。
[0016]本发明的有益效果:该识别方法中,首先从连续实时视频中获取视频片段,然后将视频片段进行画面分割并提取特征信息,根据提取的特征信息同时实现对场景和人脸进行识别处理,能够避免非场景特征和人脸特征的干扰,有效提高识别判断的准确率,识别后的视频片段进行标记,即记录下用户的日常活动、场景等内容,便于后续大数据的维护,通过智能识别能够帮助用户拓展社会关系。
【附图说明】
[0017]下面结合附图对本发明的【具体实施方式】做进一步的说明。
[0018]图1是本发明的连续实时视频内容识别方法的流程图;
图2是本发明中场景识别的流程图;
图3是本发明中人脸识别的流程图;
图4是本发明中社交指数因子表的实施例。
【具体实施方式】
[0019]参照图1-3,本发明提供的一种连续记录视频、影像的内容识别方法,该方法包括,从连续实时视频中获取视频片段;根据所述视频片段进行画面分割生成画面片段;对所述画面片段提取特征信息,根据提取的特征信息进行至少包括场景识别和人脸识别的识别处理,分类得到相应的内容片段并进行标记;根据所述标记的内容片段确定所对应的视频片段并进行识别标记。
[0020]上述的方法步骤中,从连续实时视频中获取视频片段的具体方法,包括对连续实时视频进彳丁等时间间隔提取N个关键帧,对于连续实时视频中除提取的N个关键帧之外的视频帧,相邻关键帧之间的视频帧以中心位置的视频帧为代表,定义为中心帧;将各中心帧与相近的关键帧分别进行对比确定相似度;选取与关键帧相似度最低的中心帧,以该中心帧所对应的视频帧作为提取的视频片段,从而完成视频片段的提取,即实现将连续实时视频转化为视频片段形式进行识别,有利于提高后续识别判断的准确度。
[0021]该方法步骤中,视频片段进行画面分割生成画面片段的过程是依据对画面内容的变化情况进行判断,即对画面内容变化的持续识别;若判断画面的特征信息出现显著的差异,则确定该画面内容变化的位置作为分割点,完成画面分割;若判断画面的特征信息持续出现相同的内容,则确定该画面内容连续不变化,输出该画面内容为画面片段,即在重复画面内容中选取其中之一的画面为输出的画面片段,该画面分割过程是基于视频分割算法管理器调用多重分割算法进行画面分割,其中分割过程选择精准度较高的视频片段进行分割。
[0022]在所述视频片段完成画面分割生成画面片段后,建立片段文件,将生成的画面片段进行标记并保存在片段文件中,具体地,将片段文件按标记顺序命名区分开来,便于后续用户进行快速查找。
[0023]上述方法中,采用的画面的特征信息包括画面的亮度、画面的对比度、场景特征、人脸图像中的至少一种。
[0024]其中,所述场景识别过程包括,根据从画面片段中提取的特征信息进行场景分析运算,结合通过位置传感器获取的位置信息来判断用户所处的场景,并建立场景数据表进行记录,当下一次从连续实时视频中检测到相同的特征信息时,直接从场景数据表中提取相应的位置信息。对场景的识别,比如用户在阅读、用餐,行走、会议、交谈、驾驶、坐车、跑步、踢球等,这些各类日常的活动,
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1