视频处理方法和装置、电子设备、计算机可读存储介质与流程

文档序号:16546168发布日期:2019-01-08 20:51阅读:179来源:国知局
视频处理方法和装置、电子设备、计算机可读存储介质与流程

本申请涉及计算机技术领域,特别是涉及一种视频处理方法、装置、电子设备、计算机可读存储介质。



背景技术:

电子设备可以通过拍摄、下载、传输等方式获取视频,在获取视频之后还可以对视频进行一些后期处理。例如,提高视频中图像帧的亮度、调整图像帧的饱和度或者调整图像帧的色温等,还可以对图像帧添加光效。添加的光效可以模拟光线变化,使图像帧中的物体呈现出光照效果。



技术实现要素:

本申请实施例提供一种视频处理方法、装置、电子设备、计算机可读存储介质,可以提高视频处理的准确性。

一种视频处理方法,包括:

获取待处理视频中的图像帧,检测所述图像帧中的人脸图像;

获取所述人脸图像在所述图像帧中的位置坐标和偏转角度,根据所述位置坐标和偏转角度生成所述人脸图像对应的光效模型,其中,所述光效模型为用于模拟光线变化的模型;

根据所述光效模型对所述图像帧进行光效处理。

一种视频处理装置,包括:

人脸检测模块,用于获取待处理视频中的图像帧,检测所述图像帧中的人脸图像;

模型获取模块,用于获取所述人脸图像在所述图像帧中的位置坐标和偏转角度,根据所述位置坐标和偏转角度生成所述人脸图像对应的光效模型,其中,所述光效模型为用于模拟光线变化的模型;

光效处理模块,用于根据所述光效模型对所述图像帧进行光效处理。

一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:

获取待处理视频中的图像帧,检测所述图像帧中的人脸图像;

获取所述人脸图像在所述图像帧中的位置坐标和偏转角度,根据所述位置坐标和偏转角度生成所述人脸图像对应的光效模型,其中,所述光效模型为用于模拟光线变化的模型;

根据所述光效模型对所述图像帧进行光效处理。

一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:

获取待处理视频中的图像帧,检测所述图像帧中的人脸图像;

获取所述人脸图像在所述图像帧中的位置坐标和偏转角度,根据所述位置坐标和偏转角度生成所述人脸图像对应的光效模型,其中,所述光效模型为用于模拟光线变化的模型;

根据所述光效模型对所述图像帧进行光效处理。

上述视频处理方法、装置、电子设备、计算机可读存储介质,可以读取待处理视频中的图像帧,并检测读取的图像帧中的人脸图像。然后根据人脸图像的位置坐标和偏转角度生成光效模型,根据获取的光效模型对待处理视频中的图像帧进行光效处理。对待处理视频中的图像帧进行光效处理后,生成的光效就会随着人脸的位置坐标和偏转角度而变化,从而实现对视频更准确的处理。

附图说明

为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为一个实施例中视频处理方法的应用环境示意图;

图2为一个实施例中视频处理方法的流程图;

图3为另一个实施例中视频处理方法的流程图;

图4为一个实施例中人脸图像的位置坐标示意图;

图5为一个实施例中人脸图像的偏转角度示意图;

图6为又一个实施例中视频处理方法的流程图;

图7为一个实施例中人脸图像序列的示意图;

图8为又一个实施例中视频处理方法的流程图;

图9为一个实施例的视频处理装置的结构框图;

图10为一个实施例中图像处理电路的示意图。

具体实施方式

为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。

图1为一个实施例中视频处理方法的应用环境示意图。如图1所示,该应用环境包括电子设备10,电子设备10可通过安装的摄像头102采集待处理视频。然后电子设备10可以获取待处理视频中的图像帧,检测图像帧中的人脸图像;获取人脸图像在图像帧中的位置坐标和偏转角度,根据位置坐标和偏转角度生成人脸图像对应的光效模型。其中,光效模型为用于模拟光线变化的模型。最后,根据光效模型对图像帧进行光效处理。在一个实施例中,电子设备10可以是个人电脑、移动终端、个人数字助理、可穿戴电子设备等,不限于此。

图2为一个实施例中视频处理方法的流程图。如图2所示,该视频处理方法包括步骤202至步骤206。其中:

步骤202,获取待处理视频中的图像帧,检测图像帧中的人脸图像。

在一个实施例中,待处理视频可以是电子设备直接通过摄像头拍摄的,也可以是通过网络下载的,还可以是存储在电子设备本地的,不限于此。例如,电子设备可以打开摄像头,并每间隔0.3秒对拍摄场景采集一张图像,这样在摄像头拍摄的过程中,就可以采集若干张图像,并根据这若干张图像生成一个视频。

可以理解的是,待处理视频是由至少两帧连续的图像帧组成的,这至少两帧连续的图像帧可以形成连续的图像画面,从而记录物体的动态变化。例如,待处理视频中的每一帧图像帧中车辆的位置不同,这样就可以通过图像帧记录车辆的位置变化,从而记录车辆位置动态变化的过程。待处理视频还可以包括对应于各个图像帧的音频信号,在此不做限定。

待处理视频中每一帧图像帧都有对应的时序标识,根据时序标识可以获取图像帧在待处理视频中排列的先后顺序。例如,时序标识可以通过数字序号进行标识、还可以通过具体的时刻进行标识,在此不做限定。其中,待处理视频中连续两帧图像帧的生成时刻之间的时间间隔越短,待处理视频反应地物体的动态变化过程的连续性越好。

在一个实施例中,获取到待处理视频之后,可以逐帧读取待处理视频中的图像帧,也可以读取待处理视频中的部分图像帧,然后检测读取的图像帧中的人脸图像,在此不做限定。电子设备在读取到图像帧之后,可以对读取到的图像帧进行人脸检测。具体采用的人脸检测算法在此不做限定,例如可以是采用局部特征分析方法(localfaceanalysis)、主成分分析法(principalcomponentanalysis,pca)、神经网络法(neuralnetworks)等人脸检测算法对图像帧中的人脸进行检测。

步骤204,获取人脸图像在图像帧中的位置坐标和偏转角度,根据位置坐标和偏转角度生成人脸图像对应的光效模型,其中,光效模型为用于模拟光线变化的模型。

人脸图像是指图像帧中人脸所在的区域。在检测到图像帧中的人脸图像之后,可以获取人脸图像在图像帧中的位置坐标和偏转角度。具体的,图像帧是由若干个像素点构成的二维像素矩阵,可以根据该二维像素矩阵建立二维坐标系,并根据像素点的排列来定义单位坐标。例如,可以以图像帧最左下角的像素点为原点建立二维坐标系,每向右移动一个像素点,横坐标加1,每向上移动一个像素点,纵坐标加1。

位置坐标就是指人脸图像在以图像帧建立的二维坐标系中的坐标。具体的,人脸图像的位置坐标可以表示为人脸图像中任意一个像素点在根据图像帧建立的二维坐标系中的坐标。例如,人脸图像的位置坐标可以人脸图像中最中心的像素点在图像帧的二维坐标系中的坐标,也可以是人脸图像最左下角像素点在图像帧的二维坐标系中的坐标。

具体的,还可以以图像帧中呈现的场景建立一个空间三维坐标系,那么人脸图像的偏转角度就可以通过人脸图像对应的人脸在该空间三维坐标系中相对于各个坐标轴的偏转角度进行表示,不限于此。

在一个实施例中,光效模型为模拟光线变化的模型,通过该光效模型可以对图像帧进行光效处理。例如,可以通过光效模型模拟太阳光、钨丝灯、日光灯等光线的变化。具体的,可以根据人脸图像在图像帧中的位置坐标和偏转角度,生成不同的光效模型,从而根据生成的光效模型对图像帧进行光效处理。

在一个实施例中,生成光效模型具体可以包括以下步骤:获取预设的参考光效模型;根据位置坐标调整参考光效模型的光源中心参数,并根据偏转角度调整参考光效模型的光效角度参数,生成人脸图像对应的光效模型。电子设备中可以预先建立一个通用的参考光效模型,然后将参考光效模型进行存储。光源中心参数是用于表示参考光效模型模拟的光线的光源所在的点的参数,光效角度参数是指参考光效模型模拟的光线的照射角度的参数。调节参考光效模型的光源中心参数和光效角度参数之后,生成的光效模型可以模拟不同位置和角度的光线。

举例来说,可以根据人脸图像的位置坐标和偏转角度,调节光效模型模拟的光线的光源中心点位置。当人脸图像的位置坐标和偏转角度不同时,光效模型模拟的光线的光源中心点的位置也不同,在此不做限定。

步骤206,根据光效模型对图像帧进行光效处理。

光效处理是指对图像添加光线效果的处理。具体的,该光效模型可以模拟光线的方向、强弱、颜色等变化曲线,通过该光效模型对图像帧添加不同方向、强弱和颜色的光线。例如,光效模型可以模拟白炽灯产生的光线变化,也可以模拟钨丝光的光线变化,白炽灯产生的光线颜色偏蓝,钨丝灯产生的光线颜色偏黄。

具体的,光效模型可以是对图像帧中的部分区域进行光效处理的模型,也可以是对图像帧中的全部区域进行光效处理的模型,在此不做限定。例如,通过光效模型可以是只图像帧中的人像所在的区域进行光效处理,还可以是指对图像帧中的背景所在的区域进行光效处理。对待处理视频中的图像帧进行光效处理后,生成的光效就会随着人脸的位置坐标和偏转角度而变化,从而在处理后的待处理视频中呈现一种光线动态变化的效果。

上述实施例提供的视频处理方法,可以读取待处理视频中的图像帧,并检测读取的图像帧中的人脸图像。然后根据人脸图像的位置坐标和偏转角度生成光效模型,根据获取的光效模型对待处理视频中的图像帧进行光效处理。对待处理视频中的图像帧进行光效处理后,生成的光效就会随着人脸的位置坐标和偏转角度而变化,从而实现对视频更准确的处理。

图3为另一个实施例中视频处理方法的流程图。如图3所示,该视频处理方法包括步骤302至步骤310。其中:

步骤302,获取待处理视频中的图像帧,检测图像帧中的人脸图像。

待处理视频中的图像帧是具有时序性的,即这些图像帧是根据生成的先后顺序进行排列的。待处理视频中的图像帧可以通过时序标识来进行唯一标记,并通过时序标识来对排列的先后顺序进行标记。电子设备在检测到人脸图像之后,可以对检测到的每一个人脸图像分配一个人脸标识,通过该人脸标识对人脸图像进行唯一标记。

例如,可以通过“图像帧的时序标识+人脸图像编号”进行标记,假设图像帧的时序标识为pic01,人脸图像编号为face02,那么得到的人脸标识就可以是“pic01+face02”。其中,图像帧的时序标识可以对图像帧进行唯一标示,人脸图像编号可以对同一张图像帧中的人脸图像进行不同的编号,那么根据上述人脸标识就可以对每一张图像帧中的每一张人脸图像进行唯一标记。

步骤304,将检测到的所有人脸图像进行分类,得到至少一个人脸类别;其中,每一人脸类别中包含的人脸图像对应同一张人脸。

在一个实施例中,在对获取的图像帧进行人脸检测之后,可以将检测到的图像帧中的人脸图像进行分类,得到至少一个人脸类别。得到的同一个人脸类别中包含的人脸图像对应同一张人脸。

具体的,从获取的图像帧中检测到的人脸图像可以组成一个人脸图像集合,然后电子设备可以遍历人脸图像集合中的人脸图像,每读取到一张人脸图像的时候,会将读取到的人脸图像与已建立的人脸类别中的人脸图像进行匹配。若读取到的人脸图像与已建立人脸类别中的人脸图像相匹配,则将该读取到的人脸图像分到该匹配上的人脸图像对应的人脸分类中;若读取到的人脸图像与已建立人脸类别中的人脸图像不匹配,则将该读取到的人脸图像单独建立一个人脸类别。

步骤306,统计每一人脸类别中包含的人脸图像的数量作为目标数量,将目标数量大于数量阈值的人脸类别中所包含的人脸图像作为目标人脸图像。

电子设备在对人脸图像进行分类之后,可以统计每一个人脸类别中包含的人脸图像的数量,作为目标数量。目标数量越多,说明该人脸类别中包含的人脸图像越多,也说明该人脸类别对应的人脸出现的次数越多。具体的,可以将目标数量大于数量阈值的人脸类别中所包含的人脸图像作为目标人脸图像,并对目标人脸图像进行处理。

进一步地,可以统计目标数量大于数量阈值的人脸类别的类别总数,当统计得到的类别总数大于总数阈值时,则可以统计目标数量大于数量阈值的各个人脸类别中包含的人脸图像的平均人脸面积,将平均人脸面积大于面积阈值的人脸类别作为目标人脸类别。最后将目标人脸类别中包含的人脸图像作为目标人脸图像。

其中,平均人脸面积是指人脸类别中包含的所有人脸图像的面积平均值。面积可以是通过人脸图像中包含的像素点数量表示,也可以通过其他方式进行表示,在此不做限定。例如,一个人脸类别中包含3张人脸图像,那么可以获取每一张人脸图像的面积,然后将各个人脸图像的面积相加,再将相加的结果除以3得到平均人脸面积。

步骤308,获取目标人脸图像在对应的图像帧中的位置坐标和偏转角度,根据位置坐标和偏转角度生成目标人脸图像对应的光效模型。

电子设备在检测图像帧中的人脸图像时,会同时获取人脸图像的位置坐标和偏转角度,并将获取的位置坐标和偏转角度与人脸标识建立对应关系。这样在确定目标人脸图像之后,就可以根据建立的该对应关系,获取目标人脸图像在对应的图像帧中的位置坐标和偏转角度。

图4为一个实施例中人脸图像的位置坐标示意图。如图4所示,可以根据图像帧40建立一个二维坐标系oxy,图像帧40中包含人脸图像402。人脸图像402在图像帧40中的位置坐标,可以通过人脸图像402中的一个像素点404在上述建立的二维坐标系oxy中的坐标进行表示。

图5为一个实施例中人脸图像的偏转角度示意图。如图5所示,可以根据图像帧50中的场景建立空间三维坐标系o'x'y'z',具体的以图像帧50的左下角像素点为原点o',以原点o'向两条边延伸的方向作为x'轴正方向和y'轴正方向,并以垂直于图像帧50的方向作为z'轴正方向。在该空间三维坐标系o'x'y'z'中,人脸图像502相对于x'轴、y'轴和z'轴的偏转角度,分别为0°、0°、0°。人脸图像504先归于相对于x'轴、y'轴和z'轴的偏转角度,分别为0°、α、0°。

可以理解的是,获取的目标人脸图像可能存在一张或者多张,那么在获取到每一张目标人脸图像对应位置坐标和偏转角度之后,就可以分别根据位置坐标和偏转角度获取每一张人脸图像对应的光效模型。再根据获取的光效模型进行光效处理。

步骤310,根据光效模型对图像帧进行光效处理。

在本申请提供的实施例中,可以根据光效模型获取图像帧中包含的像素点的光效参数,根据光效参数对图像帧中包含的像素点进行光效处理。具体的,图像帧是由若干像素点构成的二维矩阵,每个像素点都有对应的像素值。因此,获取光效模型之后,可以根据光效模型计算图像帧中各个像素点的光效参数。计算出光效参数之后,可以根据光效参数对图像帧中的各个像素点进行光效处理。具体可以通过光效参数对图像帧进行叠加或乘积的方式进行光效处理,在此不做限定。可以理解的是,图像中的像素值的取值范围一般为[0,255],因此在经过光效处理之后的图像帧的像素值不能大于255。

例如,假设图像帧为h0(x,y),光效模型为p(x,y),则通过叠加方式进行光效处理之后的图像帧h(x,y)就可以表示为h(x,y)=(1+p(x,y))h0(x,y),通过乘积的方式进行光效处理后的图像帧就可以表示为h(x,y)=p(x,y)h0(x,y)。可以理解的是,光效处理还可以是以其他方式实现的,在此不做限定。

在一个实施例中,在对图像帧进行光效处理的时候,还可以对图像帧中的各个颜色通道做不同的处理。具体的,图像帧中的每个像素点可以对应一个或多个颜色通道值,则可以根据获取的光效模型计算各个像素点对应的颜色通道值的光效参数,再根据光效参数分别对各个像素点的颜色通道值进行光效处理。

例如,图像帧可以对应四个颜色通道,则获取的光效模型中可以包含四个光效子模型,每个光效子模型对应处理一个颜色通道,那么就可以根据该光效子模型计算图像帧中对应的颜色通道的光效参数,然后根据计算得到的光效参数对颜色通道值进行光效处理。

可以理解的是,对各个颜色通道值进行不同的光效处理之后,得到的图像光效增强效果可能会一样。例如,获取的rgb三通道值对应的光效参数中,r通道对应的光效参数大于g通道和b通道的光效参数,那么根据获取的光效参数对图像帧进行光效处理之后,得到的光效增强图像相对图像帧就是偏红光的效果。

上述实施例提供的视频处理方法,可以读取待处理视频中的图像帧,并检测读取的图像帧中的人脸图像。然后将检测到的人脸图像进行分类,并根据分类结果从检测到的人脸图像中确定目标人脸图像,然后根据目标人脸图像的位置坐标和偏转角度生成光效模型,根据获取的光效模型对待处理视频中的图像帧进行光效处理。对待处理视频中的图像帧进行光效处理后,生成的光效就会随着人脸的位置坐标和偏转角度而变化,从而实现对视频更准确的处理。根据待处理图像视频中人脸出现次数较多的人脸图像确定光效模型,这样进行光效处理就更有针对性,进一步地提高了视频处理的准确性,也减少了电子设备在处理视频时的功耗。

在一个实施例中,如图6所示,上述视频处理方法中确定人脸类别的目标数量的步骤具体还可以包括:

步骤602,将每一人脸类别中包含的人脸图像划分为至少一个人脸图像序列,其中同一个人脸图像序列中相邻两张人脸图像的生成时刻之间的时间间隔小于或等于时间阈值,不同人脸图像序列中任意两张人脸图像的生成时刻之间的时间间隔大于时间阈值。

在本申请提供的实施例中,可以将分类后的人脸类别中包含的人脸图像进一步划分为一个或多个子类别,然后根据划分的子类别进一步统计人脸类别的目标数量。所以在生成待处理视频时,连续两帧图像帧之间的生成时刻之间的时间间隔往往是固定的,因此可根据两张图像帧对应的生成时刻的时间间隔来判断两张图像帧是否为连续的图像帧。

例如,电子设备每间隔1秒采集一张图像帧,从而生成待处理视频。假设生成的待处理视频中包含三张图像帧,分别为“pic01”→“pic02”→“pic03”,对应的生成时刻用“分:秒”的形式分别表示为“12:00”→“12:01”→“12:02”,就可以判断图像帧“pic01”和“pic02”的生成时刻之间的时间间隔为1秒,“pic01”和“pic03”的生成时刻之间的时间间隔为2秒。那么图像帧“pic01”和“pic02”就为连续的图像帧,图像帧“pic01”和“pic03”就不为连续的图像帧。

具体的,人脸图像与图像帧是对应的,待处理视频中的图像帧是具有时序性的,因此人脸图像也是具有时序性的。图像帧的生成时刻即为该图像帧中包含的人脸图像的生成时刻,按照图像帧的生成时刻可以将人脸类别中的人脸图像划分为一个或多个人脸图像序列。其中,同一个人脸图像序列中相邻两张人脸图像的生成时刻之间的时间间隔小于或等于时间阈值,不同人脸图像序列中任意两张人脸图像的生成时刻之间的时间间隔大于时间阈值。时间阈值可以为待处理视频中连续两帧图像帧的生成时刻的时间间隔,也可以是其他值,在此不做限定。

图7为一个实施例中人脸图像序列的示意图。如图7所示,可以将每一人脸类别中包含的人脸图像对应的图像帧的生成时刻表示在一个时间轴70上。待处理视频中连续两张图像帧的生成时刻的时间间隔为0.5秒,将各个人脸图像对应的图像帧的生成时刻采用“秒:毫秒”的形式标记在时间轴70上,则可以将人脸图像划分为两个人脸图像序列,分别为人脸图像序列702和人脸图像序列704。

步骤604,将每一人脸类别中包含人脸图像最多的人脸图像序列作为目标人脸图像序列。

具体的,将每一人脸类别中包含的人脸图像划分为至少一个人脸图像序列之后,可以统计各个人脸图像序列中包含的人脸图像的数量,将各个人脸类别中包含人脸图像最多的人脸图像序列作为目标人脸图像序列。

如图7所示,其中一个人脸类别中的人脸图像可以划分为人脸图像序列702和人脸图像序列704,人脸图像序列702中包含5张人脸图像,人脸图像序列704中包含7张人脸图像,那么就可以将人脸图像序列704作为该人脸类别对应的目标人脸图像序列。

步骤606,将目标人脸图像序列中包含的人脸图像的数量,作为目标人脸图像序列对应的人脸类别的目标数量。

确定目标人脸图像序列之后,可以统计目标人脸图像序列中包含的人脸图像的数量,并将统计得到的目标人脸图像序列中包含的人脸图像的数量,作为该目标人脸图像序列对应的人脸类别的目标数量。再根据获取的目标数量获取目标人脸图像。

在一个实施例中,如图8所示,生成光效模型之后,还可以根据人脸图像调节光效模型从而生成目标光效模型,然后根据目标光效模型进行光效处理,具体的:

步骤802,获取人脸图像对应的深度信息。

具体的,在获取待处理视频中的图像帧时,还可以获取图像帧对应的深度图像,在检测到图像帧中的人脸图像之后,就可以根据该深度图像获取人脸图像对应的深度信息。在一个实施例中,可以根据双目测距法、结构光(structuredlight)、飞行时间(timeofflight)等方法获取深度图像,不限于此。采集的深度图像中包含的像素点与图像帧中的像素点对应,图像帧中像素点的像素值表示物体的纹理和色彩等信息,深度图像中像素点的像素值表示物体与图像采集装置之间的深度信息。因此在检测到图像帧中的人脸信息,就可以从深度图像中的对应区域获取人脸图像的深度信息。

步骤804,根据深度信息对光效模型的光效强度参数进行调整,生成目标光效模型。

在获取到人脸图像的深度信息之后,可以根据获取的深度信息将该人脸图像的光效模型的光效强度参数进行调整,生成目标光效模型。光效强度参数是指对图像进行光效处理的强度系数,光效强度参数越大,进行光效处理的强度越大。

在一个实施例中,生成目标光效模型的步骤可以包括:将人脸图像划分为不同的特征区域;分别根据各个特征区域对应的深度信息调整光效模型中各个特征区域对应的光效强度参数,生成目标光效模型。

具体的,可以检测人脸图像中的特征点,并根据检测到的特征点将人脸图像划分为不同的特征区域。特征点是指人脸图像中的边缘像素值变化较大的点。在人脸图像中五官边缘的像素值变化往往比较大,因此可以根据检测到的特征点来定位人脸图像中的五官。检测到特征点之后,可以根据检测到的特征点将人脸图像划分为不同的特征区域。

一般的,人脸图像中的不同特征区域受光线的影响不同。例如,鼻子区域比较突出,所以在光线影响下鼻翼上一般会产生高光,鼻子侧边会产生阴影;眼珠的地方受到光线影响也可能产生高光。因此,可以将人脸图像划分为不同的特征区域之后,根据划分的特征区域来生成最终的目标光效模型。具体的,在对人脸图像划分成不同特征区域之后,可以根据不同特征区域的位置和大小等参数去调整光效模型的光效强度参数,从而得到目标光效模型。

步骤806,根据目标光效模型对图像帧进行光效处理。

应该理解的是,虽然图2、3、6、8的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、3、6、8中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。

在本申请提供的实施例中,视频处理方法具体还可以包括以下步骤:

(1)获取待处理视频中的图像帧,检测图像帧中的人脸图像;

(2)将检测到的所有人脸图像进行分类,得到至少一个人脸类别;其中,每一人脸类别中包含的人脸图像对应同一张人脸;

(3)将每一人脸类别中包含的人脸图像划分为至少一个人脸图像序列,其中同一个人脸图像序列中相邻两张人脸图像的生成时刻之间的时间间隔小于或等于时间阈值,不同人脸图像序列中任意两张人脸图像的生成时刻之间的时间间隔大于时间阈值;

(4)将每一人脸类别中包含人脸图像最多的人脸图像序列作为目标人脸图像序列;

(5)将目标人脸图像序列中包含的人脸图像的数量,作为目标人脸图像序列对应的人脸类别的目标数量;

(6)将目标数量大于数量阈值的人脸类别中所包含的人脸图像作为目标人脸图像;

(7)获取目标人脸图像在对应的图像帧中的位置坐标和偏转角度;

(8)获取预设的参考光效模型;

(9)根据位置坐标调整参考光效模型的光源中心参数,并根据偏转角度调整参考光效模型的光效角度参数,生成目标人脸图像对应的光效模型;

(10)获取目标人脸图像对应的深度信息;

(11)将目标人脸图像划分为不同的特征区域,分别根据各个特征区域对应的深度信息调整光效模型中各个特征区域对应的光效强度参数,生成目标光效模型;

(12)根据目标光效模型获取图像帧中包含的像素点的光效参数,根据光效参数对图像帧中包含的像素点进行光效处理。

上述实施例提供的视频处理方法,可以读取待处理视频中的图像帧,并检测读取的图像帧中的人脸图像。然后根据人脸图像的位置坐标和偏转角度生成光效模型,根据获取的光效模型对待处理视频中的图像帧进行光效处理。对待处理视频中的图像帧进行光效处理后,生成的光效就会随着人脸的位置坐标和偏转角度而变化,从而实现对视频更准确的处理。

图9为一个实施例的视频处理装置的结构框图。如图9所示,该视频处理装置900包括人脸检测模块902、模型获取模块904和光效处理模块906。其中:

人脸检测模块902,用于获取待处理视频中的图像帧,检测所述图像帧中的人脸图像。

模型获取模块904,用于获取所述人脸图像在所述图像帧中的位置坐标和偏转角度,根据所述位置坐标和偏转角度生成所述人脸图像对应的光效模型,其中,所述光效模型为用于模拟光线变化的模型。

光效处理模块906,用于根据所述光效模型对所述图像帧进行光效处理。

上述实施例提供的视频处理装置,可以读取待处理视频中的图像帧,并检测读取的图像帧中的人脸图像。然后根据人脸图像的位置坐标和偏转角度生成光效模型,根据获取的光效模型对待处理视频中的图像帧进行光效处理。对待处理视频中的图像帧进行光效处理后,生成的光效就会随着人脸的位置坐标和偏转角度而变化,从而实现对视频更准确的处理。

在一个实施例中,模型获取模块904还用于将检测到的所有人脸图像进行分类,得到至少一个人脸类别;其中,每一人脸类别中包含的人脸图像对应同一张人脸;统计每一人脸类别中包含的人脸图像的数量作为目标数量,将所述目标数量大于数量阈值的人脸类别中所包含的人脸图像作为目标人脸图像;获取所述目标人脸图像在对应的所述图像帧中的位置坐标和偏转角度,根据所述位置坐标和偏转角度生成所述目标人脸图像对应的光效模型。

在一个实施例中,模型获取模块904还用于将每一人脸类别中包含的人脸图像划分为至少一个人脸图像序列,其中同一个人脸图像序列中相邻两张人脸图像的生成时刻之间的时间间隔小于或等于时间阈值,不同人脸图像序列中任意两张人脸图像的生成时刻之间的时间间隔大于所述时间阈值;将每一人脸类别中包含人脸图像最多的人脸图像序列作为目标人脸图像序列;将所述目标人脸图像序列中包含的人脸图像的数量,作为所述目标人脸图像序列对应的人脸类别的目标数量。

在一个实施例中,模型获取模块904还用于获取预设的参考光效模型;根据所述位置坐标调整参考光效模型的光源中心参数,并根据所述偏转角度调整所述参考光效模型的光效角度参数,生成所述人脸图像对应的光效模型。

在一个实施例中,模型获取模块904还用于获取所述人脸图像对应的深度信息;根据所述深度信息对所述光效模型的光效强度参数进行调整,生成目标光效模型。

在一个实施例中,模型获取模块904还用于将所述人脸图像划分为不同的特征区域;分别根据各个特征区域对应的深度信息调整所述光效模型中各个特征区域对应的光效强度参数,生成目标光效模型。

在一个实施例中,光效处理模块906还用于根据所述光效模型获取所述图像帧中包含的像素点的光效参数,根据所述光效参数对所述图像帧中包含的像素点进行光效处理。

在一个实施例中,光效处理模块906还用于根据所述目标光效模型对所述图像帧进行光效处理。

上述视频处理装置中各个模块的划分仅用于举例说明,在其他实施例中,可将视频处理装置按照需要划分为不同的模块,以完成上述视频处理装置的全部或部分功能。

关于视频处理装置的具体限定可以参见上文中对于视频处理方法的限定,在此不再赘述。上述视频处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。

本申请实施例中提供的视频处理装置中的各个模块的实现可为计算机程序的形式。该计算机程序可在终端或服务器上运行。该计算机程序构成的程序模块可存储在终端或服务器的存储器上。该计算机程序被处理器执行时,实现本申请实施例中所描述方法的步骤。

本申请实施例还提供一种电子设备。上述电子设备中包括图像处理电路,图像处理电路可以利用硬件和/或软件组件实现,可包括定义isp(imagesignalprocessing,图像信号处理)管线的各种处理单元。图10为一个实施例中图像处理电路的示意图。如图10所示,为便于说明,仅示出与本申请实施例相关的图像处理技术的各个方面。

如图10所示,图像处理电路包括isp处理器1040和控制逻辑器1050。成像设备1010捕捉的图像数据首先由isp处理器1040处理,isp处理器1040对图像数据进行分析以捕捉可用于确定和/或成像设备1010的一个或多个控制参数的图像统计信息。成像设备1010可包括具有一个或多个透镜1012和图像传感器1014的照相机。图像传感器1014可包括色彩滤镜阵列(如bayer滤镜),图像传感器1014可获取用图像传感器1014的每个成像像素捕捉的光强度和波长信息,并提供可由isp处理器1040处理的一组原始图像数据。传感器1020(如陀螺仪)可基于传感器1020接口类型把采集的图像处理的参数(如防抖参数)提供给isp处理器1040。传感器1020接口可以利用smia(standardmobileimagingarchitecture,标准移动成像架构)接口、其它串行或并行照相机接口、或上述接口的组合。

此外,图像传感器1014也可将原始图像数据发送给传感器1020,传感器1020可基于传感器1020接口类型把原始图像数据提供给isp处理器1040进行处理,或者传感器1020将原始图像数据存储到图像存储器1030中。

isp处理器1040按多种格式逐个像素地处理原始图像数据。例如,每个图像像素可具有8、10、12或14比特的位深度,isp处理器1040可对原始图像数据进行一个或多个图像处理操作、收集关于图像数据的统计信息。其中,图像处理操作可按相同或不同的位深度精度进行。

isp处理器1040还可从图像存储器1030接收像素数据。例如,传感器1020接口将原始图像数据发送给图像存储器1030,图像存储器1030中的原始图像数据再提供给isp处理器1040以供处理。图像存储器1030可为存储器装置的一部分、存储设备、或电子设备内的独立的专用存储器,并可包括dma(directmemoryaccess,直接直接存储器存取)特征。

当接收到来自图像传感器1014接口或来自传感器1020接口或来自图像存储器1030的原始图像数据时,isp处理器1040可进行一个或多个图像处理操作,如时域滤波。isp处理器1040处理后的图像数据可发送给图像存储器1030,以便在被显示之前进行另外的处理。isp处理器1040从图像存储器1030接收处理数据,并对所述处理数据进行原始域中以及rgb和ycbcr颜色空间中的图像数据处理。处理后的图像数据可输出给显示器1080,以供用户观看和/或由图形引擎或gpu(graphicsprocessingunit,图形处理器)进一步处理。此外,isp处理器1040的输出还可发送给图像存储器1030,且显示器1080可从图像存储器1030读取图像数据。在一个实施例中,图像存储器1030可被配置为实现一个或多个帧缓冲器。此外,isp处理器1040的输出可发送给编码器/解码器1070,以便编码/解码图像数据。编码的图像数据可被保存,并在显示于显示器1080设备上之前解压缩。

isp处理后的图像数据可发送给光效模块1060,以便在被显示之前对图像进行光效处理。光效模块1060对图像数据光效处理可包括获取图像帧中每一个像素的光效参数,并根据光效参数对图像帧进行光效处理等。光效模块1060将图像数据进行光效处理后,可将光效处理后的图像数据发送给编码器/解码器1070,以便编码/解码图像数据。编码的图像数据可被保存,并在显示与显示器1080设备上之前解压缩。可以理解的是,光效模块1060处理后的图像数据可以不经过编码器/解码器1070,直接发给显示器1080进行显示。isp处理器1040处理后的图像数据还可以先经过编码器/解码器1070处理,然后再经过光效模块1060进行处理。其中,光效模块1060或编码器/解码器1070可为移动终端中cpu(centralprocessingunit,中央处理器)或gpu(graphicsprocessingunit,图形处理器)等。

isp处理器1040确定的统计数据可发送给控制逻辑器1050单元。例如,统计数据可包括自动曝光、自动白平衡、自动聚焦、闪烁检测、黑电平补偿、透镜1012阴影校正等图像传感器1014统计信息。控制逻辑器1050可包括执行一个或多个例程(如固件)的处理器和/或微控制器,一个或多个例程可根据接收的统计数据,确定成像设备1010的控制参数以及isp处理器1040的控制参数。例如,成像设备1010的控制参数可包括传感器1020控制参数(例如增益、曝光控制的积分时间、防抖参数等)、照相机闪光控制参数、透镜1012控制参数(例如聚焦或变焦用焦距)、或这些参数的组合。isp控制参数可包括用于自动白平衡和颜色调整(例如,在rgb处理期间)的增益水平和色彩校正矩阵,以及透镜1012阴影校正参数。

以下为运用图10中图像处理技术实现上述实施例提供的视频处理方法的步骤。

本申请实施例还提供了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行上述实施例提供的视频处理方法的步骤。

一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例提供的视频处理方法。

本申请所使用的对存储器、存储、数据库或其它介质的任何引用可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram),它用作外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)。

以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1