视频处理方法、视频处理装置和电子设备与流程

文档序号:22243723发布日期:2020-09-15 19:59阅读:147来源:国知局
视频处理方法、视频处理装置和电子设备与流程

本申请涉及视频处理技术领域,且更为具体地,涉及一种视频处理方法、视频处理装置和电子设备。



背景技术:

搞笑类视频是视频内容中的主要部分,在各大视频平台上,都可以看到大量类似如下场景的原生形态的用户需求:

1.热心网友/视频爱好者自发剪辑高能、爆笑的视频片段,上传到网络供其他网友观看,或者发布到各类论坛、社区,请网友观看评论是否好笑,以及测试能忍住不笑多长时间。

2.视频从业者/运营人员剪辑搞笑视频集锦,以话题/专题形式,吸引互动或观看留存。

显然,发布搞笑类内容视频→用户自发互动→互动后触发分享→新用户继续参与互动,是一直长期存在着的用户需求。然而,目前的互动并不方便,缺乏有效率的互动产品形态地支撑。

具体地,这表现在现阶段基本仍以单纯观看,或者文字、弹幕互动为主,互动效率低,形态不够丰富。

因此,期望提供能够增强互动的改进的视频处理方案。



技术实现要素:

为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种视频处理方法、视频处理装置和电子设备,其通过人脸识别来获取观看第一视频的用户的第二视频的表情特征数据,并进一步计算对应于第二视频的表情分数,从而提高了第二视频的互动价值,改善了用户的互动体验。

根据本申请的一方面,提供了一种视频处理方法,包括:获取第一视频;通过人脸识别获取第二视频中的表情特征数据,所述第二视频包括观看所述第一视频的用户的特定表情;基于所获取的表情特征数据确定是否发生所述特定表情以及所述特定表情的表情数据;以及,基于所述表情数据计算与所述第二视频对应的表情分数。

在上述视频处理方法中,获取第一视频包括:从与所述特定表情对应的视频列表中获取被选定的所述第一视频。

在上述视频处理方法中,通过人脸识别获取第二视频中的表情特征数据包括:在播放所述第一视频的过程中同步录制所述第二视频;以及,在录制所述第二视频的过程中通过人脸识别获取所述第二视频中的表情特征数据。

在上述视频处理方法中,在通过人脸识别获取第二视频中的表情特征数据之前包括:对所述用户进行人脸预识别;以及,在录制所述第二视频的过程中通过人脸识别获取第二视频中的表情特征数据包括:响应于所述人脸预识别成功,开始录制所述第二视频。

在上述视频处理方法中,基于所获取的表情特征数据确定是否发生所述特定表情包括:将所述表情特征数据与表情特征模型进行匹配;以及,响应于所述匹配的相似度大于预定阈值,确定发生所述特定表情。

在上述视频处理方法中,基于所获取的表情特征数据确定是否发生所述特定表情包括:确定所述表情特征数据是否满足预定条件;以及,响应于所述表情特征数据满足预定条件,确定发生所述特定表情。

在上述视频处理方法中,基于所获取的表情特征数据确定是否发生所述特定表情包括:响应于发生所述特定表情,向用户呈现与所述特定表情对应的表情效果。

在上述视频处理方法中,基于所获取的表情特征数据确定所述特定表情的表情数据包括:基于所识别的表情特征确定所述特定表情的首次发生时间、单次表情时间长度和表情发生次数中的至少一个。

在上述视频处理方法中,基于所述表情数据计算与所述第二视频对应的表情分数包括:基于所述表情数据计算所述用户的表情频率、表情持久力、表情控制力中的至少一个。

在上述视频处理方法中,基于所述表情数据计算与所述第二视频对应的表情分数之后进一步包括:通过结果呈现页面将所述表情分数呈现给用户。

在上述视频处理方法中,通过结果呈现页面将所述表情分数呈现给用户包括:合成所述第一视频和所述第二视频以生成第三视频,其中,在所述第三视频中,以画中画形式播放所述第一视频。

在上述视频处理方法中,所述结果呈现页面包括以下的至少其中之一:所述第三视频的缩略图;用于所述用户选择与所述特定表情对应的其它视频的第一选项;用于所述用户生成所述表情分数的展示图像的第二选项;以及,用于所述用户拍摄与所述特定表情对应的视频的第三选项。

在上述视频处理方法中,进一步包括:响应于所述第三视频的缩略图的选择指令,播放所述第三视频。

根据本申请的另一方面,提供了一种视频处理装置,包括:获取单元,用于获取第一视频;识别单元,用于通过人脸识别获取第二视频中的表情特征数据,所述第二视频包括观看所述第一视频的用户的特定表情;确定单元,用于基于所获取的表情特征数据确定是否发生所述特定表情以及所述特定表情的表情数据;以及,计算单元,用于基于所述表情数据计算与所述第二视频对应的表情分数。

在上述视频处理装置中,所述获取单元用于:从与所述特定表情对应的视频列表中获取被选定的所述第一视频。

在上述视频处理装置中,所述识别单元包括:录制子单元,用于在播放所述第一视频的过程中同步录制所述第二视频;以及,识别子单元,用于在录制所述第二视频的过程中通过人脸识别获取所述第二视频中的表情特征数据。

在上述视频处理装置中,进一步包括预识别单元,用于在通过人脸识别获取第二视频中的表情特征数据之前,对所述用户进行人脸预识别;以及,所述录制子单元用于:响应于所述人脸预识别成功,开始录制所述第二视频。

在上述视频处理装置中,所述确定单元包括:匹配子单元,用于将所述表情特征数据与表情特征模型进行匹配;以及,第一确定子单元,用于响应于所述匹配的相似度大于预定阈值,确定发生所述特定表情。

在上述视频处理装置中,所述确定单元包括:第二确定子单元,用于确定所述表情特征数据是否满足预定条件;以及,第三确定子单元,用于响应于所述表情特征数据满足预定条件,确定发生所述特定表情。

在上述视频处理装置中,所述确定单元用于:响应于发生所述特定表情,向用户呈现与所述特定表情对应的表情效果。

在上述视频处理装置中,所述确定单元用于:基于所识别的表情特征确定所述特定表情的首次发生时间、单次表情时间长度和表情发生次数中的至少一个。

在上述视频处理装置中,所述计算单元用于:基于所述表情数据计算所述用户的表情频率、表情持久力、表情控制力中的至少一个。

在上述视频处理装置中,进一步包括呈现单元,用于在基于所述表情数据计算与所述第二视频对应的表情分数之后,通过结果呈现页面将所述表情分数呈现给用户。

在上述视频处理装置中,所述呈现单元用于:合成所述第一视频和所述第二视频以生成第三视频,其中,在所述第三视频中,以画中画形式播放所述第一视频。

在上述视频处理装置中,所述结果呈现页面包括以下的至少其中之一:所述第三视频的缩略图;用于所述用户选择与所述特定表情对应的其它视频的第一选项;用于所述用户生成所述表情分数的展示图像的第二选项;以及,用于所述用户拍摄与所述特定表情对应的视频的第三选项。

在上述视频处理装置中,进一步包括播放单元,用于响应于所述第三视频的缩略图的选择指令,播放所述第三视频。

根据本申请的再一方面,提供了一种电子设备,包括:处理器;以及,存储器,在所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器运行时使得所述处理器执行如上所述的视频处理方法。

根据本申请的又一方面,提供了一种计算机可读介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行如上所述的视频处理方法。

本申请提供的视频处理方法、视频处理装置和电子设备可以通过人脸识别来获取观看第一视频的用户的第二视频的表情特征数据,并进一步计算对应于第二视频的表情分数。

这样,由于所述第二视频的表情分数能够以客观的分数值反映所述第二视频中的用户表情,提高了第二视频的互动价值,并且,该客观的分数值便于用户之间进行比较、评价等,也改善了用户的互动体验。

附图说明

通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。

图1图示了根据本申请实施例的视频处理方法的流程图。

图2图示了根据本申请实施例的结果呈现页面的示意图。

图3图示了根据本申请实施例的视频处理方法的应用示例的示意图。

图4图示了根据本申请实施例的视频处理装置的框图。

图5图示了根据本申请实施例的电子设备的框图。

图6图示了根据本申请实施例的示例性云架构。

图7图示了根据本申请实施例的云架构的抽象功能层的示意图。

具体实施方式

下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。

申请概述

如上所述,目前的搞笑类视频的互动方式以文字为主,例如通过弹幕互动,效率低且形态不够丰富。相对地,以视频形式来展现用户观看搞笑视频的表情、神态等会更为形象、具体,且更能触发新一轮互动。

具体地,以视频回复视频的互动形式已在一些社区类产品中出现,例如,画中画对口型、合拍类型的视频互动。其中,画中画对口型类型的视频互动首先选择要模仿/恶搞的素材视频,素材视频加载在左下角小视窗播放,同时录制用户表演的视频于主视窗大窗口展现,整体合成以一个视频文件形式。合拍类型的视频互动为素材视频加载在左侧或右侧窗口,同时录制用户表演画面在另一侧视窗,整体合成一个小视频。这两个类型的视频互动能够将互动双方的视频关联一体,但是,互动性和社交性仍然不足够强烈。

针对上述类型的视频互动,本申请的申请人研究发现,首先,这种类型的视频互动的互动效果、表现力有限,造成互动性和传播力有限,其次,用户在参与后缺乏后续分享动力,这主要是由于目前的互动视频缺乏统一的客观的评价机制。

对于上述技术问题,本申请的基本构思是通过人脸识别来获取观看第一视频的用户的第二视频的表情特征数据,并进一步基于所述表情特征数据来计算对应于第二视频的表情分数,从而获得包含所述用户的表情的第二视频的客观分数。

具体地,本申请提供的视频处理方法、视频处理装置和电子设备首先获取第一视频,然后通过人脸识别获取第二视频中的表情特征数据,所述第二视频包括观看所述第一视频的用户的特定表情,再基于所获取的表情特征数据确定是否发生所述特定表情以及所述特定表情的表情数据,最后基于所述表情数据计算与所述第二视频对应的表情分数。

这样,由于通过人脸识别获得的表情特征数据来确定用户的特定表情及其表情数据,可以准确地判定是否发生了所述特定表情以及所述特定表情的程度,从而计算出的与所述第二视频对应的表情分数能够以客观的分数值反映所述第二视频中的用户表情。

因此,所述第二视频避免了仅以视频本身进行互动产生的缺乏统一的客观的评价机制的问题,而能够在表情方面对于不同视频增加了新的评判维度,提高了第二视频的互动价值。

并且,由于该表情分数能够客观地反映所述第二视频中的用户的特定表情的程度,使得用户能够基于该分数值与其它用户以及其它视频中的用户表情进行比较和评价等,使得用户有动力将自己的第二视频进一步与其它用户互动,增强了用户的互动体验。

此外,由于该表情分数的客观性和直观性,也使得用户有动力录制更多的表情视频,提高了视频素材的丰富程度。

值得注意的是,在本申请提供的视频处理方法、视频处理装置和电子设备中,所述第一视频不仅限于搞笑类视频,相应地,所述用户的特定表情也不仅限于笑容表情。例如,所述第一视频可以是悲剧类视频,相应地,所述用户的特定表情为悲伤表情或者哭泣表情。又例如,所述第一视频可以是恐怖类视频,相应地,所述用户的特定表情为惊恐表情。

在介绍了本申请的基本原理之后,下面将参考附图来具体介绍本申请的各种非限制性实施例。

示例性方法

图1图示了根据本申请实施例的视频处理方法的流程图。

如图1所示,根据本申请实施例的视频处理方法包括:s110,获取第一视频;s120,通过人脸识别获取第二视频中的表情特征数据,所述第二视频包括观看所述第一视频的用户的特定表情;s130,基于所获取的表情特征数据确定是否发生所述特定表情以及所述特定表情的表情数据;以及s140,基于所述表情数据计算与所述第二视频对应的表情分数。

在步骤s110中,获取第一视频。这里,所述第一视频是由用户观看的视频,在本申请中也可以被称为素材视频。如上所述,所述素材视频可以是某种类型的视频,比如搞笑类视频、恐怖类视频等。

在本申请实施例中,所述素材视频的来源可以包括:由视频服务提供商提供,由参与的用户提供,由第三方通过商务合作提供。例如,视频服务提供商提供的素材可以包括各种搞笑类节目中的高能点的二创剪辑,第三方提供的素材可以包括带有搞笑性质的商业合作广告、品牌展示向趣味视频等。

并且,所述第一视频可以通过页面的形式向用户呈现,例如,以包含与某个特定表情对应的视频的列表,例如,搞笑类视频列表的形式。并且,在所述页面中,为了避免用户提前看到所述第一视频,可以仅展示所述第一视频的概况,例如封面图和标题文字,而在用户观看所述第一视频之前不提供预览素材视频内容的功能。相应地,用户通过访问页面,可以选择某一具体的素材视频开始观看并进行视频互动。

因此,在根据本申请实施例的视频处理方法中,获取第一视频包括:从与所述特定表情对应的视频列表中获取被选定的所述第一视频。

在步骤s120中,通过人脸识别获取第二视频中的表情特征数据,所述第二视频包括观看所述第一视频的用户的特定表情。

也就是,所述第二视频是所述用户在观看所述第一视频时录制的视频,相应地,所述第二视频中记录了用户在观看所述第一视频时的特定表情,例如,笑容表情等。这样,通过人脸识别可以获取所述第二视频中的所述用户的特定表情的表情特征数据,例如,包含人在笑时脸部的108个特征点位数据的笑容特征数据。

在本申请实施例中,所述第二视频可以是用户预先录制并存储的视频,然后再通过人脸识别来获取表情特征数据。此外,用户也可以在录制所述第二视频的同时同步地通过人脸识别来获取表情特征数据。

也就是,在根据本申请实施例的视频处理方法中,通过人脸识别获取第二视频中的表情特征数据包括:在播放所述第一视频的过程中同步录制所述第二视频;以及,在录制所述第二视频的过程中通过人脸识别获取所述第二视频中的表情特征数据。

此外,在播放所述第一视频的过程中,也可以以分屏方式同步呈现所录制的第二视频。例如,可以以画中画的形式,以屏幕上的小窗口呈现所录制的第二视频。

并且,在本申请实施例中,为了提高人脸识别的准确性,可以在通过人脸识别获取表情特征数据之前对所述用户进行人脸预识别。例如,可以向用户呈现脸形引导框,引导用户进行人脸识别,具体地,可以扫描如上所述的脸部的108个点位,以确定是否能够提取到这些点位特征数据。也就是,在获得的人脸图像上,需要定位并重点追踪嘴部、脸颊等的特征点位以提取表情特征。通过人脸预识别,可以判定是否能够完成用户的脸部特征向量提取,即用户的人脸识别是否成功,避免由于用户的脸部位置等因素影响人脸识别的准确性。

值得注意的是,在人脸的预识别期间,不需要确定用户的特定表情,例如,仅需要获得用户的表情特征数据,不需要进一步判定是否为特定表情。

因此,在根据本申请实施例的视频处理方法中,在通过人脸识别获取第二视频中的表情特征数据之前包括:对所述用户进行人脸预识别;以及,在录制所述第二视频的过程中通过人脸识别获取第二视频中的表情特征数据包括:响应于所述人脸预识别成功,开始录制所述第二视频。

在步骤s130中,基于所获取的表情特征数据确定是否发生所述特定表情以及所述特定表情的表情数据。这里,在本申请实施例中,基于所获取的所述表情特征数据,可以以多种方式来判定是否为特定表情以及确定所述特定表情的表情数据。

具体地,在一个示例中,可以通过将提取的点位特征数据与数据库中的特征模型进行匹配的方式来确定是否发生特定表情。例如,通过匹配所提取的点位特征数据与数据库中的笑容特征模型,如果两者之间的相似度关系大于预定阈值,则判定匹配通过,发生了笑容表情。当然,本领域技术人员可以理解,也可以将所提取的点位特征数据与数据库中的其它表情,例如惊恐表情的特征模型进行匹配,以判定是否发生了惊恐表情。

此外,在另一示例中,可以基于所提取的点位特征数据确定其是否满足预定条件。例如,基于所提取的点位特征数据计算嘴部和脸部关键点位之间的角度,且当对应角度大于预定阈值时,判定发生了笑容表情。当然,本领域技术人员可以理解,也可以确定所提取的点位特征数据是否满足与其它表情对应的预定条件,例如惊恐表情对应的眼睛睁大条件或者嘴部张开条件,或者哭泣表情对应的面部收缩条件。

因此,在根据本申请实施例的视频处理方法中,基于所获取的表情特征数据确定是否发生所述特定表情包括:将所述表情特征数据与表情特征模型进行匹配;以及,响应于所述匹配的相似度大于预定阈值,确定发生所述特定表情。

并且,在根据本申请实施例的视频处理方法中,基于所获取的表情特征数据确定是否发生所述特定表情包括:确定所述表情特征数据是否满足预定条件;以及,响应于所述表情特征数据满足预定条件,确定发生所述特定表情。

在本申请实施例中,为了使得用户能够更直观地了解到自己的特定表情是否被识别,可以在确定发生所述特定表情时,向用户呈现与所述特定表情对应的表情效果。例如,一旦通过所述表情特征数据确定用户发生了笑容表情(无论笑的程度,比如微笑、大笑等),可以将预设的笑点值减少,例如将以可视化条呈现的笑点值按照比例减小长度。此外,还可以呈现粒子效果的视觉动画,呈现高效弹幕,播放特效背景音等。

并且,在本申请实施例中,在录制所述第二视频时,即使确定未发生特定表情,也可以每隔预定时间,例如10秒钟,播放一条弹幕,以增强用户的互动感。

因此,在根据本申请实施例的视频处理方法中,基于所获取的表情特征数据确定是否发生所述特定表情包括:响应于发生所述特定表情,向用户呈现与所述特定表情对应的表情效果。

在本申请实施例中,基于所述表情特征数据,在确定发生了特定表情的情况下,进一步确定所述特定表情的表情数据。这里,所述表情数据是用于反映在所述第二视频中用户的表情程度的数据,具体地,可以包括所述特定表情的首次发生时间、单次表情时间长度、表情发生次数等。

以笑容为例,可以确定用户在观看所述第一视频时首次笑容的时间点,每次笑容的持续时长,以及出现笑容的次数。对于笑容的次数,可以设置为将所确定的持续的笑容作为一次笑容,如果笑容中途恢复正常表情,则当再次出现笑容时,无论间隔时间长短都视为又一次笑容。

当然,本领域技术人员可以理解,所述表情数据也可以反映单次表情的激烈程度,例如微笑、大笑、大哭等。

因此,在根据本申请实施例的视频处理方法中,基于所获取的表情特征数据确定所述特定表情的表情数据包括:基于所识别的表情特征确定所述特定表情的首次发生时间、单次表情时间长度和表情发生次数中的至少一个。

在步骤s140中,基于所述表情数据计算与所述第二视频对应的表情分数。

也就是,基于如上所述的表情数据,可以进一步计算表情分数。具体地,基于所述特定表情的首次发生时间,可以计算表情控制力,例如,所述特定表情的首次发生时间越晚,表情控制力越高。另外,基于所述特定表情的单词表情时间长度,可以计算表情持久力,例如,所述特定表情的单词表情时间长度越长,表情持久力越高。此外,基于所述特定表情的表情发生次数,可以计算表情频率,例如,所述特定表情的表情发生次数越多,表情频率越高。

因此,在根据本申请实施例的视频处理方法中,基于所述表情数据计算与所述第二视频对应的表情分数包括:基于所述表情数据计算所述用户的表情频率、表情持久力、表情控制力中的至少一个。

这样,通过所获得的表情分数,可以对用户观看所述第一视频的所述第二视频中的用户的表情进行客观和直观的评价,避免仅第二视频本身客观性和直观性不足的问题。

为了便于用户了解自己的表情分数,可以在计算出所述表情分数之后,将所述表情分数呈现给用户,具体地,在本申请实施例中,可以通过结果呈现页面将所述表情分数呈现给用户。

也就是,在根据本申请实施例的视频处理方法中,基于所述表情数据计算与所述第二视频对应的表情分数之后进一步包括:通过结果呈现页面将所述表情分数呈现给用户。

图2图示了根据本申请实施例的结果呈现页面的示意图。如图2所示,所述结果呈现页面200除了包括表情分数,例如表情频率210、表情持久力220和表情控制力230以外,还可以包括用户观看所述第一视频的第二视频,以便于用户回顾自己的表情。

这里,为了便于用户对照地回顾自己的表情,可以将所述第一视频和所述第二视频合成为第三视频,从而使得用户可以通过单个视频回顾自己观看素材视频时的表情。并且,例如,所述第一视频可以作为画中画形式在所述第二视频中显示。当然,本领域技术人员可以理解,也可以将所述第二视频作为画中画形式在所述第一视频中显示。或者,也可以在所述结果呈现页面中仅呈现第一视频或者第二视频。

因此,在根据本申请实施例的视频处理方法中,通过结果呈现页面将所述表情分数呈现给用户包括:合成所述第一视频和所述第二视频以生成第三视频,其中,在所述第三视频中,以画中画形式播放所述第一视频。

如图2所示,在所述结果呈现页面中,可以包括所述第三视频的缩略图240,例如,所述第三视频的封面图。当然,如果在所述结果呈现页面中仅呈现第一视频或者第二视频,也可以包括第一视频或者第二视频的缩略图。并且,如果用户选择,例如,点击所述第三视频的缩略图,则可以播放所述第三视频。此外,在本申请实施例中,用户也可以通过选择所述第三视频的缩略图来保存所述第三视频。

进一步地,如图2所示,所述结果呈现页面可以包括其它功能选项。具体地,可以包括用于所述用户选择与所述特定表情对应的其它视频的第一选项250,从而使得用户可以选择观看其它素材视频。另外,可以包括用于所述用户生成所述表情分数的展示图像的第二选项260,这样,通过所述展示图像,用户可以将自己观看所述第一视频的表现以直观和客观的方式分享给其它用户,从而提高用户的互动性。此外,可以包括用于所述用户拍摄与所述特定表情对应的视频的第三选项270,也就是,用户可以自己拍摄与所述特定表情对应的素材视频。

因此,在根据本申请实施例的视频处理方法中,所述结果呈现页面包括以下的至少其中之一:所述第三视频的缩略图;用于所述用户选择与所述特定表情对应的其它视频的第一选项;用于所述用户生成所述表情分数的展示图像的第二选项;以及,用于所述用户拍摄与所述特定表情对应的视频的第三选项。

并且,在上述视频处理方法中,进一步包括:响应于所述第三视频的缩略图的选择指令,播放所述第三视频。

下面,将说明用户在通过如上所述的第三选项270自己拍摄素材视频的过程。

首先,在用户选择所述第三选项之后,可以在客户端调用拍摄功能模块,拍摄一段小视频,并且,针对所拍摄的小视频,用户可以添加背景音乐,也可以添加慢动作、反复等特效效果,并能够实时预览所拍摄的视频内容。

在拍摄完视频之后,用户在客户端合成视频文件,并上传到视频素材库,从而发布视频,在上传过程中,可以以弹层形式展现上传进度和结果。具体地,在客户端可以主动监听上传结果,从而在上传成功后,以弹层形式通知用户上传成功,同时可以设置引导用户分享所拍摄的视频的功能。例如,用户通过点击弹层发起所拍摄的视频的分享。此外,用户上传至视频素材库的视频可以经过运营筛选和算法分发以向其它用户推荐展现。

这样,通过用户录制素材视频并上传到视频素材库和与其它用户分享,可以解决视频服务器提供的素材视频数目有限的问题,并且形成素材视频供给和参与互动消费的ugc(用户生成内容:usergeneratedcontent)闭环。

应用示例

图3图示了根据本申请实施例的视频处理方法的应用示例的示意图。

如上所述,目前存在大量搞笑类视频,并且在电影、电视剧中也有大量饱含笑点的内容。通过根据本申请实施例的视频处理方法,可以实现基于小视频的互动和社交,有效放大此类搞笑类视频的价值。

通过利用人脸识别等ai技术,可以向用户提供科技感强的产品,对于用户具有自发的吸引力和传播力。根据本申请实施例的视频处理方法在应用于笑容表情时,可以以笑容识别作为核心,结合画中画视频的生产能力和表现形式,通过游戏化的产品表现,打造互动和传播玩法能力,并为搞笑类视频的持续发酵提供营销能力。

具体地,如图3所示,首先笑料素材在客户端以活动页形式展现,并且,如上所述,在活动页面,只展示笑料素材的封面图和标题文字,在互动挑战之前不支持提前预览素材视频内容。

然后,用户在客户端上访问活动页,选择某一具体的笑料素材开启挑战,进入互动环节。具体地,首先用户选择具体某一笑料素材作为挑战对象,发出笑点挑战的请求。然后系统启动挑战环节,客户端加载展现挑战准备页。同时,服务器接收到请求,下发对应素材的封面图等数据。客户端加载素材封面图,例如,先展开铺满全屏,然后以动效形式收缩在画中画的左下角小视窗展示(只展示封面,不启动预览播放)。并且,素材封面展示在小视窗的同时,客户端展现脸形引导框,引导用户进行人脸识别。

如果人脸识别获得并完成脸部特征向量提取,即人脸识别成功,此时自动启动3秒倒计时。倒计时期间,不进行笑脸识别(也可以执行笑脸识别,但不做出具体指令判断)。在倒计时的同时,客户端从服务端获得并完成素材视频内容的加载,笑料素材由画中画小视窗转移至铺满主视窗全屏展现。而画中画小视窗启动前置摄像头拍摄取景,展现取景的实时画面。

与此同时,互动界面顶部展现代表用户笑点的可视化条,例如,初始默认笑点值为100。倒计时结束,主视窗的笑料素材视频启动自动播放,小视窗启动开始实时录像,通过前置摄像头录制用户观看笑料素材时的画面。同时客户端实时识别、判断人脸点位特征变化,进行笑容检测判断。

这里,互动时间由素材视频的时长决定,例如,最长控制不超过90秒。当笑料素材播放结束,同步结束小视窗的画面内容录制。客户端基于互动过程的数据,进行合成录像视频。具体地,录像视频为画中画形式,其中主视窗为实时录制的前置摄像头取景内容,小视窗内为笑料素材视频。此外,笑点值、可视化条以及实时出现的弹幕内容、视觉效果等,基于出现的时间点渲染在主视窗界面。特效背景音也基于时间点与视频内容合成。

互动录像的视频合成成功,在客户端展现挑战结束页。挑战结束页可以承载的功能包括:引导分享,返回活动页选择其他素材挑战的入口,ugc发布笑料视频入口,观看回放录像等。其中,引导分享的信息可以包括:可视化展现互动参与数据,头衔/称号激励,引导性文案,分享按钮。互动参与数据包括笑点、笑频、持久力、控制力,例如,可以只展现数据而无单位。用户可以点击“挑战别的笑料”功能按钮,将会直接返回到活动页,可以选择其他笑料素材,继续互动挑战。用户可以点击“我来造点笑料”功能区域,将会调起拍摄功能模块,拍摄一段小视频。用户可以在挑战结束页点击挑战录像的封面图,观看互动过程回放,内容为已经合成的视频,并且,用户可以点击保存按钮,保留本地已生成的视频至手机相册路径下。

在挑战结束后,用户可以发布笑料视频,上传视频到素材库,并发起分享。并且,用户上传至素材库的笑料视频,经过运营筛选和算法分发,优质视频可以在活动页推荐展现。

示例性装置

图4图示了根据本申请实施例的视频处理装置的框图。

如图4所示,所述视频处理装置300包括:获取单元310,用于获取第一视频;识别单元320,用于通过人脸识别获取第二视频中的表情特征数据,所述第二视频包括观看所述获取单元310所获取的第一视频的用户的特定表情;确定单元330,用于基于所述识别单元320获取的表情特征数据确定是否发生所述特定表情以及所述特定表情的表情数据;以及,计算单元340,用于基于所述确定单元330所确定的所述表情数据计算与所述第二视频对应的表情分数。

在一个示例中,在上述视频处理装置300中,所述获取单元310用于:从与所述特定表情对应的视频列表中获取被选定的所述第一视频。

在一个示例中,在上述视频处理装置300中,所述识别单元320包括:录制子单元,用于在播放所述获取单元310所获取的所述第一视频的过程中同步录制所述第二视频;以及,识别子单元,用于在所述录制子单元录制所述第二视频的过程中通过人脸识别获取所述第二视频中的表情特征数据。

在一个示例中,在上述视频处理装置300中,进一步包括预识别单元,用于在所述识别单元320通过人脸识别获取第二视频中的表情特征数据之前,对所述用户进行人脸预识别;以及,所述录制子单元用于:响应于所述人脸预识别成功,开始录制所述第二视频。

在一个示例中,在上述视频处理装置300中,所述确定单元330包括:匹配子单元,用于将所述识别单元320所获取的表情特征数据与表情特征模型进行匹配;以及,第一确定子单元,用于响应于所述匹配子单元的所述匹配的相似度大于预定阈值,确定发生所述特定表情。

在一个示例中,在上述视频处理装置300中,所述确定单元330包括:第二确定子单元,用于确定所述识别单元320所获取的所述表情特征数据是否满足预定条件;以及,第三确定子单元,用于响应于所述第二确定子单元确定所述表情特征数据满足预定条件,确定发生所述特定表情。

在一个示例中,在上述视频处理装置300中,所述确定单元330用于:响应于发生所述特定表情,向用户呈现与所述特定表情对应的表情效果。

在一个示例中,在上述视频处理装置300中,所述确定单元330用于:基于所述识别单元320所获取的表情特征数据确定所述特定表情的首次发生时间、单次表情时间长度和表情发生次数中的至少一个。

在一个示例中,在上述视频处理装置300中,所述计算单元340用于:基于所述确定单元330所确定的所述表情数据计算所述用户的表情频率、表情持久力、表情控制力中的至少一个。

在一个示例中,在上述视频处理装置300中,进一步包括呈现单元,用于在所述计算单元340基于所述表情数据计算与所述第二视频对应的表情分数之后,通过结果呈现页面将所述表情分数呈现给用户。

在一个示例中,在上述视频处理装置300中,所述呈现单元用于:合成所述第一视频和所述第二视频以生成第三视频,其中,在所述第三视频中,以画中画形式播放所述第一视频。

在一个示例中,在上述视频处理装置300中,所述结果呈现页面包括以下的至少其中之一:所述第三视频的缩略图;用于所述用户选择与所述特定表情对应的其它视频的第一选项;用于所述用户生成所述表情分数的展示图像的第二选项;以及,用于所述用户拍摄与所述特定表情对应的视频的第三选项。

在一个示例中,在上述视频处理装置300中,进一步包括播放单元,用于响应于所述第三视频的缩略图的选择指令,播放所述第三视频。

这里,本领域技术人员可以理解,上述视频处理装置300中的各个单元和模块的具体功能和操作已经在上面参考图1和图2的视频处理方法的描述中得到了详细介绍,并因此,将省略其重复描述。

如上所述,根据本申请实施例的视频处理装置300可以实现在各种终端设备中,例如用户的智能手机等。在一个示例中,根据本申请实施例的视频处理装置300可以作为一个软件模块和/或硬件模块而集成到终端设备中。例如,该视频处理装置300可以是该终端设备的操作系统中的一个软件模块,或者可以是针对于该终端设备所开发的一个应用程序;当然,该视频处理装置300同样可以是该终端设备的众多硬件模块之一。

替换地,在另一示例中,该视频处理装置300与该终端设备也可以是分立的设备,并且该视频处理装置300可以通过有线和/或无线网络连接到该终端设备,并且按照约定的数据格式来传输交互信息。

示例性电子设备

下面,参考图5来描述根据本申请实施例的电子设备。

图5图示了根据本申请实施例的电子设备的框图。

如图5所示,电子设备10包括一个或多个处理器11和存储器12。

处理器13可以是中央处理单元(cpu)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备10中的其他组件以执行期望的功能。

存储器12可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(ram)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(rom)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器11可以运行所述程序指令,以实现上文所述的本申请的各个实施例的视频处理方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如表情分数等各种内容。

在一个示例中,电子设备10还可以包括:输入装置13和输出装置14,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。

该输入装置13可以包括例如键盘、鼠标等等。

该输出装置14可以向外部输出各种信息,包括与第二视频对应的表情分数等。该输出装置14可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。

当然,为了简化,图5中仅示出了该电子设备10中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备10还可以包括任何其他适当的组件。

示例性计算机程序产品和计算机可读存储介质

除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的视频处理方法中的步骤。

所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如java、c++等,还包括常规的过程式程序设计语言,诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。

此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的视频处理方法中的步骤。

所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。

示例性云架构

值得注意的是,根据本申请实施例的视频处理方法可以采用基于云计算环境的系统架构,简称为云架构。本领域技术人员可以理解,云计算是一种服务提供模式,可以实现对可配置计算资源所组成(例如,网络,网络带宽,服务器,处理器,内存,存储介质,应用程序,虚拟机,和服务)的共享资源池进行按需式网络访问。该共享资源池仅需较小的管理工作或与服务供应商的交互,便能快速进行配置和发布。

图6图示了根据本申请实施例的示例性云架构。如图6所示,示例性的云架构20包括一系列云计算节点21。通过这些云计算节点21,本地计算设备,例如,车载电脑22a、智能手机22b,个人数字助手22c和平板电脑22d等可实现互联通信。云计算节点21彼此之间可通信,并可被虚拟地或物理地分组以形成一系列节点网络,例如私有云,公有云,社区云或混合云等,通过这样的方式,为云用户提供无需在本地计算设备进行资源维护的云服务,例如基础设备,软件程序或平台等。本领域技术人员可以理解,图6中所示意的计算设备仅为示例,云计算环境可与其他任意的可计算设备通过网络直接或间接地实现互联,对此本申请并不意在进行任何限制。

图7图示了根据本申请实施例的云架构的抽象功能层的示意图。

如图7所示,由云架构20所提供的一组抽象功能层包括硬件和软件层,虚拟层,管理层和工作层。本领域技术人员可以理解,图7中所示意的部件,层和功能仅为示例,用以说明云架构20的特征,对此本申请并不意在进行任何限制。

硬件和软件层层包括一系列硬件和软件,其中硬件包括但不限于主机,risc(精简指令集计算机reducedinstructionsetcomputer)体系结构的服务器,服务器,刀锋性服务器,存储设备,网络和网络组件等。此外,软件包括网络应用服务器和数据库软件等。

虚拟层包括一系列虚拟实体,包括但不限于虚拟服务器,虚拟存储空间,虚拟网络,虚拟专用网络,虚拟应用程序和操作系统和虚拟客户端等。

管理层用于实现如下描述的功能。首先,资源供应功能,其能够提供用于在云架构内执行任务所需的计算资源和其他资源的动态采购;第二,计量和定价功能,其能够实现对云架构内的资源进行使用成本追踪,且对资源消耗进行计费或标价等;第三,安全防护功能,其能够对云用户和任务进行身份验证,并保护数据和其他资源;第四,用户门户功能,其能够为云用户和系统管理员提供对云架构的访问通道;第五,服务管理功能,其能够对云计算资源进行分配和管理,以满足所需服务的需求;第六,服务级别协议规划和实施功能,其能够根据sla(servicelevelagreement,sla,服务级别协议)对所需的云计算资源进行预安排和采购。

工作层提供了藉由云架构可实现的功能示例,例如,如上所述的根据本申请实施例的视频处理方法。

以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。

本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。

还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。

提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。

为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1