视频播放方法及装置的制造方法

文档序号:10691559阅读:318来源:国知局
视频播放方法及装置的制造方法
【专利摘要】本发明实施例提供一种视频播放方法及装置,该方法包括:识别视频中具有预设情绪特征的人物图像帧;获取与识别到的情绪特征对应的表情图像;在播放视频时,将表情图像显示在对应的人物图像帧上,从而使得用户在观看该视频时,不但能够观看到该视频中包含的实质的音视频数据内容,还可以观看到表征视频中人物情绪的表情图像,提高了用户的观看体验。由于在视频中叠加或者说悬浮显示了与人物图像帧相关的表情图像,扩展了视频的展示形式,增强了视频的互动形式。
【专利说明】
视频播放方法及装置
技术领域
[0001]本发明实施例涉及多媒体技术领域,尤其涉及一种视频播放方法及装置。
【背景技术】
[0002]随着互联网技术的不断发展,人们获取信息的方式不断发生变化。诸如直播视频、点播视频等视频资源已经成为人们获取信息的一种重要方式。
[0003]以直播视频为例,视频直播是一种使用户可以通过网络收看到远端正在进行的现场音视频实况的网络应用方式。传统方式中,人们所观看到的直播视频中一般仅包含实质的音视频数据。随着互联网技术的不断发展,越来越多的视频直播在展示远端正在进行的现场音视频实况的同时,还提供了基于直播视频的交互服务。比如,用户可以在收看直播视频时向服务器发送评论消息,服务器将用户发送的评论消息以弹幕的形式推送给收看该直播视频的其它用户,以实现用户之间的互动。
[0004]在实现本发明过程中,发明人发现现有技术中至少存在如下问题:虽然现有方式中用户在观看视频时能够进行一定的互动,从交互的角度提高了用户观看视频的体验,但是,用户观看的视频中仍然只有实质的音视频数据,视频的展示形式单一,有待进一步提高用户观看体验。

【发明内容】

[0005]本发明实施例提供一种视频播放方法及装置,用以克服现有技术中视频展示形式单一导致用户观看体验不高的问题。
[0006]本发明实施例提供一种视频播放方法,包括:
[0007]识别视频中具有预设情绪特征的人物图像帧;
[0008]获取与识别到的情绪特征对应的表情图像;
[0009]在播放所述视频时,将所述表情图像显示在所述人物图像帧上。
[0010]上述技术方案具有如下有益效果:
[0011]当识别到视频中具有一定情绪特征的人物图像帧时,获取与识别到的该情绪特征对应的表情图像,进而在播放该视频时,将表情图像显示在该人物图像帧上,从而使得用户在观看该视频时,不但能够观看到该视频中包含的实质的音视频数据内容,还可以观看到表征视频中人物情绪的表情图像,提高了用户的观看体验。由于在视频中叠加或者说悬浮显示了与人物图像帧相关的表情图像,扩展了视频的展示形式,增强了视频的互动形式。
[0012]本发明实施例提供一种视频播放装置,包括:
[0013]识别模块,用于识别视频中具有预设情绪特征的人物图像帧;
[0014]获取模块,用于获取与识别到的情绪特征对应的表情图像;
[0015]显示模块,用于在播放所述视频时,将所述表情图像显示在所述人物图像帧上。
[0016]上述技术方案具有如下有益效果:
[0017]当识别模块识别到视频中具有一定情绪特征的人物图像帧时,触发获取模块获取与识别到的该情绪特征对应的表情图像,进而显示模块在播放该视频时,将表情图像显示在该人物图像帧上,从而使得用户在观看该视频时,不但能够观看到该视频中包含的实质的音视频数据内容,还可以观看到表征视频中人物情绪的表情图像,提高了用户的观看体验。由于在视频中叠加或者说悬浮显示了与人物图像帧相关的表情图像,扩展了视频的展示形式,增强了视频的互动形式。
【附图说明】
[0018]为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0019]图1为本发明实施例提供的视频播放方法实施例一的流程图;
[0020]图2为本发明实施例提供的视频播放方法实施例二的流程图;
[0021 ]图3为本发明实施例提供的视频播放方法实施例三的流程图;
[0022]图4为本发明实施例提供的视频播放装置实施例一的结构示意图;
[0023]图5为本发明实施例提供的视频播放装置实施例二的结构示意图;
[0024]图6为本发明实施例提供的视频播放装置实施例三的结构示意图。
【具体实施方式】
[0025]为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0026]在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
[0027]应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,六和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符,一般表示前后关联对象是一种“或”的关系。
[0028]应当理解,尽管在本发明实施例中可能采用术语第一、第二、第三等来描述XXX,但这些XXX不应限于这些术语。这些术语仅用来将XXX彼此区分开。例如,在不脱离本发明实施例范围的情况下,第一 XXX也可以被称为第二 XXX,类似地,第二 XXX也可以被称为第一 XXX。
[0029]取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测” O类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
[0030]还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者系统中还存在另外的相同要素。
[0031]图1为本发明实施例提供的视频播放方法实施例一的流程图,该实施例提供的视频播放方法可以由视频播放装置执行,该装置可以设置在视频服务器中,或者可以设置在提供直播视频资源的提供方的设备中,该视频播放装置可以是软件程序,也可以是硬件与软件程序的结合。
[0032]如图1所示,该方法包括如下步骤:
[0033]步骤101、识别视频中具有预设情绪特征的人物图像帧。
[0034]本实施例中所述的视频,既可以是点播形式播放的视频,也可以是直播形式播放的视频,不具体进行限定。针对直播视频来说,触发本实施例提供的所述视频播放方法的时机可以是在播放或录制直播视频时实时进行的;针对点播视频来说,触发本实施例提供的所述视频播放方法的时机既可以是在播放时进行的,也可以是在录制时进行的,还可以是在录制后之后、播放时之前进行的。
[0035]实际应用中,视频中可能包含一个或多个人物图像,可以针对所有的人物图像帧都进行步骤101中的识别处理,当然,当包含多个人物图像的时候,可选的,可以根据实际需求选定视频中包含的特定的一个或几个人物为目标人物,从而针对选定的目标人物对应的目标人物图像帧,从视频中识别是否存在具有预设情绪特征的目标人物图像帧。此时,可以首先对视频进行图像帧的切分处理,得到视频中包含的各个图像帧,继而依次从各图像帧中识别出包含目标人物的图像帧,进而每在识别出的一个目标人物图像帧时,识别其中是否具有预设的情绪特征。其中,对于目标人物图像帧的识别,可以是基于目前已经存在的各种人脸检测与识别方式实现。
[0036]可选的,还可以仅针对视频中的某个或某几个精彩视频片段执行上述识别处理过程。此时,主要是针对点播视频,其中,精彩视频片段可以是被人为标记出的,可以以对应的播放时间段为标识来标记精彩视频片段。
[0037]不论是针对目标人物图像帧还是针对视频中包含的全部人物图像帧,以下都统一称为人物图像帧。需要识别人物图像帧是否具有预设的情绪特征,或者说需要识别视频中具有预设情绪特征的人物图像帧,其中,预设的情绪特征包括如下特征中的至少一种:表情特征、语音特征、动作特征。
[0038]具体的,对于表情特征,该表情特征比如是表征人物喜、怒、哀、乐等表情的特征。实际实现时,可以先对人物图像帧进行关键点特征检测,以获得人物图像帧中包含的各关键点特征,比如眼睛特征、嘴部特征等,继而通过对检测到的关键点特征进行表情类别分类处理,以确定该人物图像帧是否具有某类表情特征。其中,对于人脸关键点检测、表情识别的实现方式可以采用现有的相关检测、识别模型实现,本实施例不赘述。
[0039]对于语音特征,主要是识别视频中的音频信号中是否包含预设的语音特征,比如笑声、哭声、吼声、尖叫声等,可以通过预先训练获得的声音模型进行识别实现。当识别到视频中的某音频信号符合某种语音特征时,选定该音频信号对应的图像帧作为上述步骤101中所述的人物图像帧。
[0040]对于动作特征,与语音特征类似,比如通过一定的识别模型识别人物图像帧中是否包含某些特定类型的动作,以获取包含特定动作的人物图像帧。[0041 ]步骤102、获取与识别到的情绪特征对应的表情图像。
[0042]步骤103、在播放视频时,将表情图像显示在对应的人物图像帧上。
[0043]识别出视频中包含具有某种情绪特征的人物图像帧时,获取对应的表情图像,并在播放视频时,将获得的表情图像叠加或者说悬浮显示在对应的人物图像帧上。
[0044]其中,获取与情绪特征对应的表情图像的方式可以实现为:根据识别到的情绪特征通过网络搜索或本地匹配的方式,以获得对应的表情图像。比如:当识别到的情绪特征为表示吃惊的特征时,可以以“吃惊表情”为关键字,通过搜索引擎进行搜索,从反馈的搜索结果中选择一个表情图像。再比如:可以本地预先建立一个表情数据库,该表情数据库中按照表情类别分别存储有不同表情类别对应的表情图像,每种表情类型与每种情绪特征对应。从而,当识别到某种情绪特征后,可以查询该表情数据库以获得对应的表情图像。
[0045]其中,将获得的表情图像显示在对应的人物图像帧上,其显示位置可以预先设定,比如在人物图像帧中人脸图像的旁边显示,或者在人物图像帧中某个固定的预设位置区域显不O
[0046]可以理解的是,当视频为直播视频时,在进行视频直播的时候进行上述识别、获取的处理过程,此时要求识别、获取的处理速度要非常快,因此,实际应用中,情绪特征识别模型或者说情绪特征识别方法,以及获取表情图像的方法的选择都需要以快速为首要选择依据。而当视频为点播视频时,对快速处理的需求相对没有直播视频来说不是那么必须,因此,可以结合处理速度、识别精度等指标来选择识别方法、获取方法。
[0047]本实施例中,当识别到视频中具有一定情绪特征的人物图像帧时,获取与该情绪特征对应的表情图像,进而在播放该视频时,将表情图像显示在该人物图像帧上,从而使得用户在观看该视频时,不但能够观看到该视频中包含的实质的音视频数据内容,还可以观看到表征视频中人物情绪的表情图像,提高了用户的观看体验。由于在视频中叠加或者说悬浮显示了与人物图像帧相关的表情图像,扩展了视频的展示形式,增强了视频的互动形式。
[0048]图2为本发明实施例提供的视频播放方法实施例二的流程图,如图2所示,该方法包括如下步骤:
[0049]步骤201、识别视频中具有预设情绪特征的人物图像帧。
[0050]上述步骤可以参考图1所示实施例中的描述理解,在此不再赘述。
[0051 ]步骤202、根据预先建立的情绪特征与表情类别的对应关系,确定与识别到的情绪特征对应的表情类别。
[0052 ]步骤203、从预先建立的表情数据库中,获取与确定的表情类别对应的表情图像。
[0053]本实施例中,当识别到某种情绪特征时,可以通过本地匹配的方式,从本地预先建立的表情数据库中获取对应的表情图像。
[0054]具体来说,为使得表情图像的添加处理更加高效,可以预先建立情绪特征与表情类别的对应关系,比如当人们大笑的时候,眼睛会眯的比较小,呈现一定的角度,而且嘴角会上扬,因此,可以预先建立这些特征与大笑表情类别的对应关系。当实际识别过程中,识别到满足这些特征的情绪特征时,可以确定对应的标签类别为大笑,从而,可以从表情数据库中匹配获得与大笑表情对应的表情图像。
[0055]实际中,表情数据库中包含的表情图像可以是预先收集获得的各种表情类别的表情图像。每个表情类别下,可以对应存储有多个表情图像。可选的,针对任一个表情类别而言,其对应的多个表情图像可以被预先设定一定的优先级顺序。
[0056]举例来说,针对某个表情类别而言,其对应的多个表情图像中可以包括卡通图片样式的表情图像、动画效果的表情图像、真实人物的表情图像。可以设定上述三种样式的表情图像的优先级依次递增。
[0057]从而,上述步骤203在执行时,若表情数据库中存储有与确定出的表情类别对应的多个可选表情图像,则可以根据预先设定的多个可选表情图像的优先级,从多个可选表情图像中选择一个表情图像。
[0058]当然,也可以从多个可选表情图像中随机选择一个,不具体限定。
[0059]步骤204、在播放视频时,将表情图像显示在对应的人物图像帧上。
[0060]本实施例中,当识别到视频中具有一定情绪特征的人物图像帧时,通过本地匹配的方式获取与该情绪特征对应的表情图像,可以提高表情图像获取的速度;进而在播放该视频时,将表情图像显示在该人物图像帧上,从而使得用户在观看该视频时,不但能够观看到该视频中包含的实质的音视频数据内容,还可以观看到表征视频中人物情绪的表情图像,增强了视频的互动形式,提高了用户的观看体验。
[0061]图3为本发明实施例提供的视频播放方法实施例三的流程图,如图3所示,该方法包括如下步骤:
[0062]步骤301、识别视频中具有预设情绪特征的人物图像帧。
[0063 ]上述步骤可以参考图1所示实施例中的描述理解,在此不再赘述。
[0064]步骤302、截取人物图像帧,以作为表情图像。
[0065]本实施例中,还可以在识别到某个人物图像帧中人物具有特定的情绪特征时,直接通过截取该人物图像帧作为表情图像,以显示在人物图像帧上。
[0066]可选的,也可以是截取该人物图像帧中包含的人脸图像作为表情图像。值得说明的是,截取人脸图像的过程中可能涉及到人脸检测的过程,可以采用目前已经成熟的人脸检测方式实现,比如Adboost人脸检测方法。
[0067]步骤303、确定与识别到的情绪特征对应的表情类别。
[0068]步骤304、将截取获得的人脸图像存入表情数据库中与确定的表情类别对应的存储空间中。
[0069]上述步骤303和步骤304为可选步骤,主要是想说明,截取获得的人脸图像可以被添加到图2所示实施例中的表情数据库中以备后续使用。
[0070]此时,首先需要确定将截取的人脸图像添加到表情数据库中的哪个表情类别对应的存储空间中。由于触发截取人脸图像的时机是识别到具有某种情绪特征的人物图像帧,因此,可以根据情绪特征与表情类别的对应关系,确定与识别到的情绪特征对应的表情类别,进而,将截取获得的人脸图像存入表情数据库中与确定的表情类别对应的存储空间中。
[0071]可选的,实际应用中,由于截取的人脸图像是真实的人物的图像,相比于一些卡通等样式的表情图像而言,对观看者来说可能受众程度更好,因此,当将截取的人脸图像存入表情数据库中时,还可以设置人脸图像具有高优先级。从而,当后续从存储有该人脸图像的存储空间中选择表情图像时,可以按照优先级优先选择该人脸图像。
[0072]步骤305、在播放视频时,将表情图像显示在对应的人物图像帧上。
[0073]由于本实施例中作为表情图像的是截取获得的人脸图像,属于对应人物图像帧中的一部分,因此,当将表情图像显示在对应的人物图像帧上时,可以对该表情图像进行一定的处理后再显示在对应的人物图像帧上,以增强对观看者的视觉冲击,增强互动效果。比如,可以对该表情图像进行放大、动态效果、叠加其他表情元素等处理。
[0074]本实施例中,当识别到视频中具有一定情绪特征的人物图像帧时,通过截图的方式截取该人物图像帧中的人脸图像作为表情图像,将表情图像或经过一定处理后的表情图像显示在播放的该人物图像帧上,从而使得用户在观看该视频时,不但能够观看到该视频中包含的实质的音视频数据内容,还可以观看到表征视频中人物情绪的表情图像,增强了视频的互动形式,提高了用户的观看体验。
[0075]本发明实施例进一步给出实现上述方法实施例中各步骤及方法的装置实施例。
[0076]图4为本发明实施例提供的视频播放装置实施例一的结构示意图,如图4所示,该视频播放装置包括:识别模块11、获取模块12、显示模块13。
[0077]识别模块11,用于识别视频中具有预设情绪特征的人物图像帧;
[0078]获取模块〗2,用于获取与识别到的情绪特征对应的表情图像;
[0079]显示模块13,用于在播放所述视频时,将所述表情图像显示在所述人物图像帧上。
[0080]图4所示装置可以执行图1所示实施例的方法,本实施例未详细描述的部分,可参考对图1的相关说明。
[0081]本发明实施例的技术方案具有以下有益效果:
[0082]当识别模块识别到视频中具有一定情绪特征的人物图像帧时,触发获取模块获取与识别到的该情绪特征对应的表情图像,进而显示模块在播放该视频时,将表情图像显示在该人物图像帧上,从而使得用户在观看该视频时,不但能够观看到该视频中包含的实质的音视频数据内容,还可以观看到表征视频中人物情绪的表情图像,提高了用户的观看体验。由于在视频中叠加或者说悬浮显示了与人物图像帧相关的表情图像,扩展了视频的展示形式,增强了视频的互动形式。
[0083]图5为本发明实施例提供的视频播放装置实施例二的结构示意图,如图5所示,在图4所示实施例基础上,所述获取模块12包括:确定单元121、获取单元122。
[0084]确定单元121,用于根据预先建立的情绪特征与表情类别的对应关系,确定与所述识别到的情绪特征对应的表情类别。
[0085]获取单元122,用于从预先建立的表情数据库中,获取与所述表情类别对应的所述表情图像。
[0086]可选的,所述获取单元122具体用于:若所述表情数据库中存储有与所述表情类别对应的多个可选表情图像,则根据预先设定的所述多个可选表情图像的优先级,从所述多个可选表情图像中选择所述表情图像。
[0087]图5所示装置可以执行图2所示实施例的方法,本实施例未详细描述的部分,可参考对图2的相关说明。
[0088]本发明实施例的技术方案具有以下有益效果:
[0089]当识别模块识别到视频中具有一定情绪特征的人物图像帧时,获取模块通过本地匹配的方式获取与该情绪特征对应的表情图像,可以提高表情图像获取的速度;进而在播放该视频时,显示模块将表情图像显示在该人物图像帧上,从而使得用户在观看该视频时,不但能够观看到该视频中包含的实质的音视频数据内容,还可以观看到表征视频中人物情绪的表情图像,增强了视频的互动形式,提高了用户的观看体验。
[0090]图6为本发明实施例提供的视频播放装置实施例三的结构示意图,如图6所示,在图4所示实施例基础上,所述获取模块12包括:截图单元123。
[0091]截图单元123,用于截取所述人物图像帧,以作为所述表情图像。
[0092]可选的,所述视频播放装置还包括:确定模块21、存储模块22。
[0093]确定模块21,用于确定与所述识别到的情绪特征对应的表情类别。
[0094]存储模块22,用于将截取获得的所述人脸图像存入表情数据库中与所述表情类别对应的存储空间中。
[0095]图6所示装置可以执行图3所示实施例的方法,本实施例未详细描述的部分,可参考对图3的相关说明。
[0096]本发明实施例的技术方案具有以下有益效果:
[0097]当识别模块识别到视频中具有一定情绪特征的人物图像帧时,获取模块通过截图的方式截取该人物图像帧中的人脸图像作为表情图像,进而在播放该视频时,显示模块将表情图像或经过一定处理后的表情图像显示在播放的该人物图像帧上,从而使得用户在观看该视频时,不但能够观看到该视频中包含的实质的音视频数据内容,还可以观看到表征视频中人物情绪的表情图像,增强了视频的互动形式,提高了用户的观看体验。
[0098]可选的,本发明实施例还一种视频播放设备,该视频播放设备中包括处理器以及与处理器通过总线连接的存储器,该存储器中存储有计算机程序,处理器调用该计算机程序以执行上述图1-图3方法实施例中各步骤。
[0099]该存储器可以实现为计算机可读记录介质。
[0100]在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
[0101]以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
[0102]通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如R0M/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机装置(可以是个人计算机,服务器,或者网络装置等)执行各个实施例或者实施例的某些部分所述的方法。
[0103]最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
【主权项】
1.一种视频播放方法,其特征在于,包括: 识别视频中具有预设情绪特征的人物图像帧; 获取与识别到的情绪特征对应的表情图像; 在播放所述视频时,将所述表情图像显示在所述人物图像帧上。2.根据权利要求1所述的方法,其特征在于,所述获取与识别到的情绪特征对应的表情图像,包括: 根据预先建立的情绪特征与表情类别的对应关系,确定与所述识别到的情绪特征对应的表情类别; 从预先建立的表情数据库中,获取与所述表情类别对应的所述表情图像。3.根据权利要求2所述的方法,其特征在于,所述从预先建立的表情数据库中,匹配获取与所述表情类别对应的所述表情图像,包括: 若所述表情数据库中存储有与所述表情类别对应的多个可选表情图像,则根据预先设定的所述多个可选表情图像的优先级,从所述多个可选表情图像中选择所述表情图像。4.根据权利要求1所述的方法,其特征在于,所述获取与识别到的情绪特征对应的表情图像,包括: 截取所述人物图像帧,以作为所述表情图像。5.根据权利要4所述的方法,其特征在于,所述方法还包括: 确定与所述识别到的情绪特征对应的表情类别; 将截取获得的所述人脸图像存入表情数据库中与所述表情类别对应的存储空间中。6.根据权利要求1至5中任一项所述的方法,其特征在于,所述情绪特征包括如下特征中的至少一种:表情特征、语音特征、动作特征。7.一种视频播放装置,其特征在于,包括: 识别模块,用于识别视频中具有预设情绪特征的人物图像帧; 获取模块,用于获取与识别到的情绪特征对应的表情图像; 显示模块,用于在播放所述视频时,将所述表情图像显示在所述人物图像帧上。8.根据权利要求7所述的装置,其特征在于,所述获取模块包括: 确定单元,用于根据预先建立的情绪特征与表情类别的对应关系,确定与所述识别到的情绪特征对应的表情类别; 获取单元,用于从预先建立的表情数据库中,获取与所述表情类别对应的所述表情图像。9.根据权利要求8所述的装置,其特征在于,所述获取单元具体用于: 若所述表情数据库中存储有与所述表情类别对应的多个可选表情图像,则根据预先设定的所述多个可选表情图像的优先级,从所述多个可选表情图像中选择所述表情图像。10.根据权利要求7所述的装置,其特征在于,所述获取模块包括: 截图单元,用于截取所述人物图像帧,以作为所述表情图像。11.根据权利要求10所述的装置,其特征在于,还包括: 确定模块,用于确定与所述识别到的情绪特征对应的表情类别; 存储模块,用于将截取获得的所述人脸图像存入表情数据库中与所述表情类别对应的存储空间中。
【文档编号】H04N21/234GK106060572SQ201610404247
【公开日】2016年10月26日
【申请日】2016年6月8日
【发明人】贺铮
【申请人】乐视控股(北京)有限公司, 乐视网信息技术(北京)股份有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1