一种表情生成方法及移动终端与流程

文档序号:12967727阅读:173来源:国知局
一种表情生成方法及移动终端与流程

本发明涉及移动通信技术领域,尤其涉及一种表情生成方法及移动终端。



背景技术:

随着移动通信技术的迅速发展,便携式移动终端成为用户远程交流的主要工具之一。而依托于社交和网络的不断发展,通过移动终端,用户之间的交流方式也出现了相应的改变,由最早的文字沟通到开始使用一些简单的符号、emoji表情、表情包,逐步演变为日益多元化的表情文化,使用一些自制的、流行元素图片来进行沟通。这类图片以搞笑居多,且构图夸张,通过收藏和分享此类图片,人们可以获得趣味,同时展现自己的藏图,可以得到人们认可,实现心理上的满足。为了迎合日益火爆的表情包文化,很多应用都推出了制作表情包的功能,可以让人们在手机上通过对一张图片进行拼接、编辑等操作进行表情包的生成。

然而,虽然目前很多软件都包含表情包制作的功能,但是绝大多数的软件不够智能,往往需要用户自己去发现可以制作表情包的素材,并且编辑过程也较为繁琐,影响了用户体验。



技术实现要素:

本发明实施例提供一种表情生成方法及移动终端,以解决现有技术中使用移动终端制作表情包较为麻烦的问题。

一方面,本发明实施例提供一种表情生成方法,所述表情生成方法包括:

获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集;

从所述视频数据中提取出视频片段;

编辑所述视频片段的图像信息;

根据编辑后的视频片段,生成聊天表情。

另一方面,本发明实施例还提供了一种移动终端,所述移动终端设有摄像头和麦克风,包括:

获取模块,用于获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集;

提取模块,用于从所述视频数据中提取出视频片段;

编辑模块,用于编辑所述视频片段的图像信息;

生成模块,用于根据编辑后的视频片段,生成聊天表情。

本发明实施例提供的表情生成方法,通过获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集;从所述视频数据中提取出视频片段;编辑所述视频片段的图像信息;根据编辑后的视频片段,生成聊天表情,实现了根据移动终端的拍摄内容,智能地生成聊天表情,提升了用户的使用体验。

附图说明

为了更清楚地说明本发明实施例中的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例的附图,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是本发明表情生成方法的第一实施例的流程图;

图2是本发明表情生成方法的第二实施例的流程图;

图3是本发明表情生成方法的第三实施例的流程图;

图4是本发明表情生成方法的第四实施例的流程图;

图5是本发明移动终端的第一实施例的结构框图之一;

图6是本发明移动终端的第一实施例的结构框图之二;

图7是本发明移动终端的第一实施例的结构框图之三;

图8是本发明移动终端的第一实施例的结构框图之四;

图9是本发明移动终端的第二实施例的结构框图;

图10是本发明移动终端的第三实施例的结构框图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

第一实施例

如图1所示,是本发明表情生成方法的第一实施例的流程图。该表情生成方法包括:

步骤101,获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集。

在本发明实施例中,可以在用户进行视频通话时获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集。其中,所述视频数据为视频通话数据。具体地,当用户建立与其他用户的视频通话连接后,开始通话并监控通话内容,如在视频界面添加一个设置按钮,可根据用户的选择是否开始监控。以往,用户想要用自己的照片做一些表情包,只能先自拍或者让其他人帮忙拍摄照片,目的太过明确,因此很多照片看起来有点刻意,和别人沟通时的一些有趣的表情却往往记录不到。本发明实施例可以实现在视频通话的过程中帮用户收集一些比较有趣的表情包,可以在用户说出一些流行用语或者表情很夸张的时候帮用户记录下来。

步骤102,从所述视频数据中提取出视频片段。

在本发明实施例中,从所述视频数据中提取出视频片段。具体地,可以在视频界面添加一个设置按钮,根据用户的选择,基于已建立的视频通话连接设置监控对象,并获取视频片段。其中,可以在视频通话的过程中,始终缓存固定时间的视频数据,如缓存10秒、15秒或20秒内的视频数据等。

步骤103,编辑所述视频片段的图像信息。

在本发明实施例中,对视频片段进行加工及美化。其中,视频片段可以是视频格式或图片格式。其中,可以是当保存了作为视频片段的小视频后,将小视频转化成动图的格式,动图上可以添加文字,默认以用户说的流行语作为该表情上添加的文字,并提供字体和小挂件的样式给用户选择。比如用户卖萌时给人物加上可爱的头饰等等。

具体地,编辑所述视频片段的图像信息的步骤,包括:

根据所述视频片段的语音信息,生成动图字幕。

在本发明实施例中,所述视频片段为与所述流行语相对应的部分视频数据。以往,动图字幕一般需要自己去手动添加文字等,而本发明实施例则可以通过语音识别,识别视频片段的语音信息,并据此生成动图字幕。具体地,基于语音识别技术将发生该表情时用户的语言识别出来转化成文字作为该表情的标题,将本段小视频转化成动图的格式,动图上可以添加文字,默认以用户说的流行语作为该表情上添加的文字,并提供字体和小挂件的样式给用户选择。也可以让用户自行对该表情命名。例如在截取的大笑的表情则识别该段小视频的音频文件,使用语音识别技术转化成文字,可能是“哈哈哈哈哈”,则将该名字设置为这个表情的名称,还可以给图中用户连上加上“红脸蛋”“小胡子”等等小装饰,增强趣味性。

步骤104,根据编辑后的视频片段,生成聊天表情。

在本发明实施例中,可以实现在视频通话的过程中帮用户收集一些比较有趣的表情包,可以在用户说出一些流行用语或者表情很夸张的时候帮用户记录下来,并搭配好对应文字,帮用户记录沟通的有趣瞬间。比市面上现有的制作表情包的软件更加智能,可以主动帮助用户发现可以做主题包的素材,并且在对话中形成系列的主题包等。如,在生成聊天表情后,还可以提醒用户生成了该聊天表情,例如在屏幕上弹toast提醒用户生成了名为***的新表情包,随后让用户选择删除还是保存,并自动生成或由用户编辑得到聊天表情的名称,或以该流行语作为名称,在保存后供用户使用,即在聊天过程中检测用户编辑的字串,出现该聊天表情的名字的时候提醒用户使用该聊天表情。在用户聊天的过程中,监测用户的输入情况,当编辑框中出现生成过聊天表情的流行语时,自动弹出该聊天表情供用户使用,由此可以增加聊天的趣味性,不断生成的表情包能在聊天的时候就发给其他人进行一个好玩的互动。

其中,除了直接截取小视频做成聊天表情,还可以截取用户表情最夸张时的一张照片做表情包,也可以根据用户的照片,通过一些图片处理,转换成动漫或者暴漫的格式行程表情包等等,用户聊天过程中截取到的视频只是一个素材,可以通过后期处理转换成其他各种表现形式。此处,不限制聊天表情的数量,可以生成单个的聊天表情,也可以生成系列化的多个聊天表情,其中,生成系列的表情包可以不用再让用户一张一张地去制作表情包,而是让用户在聊天过程中通过和朋友的互动直接产生一系列的表情包,例如:“你瞅啥”“瞅你咋地”等等,更加生动自然。

本发明实施例提供的表情生成方法,通过获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集;从所述视频数据中提取出视频片段;编辑所述视频片段的图像信息;根据编辑后的视频片段,生成聊天表情,实现了根据移动终端的拍摄内容,智能地生成聊天表情,提升了用户的使用体验。

第二实施例

如图2所示,是本发明表情生成方法的第二实施例的流程图。该表情生成方法包括:

步骤201,获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集。

步骤201本发明的表情生成方法的第一实施例的相应步骤相同,此处不再赘述。

步骤202,获取流行语词库中的流行语。

在本发明实施例中,流行语词库可以是移动终端本地内置的一个移动词库用语库列表,如输入法的通用词库或表情生成专用词库等,其中,可以在联网情况下于固定时间间隔检测词库的更新情况,从服务器下载新的流行语库并保存更新词库;流行语词库还可以存储于服务器,移动终端联网后直接获取其中的流行语。具体地,可以在摄像开始时自动获取获取流行语词库中的流行语,也可以根据用户的选择获取流行语词库中的流行语。

步骤203,识别所述视频数据的语音信息。

在本发明实施例中,从所述视频数据中提取出视频片段,需要先识别视频数据的语音信息。具体地,可以在视频界面添加一个设置按钮,当已实现内置流行语库的更新后,根据用户的选择,建立视频通话连接并设置监控对象,然后通话过程中,通过识别视频数据的语音信息进而检测流行语的出现。具体地,在通话过程中,可以始终缓存10s内通话的视频及音频,通过语音识别技术识别视频数据的语音信息。

步骤204,根据所述语音信息和所述流行语,从所述视频数据中提取出包含所述流行语的所述视频片段。

在本发明实施例中,根据所述语音信息和所述流行语,从所述视频数据中提取出包含所述流行语的所述视频片段,可以是当检测到用户聊天过程中出现了流行语词库中的某句话时,保存用户说出该流行语时的视频资料。例如,用户聊天时说到:“蓝瘦香菇”,检测到用户说的这句话在流行词库中可以检索到时,记录用户说出该句话的时间,截取这一句话的视频。

步骤205,编辑所述视频片段的图像信息。

步骤206,根据编辑后的视频片段,生成聊天表情。

步骤205-206与本发明的表情生成方法的第一实施例的相应步骤相同,此处不再赘述。

本发明实施例提供的表情生成方法,获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集,获取流行语词库中的流行语,识别所述视频数据的语音信息,根据所述语音信息和所述流行语,从所述视频数据中提取出包含所述流行语的所述视频片段,编辑所述视频片段的图像信息,根据编辑后的视频片段,生成聊天表情。由此,实现了根据流行语生成聊天表情,增加了表情生成的趣味性和聊天表情的实用性,提高了用户体验。

第三实施例

如图3所示,是本发明表情生成方法的第三实施例的流程图。该表情生成方法包括:

步骤301,获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集。

步骤301与本发明的表情生成方法的第一实施例的相应步骤相同,此处不再赘述。

步骤302,获取基本表情和表情阈值。

在本发明实施例中,可以基于视频数据和用户的基本表情、表情阈值获取视频片段。其中,基本表情和表情阈值可以由用户预先录入,例如基本表情可以是用户常见的面部表情,该基本表情作为面部表情变化的基准。

步骤303,在预定时间获取所述视频数据中的面部特征信息。

在本发明实施例中,在监控视频通话内容时,在视频界面添加一个设置按钮,根据用户的选择,建立视频通话连接并且设置监控的对象,并在预定时间,检测用户面部表情的变化。例如,在建立连接并设置监控对象以后,在通话过程中,始终缓存10s内通话的视频及音频,并且每2s截取一次用户的表情。

步骤304,基于所述基本表情和所述表情阈值分析所述面部特征信息。

在本发明实施例中,通过面部表情分析及识别技术,对于用户的面部表情及情绪进行分析,将用户最常使用的表情作为基本表情。

步骤305,判断所述面部特征信息的表情变化程度是否大于所述表情阈值。

在本发明实施例中,短时间内,当用户的表情相对基础表情的变化超过一定阈值时,即超过了表情阈值时,认为用户做了一个较为生动的表情,保存该段视频。例如:根据每2s截取的视频确认用户的平常表情为嘴角较平、眼睛大小正常。当检测到用户漏出牙齿、嘴角向上的弧度超过一个阈值、眼睛弯曲弧度超过一定阈值等变化时,认为用户正在大笑,则截取该段小视频。

步骤306,若是,获取所述面部特征信息的帧数据。

在本发明实施例中,面部表情的帧数据可以是单帧数据,也可以是多帧数据。

步骤307,根据所述帧数据获取部分视频数据,得到所述视频片段。

在本发明实施例中,关注用户的面部表情,获取一些用户可能平时关注不到的细节,帮助用户发现自身有趣的一面,而且帮助用户抓取一些常见表情变化,也为用户自拍提供了一些新的思路,生成每个用户专属的表情用语,让用户不光有网络常见流行用语的表情包,更有自己独有的常用语表情包。

步骤308,编辑所述视频片段的图像信息。

步骤309,根据编辑后的视频片段,生成聊天表情。

步骤308-309与本发明的表情生成方法的第一实施例的相应步骤相同,此处不再赘述。

本发明实施例提供的表情生成方法,通过获取基本表情和表情阈值,在预定时间获取所述视频数据中的面部特征信息,基于所述基本表情和所述表情阈值分析所述面部特征信息,判断所述面部特征信息的表情变化程度是否大于所述表情阈值,若是,获取所述面部特征信息的帧数据,根据所述帧数据获取部分视频数据,得到所述视频片段。由此,实现了采用面部识别的技术,自动获取用户的有趣表情制成聊天表情,提高了用户体验。

第四实施例

如图4所示,是本发明表情生成方法的第四实施例的流程图。该表情生成方法包括:

步骤401,获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集。

步骤401与本发明的表情生成方法的第一实施例的相应步骤相同,此处不再赘述。

步骤402,根据延时阈值延时保存部分视频数据。

在本发明实施例中,可以在视频界面添加一个设置按钮,根据用户的选择,建立视频通话连接并且设置监控的对象。具体地,在通话过程中,检测用户对于表情包获取按钮的点击状况,并在建立连接并设置监控对象以后,在通话过程中,始终缓存10s内通话的视频及音频。

步骤403,接收用户的动图获取指令。

在本发明实施例中,可以在屏幕上设置一个获取表情包的按钮,当用户发现刚才过去的一个小片段非常有意思可以截取作为表情包时点击该按钮,监测到用户点击了该按钮的时候,即接收到了用户的动图获取指令,展示10s内的小视频,再根据用户对于开始点和结束点的选择,截取小视频并保存。例如,用户发现刚刚自己或者对方做了一个抓狂的表情非常有意思,于是用户点击获取表情包的按钮,将过去10s内的视频播放出来并且下来带上进度条,用户可以通过设置开始和结束的时间点将“抓狂”的表情截取并保存下来。

步骤404,根据所述动图获取指令获取所述部分视频数据,得到所述视频片段。

在本发明实施例中,根据所述动图获取指令获取所述部分视频数据,得到所述视频片段,可以更加灵活且方便用户手动抓取表情包,及时发现聊天过程中的有趣瞬间。

步骤405,编辑所述视频片段的图像信息。

步骤406,根据编辑后的视频片段,生成聊天表情。

步骤405-406与本发明的表情生成方法的第一实施例的相应步骤相同,此处不再赘述。

本发明实施例提供的表情生成方法,通过根据延时阈值延时保存部分视频数据,接收用户的动图获取指令,根据所述动图获取指令获取所述部分视频数据,得到所述视频片段。由此,实现了根据用户的选择智能地制作聊天表情,简化了聊天表情的制作程序,提高了用户体验。

上文对本发明移动终端的显示方法的实施例作了详细介绍。下面将相应于上述方法的装置(即移动终端)作进一步阐述。其中,移动终端可以是手机、平板电脑等设有摄像头的电子设备。

第五实施例

如图5所示,为本发明移动终端的第一实施例的结构框图之一。该移动终端500设有摄像头,还包括获取模块501、提取模块502、编辑模块503和生成模块504,其中,获取模块501与提取模块502相连接,提取模块502与编辑模块503相连接,编辑模块503与生成模块504相连接。

本发明实施例中,获取模块501,用于获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集。

在本发明实施例中,可以在用户进行视频通话时获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集。其中,所述视频数据为视频通话数据。具体地,当用户建立与其他用户的视频通话连接后,开始通话并监控通话内容,如在视频界面添加一个设置按钮,可根据用户的选择是否开始监控。以往,用户想要用自己的照片做一些表情包,只能先自拍或者让其他人帮忙拍摄照片,目的太过明确,因此很多照片看起来有点刻意,和别人沟通时的一些有趣的表情却往往记录不到。本发明实施例可以实现在视频通话的过程中帮用户收集一些比较有趣的表情包,可以在用户说出一些流行用语或者表情很夸张的时候帮用户记录下来。

提取模块502,用于从所述视频数据中提取出视频片段。

在本发明实施例中,从所述视频数据中提取出视频片段。具体地,可以在视频界面添加一个设置按钮,根据用户的选择,基于已建立的视频通话连接设置监控对象,并获取视频片段。其中,可以在视频通话的过程中,始终缓存固定时间的视频数据,如缓存10秒、15秒或20秒内的视频数据等。

编辑模块503,用于编辑所述视频片段的图像信息。

在本发明实施例中,对视频片段进行加工及美化。其中,视频片段可以是视频格式或图片格式。其中,可以是当保存了作为视频片段的小视频后,将小视频转化成动图的格式,动图上可以添加文字,默认以用户说的流行语作为该表情上添加的文字,并提供字体和小挂件的样式给用户选择。比如用户卖萌时给人物加上可爱的头饰等等。

所述编辑模块503包括:

生成单元5031,用于根据所述视频片段的语音信息,生成动图字幕。

在本发明实施例中,所述视频片段为与所述流行语相对应的部分视频数据。以往,动图字幕一般需要自己去手动添加文字等,而本发明实施例则可以通过语音识别,识别视频片段的语音信息,并据此生成动图字幕。具体地,基于语音识别技术将发生该表情时用户的语言识别出来转化成文字作为该表情的标题,将本段小视频转化成动图的格式,动图上可以添加文字,默认以用户说的流行语作为该表情上添加的文字,并提供字体和小挂件的样式给用户选择。也可以让用户自行对该表情命名。例如在截取的大笑的表情则识别该段小视频的音频文件,使用语音识别技术转化成文字,可能是“哈哈哈哈哈”,则将该名字设置为这个表情的名称,还可以给图中用户连上加上“红脸蛋”“小胡子”等等小装饰,增强趣味性。

生成模块504,用于根据编辑后的视频片段,生成聊天表情。

在本发明实施例中,可以实现在视频通话的过程中帮用户收集一些比较有趣的表情包,可以在用户说出一些流行用语或者表情很夸张的时候帮用户记录下来,并搭配好对应文字,帮用户记录沟通的有趣瞬间。比市面上现有的制作表情包的软件更加智能,可以主动帮助用户发现可以做主题包的素材,并且在对话中形成系列的主题包等。如,在生成聊天表情后,还可以提醒用户生成了该聊天表情,例如在屏幕上弹toast提醒用户生成了名为***的新表情包,随后让用户选择删除还是保存,并自动生成或由用户编辑得到聊天表情的名称,或以该流行语作为名称,在保存后供用户使用,即在聊天过程中检测用户编辑的字串,出现该聊天表情的名字的时候提醒用户使用该聊天表情。在用户聊天的过程中,监测用户的输入情况,当编辑框中出现生成过聊天表情的流行语时,自动弹出该聊天表情供用户使用,由此可以增加聊天的趣味性,不断生成的表情包能在聊天的时候就发给其他人进行一个好玩的互动。

其中,除了直接截取小视频做成聊天表情,还可以截取用户表情最夸张时的一张照片做表情包,也可以根据用户的照片,通过一些图片处理,转换成动漫或者暴漫的格式行程表情包等等,用户聊天过程中截取到的视频只是一个素材,可以通过后期处理转换成其他各种表现形式。此处,不限制聊天表情的数量,可以生成单个的聊天表情,也可以生成系列化的多个聊天表情,其中,生成系列的表情包可以不用再让用户一张一张地去制作表情包,而是让用户在聊天过程中通过和朋友的互动直接产生一系列的表情包,例如:“你瞅啥”“瞅你咋地”等等,更加生动自然。

在另一实施例中,如图6所示,在图5的基础上,该移动终端的提取模块602包括:

第一获取单元6021,用于获取流行语词库中的流行语。

在本发明实施例中,流行语词库可以是移动终端本地内置的一个移动词库用语库列表,如输入法的通用词库或表情生成专用词库等,其中,可以在联网情况下于固定时间间隔检测词库的更新情况,从服务器下载新的流行语库并保存更新词库;流行语词库还可以存储于服务器,移动终端联网后直接获取其中的流行语。具体地,可以在摄像开始时自动获取获取流行语词库中的流行语,也可以根据用户的选择获取流行语词库中的流行语。

识别单元6022,用于识别所述视频数据的语音信息。

在本发明实施例中,从所述视频数据中提取出视频片段,需要先识别视频数据的语音信息。具体地,可以在视频界面添加一个设置按钮,当已实现内置流行语库的更新后,根据用户的选择,建立视频通话连接并设置监控对象,然后通话过程中,通过识别视频数据的语音信息进而检测流行语的出现。具体地,在通话过程中,可以始终缓存10s内通话的视频及音频,通过语音识别技术识别视频数据的语音信息。

提取单元6023,用于根据所述语音信息和所述流行语,从所述视频数据中提取出包含所述流行语的所述视频片段。

在本发明实施例中,根据所述语音信息和所述流行语,从所述视频数据中提取出包含所述流行语的所述视频片段,可以是当检测到用户聊天过程中出现了流行语词库中的某句话时,保存用户说出该流行语时的视频资料。例如,用户聊天时说到:“蓝瘦香菇”,检测到用户说的这句话在流行词库中可以检索到时,记录用户说出该句话的时间,截取这一句话的视频。

如图7所示,在图5的基础上,该移动终端的提取模块602’包括:

第二获取单元6021’,用于获取基本表情和表情阈值。

在本发明实施例中,可以基于视频数据和用户的基本表情、表情阈值获取视频片段。其中,基本表情和表情阈值可以由用户预先录入,例如基本表情可以是用户常见的面部表情,该基本表情作为面部表情变化的基准。

第三获取单元6022’,用于在预定时间获取所述视频数据中的面部特征信息。

在本发明实施例中,在监控视频通话内容时,在视频界面添加一个设置按钮,根据用户的选择,建立视频通话连接并且设置监控的对象,并在预定时间,检测用户面部表情的变化。例如,在建立连接并设置监控对象以后,在通话过程中,始终缓存10s内通话的视频及音频,并且每2s截取一次用户的表情。

分析单元6023’,用于基于所述基本表情和所述表情阈值分析所述面部特征信息。

在本发明实施例中,通过面部表情分析及识别技术,对于用户的面部表情及情绪进行分析,将用户最常使用的表情作为基本表情。

判断单元6024’,用于判断所述面部特征信息的表情变化程度是否大于所述表情阈值。

在本发明实施例中,短时间内,当用户的表情相对基础表情的变化超过一定阈值时,即超过了表情阈值时,认为用户做了一个较为生动的表情,保存该段视频。例如:根据每2s截取的视频确认用户的平常表情为嘴角较平、眼睛大小正常。当检测到用户漏出牙齿、嘴角向上的弧度超过一个阈值、眼睛弯曲弧度超过一定阈值等变化时,认为用户正在大笑,则截取该段小视频。

第四获取单元6025’,用于获取所述面部特征信息的帧数据。

在本发明实施例中,面部表情的帧数据可以是单帧数据,也可以是多帧数据。

第五获取单元6026’,用于根据所述帧数据获取部分视频数据,得到所述视频片段。

在本发明实施例中,关注用户的面部表情,获取一些用户可能平时关注不到的细节,帮助用户发现自身有趣的一面,而且帮助用户抓取一些常见表情变化,也为用户自拍提供了一些新的思路,生成每个用户专属的表情用语,让用户不光有网络常见流行用语的表情包,更有自己独有的常用语表情包。

如图8所示,在图5的基础上,该移动终端的提取模块602”包括:

保存单元6021”,用于根据延时阈值延时保存部分视频数据。

在本发明实施例中,可以在视频界面添加一个设置按钮,根据用户的选择,建立视频通话连接并且设置监控的对象。具体地,在通话过程中,检测用户对于表情包获取按钮的点击状况,并在建立连接并设置监控对象以后,在通话过程中,始终缓存10s内通话的视频及音频。

接收单元6022”,用于接收用户的动图获取指令。

在本发明实施例中,可以在屏幕上设置一个获取表情包的按钮,当用户发现刚才过去的一个小片段非常有意思可以截取作为表情包时点击该按钮,监测到用户点击了该按钮的时候,即接收到了用户的动图获取指令,展示10s内的小视频,再根据用户对于开始点和结束点的选择,截取小视频并保存。例如,用户发现刚刚自己或者对方做了一个抓狂的表情非常有意思,于是用户点击获取表情包的按钮,将过去10s内的视频播放出来并且下来带上进度条,用户可以通过设置开始和结束的时间点将“抓狂”的表情截取并保存下来。

第六获取单元6023”,用于根据所述动图获取指令获取所述部分视频数据,得到所述视频片段。

在本发明实施例中,根据所述动图获取指令获取所述部分视频数据,得到所述视频片段,可以更加灵活且方便用户手动抓取表情包,及时发现聊天过程中的有趣瞬间。

本发明实施例提供的终端500,通过本发明实施例提供的表情生成方法,通过获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集;从所述视频数据中提取出视频片段;编辑所述视频片段的图像信息;根据编辑后的视频片段,生成聊天表情,实现了根据移动终端的拍摄内容,智能地生成聊天表情;获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集,获取流行语词库中的流行语,识别所述视频数据的语音信息,根据所述语音信息和所述流行语,从所述视频数据中提取出包含所述流行语的所述视频片段,编辑所述视频片段的图像信息,根据编辑后的视频片段,生成聊天表情,实现了根据流行语生成聊天表情,增加了表情生成的趣味性和聊天表情的实用性;通过获取基本表情和表情阈值,在预定时间获取所述视频数据中的面部特征信息,基于所述基本表情和所述表情阈值分析所述面部特征信息,判断所述面部特征信息的表情变化程度是否大于所述表情阈值,若是,获取所述面部特征信息的帧数据,根据所述帧数据获取部分视频数据,得到所述视频片段,实现了采用面部识别的技术,自动获取用户的有趣表情制成聊天表情;通过根据延时阈值延时保存部分视频数据,接收用户的动图获取指令,根据所述动图获取指令获取所述部分视频数据,得到所述视频片段。由此,实现了根据用户的选择智能地制作聊天表情,简化了聊天表情的制作程序,提高了用户体验。

第六实施例

图9是本发明移动终端的第二实施例的结构框图。图9所示的移动终端800包括:至少一个处理器801、存储器802、至少一个网络接口804、用户接口803和其他组件806,其他组件806包括眼球追踪传感器和前置摄像头。移动终端800中的各个组件通过总线系统805耦合在一起。可理解,总线系统805用于实现这些组件之间的连接通信。总线系统805除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图8中将各种总线都标为总线系统805。

其中,用户接口803可以包括显示器、键盘或者点击设备(例如,鼠标,轨迹球(trackball)、触感板或者触摸屏等。

可以理解,本发明实施例中的存储器802可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-onlymemory,rom)、可编程只读存储器(programmablerom,prom)、可擦除可编程只读存储器(erasableprom,eprom)、电可擦除可编程只读存储器(electricallyeprom,eeprom)或闪存。易失性存储器可以是随机存取存储器(randomaccessmemory,ram),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的ram可用,例如静态随机存取存储器(staticram,sram)、动态随机存取存储器(dynamicram,dram)、同步动态随机存取存储器(synchronousdram,sdram)、双倍数据速率同步动态随机存取存储器(doubledataratesdram,ddrsdram)、增强型同步动态随机存取存储器(enhancedsdram,esdram)、同步连接动态随机存取存储器(synchlinkdram,sldram)和直接内存总线随机存取存储器(directrambusram,drram)。本发明实施例描述的系统和方法的存储器802旨在包括但不限于这些和任意其它适合类型的存储器。

在一些实施方式中,存储器802存储了如下的元素,可执行模块或者数据结构,或者他们的子集,或者他们的扩展集:操作系统8021和应用程序8022。

其中,操作系统8021,包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序8022,包含各种应用程序,例如媒体播放器(mediaplayer)、浏览器(browser)等,用于实现各种应用业务。实现本发明实施例方法的程序可以包含在应用程序8022中。

在本发明实施例中,通过调用存储器802存储的程序或指令,具体的,可以是应用程序8022中存储的程序或指令,处理器801用于获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集;从所述视频数据中提取出视频片段;编辑所述视频片段的图像信息;根据编辑后的视频片段,生成聊天表情。

上述本发明实施例揭示的方法可以应用于处理器801中,或者由处理器801实现。处理器801可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器801中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器801可以是通用处理器、数字信号处理器(digitalsignalprocessor,dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现成可编程门阵列(fieldprogrammablegatearray,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器802,处理器801读取存储器802中的信息,结合其硬件完成上述方法的步骤。

可以理解的是,本发明实施例描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(applicationspecificintegratedcircuits,asic)、数字信号处理器(digitalsignalprocessing,dsp)、数字信号处理设备(dspdevice,dspd)、可编程逻辑设备(programmablelogicdevice,pld)、现场可编程门阵列(field-programmablegatearray,fpga)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。

对于软件实现,可通过执行本发明实施例所述功能的模块(例如过程、函数等)来实现本发明实施例所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。

可选地,处理器801还用于:获取流行语词库中的流行语;识别所述视频数据的语音信息;根据所述语音信息和所述流行语,从所述视频数据中提取出包含所述流行语的所述视频片段。

可选地,处理器801还用于:获取基本表情和表情阈值;在预定时间获取所述视频数据中的面部特征信息;基于所述基本表情和所述表情阈值分析所述面部特征信息;判断所述面部特征信息的表情变化程度是否大于所述表情阈值;若是,获取所述面部特征信息的帧数据;根据所述帧数据获取部分视频数据,得到所述视频片段。

可选地,处理器801还用于:根据延时阈值延时保存部分视频数据;接收用户的动图获取指令;根据所述动图获取指令获取所述部分视频数据,得到所述视频片段。

可选地,处理器801还用于:根据所述视频片段的语音信息,生成动图字幕。

移动终端800能够实现前述实施例中移动终端实现的各个过程,为避免重复,这里不再赘述。

本发明实施例提供的移动终端800,通过获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集;从所述视频数据中提取出视频片段;编辑所述视频片段的图像信息;根据编辑后的视频片段,生成聊天表情,实现了根据移动终端的拍摄内容,智能地生成聊天表情,提升了用户的使用体验。

第七实施例

图10是本发明移动终端的第三实施例的结构框图。具体地,图10中的移动终端900可以为手机、平板电脑、个人数字助理(personaldigitalassistant,pda)、或车载电脑等。

图10中的移动终端900包括射频(radiofrequency,rf)电路910、存储器920、输入单元930、显示单元940、其他组件950、处理器960、音频电路970、wifi(wirelessfidelity)模块980和电源990,其中,其他组件950包括眼球追踪传感器和前置摄像头。

其中,输入单元930可用于接收用户输入的数字或字符信息,以及产生与移动终端900的用户设置以及功能控制有关的信号输入。具体地,本发明实施例中,该输入单元930可以包括触控面板931。触控面板931,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板931上的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板931可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给该处理器960,并能接收处理器960发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板931。除了触控面板931,输入单元930还可以包括其他输入设备932,其他输入设备932可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。

其中,显示单元940可用于显示由用户输入的信息或提供给用户的信息以及移动终端900的各种菜单界面。显示单元940可包括显示面板941,可选的,可以采用lcd或有机发光二极管(organiclight-emittingdiode,oled)等形式来配置显示面板941。

应注意,触控面板931可以覆盖显示面板941,形成触摸显示屏,当该触摸显示屏检测到在其上或附近的触摸操作后,传送给处理器960以确定触摸事件的类型,随后处理器960根据触摸事件的类型在触摸显示屏上提供相应的视觉输出。

触摸显示屏包括应用程序界面显示区及常用控件显示区。该应用程序界面显示区及该常用控件显示区的排列方式并不限定,可以为上下排列、左右排列等可以区分两个显示区的排列方式。该应用程序界面显示区可以用于显示应用程序的界面。每一个界面可以包含至少一个应用程序的图标和/或widget桌面控件等界面元素。该应用程序界面显示区也可以为不包含任何内容的空界面。该常用控件显示区用于显示使用率较高的控件,例如,设置按钮、界面编号、滚动条、电话本图标等应用程序图标等。

其中处理器960是移动终端900的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在第一存储器921内的软件程序和/或模块,以及调用存储在第二存储器922内的数据,执行移动终端900的各种功能和处理数据,从而对移动终端900进行整体监控。可选的,处理器960可包括一个或多个处理单元。

在本发明实施例中,通过调用存储该第一存储器921内的软件程序和/或模块和/或该第二存储器922内的数据,处理器960用于获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集;从所述视频数据中提取出视频片段;编辑所述视频片段的图像信息;根据编辑后的视频片段,生成聊天表情。

可选地,处理器960还用于:获取流行语词库中的流行语;识别所述视频数据的语音信息;根据所述语音信息和所述流行语,从所述视频数据中提取出包含所述流行语的所述视频片段。

可选地,处理器960还用于:获取基本表情和表情阈值;在预定时间获取所述视频数据中的面部特征信息;基于所述基本表情和所述表情阈值分析所述面部特征信息;判断所述面部特征信息的表情变化程度是否大于所述表情阈值;若是,获取所述面部特征信息的帧数据;根据所述帧数据获取部分视频数据,得到所述视频片段。

可选地,处理器960还用于:根据延时阈值延时保存部分视频数据;接收用户的动图获取指令;根据所述动图获取指令获取所述部分视频数据,得到所述视频片段。

可选地,处理器960还用于:根据所述视频片段的语音信息,生成动图字幕。

移动终端900能够实现前述实施例中移动终端实现的各个过程,为避免重复,这里不再赘述。

本发明实施例提供的移动终端900,通过通过获取视频数据,所述视频数据通过所述移动终端的摄像头和麦克风采集;从所述视频数据中提取出视频片段;编辑所述视频片段的图像信息;根据编辑后的视频片段,生成聊天表情,实现了根据移动终端的拍摄内容,智能地生成聊天表情,提升了用户的使用体验。

本领域普通技术人员可以意识到,结合本发明实施例中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。

所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、rom、ram、磁碟或者光盘等各种可以存储程序代码的介质。

以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1