一种处理视频数据的移动终端和方法

文档序号:10698631阅读:441来源:国知局
一种处理视频数据的移动终端和方法
【专利摘要】本文公布一种处理视频数据的移动终端和方法,该方法包括:当移动终端在视频通话界面中检测到启动异地合拍功能时,移动终端获取自身的第一视频数据以及与自身进行视频通话方的第二视频数据;移动终端将获得的第一视频数据和第二视频数据合成为第三视频数据;移动终端在当前视频通话界面中显示合成的第三视频数据;当移动终端在显示第三视频数据的界面中检测到截图指令时,截取第三视频数据中的当前图像。本发明实施例实现了自动、快速地合成视频通话双方的图像,满足了用户需求,增强了用户的体验感。
【专利说明】
一种处理视频数据的移动终端和方法
技术领域
[0001]本发明实施例涉及但不限于智能终端技术,尤指一种处理视频数据的移动终端和方法。
【背景技术】
[0002]随着科技的发展,人们足不出户就可以使用移动终端与亲朋好友之间进行视频通话,但是目前的视频通话技术只能使用户在自身视频数据窗口和对方视频数据窗口之间进行大小窗口的切换(如图1所示,在基于IMS的语音业务(VoLTE ,Voice over Long TermEvolut1n)的视频通话中,对方视频数据窗口是小窗口,而自身视频数据窗口是大窗口,用户可以将对方视频数据窗口切换为大窗口,将自身视频数据窗口切换为小窗口),无法在视频通话中获取自身或对方的视频数据中的某一帧图像,因此无法对视频数据进行处理;另外,目前的移动终端,虽然其拍照模式和处理照片的方式比较完善,但是对于合影的方式还是局限于同一地域,如果身在异地的两个人想要合影,其中一方需要将自己拍摄的照片发送给对方,由对方采用图像合成技术将接收到的照片中的人物和自身的照片中的人物进行合成,这种“合影”方式操作繁琐,不能满足用户的需求,用户体验不好。
[0003]因此,自动、快速地合成视频通话双方的图像成为亟需解决的难题。

【发明内容】

[0004]为了解决上述技术问题,本申请提供了一种处理视频数据的移动终端和方法,能够实现自动、快速地合成视频通话双方的图像,满足用户需求,增强用户的体验感。
[0005]为了达到本申请目的,本发明实施例提供了一种处理视频数据的移动终端,包括:检测模块、获取模块、合成模块、显示模块和截图模块;其中,
[0006]检测模块,用于当在自身所属的移动终端的视频通话界面中检测到启动异地合拍功能时,通知获取模块;当在显示第三视频数据的界面中检测到截图指令时,通知截图模块;
[0007]获取模块,用于接收到来自检测模块的通知,获取自身所属的移动终端的第一视频数据以及与自身所属的移动终端进行视频通话方的第二视频数据;
[0008]合成模块,用于将获得的第一视频数据和第二视频数据合成为第三视频数据;
[0009]显示模块,用于在当前视频通话界面中显示合成的第三视频数据;
[0010]截图模块,用于接收到来自检测模块的通知,截取第三视频数据中的当前图像。
[0011]可选地,所述合成模块,具体用于:
[0012]获取所述第一视频数据所包含的每一帧图像以及所述第二视频数据所包含的每一帧图像;
[0013]分别对获得的所述第二视频数据所包含的每一帧图像均进行人物分离;
[0014]分别将从所述第二视频数据所包含的每一帧图像中分离出的人物和与其对应的所述第一视频数据所包含的一帧图像进行合成以合成为所述第三视频数据。
[0015]可选地,所述合成模块,具体用于:
[0016]获取所述第一视频数据所包含的每一帧图像以及所述第二视频数据所包含的每一帧图像;
[0017]分别对获得的所述第一视频数据所包含的每一帧图像均进行人物分离;
[0018]分别将从所述第一视频数据所包含的每一帧图像中分离出的人物和与其对应的所述第二视频数据所包含的一帧图像进行合成以合成为所述第三视频数据。
[0019]可选地,所述合成模块,具体用于:
[0020]分别对获得的所述第一视频数据所包含的每一帧图像均进行人物分离以及分别对获得的所述第二视频数据所包含的每一帧图像均进行人物分离;
[0021]分别将从所述第一视频数据所包含的每一帧图像中分离出的人物和与其对应的从所述第二视频数据所包含的一帧图像中分理处的人物合成到预设的背景模板中以合成为所述第三视频数据。
[0022]可选地,所述截图指令包括:语音截图指令、指纹截图指令或组合按键截图指令。
[0023]本发明实施例还提供了一种处理视频数据的方法,包括:
[0024]当移动终端在视频通话界面中检测到启动异地合拍功能时,移动终端获取自身的第一视频数据以及与自身进行视频通话方的第二视频数据;
[0025]移动终端将获得的第一视频数据和第二视频数据合成为第三视频数据;
[0026]移动终端在当前视频通话界面中显示合成的第三视频数据;
[0027]当移动终端在显示第三视频数据的界面中检测到截图指令时,截取第三视频数据中的当前图像。
[0028]可选地,所述移动终端将获得的第一视频数据和第二视频数据合成为第三视频数据包括:
[0029]所述移动终端获取所述第一视频数据所包含的每一帧图像以及所述第二视频数据所包含的每一帧图像;
[0030]所述移动终端分别对获得的所述第二视频数据所包含的每一帧图像均进行人物分离;
[0031]所述移动终端分别将从所述第二视频数据所包含的每一帧图像中分离出的人物和与其对应的所述第一视频数据所包含的一帧图像进行合成以合成为所述第三视频数据。
[0032]可选地,所述移动终端将获得的第一视频数据和第二视频数据合成为第三视频数据包括:
[0033]所述移动终端获取所述第一视频数据所包含的每一帧图像以及所述第二视频数据所包含的每一帧图像;
[0034]所述移动终端分别对获得的所述第一视频数据所包含的每一帧图像均进行人物分离;
[0035]所述移动终端分别将从所述第一视频数据所包含的每一帧图像中分离出的人物和与其对应的所述第二视频数据所包含的一帧图像进行合成以合成为所述第三视频数据。
[0036]可选地,所述移动终端将获得的第一视频数据和第二视频数据合成为第三视频数据包括:
[0037]所述移动终端分别对获得的所述第一视频数据所包含的每一帧图像均进行人物分离以及分别对获得的所述第二视频数据所包含的每一帧图像均进行人物分离;
[0038]所述移动终端分别将从所述第一视频数据所包含的每一帧图像中分离出的人物和与其对应的从所述第二视频数据所包含的一帧图像中分理处的人物合成到预设的背景模板中以合成为所述第三视频数据。
[0039]可选地,所述截图指令包括:语音截图指令、指纹截图指令或组合按键截图指令。
[0040]本发明实施例包括:当移动终端在视频通话界面中检测到启动异地合拍功能时,移动终端获取自身的第一视频数据以及与自身进行视频通话方的第二视频数据;移动终端将获得的第一视频数据和第二视频数据合成为第三视频数据;移动终端在当前视频通话界面中显示合成的第三视频数据;当移动终端在显示第三视频数据的界面中检测到截图指令时,截取第三视频数据中的当前图像。本发明实施例实现了自动、快速地合成视频通话双方的图像,满足了用户需求,增强了用户的体验感。
【附图说明】
[0041]此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
[0042]图1为现有的视频通话界面的不意图;
[0043]图2为实现本发明各个实施例一个移动终端的硬件结构示意;
[0044]图3为本发明处理视频数据的移动终端的结构示意图;
[0045]图4为本发明处理视频数据的方法的流程图;
[0046]图5(a)为本发明启动异地合拍功能的视频通话界面的示意图一;
[0047]图5(b)为本发明启动异地合拍功能的视频通话界面的示意图二;
[0048]图5(c)为本发明启动异地合拍功能的视频通话界面的示意图三;
[0049]图6为本发明处理视频数据的方法的实施例的流程图。
【具体实施方式】
[0050]下面将结合附图及实施例对本发明的技术方案进行更详细的说明。
[0051]现在将参考附图描述实现本发明各个实施例的移动终端。在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身并没有特定的意义。因此,"模块"与"部件"可以混合地使用。
[0052]移动终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。下面,假设终端是移动终端。然而,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本发明的实施方式的构造也能够应用于固定类型的终端。
[0053]图2为实现本发明各个实施例一个移动终端的硬件结构示意图。
[0054]移动终端100可以包括无线通信单元110、A/V(音频/视频)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190等等。图2示出了具有各种组件的移动终端,但是应理解的是,并不要求实施所有示出的组件。可以替代地实施更多或更少的组件。将在下面详细描述移动终端的元件。
[0055]无线通信单元110通常包括一个或多个组件,其允许移动终端100与无线通信系统或网络之间的无线电通信。例如,无线通信单元可以包括广播接收模块111、移动通信模块112、无线互联网模块113、短程通信模块114和位置信息模块115中的至少一个。
[0056]广播接收模块111经由广播信道从外部广播管理服务器接收广播信号和/或广播相关信息。广播信道可以包括卫星信道和/或地面信道。广播管理服务器可以是生成并发送广播信号和/或广播相关信息的服务器或者接收之前生成的广播信号和/或广播相关信息并且将其发送给终端的服务器。广播信号可以包括TV广播信号、无线电广播信号、数据广播信号等等。而且,广播信号可以进一步包括与TV或无线电广播信号组合的广播信号。广播相关信息也可以经由移动通信网络提供,并且在该情况下,广播相关信息可以由移动通信模块112来接收。广播信号可以以各种形式存在,例如,其可以以数字多媒体广播(DMB)的电子节目指南(EPG)、数字视频广播手持(DVB-H)的电子服务指南(ESG)等等的形式而存在。广播接收模块111可以通过使用各种类型的广播系统接收信号广播。特别地,广播接收模块111可以通过使用诸如多媒体广播-地面(DMB-T)、数字多媒体广播-卫星(DMB-S)、数字视频广播-手持(DVB-H),前向链路媒体(MediaFLO?)的数据广播系统、地面数字广播综合服务(ISDB-T)等等的数字广播系统接收数字广播。广播接收模块111可以被构造为适合提供广播信号的各种广播系统以及上述数字广播系统。经由广播接收模块111接收的广播信号和/或广播相关信息可以存储在存储器160(或者其它类型的存储介质)中。
[0057]移动通信模块112将无线电信号发送到基站(例如,接入点、节点B等等)、外部终端以及服务器中的至少一个和/或从其接收无线电信号。这样的无线电信号可以包括语音通话信号、视频通话信号、或者根据文本和/或多媒体消息发送和/或接收的各种类型的数据。
[0058]无线互联网模块113支持移动终端的无线互联网接入。该模块可以内部或外部地耦接到终端。该模块所涉及的无线互联网接入技术可以包括WLAN(无线LAN)(W1-Fi)、Wibro(无线宽带)、Wimax(全球微波互联接入)、HSDPA(高速下行链路分组接入)等等。
[0059]短程通信模块114是用于支持短程通信的模块。短程通信技术的一些示例包括蓝牙?、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂?等等。
[0060]位置信息模块115是用于检查或获取移动终端的位置信息的模块。位置信息模块的典型示例是GPS(全球定位系统)。根据当前的技术,GPS模块115计算来自三个或更多卫星的距离信息和准确的时间信息并且对于计算的信息应用三角测量法,从而根据经度、玮度和高度准确地计算三维当前位置信息。当前,用于计算位置和时间信息的方法使用三颗卫星并且通过使用另外的一颗卫星校正计算出的位置和时间信息的误差。此外,GPS模块115能够通过实时地连续计算当前位置信息来计算速度信息。
[0061]A/V输入单元120用于接收音频或视频信号。A/V输入单元120可以包括相机121和麦克风1220,相机121对在视频捕获模式或图像捕获模式中由图像捕获装置获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元151上。经相机121处理后的图像帧可以存储在存储器160(或其它存储介质)中或者经由无线通信单元110进行发送,可以根据移动终端的构造提供两个或更多相机1210。麦克风122可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由移动通信模块112发送到移动通信基站的格式输出。麦克风122可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
[0062]用户输入单元130可以根据用户输入的命令生成键输入数据以控制移动终端的各种操作。用户输入单元130允许用户输入各种类型的信息,并且可以包括键盘、锅仔片、触摸板(例如,检测由于被接触而导致的电阻、压力、电容等等的变化的触敏组件)、滚轮、摇杆等等。特别地,当触摸板以层的形式叠加在显示单元151上时,可以形成触摸屏。
[0063]感测单元140检测移动终端100的当前状态,(例如,移动终端100的打开或关闭状态)、移动终端100的位置、用户对于移动终端100的接触(S卩,触摸输入)的有无、移动终端100的取向、移动终端100的加速或减速移动和方向等等,并且生成用于控制移动终端100的操作的命令或信号。例如,当移动终端100实施为滑动型移动电话时,感测单元140可以感测该滑动型电话是打开还是关闭。另外,感测单元140能够检测电源单元190是否提供电力或者接口单元170是否与外部装置耦接。感测单元140可以包括接近传感器1410将在下面结合触摸屏来对此进行描述。
[0064]接口单元170用作至少一个外部装置与移动终端100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。识别模块可以是存储用于验证用户使用移动终端100的各种信息并且可以包括用户识别模块(UIM)、客户识别模块(SIM)、通用客户识别模块(USM)等等。另外,具有识别模块的装置(下面称为"识别装置")可以采取智能卡的形式,因此,识别装置可以经由端口或其它连接装置与移动终端100连接。接口单元170可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端100内的一个或多个元件或者可以用于在移动终端和外部装置之间传输数据。
[0065]另外,当移动终端100与外部底座连接时,接口单元170可以用作允许通过其将电力从底座提供到移动终端100的路径或者可以用作允许从底座输入的各种命令信号通过其传输到移动终端的路径。从底座输入的各种命令信号或电力可以用作用于识别移动终端是否准确地安装在底座上的信号。输出单元150被构造为以视觉、音频和/或触觉方式提供输出信号(例如,音频信号、视频信号、警报信号、振动信号等等)。输出单元150可以包括显示单元151、音频输出模块152、警报单元153等等。
[0066]显示单元151可以显示在移动终端100中处理的信息。例如,当移动终端100处于电话通话模式时,显示单元151可以显示与通话或其它通信(例如,文本消息收发、多媒体文件下载等等)相关的用户界面(UI)或图形用户界面(GUI)。当移动终端100处于视频通话模式或者图像捕获模式时,显示单元151可以显示捕获的图像和/或接收的图像、示出视频或图像以及相关功能的UI或GUI等等。
[0067]同时,当显示单元151和触摸板以层的形式彼此叠加以形成触摸屏时,显示单元151可以用作输入装置和输出装置。显示单元151可以包括液晶显示器(LCD)、薄膜晶体管IXD(TFT-1XD)、有机发光二极管(OLED)显示器、柔性显示器、三维(3D)显示器等等中的至少一种。这些显示器中的一些可以被构造为透明状以允许用户从外部观看,这可以称为透明显示器,典型的透明显示器可以例如为TOLED(透明有机发光二极管)显示器等等。根据特定想要的实施方式,移动终端100可以包括两个或更多显示单元(或其它显示装置),例如,移动终端可以包括外部显示单元(未示出)和内部显示单元(未示出)。触摸屏可用于检测触摸输入压力以及触摸输入位置和触摸输入面积。
[0068]音频输出模块152可以在移动终端处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将无线通信单元110接收的或者在存储器160中存储的音频数据转换音频信号并且输出为声音。而且,音频输出模块152可以提供与移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出模块152可以包括扬声器、蜂鸣器等等。
[0069]警报单元153可以提供输出以将事件的发生通知给移动终端100。典型的事件可以包括呼叫接收、消息接收、键信号输入、触摸输入等等。除了音频或视频输出之外,警报单元153可以以不同的方式提供输出以通知事件的发生。例如,警报单元153可以以振动的形式提供输出,当接收到呼叫、消息或一些其它进入通信(incoming communicat1n)时,警报单元153可以提供触觉输出(S卩,振动)以将其通知给用户。通过提供这样的触觉输出,即使在用户的移动电话处于用户的口袋中时,用户也能够识别出各种事件的发生。警报单元153也可以经由显示单元151或音频输出模块152提供通知事件的发生的输出。
[0070]存储器160可以存储由控制器180执行的处理和控制操作的软件程序等等,或者可以暂时地存储己经输出或将要输出的数据(例如,电话簿、消息、静态图像、视频等等)。而且,存储器160可以存储关于当触摸施加到触摸屏时输出的各种方式的振动和音频信号的数据。
[0071]存储器160可以包括至少一种类型的存储介质,所述存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(R0M)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等等。而且,移动终端100可以与通过网络连接执行存储器160的存储功能的网络存储装置协作。
[0072]控制器180通常控制移动终端的总体操作。例如,控制器180执行与语音通话、数据通信、视频通话等等相关的控制和处理。另外,控制器180可以包括用于再现(或回放)多媒体数据的多媒体模块1810,多媒体模块1810可以构造在控制器180内,或者可以构造为与控制器180分离。控制器180可以执行模式识别处理,以将在触摸屏上执行的手写输入或者图片绘制输入识别为字符或图像。
[0073]电源单元190在控制器180的控制下接收外部电力或内部电力并且提供操作各元件和组件所需的适当的电力。
[0074]这里描述的各种实施方式可以以使用例如计算机软件、硬件或其任何组合的计算机可读介质来实施。对于硬件实施,这里描述的实施方式可以通过使用特定用途集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑装置(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计为执行这里描述的功能的电子单元中的至少一种来实施,在一些情况下,这样的实施方式可以在控制器180中实施。对于软件实施,诸如过程或功能的实施方式可以与允许执行至少一种功能或操作的单独的软件模块来实施。软件代码可以由以任何适当的编程语言编写的软件应用程序(或程序)来实施,软件代码可以存储在存储器160中并且由控制器180执行。
[0075]至此,己经按照其功能描述了移动终端。下面,为了简要起见,将描述诸如折叠型、直板型、摆动型、滑动型移动终端等等的各种类型的移动终端中的滑动型移动终端作为示例。因此,本发明能够应用于任何类型的移动终端,并且不限于滑动型移动终端。
[0076]如图2中所示的移动终端100可以被构造为利用经由帧或分组发送数据的诸如有线和无线通信系统以及基于卫星的通信系统来操作。
[0077]基于上述移动终端硬件结构,提出本发明方法各个实施例。
[0078]图3为本发明处理视频数据的移动终端的结构示意图,如图3所示,包括:检测模块30、获取模块31、合成模块32、显示模块33和截图模块34。其中,
[0079]检测模块30,用于当在自身所属的移动终端的视频通话界面中检测到启动异地合拍功能时,通知获取模块31;当在显示第三视频数据的界面中检测到截图指令时,通知截图模块34。
[0080]其中,截图指令包括:语音截图指令、指纹截图指令或组合按键截图指令。
[0081]其中,检测模块30可以通过麦克风检测语音截图指令;检测模块30可以通过指纹传感器检测指纹信息,当检测到的指纹信息与预先存储的指纹信息匹配时,生成指纹截图指令。
[0082]其中,语音截图指令可以是检测到语音数据时,验证检测到的语音数据是否与预先存储的语音数据库中的语音数据匹配,当匹配成功时,生成语音截图指令。其中,语音截图指令定义为语音数据匹配成功时生成的触发截图的指令。需要说的是,关于如何生成语音截图指令属于本领域技术人员所熟知的惯用技术手段,此处不再赘述,并不用来限制本申请。
[0083]其中,指纹截图指令定义为指纹信息匹配成功后生成的触发截图的指令。需要说的是,关于如何生成指纹截图指令属于本领域技术人员所熟知的惯用技术手段,此处不再赘述,并不用来限制本申请。
[0084]获取模块31,用于接收到来自检测模块30的通知,获取自身所属的移动终端的第一视频数据以及与自身所属的移动终端进行视频通话方的第二视频数据。
[0085]合成模块32,用于将获得的第一视频数据和第二视频数据合成为第三视频数据。
[0086]其中,合成模块32,具体用于:
[0087]获取第一视频数据所包含的每一帧图像以及第二视频数据所包含的每一帧图像;
[0088]分别对获得的第二视频数据所包含的每一帧图像均进行人物分离;
[0089]分别将从第二视频数据所包含的每一帧图像中分离出的人物和与其对应的第一视频数据所包含的一帧图像进行合成以合成为第三视频数据。或者,
[0090]其中,合成模块32,具体用于:
[0091]获取第一视频数据所包含的每一帧图像以及第二视频数据所包含的每一帧图像;
[0092]分别对获得的第一视频数据所包含的每一帧图像均进行人物分离;
[0093]分别将从第一视频数据所包含的每一帧图像中分离出的人物和与其对应的第二视频数据所包含的一帧图像进行合成以合成为第三视频数据。或者,
[0094]其中,合成模块32,具体用于:
[0095]分别对获得的第一视频数据所包含的每一帧图像均进行人物分离以及分别对获得的第二视频数据所包含的每一帧图像均进行人物分离;
[0096]分别将从第一视频数据所包含的每一帧图像中分离出的人物和与其对应的从第二视频数据所包含的一帧图像中分理处的人物合成到预设的背景模板中以合成为第三视频数据。
[0097]显示模块33,用于在当前视频通话界面中显示合成的第三视频数据。
[0098]截图模块34,用于接收到来自检测模块30的通知,截取第三视频数据中的当前图像。
[0099]可选地,截图模块34,还用于将截取的第三视频数据中的当前图像存储至预设存储位置。
[0100]其中,预设存储位置可以是移动终端的系统默认的存储位置(如图库文件),也可以是用户根据自身需求设置的存储位置(如某一个文件中)。
[0101]可选地,该移动终端还包括配置模块35,用于在视频通话界面设置用于启动或关闭异地合拍功能的按键;当检测到对用于启动或关闭异地合拍功能的按键的启动操作时,启动异地合拍功能;当检测到对用于启动或关闭异地合拍功能的按键的关闭操作时,关闭异地合拍功能。
[0102]较佳实施例,该较佳实施例中的移动终端,包括:配置模块35、检测模块30、获取模块31、合成模块32、显示模块33和截图模块34。其中,
[0103]配置模块35,用于在视频通话界面设置用于启动或关闭异地合拍功能的按键。
[0104]可选地,配置模块35还用于当检测到对用于启动或关闭异地合拍功能的按键的启动操作时,启动异地合拍功能;当检测到对用于启动或关闭异地合拍功能的按键的关闭操作时,关闭异地合拍功能。
[0105]检测模块30,用于当在自身所属的移动终端的视频通话界面中检测到启动异地合拍功能时,通知获取模块31;当在显示第三视频数据的界面中检测到截图指令时,通知截图模块34。
[0106]其中,截图指令包括:语音截图指令、指纹截图指令或组合按键截图指令。
[0107]其中,检测模块30可以通过麦克风检测语音截图指令;检测模块30可以通过指纹传感器检测指纹信息,当检测到的指纹信息与预先存储的指纹信息匹配时,生成指纹截图指令。
[0108]其中,语音截图指令可以是检测到语音数据时,验证检测到的语音数据是否与预先存储的语音数据库中的语音数据匹配,当匹配成功时,生成语音截图指令。其中,语音截图指令定义为语音数据匹配成功时生成的触发截图的指令。需要说的是,关于如何生成语音截图指令属于本领域技术人员所熟知的惯用技术手段,此处不再赘述,并不用来限制本申请。
[0109]其中,指纹截图指令定义为指纹信息匹配成功后生成的触发截图的指令。需要说的是,关于如何生成指纹截图指令属于本领域技术人员所熟知的惯用技术手段,此处不再赘述,并不用来限制本申请。
[0110]获取模块31,用于接收到来自检测模块30的通知,获取自身所属的移动终端的第一视频数据以及与自身所属的移动终端进行视频通话方的第二视频数据。
[0111]合成模块32,用于将获得的第一视频数据和第二视频数据合成为第三视频数据。
[0112]其中,合成模块32,具体用于:
[0113]获取第一视频数据所包含的每一帧图像以及第二视频数据所包含的每一帧图像;
[0114]分别对获得的第二视频数据所包含的每一帧图像均进行人物分离;
[0115]分别将从第二视频数据所包含的每一帧图像中分离出的人物和与其对应的第一视频数据所包含的一帧图像进行合成以合成为第三视频数据。或者,
[0116]其中,合成模块32,具体用于:
[0117]获取第一视频数据所包含的每一帧图像以及第二视频数据所包含的每一帧图像;
[0118]分别对获得的第一视频数据所包含的每一帧图像均进行人物分离;
[0119]分别将从第一视频数据所包含的每一帧图像中分离出的人物和与其对应的第二视频数据所包含的一帧图像进行合成以合成为第三视频数据。或者,
[0120]其中,合成模块32,具体用于:
[0121]分别对获得的第一视频数据所包含的每一帧图像均进行人物分离以及分别对获得的第二视频数据所包含的每一帧图像均进行人物分离;
[0122]分别将从第一视频数据所包含的每一帧图像中分离出的人物和与其对应的从第二视频数据所包含的一帧图像中分理处的人物合成到预设的背景模板中以合成为第三视频数据。
[0123]显示模块33,用于在当前视频通话界面中显示合成的第三视频数据。
[0124]截图模块34,用于接收到来自检测模块30的通知,截取第三视频数据中的当前图像。
[0125]可选地,截图模块34,还用于将截取的第三视频数据中的当前图像存储至预设存储位置。
[0126]其中,预设存储位置可以是移动终端的系统默认的存储位置(如图库文件),也可以是用户根据自身需求设置的存储位置(如某一个文件中)。
[0127]图4为本发明处理视频数据的方法的流程图,如图4所示,包括:
[0128]步骤401:当移动终端在视频通话界面中检测到启动异地合拍功能时,移动终端获取自身的第一视频数据以及与自身进行视频通话方的第二视频数据。
[0129]其中,视频通话包括但不限于:基于IMS的语音业务(VoLTE,Voice over LongTerm Evolut1n)的视频通话、微信视频通话或QQ视频通话。其中,MS是IP多媒体子系统。
[0130]可选地,该方法之前还包括:在视频通话界面中设置用于启动或关闭异地合拍功能的按键;
[0131]当检测到对用于启动或关闭异地合拍功能的按键的启动操作时,启动异地合拍功會K;
[0132]当检测到对用于启动或关闭异地合拍功能的按键的关闭操作时,关闭异地合拍功會K。
[0133]其中,异地合拍功能定义为可以将视频双方的视频数据合成为新的视频数据。
[0134]步骤402:移动终端将获得的第一视频数据和第二视频数据合成为第三视频数据。
[0135]步骤403:移动终端在当前视频通话界面中显示合成的第三视频数据。
[0136]其中,步骤403具体包括:
[0137]移动终端获取第一视频数据所包含的每一帧图像以及第二视频数据所包含的每一帧图像;
[0138]移动终端分别对获得的第二视频数据所包含的每一帧图像均进行人物分离;
[0139]移动终端分别将从第二视频数据所包含的每一帧图像中分离出的人物和与其对应的第一视频数据所包含的一帧图像进行合成以合成为第三视频数据。此时,
[0140]移动终端分别将从第二视频数据所包含的每一帧图像中分离出的人物和与其对应的第一视频数据所包含的一帧图像进行合成以合成为第三视频数据包括:
[0141 ]移动终端分别将从第二视频数据所包含的每一帧图像中分离出的人物合成到与之对应的第一视频数据所包含的一帧图像中并根据用户的拖动操作调整分离出的人物在与之对应的第一视频数据所包含的一帧图像中的位置;
[0142]在与之对应的第一视频数据所包含的一帧图像中将调整了位置后的分离出的人物做置顶处理;
[0143]将做完置顶处理后的第一视频数据所包含的每一帧图像编码成第三视频数据。需要说明的是,关于如何将每一帧图像编码成视频数据属于本领域技术人员所熟知的惯用技术手段,此处不再赘述,并不用来限制本申请。
[0144]或者,
[0145]步骤403具体包括:
[0146]移动终端获取第一视频数据所包含的每一帧图像以及第二视频数据所包含的每一帧图像;
[0147]移动终端分别对获得的第一视频数据所包含的每一帧图像均进行人物分离;
[0148]移动终端分别将从第一视频数据所包含的每一帧图像中分离出的人物和与其对应的第二视频数据所包含的一帧图像进行合成以合成为第三视频数据。此时,
[0149]移动终端分别将从第一视频数据所包含的每一帧图像中分离出的人物和与其对应的第二视频数据所包含的一帧图像进行合成以合成为第三视频数据包括:
[0150]移动终端分别将从第一视频数据所包含的每一帧图像中分离出的人物合成到与之对应的第二视频数据所包含的一帧图像中并根据用户的拖动操作调整分离出的人物在与之对应的第二视频数据所包含的一帧图像中的位置;
[0151]在与之对应的第二视频数据所包含的一帧图像中将调整了位置后的分离出的人物做置顶处理;
[0152]将做完置顶处理后的第二视频数据所包含的每一帧图像编码成第三视频数据。需要说明的是,关于如何将每一帧图像编码成视频数据属于本领域技术人员所熟知的惯用技术手段,此处不再赘述,并不用来限制本申请。
[0153]或者,
[0154]步骤403具体包括:
[0155]移动终端分别对获得的第一视频数据所包含的每一帧图像均进行人物分离以及分别对获得的第二视频数据所包含的每一帧图像均进行人物分离;
[0156]移动终端分别将从第一视频数据所包含的每一帧图像中分离出的人物和与其对应的从第二视频数据所包含的一帧图像中分理处的人物合成到预设的背景模板中以合成为第三视频数据。
[0157]其中,“将从第二视频数据所包含的每一帧图像中分离出的人物和与其对应的第一视频数据所包含的一帧图像中”的“与其对应”指的是与分离出的人物的原始图像(第二视频数据所包含的某一帧图像)对应的;“将从第一视频数据所包含的每一帧图像中分离出的人物和与其对应的第二视频数据所包含的一帧图像中”的“与其对应”指的是与分离出的人物的原始图像(第一视频数据所包含的某一帧图像)对应的。
[0158]需要说明的是,由于按照时间先后顺序,每一个具体的时刻第一视频数据中的一帧图像和第二视频数据中的一帧图像对应,此属于本领域技术人员所熟知的惯用技术手段,此处不再赘述,并不用来限制本申请。
[0159]其中,分离出的人物与合成至对应的图像中的人物比例是1:1。
[0160]如图5(a)所示,为本申请竖屏显示的合成的第三视频数据中的图像,此时,此第三视频数据中的视频通话双方的视频通话双方的人物大小比例是1:1;如图5 (b)所示,为本申请横屏显示的合成的第三视频数据中的图像,此时,此第三视频数据中的视频通话双方的视频通话双方的人物大小比例是1:1;如图5(c)所示,为本申请横屏显示的合成的第三视频数据中的图像,此时,第三视频数据中的视频通话双方的人物之间的位置由用户在显示第三视频数据的界面中的拖动操作而定的,此第三视频数据中的视频通话双方的人物大小比例是I: I。
[0161]步骤404:当移动终端在显示第三视频数据的界面中检测到截图指令时,截取第三视频数据中的当前图像。
[0162]其中,截图指令包括:语音截图指令、指纹截图指令或组合按键截图指令。
[0163]其中,可以通过麦克风检测语音截图指令;可以通过指纹传感器检测指纹信息,当检测到的指纹信息与预先存储的指纹信息匹配时,生成指纹截图指令。其中,指纹截图指令定义为指纹信息匹配成功后生成的触发截图的指令。需要说的是,关于如何生成指纹截图指令属于本领域技术人员所熟知的惯用技术手段,此处不再赘述,并不用来限制本申请。
[0164]其中,语音截图指令可以是检测到语音数据时,验证检测到的语音数据是否与预先存储的语音数据库中的语音数据匹配,当匹配成功时,生成语音截图指令。其中,语音截图指令定义为语音数据匹配成功时生成的触发截图的指令。需要说的是,关于如何生成语音截图指令属于本领域技术人员所熟知的惯用技术手段,此处不再赘述,并不用来限制本申请。
[0165]可选地,该方法之后还包括:移动终端将截取的第三视频数据中的当前图像存储至预设存储位置。
[0166]其中,预设存储位置可以是移动终端的系统默认的存储位置(如图库文件),也可以是用户根据自身需求设置的存储位置(如某一个文件中)。
[0167]本发明中,通过合成视频通话双方的视频数据、截取合成的视频数据中的图像,实现了自动、快速地合成视频通话双方的图像,满足了用户需求,增强了用户的体验感。
[0168]图6为本发明处理视频数据的方法的实施例的流程图,如图6所示,包括:
[0169]步骤601:移动终端在视频通话界面中设置用于启动或关闭异地合拍功能的按键。
[0170]其中,异地合拍功能定义为可以将视频双方的视频数据合成为新的视频数据。
[0171]其中,视频通话包括但不限于:基于IMS的语音业务(VoLTE,Voice over LongTerm Evolut1n)的视频通话、微信视频通话或QQ视频通话。其中,MS是IP多媒体子系统。
[0172]步骤602:移动终端检测是否有对用于启动或关闭异地合拍功能的按键的启动操作。当检测到对用于启动或关闭异地合拍功能的按键的启动操作时,转入步骤603;否则,结束本流程。
[0173]步骤603:启动异地合拍功能。
[0174]步骤604:移动终端获取自身的第一视频数据以及与自身进行视频通话方的第二视频数据。
[0175]步骤605:移动终端将获得的第一视频数据和第二视频数据合成为第三视频数据。
[0176]其中,步骤605具体包括:
[0177]移动终端获取第一视频数据所包含的每一帧图像以及第二视频数据所包含的每一帧图像;
[0178]移动终端分别对获得的第二视频数据所包含的每一帧图像均进行人物分离;
[0179]移动终端分别将从第二视频数据所包含的每一帧图像中分离出的人物和与其对应的第一视频数据所包含的一帧图像进行合成以合成为第三视频数据。此时,
[0180]移动终端分别将从第二视频数据所包含的每一帧图像中分离出的人物和与其对应的第一视频数据所包含的一帧图像进行合成以合成为第三视频数据包括:
[0181]移动终端分别将从第二视频数据所包含的每一帧图像中分离出的人物合成到与之对应的第一视频数据所包含的一帧图像中并根据用户的拖动操作调整分离出的人物在与之对应的第一视频数据所包含的一帧图像中的位置;
[0182]在与之对应的第一视频数据所包含的一帧图像中将调整了位置后的分离出的人物做置顶处理;
[0183]将做完置顶处理后的第一视频数据所包含的每一帧图像编码成第三视频数据。需要说明的是,关于如何将每一帧图像编码成视频数据属于本领域技术人员所熟知的惯用技术手段,此处不再赘述,并不用来限制本申请。
[0184]或者,
[0185]步骤605具体包括:
[0186]移动终端获取第一视频数据所包含的每一帧图像以及第二视频数据所包含的每一帧图像;
[0187]移动终端分别对获得的第一视频数据所包含的每一帧图像均进行人物分离;
[0188]移动终端分别将从第一视频数据所包含的每一帧图像中分离出的人物和与其对应的第二视频数据所包含的一帧图像进行合成以合成为第三视频数据。此时,
[0189]移动终端分别将从第一视频数据所包含的每一帧图像中分离出的人物和与其对应的第二视频数据所包含的一帧图像进行合成以合成为第三视频数据包括:
[0190]移动终端分别将从第一视频数据所包含的每一帧图像中分离出的人物合成到与之对应的第二视频数据所包含的一帧图像中并根据用户的拖动操作调整分离出的人物在与之对应的第二视频数据所包含的一帧图像中的位置;
[0191]在与之对应的第二视频数据所包含的一帧图像中将调整了位置后的分离出的人物做置顶处理;
[0192]将做完置顶处理后的第二视频数据所包含的每一帧图像编码成第三视频数据。需要说明的是,关于如何将每一帧图像编码成视频数据属于本领域技术人员所熟知的惯用技术手段,此处不再赘述,并不用来限制本申请。
[0193]或者,
[0194]步骤605具体包括:
[0195]移动终端分别对获得的第一视频数据所包含的每一帧图像均进行人物分离以及分别对获得的第二视频数据所包含的每一帧图像均进行人物分离;
[0196]移动终端分别将从第一视频数据所包含的每一帧图像中分离出的人物和与其对应的从第二视频数据所包含的一帧图像中分理处的人物合成到预设的背景模板中以合成为第三视频数据。
[0197]其中,“将从第二视频数据所包含的每一帧图像中分离出的人物和与其对应的第一视频数据所包含的一帧图像中”的“与其对应”指的是与分离出的人物的原始图像(第二视频数据所包含的某一帧图像)对应的;“将从第一视频数据所包含的每一帧图像中分离出的人物和与其对应的第二视频数据所包含的一帧图像中”的“与其对应”指的是与分离出的人物的原始图像(第一视频数据所包含的某一帧图像)对应的。
[0198]需要说明的是,由于按照时间先后顺序,每一个具体的时刻第一视频数据中的一帧图像和第二视频数据中的一帧图像对应,此属于本领域技术人员所熟知的惯用技术手段,此处不再赘述,并不用来限制本申请。
[0199]其中,分离出的人物与合成至对应的图像中的人物比例是1:1。
[0200]如图5(a)所示,为本申请竖屏显示的合成的第三视频数据中的图像,此时,此第三视频数据中的视频通话双方的视频通话双方的人物大小比例是1:1;如图5 (b)所示,为本申请横屏显示的合成的第三视频数据中的图像,此时,此第三视频数据中的视频通话双方的视频通话双方的人物大小比例是1:1;如图5(c)所示,为本申请竖屏显示的合成的第三视频数据中的图像,此时,第三视频数据中的视频通话双方的人物之间的位置由用户在显示第三视频数据的界面中的拖动操作而定的,此第三视频数据中的视频通话双方的人物大小比例是I: I。
[0201]步骤606:移动终端在当前视频通话界面中显示合成的第三视频数据。
[0202]步骤607:移动终端在显示的第三视频数据的界面中检测是否有截图指令。当移动终端在显示第三视频数据的界面中检测到截图指令时,转入步骤608;否则,继续执行步骤607。
[0203]其中,截图指令包括:语音截图指令、指纹截图指令或组合按键截图指令。
[0204]其中,可以通过麦克风检测语音截图指令;可以通过指纹传感器检测指纹信息,当检测到的指纹信息与预先存储的指纹信息匹配时,生成指纹截图指令。其中,指纹截图指令定义为指纹信息匹配成功后生成的触发截图的指令。需要说的是,关于如何生成指纹截图指令属于本领域技术人员所熟知的惯用技术手段,此处不再赘述,并不用来限制本申请。
[0205]其中,语音截图指令可以是检测到语音数据时,验证检测到的语音数据是否与预先存储的语音数据库中的语音数据匹配,当匹配成功时,生成语音截图指令。其中,语音截图指令定义为语音数据匹配成功时生成的触发截图的指令。需要说的是,关于如何生成语音截图指令属于本领域技术人员所熟知的惯用技术手段,此处不再赘述,并不用来限制本申请。
[0206]步骤608:截取第三视频数据中的当前图像。
[0207]步骤609:移动终端将截取的第三视频数据中的当前图像存储至预设存储位置。
[0208]其中,预设存储位置可以是移动终端的系统默认的存储位置(如图库文件),也可以是用户根据自身需求设置的存储位置(如某一个文件中)。
[0209]步骤610:移动终端检测是否有对用于启动或关闭异地合拍功能的按键的关闭操作。当检测到对用于启动或关闭异地合拍功能的按键的启动操作时,转入步骤611;否则,结束本流程。
[0210]步骤611:退出显示合成的第三视频数据的界面。
[0211]需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
[0212]上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
[0213]通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如R0M/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,月艮务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
[0214]以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
【主权项】
1.一种处理视频数据的移动终端,其特征在于,包括:检测模块、获取模块、合成模块、显示模块和截图模块;其中, 检测模块,用于当在自身所属的移动终端的视频通话界面中检测到启动异地合拍功能时,通知获取模块;当在显示第三视频数据的界面中检测到截图指令时,通知截图模块; 获取模块,用于接收到来自检测模块的通知,获取自身所属的移动终端的第一视频数据以及与自身所属的移动终端进行视频通话方的第二视频数据; 合成模块,用于将获得的第一视频数据和第二视频数据合成为第三视频数据; 显示模块,用于在当前视频通话界面中显示合成的第三视频数据; 截图模块,用于接收到来自检测模块的通知,截取第三视频数据中的当前图像。2.根据权利要求1所述的移动终端,其特征在于,所述合成模块,具体用于: 获取所述第一视频数据所包含的每一帧图像以及所述第二视频数据所包含的每一帧图像; 分别对获得的所述第二视频数据所包含的每一帧图像均进行人物分离; 分别将从所述第二视频数据所包含的每一帧图像中分离出的人物和与其对应的所述第一视频数据所包含的一帧图像进行合成以合成为所述第三视频数据。3.根据权利要求1所述的移动终端,其特征在于,所述合成模块,具体用于: 获取所述第一视频数据所包含的每一帧图像以及所述第二视频数据所包含的每一帧图像; 分别对获得的所述第一视频数据所包含的每一帧图像均进行人物分离; 分别将从所述第一视频数据所包含的每一帧图像中分离出的人物和与其对应的所述第二视频数据所包含的一帧图像进行合成以合成为所述第三视频数据。4.根据权利要求1所述的移动终端,其特征在于,所述合成模块,具体用于: 分别对获得的所述第一视频数据所包含的每一帧图像均进行人物分离以及分别对获得的所述第二视频数据所包含的每一帧图像均进行人物分离; 分别将从所述第一视频数据所包含的每一帧图像中分离出的人物和与其对应的从所述第二视频数据所包含的一帧图像中分理处的人物合成到预设的背景模板中以合成为所述第三视频数据。5.根据权利要求1所述的移动终端,其特征在于,所述截图指令包括:语音截图指令、指纹截图指令或组合按键截图指令。6.一种处理视频数据的方法,其特征在于,包括: 当移动终端在视频通话界面中检测到启动异地合拍功能时,移动终端获取自身的第一视频数据以及与自身进行视频通话方的第二视频数据; 移动终端将获得的第一视频数据和第二视频数据合成为第三视频数据; 移动终端在当前视频通话界面中显示合成的第三视频数据; 当移动终端在显示第三视频数据的界面中检测到截图指令时,截取第三视频数据中的当前图像。7.根据权利要求6所述的方法,其特征在于,所述移动终端将获得的第一视频数据和第二视频数据合成为第三视频数据包括: 所述移动终端获取所述第一视频数据所包含的每一帧图像以及所述第二视频数据所包含的每一帧图像; 所述移动终端分别对获得的所述第二视频数据所包含的每一帧图像均进行人物分离; 所述移动终端分别将从所述第二视频数据所包含的每一帧图像中分离出的人物和与其对应的所述第一视频数据所包含的一帧图像进行合成以合成为所述第三视频数据。8.根据权利要求6所述的方法,其特征在于,所述移动终端将获得的第一视频数据和第二视频数据合成为第三视频数据包括: 所述移动终端获取所述第一视频数据所包含的每一帧图像以及所述第二视频数据所包含的每一帧图像; 所述移动终端分别对获得的所述第一视频数据所包含的每一帧图像均进行人物分离; 所述移动终端分别将从所述第一视频数据所包含的每一帧图像中分离出的人物和与其对应的所述第二视频数据所包含的一帧图像进行合成以合成为所述第三视频数据。9.根据权利要求6所述的方法,其特征在于,所述移动终端将获得的第一视频数据和第二视频数据合成为第三视频数据包括: 所述移动终端分别对获得的所述第一视频数据所包含的每一帧图像均进行人物分离以及分别对获得的所述第二视频数据所包含的每一帧图像均进行人物分离; 所述移动终端分别将从所述第一视频数据所包含的每一帧图像中分离出的人物和与其对应的从所述第二视频数据所包含的一帧图像中分理处的人物合成到预设的背景模板中以合成为所述第三视频数据。10.根据权利要求6所述的方法,其特征在于,所述截图指令包括:语音截图指令、指纹截图指令或组合按键截图指令。
【文档编号】H04N5/265GK106067960SQ201610443024
【公开日】2016年11月2日
【申请日】2016年6月20日 公开号201610443024.3, CN 106067960 A, CN 106067960A, CN 201610443024, CN-A-106067960, CN106067960 A, CN106067960A, CN201610443024, CN201610443024.3
【发明人】薛沛
【申请人】努比亚技术有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1