一种终端控制方法和装置与流程

文档序号:17151717发布日期:2019-03-19 23:29阅读:128来源:国知局
一种终端控制方法和装置与流程

本申请涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及一种终端控制方法和装置。



背景技术:

随着信息技术的发展,终端所具备的功能越来越丰富,广泛应用于人们的日常生活及工作中。人机交互的便捷性已然成为重要的研究课题和发展方向。

现有技术中,终端在实现相应功能时,往往需要用户通过与终端之间进行接触式地交互,如:用户在触控屏上点击应用(application,app)图标后启动应用、用户通过手指在触控屏上滑动解锁终端等。

基于现有技术,需要一种更为便捷的控制终端的方式。



技术实现要素:

本申请的目的在于提供一种终端控制方法和装置,用来解决在某些应用场景中采用接触式交互的方式控制终端较为不便的问题。

第一方面,本申请实施例提供一种终端控制方法,包括:

终端在特定状态下接收用户的非接触式指令;

根据接收到的所述非接触式指令,执行预先设定的与所述非接触式指令相对应的操作。

在一些实施例中,终端在特定状态下接收用户的非接触式指令,包括:

所述终端在所述特定状态下调用图像采集单元采集所述用户的表情特征;

将所述表情特征确定为非接触式指令。

在一些实施例中,所述终端在所述特定状态下调用图像采集单元采集所述用户的表情特征,包括:

所述终端接收用户在即时通讯界面上发出的表情采集触发操作;

当接收到的所述表情采集触发操作后,调用所述图像采集单元采集所述用户的表情特征。

在一些实施例中,根据接收到的所述非接触式指令,执行预先设定的与所述非接触式指令相对应的操作,包括:

根据所述表情特征,在已有的虚拟表情中,查找与所述表情特征相匹配的虚拟表情;

将查找出的所述虚拟表情展示给所述用户。

在一些实施例中,将查找出的所述虚拟表情展示给所述用户,包括:

将查找出的所述虚拟表情展示在终端界面的指定区域中,以便用户选择。

第二方面,本申请实施例还提供一种终端控制装置,包括:

接收处理模块,配置用于在特定状态下接收用户的非接触式指令;

执行模块,配置用于根据接收到的所述非接触式指令,执行预先设定的与所述非接触式指令相对应的操作。

在一些实施例中,所述接收处理模块,配置用于在所述特定状态下调用图像采集单元采集所述用户的表情特征,将所述表情特征确定为非接触式指令。

在一些实施例中,所述接收处理模块,配置用于接收用户在即时通讯界面上发出的表情采集触发操作,当接收到的所述表情采集触发操作后,调用所述图像采集单元采集所述用户的表情特征。

在一些实施例中,所述执行模块,配置用于根据所述表情特征,在已有的虚拟表情中,查找与所述表情特征相匹配的虚拟表情,将查找出的所述虚拟表情展示给所述用户。

在一些实施例中,所述执行模块,配置用于将查找出的所述虚拟表情展示在终端界面的指定区域中,以便用户选择。

本申请提供的终端控制方法和装置,通过在一些特定的场景中,用户可以向终端发出诸如动作、表情、声音等非接触式指令,终端在接收到用户所发出的非接触式指令后,便可执行相应的操作。这样的控制方式能够在一定程度上减少用户与终端之间的接触式交互,从而提升交互的便捷性。而且,采用非接触式指令的方式无需借助与终端绑定的可穿戴智能设备,能够降低相应的成本。

具体地,在社交过程中发送表情的场景下,终端可以采集用户的面部表情,并基于用户的面部表情,从已有的虚拟表情中查找并选出与用户的面部表情相匹配的虚拟表情。正是采用本申请中的上述方法,用户无需在虚拟表情候选区域中滑动翻页查找虚拟表情,而是可以采用一种更为便捷的交互方式----做出相应的表情,相应地,终端可基于用户的表情,为用户查找到匹配的虚拟表情。从而可在一定程度上减少用户为查找某些虚拟表情所执行的交互操作,使得交互更为便捷,同时,也能够缩短查找虚拟表情的耗时。

附图说明

通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:

图1是本申请实施例提供的用户与终端之间的交互示意图;

图2是本申请实施例提供的终端控制方法流程示意图;

图3是本申请实施例提供的表情候选区域的示意图;

图4是本申请实施例提供的在由表情控制查询虚拟表情场景下的终端控制方法的流程示意图;

图5a是本申请实施例提供的表情控件示意图;

图5b是本申请实施例提供的由表情控制查询虚拟表情场景下的交互示意图;

图5c是本申请实施例提供的发送表情的示意图;

图6a是本申请实施例提供的一种基于用户表情查找到的虚拟表情展示方式示意图;

图6b是本申请实施例提供的另一种基于用户表情查找到的虚拟表情展示方式示意图;

图7是本申请实施例提供的在由表情控制拍摄场景下的终端控制方法的流程示意图;

图8是本申请实施例提供的终端控制装置结构示意图。

具体实施方式

下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。

需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。

如前所述,用户通常需要通过接触式的交互方式控制终端执行某些操作,这里所述的接触式的交互方式,可包括但不限于:针对终端屏幕、物理按键或连接终端的外接设备所执行的点击、按压、拖拽、滑动等。

但在一些情况下,前述接触式的交互方式较为不便。例如:在用户使用平板电脑进行自拍时,用户需要通过拍摄界面上所显示的虚拟快门按键实现拍摄控制,但由于平板电脑的屏幕尺寸较大,用户通过拍摄界面中的虚拟快门按键控制拍照较为不便,有可能导致拍照角度发生变化或产生抖动,影响拍照效果。又例如:移动通讯终端上的即时通讯(instantmessaging,im)功能为用户提供了大量的虚拟表情(如:emoji),用户通过即时通讯功能进行聊天的过程中,可能会使用相应的虚拟表情,但由于虚拟表情较多且虚拟表情候选区域有限,故用户通常需要在虚拟表情候选区域中进行滑动翻页,以查找用户所需的虚拟表情。

为此,在本申请实施例中提供一种终端控制方法,可以让用户在某些情况下,采用非接触式的交互方式便可控制终端执行相应的操作,进一步提升交互的便捷性。

参考图1,示出了本申请实施例中用户和终端之间的交互控制方式。如图1所示,用户通过非接触式指令便可以控制终端。应理解,在用户发出非接触式指令的过程中,用户可以不触及终端的触控屏、物理按键或与终端连接的外接设备,当然,用户以非接触式指令控制终端并不应理解为用户完全不接触终端。具体地,在一些实施方式下,用户可以手持终端并通过表情、手势动作、声音等方式向终端发出非接触式指令;而在另一些实施方式下,用户与终端可完全分离,由用户向终端发出非接触式指令控制终端,此方式下,用户与终端之间的距离应不影响终端接收用户发出的非接触式指令。

需要说明的是,在本申请实施例中,所述的非接触式指令,具体可以是采用表情、肢体动作、声音等形式的、非接触式的交互指令,且非接触式指令不需要借助其他与终端相关的外接设备(如:与终端具有绑定关系的智能可穿戴设备)便可针对终端进行控制。

一般性地,所述的终端,具有图像采集和/或声音采集功能,具体可包括但不限于:手机、平板电脑、笔记本电脑、智能手表、相机等移动式终端,或,具有图像采集、声音采集功能的计算机等,这里不再一一列举。当然,若自身并不具有图像采集或声音采集功能、但通过与外接设备连接后实现前述采集功能的终端设备,则也应理解为本申请实施例中所述的终端的涵盖范围内。

此外,上述移动式终端中,具有通讯功能的终端,诸如:手机、平板电脑、笔记本电脑、智能手表等具有通讯功能的设备,在本申请实施例中的后续描述中,可统称为:移动通讯终端。

基于上述如图1所示的架构,以下将详细说明本申请实施例中所提供的技术方案。

继续参考图2,示出了本申请实施例中提供一种终端控制方法,具体包括以下步骤:

步骤s201:终端在特定状态下接收用户的非接触式指令。

所述的特定状态,可认为是终端运行某些应用或启用某些功能的状态,如:相机取景但未拍摄的状态、手机上运行的im应用显示表情候选区域时的状态等。这里需要说明的是,在现有的实施方式中,终端在所述特定状态下,用户与终端之间的交互通常只能是接触式交互,从而在一定程度上对用户较为不便。

而在本申请实施例中,终端能够在上述的特定状态下接收并识别出用户的非接触式指令。具体地,实际应用中,用户发出非接触式指令的方式可能有多种,如:用户的面部表情、肢体动作、发出的声音等。换言之,终端对非接触式指令的接收,可通过终端的采集单元或组件所实现,如:摄像头或麦克风。当然,这里所提及的采集单元或组件也可能是外接设备,在此不作具体限定。

终端对非接触式指令的识别,则可通过相应的识别功能实现,该识别功能可由终端自身运行的操作系统提供,也可以由安装在终端上的应用(application,app)提供,一般性地,识别功能具体可包括:声音检测、自然语义识别、体态识别、动作识别、面部特征识别(进一步可包括表情识别)中的至少一种,这里并不应理解为对本申请的限定。

步骤s203:根据接收到的所述非接触式指令,执行预先设定的与所述非接触式指令相对应的操作。

非接触式指令用于指示终端执行相应的操作,应理解,非接触式指令所对应的操作,可以是由设备厂商或功能提供商预先设定,也可以由用户自行设定。在一个示例中:当手机处于拍照模式时,用户可以通过说出“拍照”这一指令控制手机执行拍照。在另一个示例中:用户可以自行录制词组“咔擦”作为指令,以控制手机执行拍照。

显然,通过上述步骤,在一些特定的场景中,用户可以向终端发出诸如动作、表情、声音等非接触式指令,终端在接收到用户所发出的非接触式指令后,便可执行相应的操作。这样的控制方式能够在一定程度上减少用户与终端之间的接触式交互,从而提升交互的便捷性。而且,采用非接触式指令的方式无需借助与终端绑定的可穿戴智能设备,能够降低相应的成本。

对于上述步骤而言,其执行主体通常可以是终端自身,但在某些实施例中,也可以是运行在终端上的app作为执行主体。并且,在执行上述步骤的过程中,执行主体还可能发生变化,比如:步骤s201的执行主体可以是终端自身,而步骤s203的执行主体可以是终端上运行的app。当然,具体将根据实际应用时的情况来决定,这里并不应该理解为对本申请的限定。

下面将结合具体的应用场景详细说明本申请实施例中的终端控制方法。

场景一

用户进行即时通讯时,虚拟表情可以增加聊天的趣味性。基于此,移动通讯终端上的聊天功能或第三方im应用提供了丰富的虚拟表情供用户使用。但聊天界面中的虚拟表情候选区域的大小有限,在虚拟表情数量较多的情况下,难以完全展示。

继续参考图3,示出了im应用中的虚拟表情候选区域的示意图,如图3所示,虚拟表情候选区域并不能够完全展示出所有虚拟表情。若采用现有的交互方式,则需要用户在虚拟表情候选区域中进行滑动翻页,以浏览并查找未显示出的虚拟表情。显然,在该场景下,采用现有的交互方式对用户而言较为不便,且用户在查找虚拟表情的过程中将消耗一定时长。

为此,继续参考图4,示出了在该场景下的终端控制方法,如图4所示,该方法具体可包括以下步骤:

步骤s401:终端在表情候选状态下采集用户的表情特征。

需要说明的是,所述的虚拟表情,至少可以包括:字符表情、图片表情或动画表情等。虚拟表情的呈现方式可以是静态的,也可以是动态的,这里并不作具体限定。

在本申请实施例中,表情候选状态可认为是受用户触发、终端准备为用户提供候选的虚拟表情的状态。

应理解,对于上述步骤s401而言,当终端处于表情候选状态下时,将调用图像采集单元采集用户的表情特征,将采集到的表情特征确定为非接触式指令。当然,图像采集单元可以是终端自身携带的,也可以是终端的外接摄像头。

一般来说,表情候选状态由用户发出表情采集触发操作所触发,而用户发出的表情采集触发操作有多种:

在一种可能的实施方式中,表情候选状态在用户查看虚拟表情时触发,具体地,用户可以在im界面中点击虚拟表情候选控件(用户点击虚拟表情候选控件的操作,可认为是表情采集触发操作),im界面中将展示虚拟表情候选区域(如图3所示的区域),同时触发终端进入表情候选状态。

在另一种可能的实施方式中,用户可以在im界面中点击表情采集控件(相类似地,用户点击该控件的操作,也可认为是表情采集触发操作),该表情采集控件用于唤起终端的图像采集单元(如:摄像头)以对用户进行表情采集,此时,也可认为终端处于表情候选状态。

所以,终端处于表情候选状态下时调用图像采集单元采集所述用户的表情特征,这一过程便可以为:终端接收用户在即时通讯界面上发出的表情采集触发操作,当接收到的所述表情采集触发操作后,调用所述图像采集单元采集所述用户的表情特征。

以上两种方式均可能是表情候选状态的触发方式,具体还要由实际情况而定。比如:用户持握手机并将手机前置摄像头朝向该用户自身的操作,也可以认为是表情采集触发操作;或者,用户解锁终端也可以认为是表情采集触发操作。这里并不应构成对本申请的限定。

在本申请实施例中,可由面部特征识别功能,特别是表情识别功能实现对用户表情的采集和识别。当然,具体的表情识别功能可由深度学习算法、神经网络模型等技术实现,这里不再进行过多赘述。

步骤s403:根据采集到的所述表情特征,在虚拟表情中查找与所述表情特征相匹配的虚拟表情,以便作为即时通讯消息发送。

在本场景下,用户面部所呈现的表情经终端采集后得到的表情特征,便可认为是一种非接触式指令,而终端在虚拟表情中查找与表情特征相匹配的虚拟表情或发送该虚拟表情的操作,便可认为是执行与非接触式指令相对应的操作。

作为本申请实施例中的一种可能实施方式,可根据表情的类别查找相应的虚拟表情。具体地,在实际应用中,用户的表情可以根据面部五官的状态分为不同类别,如:微笑、撇嘴、皱眉、闭眼等,当然,除此之外还可基于情绪对表情进行划分,如:生气、高兴等。应理解,实际将表情划分为哪些类别,通常取决于具体的表情识别功能。换言之,通过表情识别功能,可识别出用户的实际面部表情所属的类别。

此外,虚拟表情通常设有相应的标识信息,如:“/微笑”、“/皱眉”、“/瞪眼”等等(表情标识信息通常可由设备厂商或第三方im应用提供方所设置),当然,这里仅是标识信息的一种可能方式,并不应理解为对本申请的限定。显然,在已知用户的表情所属的类别,以及虚拟表情的标识信息的基础上,也就可以确定出与用户的表情相匹配的虚拟表情。

作为本申请实施例中的另一种可能实施方式,可根据表情的相似度查找相应的虚拟表情。具体地,终端可提取用户的表情特征,并计算用户的表情特征与虚拟表情的特征之间的相似度,由此可以查找到与用户的表情最为相似的虚拟表情。例如:终端可以根据用户在发笑时嘴部、眼部及面部的特征,查找出相似的微笑、眯眼笑、大笑等不同虚拟表情。

查找到的虚拟表情可以直接作为即时通讯消息发送给其他用户。

例如:如图5a所示,用户使用手机进行聊天并想要发送表情时,用户可以在当前的聊天界面中选择表情控件,进而在当前的聊天界面中将展示出虚拟表情候选区域。此时,手机处于表情候选状态,手机的前置摄像头被激活,并采集该用户的表情。如图5b所示,假设手机采集并识别出用户的面部表情为“微笑”,那么,便可在虚拟表情中查找并选定标识为“/微笑”的虚拟表情。如图5c所示,查找到的“微笑”虚拟表情可以直接作为即时通讯消息发送给其他用户。

从上述内容中可见,在社交过程中发送表情的场景下,终端可以采集用户的面部表情,并基于用户的面部表情,从已有的虚拟表情中查找并选出与用户的面部表情相匹配的虚拟表情。正是采用本申请中的上述方法,用户无需在虚拟表情候选区域中滑动翻页查找虚拟表情,而是可以采用一种更为便捷的交互方式----做出相应的表情,相应地,终端可基于用户的表情,为用户查找到匹配的虚拟表情。从而可在一定程度上减少用户为查找某些虚拟表情所执行的交互操作,使得交互更为便捷,同时,也能够缩短查找虚拟表情的耗时。

需要说明的是,上述内容中,终端识别出用户的表情所属的类别,具体可以是,终端采集用户的面部表情图像,并提取表情特征数据,确定所述表情特征数据所述的表情类别,以此确定用户的表情所述的类别。当然,提取表情特征数据的过程具体可由人脸特征提取算法针对人脸五官特征、纹理区域及预定义的特征点进行定位和提取,具体过程在此不进行过多赘述。

一旦确定出用户的表情所属的类别,便可以针对虚拟表情的标识信息进行遍历检索,以便查找出相同类别的虚拟表情。

终端确定用户的表情与虚拟表情之间的相似度,具体可以是,终端采集用户的面部表情图像,并提取表情特征数据,根据提取的所述表情特征数据与虚拟表情所对应的特征数据,计算相似度。当然,相似度可以采用欧式距离、余弦距离等相似度算法,这里并不作具体限定。

在本申请实施例中,查找到的虚拟表情的数量有可能是1个,也有可能大于1个,具体的处理方式有所差异:

在一种可行的实施方式中,若查找到的虚拟表情的数量为1个,那么,可直接将该虚拟表情作为即时通信消息发送。

而在另一种可行的实施方式中,选定的虚拟表情的数量可能不止1个,对于此情况,可将查找到的各个虚拟表情展示给用户,由用户自行决定发送某一个虚拟表情。具体地,当查找到的虚拟表情数量大于1个时,可采用如图6a所示的展现方式。在图6a中,与用户实际的表情相匹配的各虚拟表情以单独一行展示于虚拟表情候选区域上方。如果用户选择了某一虚拟表情,则将用户选择的虚拟表情作为即时通讯消息发送,并且该行消失。

在实际应用中,还可以采用如图6b所示的展示方式,即,图6b中,与用户实际的表情相匹配的各虚拟表情以新增图层的方式展示在原有的虚拟表情候选区域位置上。如果用户选择了某一虚拟表情,则该新增图层消失,继续显示原有的虚拟表情候选区域。

当然,上述图6a、6b中的展示方式也仅是一种示例,在实际应用中可能会采用其他的展示方式,如:弹窗展示,浮层展示等,具体将取决于实际应用的需要。

场景二

用户使用手机、相机或平板电脑等具有拍摄功能的终端与其他用户进行合影时,采用现有的交互方式可能较为不便:

若用户手持终端进行拍摄,则可能受到终端尺寸、形状等因素的限制,不利于用户点击虚拟快门按键或物理快门按键,进而有可能会影响拍摄效果。若用户使用定时拍照功能进行拍摄,则由于定时拍照功能所提供的拍摄准备时长通常是固定的,用户并不能自行调节,不利于用户合影。

虽然用户可以借助拍照杆、智能手表等外部设备,但采用外部设备无疑增加了拍摄成本。

故在该场景下,本申请实施例提供一种终端控制方法,如图7所示,具体可包括以下步骤:

步骤s701:终端在预拍摄状态下采集并监测用户的表情。

所述的预拍摄状态,可以认为是终端已经开始取景但还未进行拍摄的状态。具体地,若终端为手机或平板电脑等移动通讯终端,则预拍摄状态可以是终端已启动自带的相机功能或第三方拍摄app,此时终端屏幕上将展示拍摄界面但还未进行拍摄;若终端为相机,则预拍照状态可以是相机的摄像头已经开始取景但用户还未按下快门。

需要说明的是,在实际拍摄时,用户通常会调节自己的面部表情,并保持一种适于拍摄的状态,一般地,用户会保持这样的表情并持续一段时间。故在本申请实施例中,终端监测用户的表情,可以认为是监测用户的表情在指定的时间内是否发生变化。

对于用户表情的监测,可以由相应的监测功能实现,在一种可行的实施方式中,可通过人脸识别功能确定用户的面部,并监测面部的纹理、光影、预设定位点等是否发生变化,进而判断用户的表情是否发生变化。该方式并不需要过于复杂的识别算法。

步骤s703:当监测到所述表情在设定的时长内未发生变化时,执行预设的拍摄操作。

在本场景中,非接触式指令可认为是被拍摄用户的表情在设定时长内未发生变化,相应地,终端所执行的预设的拍摄操作,则可认为是执行与非接触式指令对应的操作。

预设的拍摄操作可以包括:触发快门、连拍、切换摄影等等,具体还可以根据实际应用的需要进行设置。

预设的时长可以设置为1~n秒,既可以由设备厂商或第三方拍摄app提供方预先设置为不同的时间档位,也可以由用户自行定义。一旦终端监测到用户的面部表情在设定时间内未发生变化时,则可以执行上述拍摄操作,从而实现了非接触式交互的拍摄控制。

显然,通过上述步骤,用户在进行自拍或合影时,可以通过一定时长保持表情不变的交互方式实现拍摄控制。该方式不受终端尺寸的限制,也无需用户开启定时拍摄功能,只需将终端调节至预拍照状态即可,从而有效提升了交互控制的便捷性。同时,上述方法重点在于监测用户的表情在一定时长内是否发生变化,并不需要识别出用户所做出的具体表情,也就无需使用过于复杂的表情识别算法。

采用上述方法在实际拍摄的过程中,被拍摄的用户数量可能大于1个,在此情况下,若要实现拍摄控制,则被拍摄、且面部朝向镜头的各个用户的表情均需要在一定时长内保持不变。

作为本申请的一种可行实施方式,终端在执行拍摄后,可以将快门触发前和/或快门触发后一段时间内采集的图像作为拍摄结果提供给用户。具体例如:终端监测到用户的表情在设定的时长(假设为1s)内未发生变化时,则执行拍摄操作(终端自动触发快门进行拍摄),这里假设终端自动触发快门的时刻为t,则提供给用户的拍摄结果可以是从时刻t-1开始至时刻t终端所拍摄的图像内容,也可以是从时刻t开始至时刻t+1终端所拍摄的图像内容,还可以是从时刻t-1开始至时刻t+1终端所拍摄的图像内容。

之后,可由用户在上述拍摄结果中,自行选择相应的拍摄内容进行保存(保存为照片或视频均可)。当然,这里并不应理解为对本申请的限定。

需要说明的是,在上述场景是以用户的表情作为非接触式指令的,实际上,本申请实施例中的上述终端控制方法并不仅限于此,在一些应用方式下,用户发出的非接触式指令可以是多样化的,比如:用户在做出面部表情的同时也做出相应的肢体动作。

这里所述的肢体动作,包括但不限于:用户的手势、体态、四肢动作等,用户的肢体动作可以是动态的,也可以是静态的,这里并不作具体限定。

由此,在上述场景一中,除了上述基于用户的表情来查找虚拟表情的应用方式以外,本申请实施例中的上述方法也能够根据用户的表情和用户同时所做出的肢体动作来查找相应的虚拟表情。具体而言,在该应用方式下,终端将采集用户的表情以及用户的肢体动作,并将采集得到的表情特征以及肢体动作特征作为用户发出的非接触式指令。

对于虚拟表情而言,部分虚拟表情是由虚拟形象的表情和动作共同构成的,那么,便可根据用户的表情特征及动作特征,在虚拟表情中,查找与前述特征相匹配的虚拟表情。当然,查找虚拟表情的方法可以与上述方法相类似,即,可以通过确定用户的特征(包含表情特征和动作特征)所属的类别,从而查找相同类别的虚拟表情;也可以通过比较用户的表情、动作与虚拟表情之间相似度的方式实现对虚拟表情的查找,这里不再过多赘述。

当然,在实际应用中可由相应的体态识别、手势识别、肢体动作识别等多种动作识别模型实现对用户肢体动作的采集和识别。

在上述场景二中,同样也可以采用用户表情结合用户肢体动作的方式,实现对终端的拍摄控制。具体而言,在一种可能的应用方式中,终端在预拍摄状态下采集并监测用户的表情特征及动作特征,当监测到用户的表情特征和动作特征在设定的时长内未发生变化(或变化的幅度在预设范围内)时,执行预设的拍摄操作。

而在另一种可能的应用方式中,用户可通过一定时间内表情不变来控制终端触发快门,同时可通过手势等肢体动作来控制终端切换不同的拍摄模式。例如:在预拍摄状态下,用户伸出食指并做出模拟按下相机快门的动作,则终端执行拍照;又例如:在预拍摄状态下,用户伸出左手(或右手),四指并拢同时弯曲,则终端执行视频拍摄。当然,这里仅是一种可能的示例,具体还将取决于实际应用的需要。

当然,以上内容并不应理解为对本申请的限定。

以上为本申请实施例提供的终端控制方法,基于同样的思路,本申请实施例还提供相应的终端控制装置。

具体而言,继续参考图8,示出了本申请实施例中所提供的终端控制装置,所述装置包括:

接收处理模块801,配置用于在特定状态下接收用户的非接触式指令;

执行模块802,配置用于根据接收到的所述非接触式指令,执行预先设定的与所述非接触式指令相对应的操作。

如图8所示的终端控制装置可以应用在不同场景下。

场景一、在社交过程中通过表情实现终端控制。

在该场景中,所述特定状态至少包括表情候选状态,其中,所述表情候选状态用于向用户提供虚拟表情。

进一步地,所述接收处理模块801,配置用于在所述特定状态下调用图像采集单元采集所述用户的表情特征,将所述表情特征确定为非接触式指令。

进一步地,所述接收处理模块801,配置用于接收用户在即时通讯界面上发出的表情采集触发操作,当接收到的所述表情采集触发操作后,调用所述图像采集单元采集所述用户的表情特征。

进一步地,所述执行模块802,配置用于根据所述表情特征,在已有的虚拟表情中,查找与所述表情特征相匹配的虚拟表情,将查找出的所述虚拟表情展示给所述用户。

进一步地,所述执行模块802,配置用于将查找出的所述虚拟表情展示在终端界面的指定区域中,以便用户选择。

场景二、拍摄控制

在该场景中,所述特定状态至少包括预拍摄状态,其中,所述预拍摄状态可以认为是终端已经开始取景但还未进行拍摄的状态。

所述接收处理模块801,配置用于在预拍摄状态下采集并监测用户的表情。

所述执行模块802,配置用于当监测到所述表情在设定的时长内未发生变化时,执行预设的拍摄操作。

基于图8所示的装置,在实际应用中可由实体电子设备实现,具体而言,该终端包括一个或多个处理器;以及存储装置,用于存储一个或多个程序;

当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现以上所述的方法。

基于图8所示的装置,在实际应用中可由计算机可读存储介质实现,具体而言,该计算机可读存储介质上存储有计算机程序,该程序被处理器执行时实现以上所述的方法

本申请中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、设备和介质类实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可,这里就不再一一赘述。

至此,已经对本主题的特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作可以按照不同的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序,以实现期望的结果。在某些实施方式中,多任务处理和并行处理可以是有利的。

特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。在该计算机程序被中央处理单元(cpu)执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、rf等等,或者上述的任意合适的组合。

可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c++,还包括常规的过程式程序设计语言—诸如”c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。

附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括接收单元、解析单元、信息选取单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,接收单元还可以被描述为“接收用户的网页浏览请求的单元”。

以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1