一种输入方法和电子设备与流程

文档序号:15849350发布日期:2018-11-07 09:36阅读:130来源:国知局
一种输入方法和电子设备与流程

本发明涉及内容输入技术领域,更具体的说是涉及一种输入方法和电子设备。

背景技术

在利用电子设备进行输入操作时,为了使得输入内容更加形象或者增加输入过程中的趣味性,在电子设备输入区域内输入的内容除了文字外,还会涉及大量的特殊字符或者动态表情等。例如,人们在利用即时通讯工具进行交流的过程中,可以输入一些由特殊字符组成的表情,或者是一些动态表情等等。

但是随着这些数据库中这些特殊字符或者是表情的增多,在输入过程中查找某个表情或字符则需要花费较长的时间,影响了输入速度。



技术实现要素:

有鉴于此,本发明提供一种输入方法和电子设备,以提高字符或者表情等描述项的输入速度。

为实现上述目的,本发明提供如下技术方案:一种输入方法,包括:

摄取第一图像,其中,所述第一图像中至少包括用户的身体的一部分信息;

根据所述第一图像,确定所述用户的特征信息;

从预置的描述项中,获取与所述特征信息相匹配的目标描述项,并输入所述目标描述项。

可选的,所述摄取第一图像,包括:

摄取至少包含所述用户的面部信息的第一图像;

相应的,所述根据所述第一图像,确定所述用户的特征信息,包括:

根据第一图像的面部信息,识别所述用户的面部表情特征;

所述从预置的描述项中,获取与所述特征信息相匹配的描述项,并输入所述描述项,包括:

从预置的描述项中,获取与所述面部表情特征相匹配的目标描述项,并输入所述目标描述项。

可选的,所述根据第一图像的面部信息,确定所述用户的面部表情特征,包括:

根据所述第一图像中的面部信息,进行人脸面部器官的特征提取,获取面部器官的特征信息;

根据所述面部器官的特征信息,进行表情分类识别,确定出所述用户的面部表情类别。

可选的,所述摄取第一图像包括:

摄取至少包括所述用户的身体姿态的第一图像;

相应的,所述根据所述第一图像,确定所述用户的特征信息,包括:

根据所述第一图像,确定所述用户的肢体动作特征;

所述从预置的描述项中,获取与所述特征信息相匹配的目标描述项,并输入所述目标描述项,包括:

从预置的描述项中,获取与所述肢体动作特征相匹配的目标描述项,并输入所述目标描述项。

可选的,所述摄取第一图像包括:

当检测到点击或触摸预设的描述项输入按键时,摄取所述第一图像。

可选的,所述描述项包括以下一种或多种:

表情图片、动作图片、字符以及由字符组成的符号表情。

可选的,所述从预置的描述项中,获取与所述特征信息相匹配的目标描述项,并输入所述目标描述项,包括:

根据预置的特征信息与描述项的对应关系,从预置的描述项中,获取与所述特征信息相匹配的目标描述项,并输入所述目标描述项。

另一方面,本发明还提供了一种电子设备,包括:

图像摄取单元,用于摄取第一图像,其中,所述第一图像中至少包括用户的身体的一部分信息;

图像分析单元,用于根据所述第一图像,确定所述用户的特征信息;

输入单元,用于从预置的描述项中,获取与所述特征信息相匹配的目标描述项,并输入所述目标描述项。

可选的,所述图像摄取单元,包括:

第一图像摄取单元,用于摄取至少包含所述用户的面部信息的第一图像;

相应的,所述图像分析单元,包括:

第一图像分析单元,用于根据第一图像的面部信息,识别所述用户的面部表情特征;

所述输入单元,包括:

第一输入单元,用于从预置的描述项中,获取与所述面部表情特征相匹配的目标描述项,并输入所述目标描述项。

可选的,所述第一图像分析单元,包括:

特征提取单元,用于根据所述第一图像中的面部信息,进行人脸面部器官的特征提取,获取面部器官的特征信息;

表情分类单元,用于根据所述面部器官的特征信息,进行表情分类识别,确定出所述用户的面部表情类别。

可选的,所述图像分析单元包括:

第二图像分析单元,用于摄取至少包括所述用户的身体姿态的第一图像;

相应的,所述图像分析单元,包括:

第二图像分析单元,用于根据所述第一图像,确定所述用户的肢体动作特征;

所述输入单元,包括:

第二输入单元,用于从预置的描述项中,获取与所述肢体动作特征相匹配的目标描述项,并输入所述目标描述项。

可选的,所述图像摄取单元,包括:

图像摄取子单元,用于当检测到点击或触摸预设的描述项输入按键时,摄取所述第一图像。

可选的,其特征在于,所述描述项包括以下一种或多种:

表情图片、动作图片、字符以及由字符组成的符号表情。

可选的,所述输入单元,包括:

输入子单元,用于根据预置的特征信息与描述项的对应关系,从预置的描述项中,获取与所述特征信息相匹配的目标描述项,并输入所述目标描述项。

经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种输入方法和电子设备,该方法当摄取到至少包含用户的身体的一部分信息的第一图像后,从该第一图像中确定出用户的特征信息,并根据该特征信息,从预置的描述项中确定出与该特征信息相匹配的目标描述项,并输入目标描述项,避免了在输入过程中,用户手动的从大量的描述项中选择待输入的描述项,而出现选择过程复杂,耗时过长的问题,从而提高了输入速度。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。

图1示出了本申请一种输入方法一个实施例的流程示意图;

图2示出了本申请一种输入方法另一个实施例的流程示意图;

图3示出了本申请摄取的第一图像中一种用户的面部表情示意图;

图4示出了基于图3所示的面部表情确定出的表情描述项的示意图;

图5示出了本申请一种输入方法另一个实施例的流程示意图;

图6示出了本申请一种电子设备一个实施例的结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本申请实施例公开了一种输入方法,以提供对字符或者表情等特殊的描述项的输入速度。

参见图1,示出了本发明一种输入方法一个实施例的流程示意图,本申请实施例的方法可以应用于具备图像采集能力的电子设备,如笔记本电脑、台式电脑、手机或者掌上电脑等等。本实施例的方法可以包括:

步骤101:摄取第一图像,其中,该第一图像中至少包括用户的身体的一部分的信息。

通过电子设备上设置或连接的图像采集单元对用户身体的一部分进行采集,使得摄取到的图像中包含用户的身体的一部分信息。如可以是包含用户的面部、头部、四肢或者躯干中的一部分或全部的图像信息。

步骤102:根据该第一图像,确定该用户的特征信息。

由于该第一图像中包含有用户的身体的一部分的图像信息,根据该第一图像,可以分析出在摄取该第一图像时该用户的特征信息。其中,该用户的特征信息为能够反映摄取该第一图像时,该用户被摄取的部位组成、身体姿态、表情、动作的信息。

例如,该第一图像中包含有用户的手臂,则该特征信息中则应包含该用户的手臂、该手臂的姿势,还可以根据该手臂当前所处姿势分析出用户当前所进行的动作等等。

步骤103:从预置的描述项中,获取与该特征信息相匹配的目标描述项,并输入该目标描述项。

其中,描述项是指对场景、用户的情绪、用户的动作或者是特殊含义的内容进行直观描述的输入选项。在输入过程中引入描述项,减少了全部采用文字输入而引起的输入内容过长,表达不直观,以及不易引起阅读者兴趣的问题。

可选的,该描述项可以是图片,如包含用户表情的表情图片以及包含人体动作的动作图片、动画图片等,可以理解的是,该图片可以是动态图片也可以是静态图片;该描述项也可以是字符,如“→”等;该描述项还可以是由字符组成组成的符号表情,如“o(∩_∩)o”、“\(^o^)/~”等等。

通过在输入过程中引入描述项增加了用户输入的趣味性,也更加有利于情感表达,尤其在即时通信以及社交网站中,描述项被广泛使用。

本实施例中,在确定出的该用户的特征信息时,可以根据该特征信息,从预置的描述项中选择与该特征信息相匹配的目标描述。其中,目标描述项中至少包含部分或全部描述该特征信息的相关内容,或者是能够反映当前用户特征的描述项。

本申请实施例中,当摄取到至少包含用户的身体的一部分信息的第一图像后,从该第一图像中确定出用户的特征信息,并根据该特征信息,从预置的描述项中确定出与该特征信息相匹配的目标描述项,并输入目标描述项,避免了在输入过程中,用户手动的从大量的描述项中选择待输入的描述项,而出现选择过程复杂,耗时过长的问题,从而提高了输入速度。

本申请的输入方法可以应用于word文档或者其他文本内容的输入,也可以应用于即时通信或者在社交网站中进行内容输入。在检测到输入操作时,即可实时摄取包含用户身体的一部分信息的图像,并根据该第一图像分析用户的特征信息,如果预置的描述项中存在与该特征信息相匹配的描述项,则该匹配的描述项作为目标描述项,并该目标描述项进行输入。在该种情况下,为了避免误操作,可以将该目标描述项输入至预设的待输入区域,如在文字的候选栏中的一部分区域,当接收到用户确认输入该目标描述项时,将该目标描述项上屏输出。

可选的,为了减少误操作,可以是当检测到点击或触摸预设的描述项输入按键时,摄取包含用户身体的一部分信息的第一图像。如,可以预设一个按键作为描述项输入按键,当用户点击或触摸该按键时,则触发进行该第一图像的摄取;又如,在即时通信客户端或者网页中,一般都设置有表情输入按钮,当检测到点击该按钮时,便触发对图像的摄取。

可以理解的是,在本申请任意一个实施例中,从预置的描述项中,获取与该特征信息相匹配的描述项可能会有多个,可以选择匹配度最高的描述项作为目标描述项。可选的,为了提高输入的准确度,也可以将所有与该特征信息匹配的多个描述项均作为目标描述项,并将多个目标描述项提供给用户,并输入用户选择的目标描述项。

参见图2,示出了本申请一种输入方法另一个实施例的流程示意图,本实施例的方法同样应用于具有图像采集单元或者可以连接图像采集装置的电子设备,如台式电脑、手机等等,本实施例的方法可以包括:

步骤201:摄取至少包含用户的面部信息的第一图像。

本申请实施例中,摄取到的该第一图像中至少包含有用户的面部信息。如该第一图像可以为人脸面部图像,也可以是包含人脸以及人体部分肢体的图像。

当然,本实施例中摄取该第一图像同样可以是在检测到输入操作时,进行图像摄取;也可以是当检测到点击或触摸预设的扫描项按键时,触发摄取至少包含人脸面部图像的第一图像。

步骤202:根据第一图像的面部信息,识别该用户的面部表情特征。

获取到该第一图像中,对该第一图像进行人脸检测,获取到该第一图像中的人脸面部信息。根据该第一图像中的面部信息,确认该用户的面部表情特征。

其中,该面部表情特征为表征该用户面部表情或器官状态的特征。如,人眼的嘴型、眼眉上挑或者下垂,眼睛睁开或者闭合的状态等等。

该面部表情特征也可以表现该用户当前情绪的特征信息或者类别信息,如面部表情特征可以包括高兴、悲伤、惊讶、恐惧、痛苦、愤怒、厌恶、轻蔑等等情绪特征。当然,每种情绪特征还可以具体包括若干种不同的状态,如高兴可以包括微笑、大笑、怪笑等;悲伤可以包括委屈、落泪、大哭等等。

步骤203:从预置的描述项中,获取与该面部表情特征相匹配的目标描述项,并输入该目标描述项。

识别出的用户的面部表情特征后,从预置的描述项中,匹配出能够与该第一图像中用户的表情匹配的目标描述项,进而输入该目标描述项。

其中,在本实施例中,该目标描述项可以为以上实施例中任意一种,可选的,本实施例中该目标描述项为表情描述项,如包含表情的图片、字符或者符号表情等等。

可以理解的是,在本实施例中,根据该第一图像中的面部信息,对用户的面部特征信息进行识别可以采用现有的任意面部表情识别方式,在此不加以限制。

可选的,对该第一图像进行人脸检测,确定出该第一图像中的面部信息后,可以根据该第一图像中的面部信息,进行人脸面部器官的特征提取,获取到人脸的面部器官的特征信息。当人处于不同状态时,人脸的各个面部器官的状态也会相应的发生改变,其中,该面部器官变化包含了面部脸型的变化。人脸的每个器官都可以包含多种状态。如,人的眉毛的状态可以包括眉毛下降,眉毛内部抬升、眉毛外部抬升等;又如,人的唇部的状态可以反映在多个方面,具体可以包括:唇部互相收拢、上唇部抬升、唇角抬起、唇角下拉、下唇部收紧、唇部分开,咬唇部等等。

根据人脸的面部器官的特征信息,可以确定该用户的面部表情特征,进而可以确定与该人脸的面部器官的特征信息相匹配的描述项。可选的,可以根据该面部器官的特征信息,进行表情分类识别,确定出该用户的面部表情类别。相应的,根据预置的描述项中各个描述项所表达的表情含义,获取与该面部表情类别相匹配的目标描述项。

为了便于理解,以拍摄的第一图像中包含的用户的面部信息为图3所示。在该图像中,由图3可以看出在拍摄该第一图像时,用户正在大笑。

获取到该第一图像后,根据该第一图像中的用户的面部信息,可以分析出该用户的嘴角向后拉,并抬高并被放大,嘴唇张开,牙齿(图中未画出)会露出来,人的眼睛微眯,眼睑成缝状等等,根据这些人脸器官的特征信息,确定出该用户的面部表情分类,则可以确定出该用户正处于大笑状态。

相应的,从预置的描述项中,确定的目标描述项也应具备能够体现出处于大笑状态的特征。例如,参见图4,为在图3所示的面部表情下,系统确定出的表情图片,该表情图像中同样为大笑的表情,在该表情图片中也包含了嘴角抬高,嘴唇张开,牙齿露出等特征。当然,图4仅仅是一种可能的目标描述项,对于图3所示的图像,确定出的目标描述项还可以是符号表情,如“o(∩_∩)o哈哈~”、“(*^◎^*)”等,该目标描述项也可以是其他能够体现大笑的动态图片等。

参见图5,示出了本申请一种输入方法另一个实施例的流程示意图,本实施例的方法同样应用于具有图像采集单元或者可以连接图像采集装置的电子设备,如台式电脑、手机等等,本实施例的方法可以包括:

步骤501:摄取至少包括该用户的身体姿态的第一图像。

在本实施例中,该第一图像中至少包括用户的身体姿态,如用户身体躯干所处的状态,用户部分肢体或关节的状态等。

例如,该第一图像中可以包含用户的手部的手势动作的图像信息;或者该第一图像中可以包括用户的身体弯曲程度等。

当然,在本实施例中触发摄取第一图像可以是检测到用户进行输入操作,也可以是检测到用户点击预设的描述项输入按键等,在此不加以限制。

步骤502:根据该第一图像,确定该用户的肢体动作特征。

通过图像分析技术,对该第一图像中包含的人体肢体部分的图像进行分析,并根据人体关节形状、各个关节的连接关系以及各个肢体部分当前的位置关系,分析该用户的肢体动作特征。其中,对第一图像进行分析,确定用户的肢体动作特征的方式可以现有的任何对人体动作图像进行分析的方式,在此不加以限制。

可选的,在该步骤中,根据该第一图像中包含的用户的身体姿态可以分析出用户的身体的肢体的状态特征,进而根据该肢体的状态特征,确定出用户当前所进行的动作类别。

例如,该第一图像中可以包含用户的手势图像,如果用户两个手掌相互靠近或者紧挨,则可以确定出用户当前的动作类别为鼓掌。又如,该第一图像中包含用户身体以及手臂动作信息,通过对该第一图像进行分析,确定出身体处于旋转状态,且手臂与躯干的角度超过预设角度,进而可以得到用户当前处于旋转或跳舞的状态。

步骤503:从预置的描述项中,获取与该肢体动作特征相匹配的目标描述项,并输入该目标描述项。

根据该肢体动作特征确定出的目标描述项可以为表现身体姿态的图片,或者表现人体动作行为的图片。如,当确定出用户的身体处于旋转姿势时,可以从预置的描述项中,将具有身体旋转特征的动作图片作为目标描述项。

在本实施例中,该目标描述项也可以是字符或者字符表情,如,当该第一图像可以包含用户的手势为向左指向的手势,则可以确定出目标描述项为字符“←”。

图2和图5的实施例是分别以第一图像中包含面部信息或者身体姿态为例进行描述的,实际上本申请实施例中该第一图像中海可以同时包含用户的面部信息以及身体姿态信息。当该第一图像中同时包含有用户的面部信息以及身体姿态信息时,可以该图像中人脸以及身体姿态分别进行分析,获取到用户的面部表情特征以及肢体动作特征,并结合该面部表情特征和肢体动作特征,确定目标描述项。例如,该面部表情的类别为疑惑,则该肢体动作为挠头,确定出的目标描述项可以为该包含伴有挠头的疑惑表情。

当然,当该第一图像中同时包含用户的面部信息以及身体姿态信息时,也可以设定面部表情特征以及肢体动作特征的优先顺序。如,可以设置面部表情特征为优先匹配目标,如果没有匹配到与该面部表情对应的目标描述项,则可以根据该肢体动作特征进行匹配。

需要说明的是,在以上任意一个实施例中,摄取的第一图像可以是一幅,也可以是连续摄取多幅该第一图像,进而后续对摄取到的一幅或多幅第一图像进行分析,确定出该用户的特征信息。

可以理解的是,在以上任意一个实施例中,从预置的描述项中,匹配目标描述项可以是根据分析出的用户的特征信息,对预置的描述项所包含的信息进行分析,以确定出与该用户的特征信息匹配的目标描述项。为了能够更加减少误匹配并提高匹配速度,可以预先根据大量包含用户的面部表情、身体姿态等用户身体的一部分信息的图像进行训练分析,根据分析结果,确定不同的用户特征信息所需对应的描述项,并建立用户的特征信息与描述项的对应关系。这样,当根据摄取到的第一图像,分析出该第一图像中包含的用户的特征信息后,可以根据该预置的特征信息与描述项的对应关系,从预置的描述项中,获取与所述特征信息相匹配的目标描述项。

对应本发明的一种输入方法,本发明还提供了一种电子设备,参见图6,示出了本发明一种电子设备一个实施例的结构示意图,本实施例的电子设备可以为手机、笔记本电脑或者台式电脑,本实施例的电子设备可以包括:图像摄取单元601、图像分析单元602和输入单元603。

其中,图像摄取单元601,用于摄取第一图像,其中,所述第一图像中至少包括用户的身体的一部分信息。

图像分析单元602,用于根据所述第一图像,确定所述用户的特征信息。

输入单元603,用于从预置的描述项中,获取与所述特征信息相匹配的目标描述项,并输入所述目标描述项。

其中,该输入单元所选择的预置的描述项以及最终确定出的描述项可以包括以下一种或多种:表情图片、动作图片、字符以及由字符组成的符号表情。

可选的,该图像摄取单元,可以包括

第一图像摄取单元,用于摄取至少包含所述用户的面部信息的第一图像;

相应的,该图像分析单元,可以包括:

第一图像分析单元,用于根据第一图像的面部信息,识别所述用户的面部表情特征;

该输入单元,可以包括:

第一输入单元,用于从预置的描述项中,获取与所述面部表情特征相匹配的目标描述项,并输入所述目标描述项。

进一步的,该第一图像分析单元,可以包括:

特征提取单元,用于根据所述第一图像中的面部信息,进行人脸面部器官的特征提取,获取面部器官的特征信息;

表情分类单元,用于根据所述面部器官的特征信息,进行表情分类识别,确定出所述用户的面部表情类别。

在以上任意电子设备的实施例的基础上,该图像分析单元可以包括:

第二图像分析单元,用于摄取至少包括所述用户的身体姿态的第一图像;

相应的,所述图像分析单元,包括:

第二图像分析单元,用于根据所述第一图像,确定所述用户的肢体动作特征;

所述输入单元,包括:

第二输入单元,用于从预置的描述项中,获取与所述肢体动作特征相匹配的目标描述项,并输入所述目标描述项。

可选的,在以上任意实施例中,该图像摄取单元,可以包括:

图像摄取子单元,用于当检测到点击或触摸预设的描述项输入按键时,摄取所述第一图像。

可选的,该输入单元,可以包括:

输入子单元,用于根据预置的特征信息与描述项的对应关系,从预置的描述项中,获取与所述特征信息相匹配的目标描述项,并输入所述目标描述项。

本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的电子设备而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。

结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(ram)、内存、只读存储器(rom)、电可编程rom、电可擦除可编程rom、寄存器、硬盘、可移动磁盘、cd-rom、或技术领域内所公知的任意其它形式的存储介质中。

对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1