即时通讯过程中的表情信息处理方法及装置的制造方法_2

文档序号:8459160阅读:来源:国知局

[0043] 检测单元,用于如果该表情图片出现在所述第四表情数据库中,则检测所述即时 通讯对话消息中是否存在符合该表情图片对应的响应信息启动条件的目标内容;
[0044] 响应信息生成单元,用于如果存在,则生成该表情图片对应的响应信息。
[0045] 一种即时通讯过程中的表情信息处理装置,预先在第五表情数据库中设置有文 本通讯内容之间的关联关系、以及相互关联的文本通讯内容对应的表情图片,所述装置包 括:
[0046] 文本通讯内容提供单元,用于在即时通讯窗口中提供一文本通讯内容;
[0047] 第三检索单元,用于通过检索所述第五表情数据库,检测所述即时通讯窗口中是 否存在与该文本通讯内容关联的其他文本通讯内容;
[0048] 第五表情图片提供单元,用于如果存在,则在所述即时通讯窗口中提供对应的表 情图片。
[0049] 根据本申请提供的具体实施例,本申请公开了以下技术效果:
[0050] 通过本申请实施例,在用户对表情图片执行操作时,可以确定出对应的响应信息 并进行播放,因此,相当于表情图片可以响应用户的操作,使得用户发送的表情图片能更好 地表达用户的感情等,即时通讯工具对现实世界用户之间的模拟度也得到提高。
[0051] 当然,实施本申请的任一产品并不一定需要同时达到以上所述的所有优点。
【附图说明】
[0052] 为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所 需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施 例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获 得其他的附图。
[0053] 图1是本申请实施例提供的第一方法的流程图;
[0054] 图2是本申请实施例提供的第一界面示意图;
[0055] 图3是本申请实施例提供的第二界面示意图;
[0056] 图4是本申请实施例提供的第二方法的流程图;
[0057] 图5是本申请实施例提供的第三方法的流程图;
[0058] 图6是本申请实施例提供的第四方法的流程图;
[0059] 图7_1是本申请实施例提供的第二界面不意图;
[0060] 图7-2是本申请实施例提供的第四界面示意图;
[0061] 图8-1是本申请实施例提供的第五界面示意图;
[0062] 图8-2是本申请实施例提供的第六界面示意图;
[0063] 图9是本申请实施例提供的第五方法的流程图 [0064] 图10是本申请实施例提供的第一装置的示意图;
[0065] 图11是本申请实施例提供的第二装置的示意图;
[0066] 图12是本申请实施例提供的第三装置的示意图;
[0067] 图13是本申请实施例提供的第四装置的示意图;
[0068] 图14是本申请实施例提供的第五装置的示意图。
【具体实施方式】
[0069] 下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完 整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于 本申请中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本申请保护的 范围。
[0070] 在本申请实施例中,为了使得用户在使用即时通讯工具进行交互的过程中,更好 的与对方用户进行互动,更方便用户的通过即时通讯工具进行情感的表达,可以在即时通 讯工具的表情库中添加一些特殊的表情图片,在用户发送了该表情图片之后,可以响应用 户对该表情图片执行的操作,播放相应的动画或者音乐,例如,当用户甲向用户乙发送了一 个"伤心流泪"的表情之后,用户乙可以通过在触摸屏上滑动等方式发出操作,相应的,可以 在该表情上出现一只"手",并做"抚摸"动作,就像现实世界中真的在安抚对方一样。这样, 使得即时通讯工具对现实世界中人与人之间的模拟度更高,更能表达用户的情感。
[0071] 需要说明的是,在本申请实施例中,关于表情可以有两种具体的实现方式,一种是 用户与表情的,也就是,由用户在表情上发出滑动、点击等操作,表情图片做出相应的响应; 另一种是表情与表情/文字的,例如,当一个用户发出一个表情图片之后,对方用户可以回 复另一个表情图片,如果这两个表情图片之间相互关联,则可以再做出响应。下面首先对 "用户与表情"的具体实现方式进行详细地介绍。
[0072] 实施例一
[0073] 在该实施例一中,首先从发送方客户端角度进行介绍。这里需要说明的是,所谓的 发送方客户端是指,执行用户操作行为的用户所在的客户端;相应地,对话的另一方称为接 收方客户端。需要说明的是,在即时通讯过程中,发送方与接收方并不是固定的,对话双方 在一次通讯过程中既有可能是发送方也有可能是接收方,并且角色也会不断在发生互换。 另外,从客户端程序而言,用户在安装客户端程序时,同一个客户端程序既可以实现发送的 功能,也可以实现接收的功能。因此,在本申请实施例中,从信息处理主体的角度,区分发送 方与接收方的概念,以清楚描述交互过程。
[0074] 参见图1,本申请实施例一提供的即时通讯过程中发送方客户端的表情信息处理 方法可以包括以下步骤:
[0075] SlOl :在即时通讯对话窗口中提供一表情图片;
[0076] 即时通讯对话窗口一般包括两部分,其中一部分为信息编辑区域,用于接收用户 输入的文字、选择的表情图片等;另一部分为信息显示区域,用于显示用户发送出去的文 字、表情图片,以及对方用户发送的文字、表情图片等。该步骤SlOl中所谓的提供出的表情 图片,可以是用户选择并发送一个表情图片,也可以是接收到对方用户发送的一个表情图 片。也就是说,用户在对表情图片进行操作时,可以是对对方用户发送的一个表情图片进行 操作,也可以对自己发送的表情图片进行操作,还可以是对自己将要发送的表情图片进行 操作。
[0077] 其中,如果是自己发送的表情图片,则在即时通讯对话窗口中进行提供时,直接将 用户选择的表情图片进行提供即可。并且还可以将该表情图片的信息发送给对方用户,以 便对方用户的客户端也在其即时通讯对话窗口中显示出该表情图片。
[0078] 如果是对方用户发送的表情图片,则根据对方用户客户端发送的表情图片的信息 的不同,在进行表情图片的提供时,可以有不同的处理。例如,如果对方用户客户端直接发 送的是表情图片本身,则可以直接在当前的即时通讯对话窗口中显示该表情图片。如果对 方用户客户端发送的是表情图片的ID等标识信息,则可以首先根据该标识信息在第一表 情库中查找到对应的表情图片,然后再在当前的即时通讯对话窗口中显示该查找到的表情 图片。
[0079] S102 :获得用户对所述表情图片发出的用户操作行为信息;
[0080] 该步骤中,获得的用户操作行为信息可以是用户在终端设备的执行各种不同的操 作行为,以下分别举例说明。在终端设备配备了触摸屏的情况下,用户发出的用户操作行为 一般可以是滑动操作或者点击的操作,对应的操作行为信息可以是由触摸屏接收到用户操 作后,输出的用户操作行为信息。在滑动操作类型下,根据滑动行为的位置、方向和/或轨 迹的不同,将产生不同的用户操作行为信息。在点击操作类型下,根据点击行为的位置和/ 或次数的不同,也可以产生不同的用户操作行为信息。
[0081] 在终端设备配备了重力感应器的情况下,用户发出的用户操作行为还可以是摇动 终端等操作,对应的操作行为信息可以是由重力感应器接收到用户操作后,输出的用户操 作行为信息。在摇动操作类型下,根据摇动行为的方向和/或幅度的不同,可以产生不同的 用户操作行为信息。
[0082] 在终端设备配备了红外感应器的情况下,当用户靠近终端设备时,可以由红外感 应器感应到用户脸部、手部等靠近终端的行为,此时,对应的操作行为信息可以是由红外感 应器感应到用户操作后,输出的用户操作行为信息。
[0083] 需要说明的是,本申请实
当前第2页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1