一种表情符号的插入方法、装置和电子设备与流程

文档序号:13136025阅读:199来源:国知局
一种表情符号的插入方法、装置和电子设备与流程

本发明涉及电子设备技术领域,更具体的说是涉及一种表情符号的插入方法、装置和电子设备。



背景技术:

随着通信技术的发展,人们越来越多的在电子设备的聊天界面上进行交流。具体的,在交流过程中,用户可以使用表情符号来表达当前的情绪,表情符号的加入,使得聊天内容更加形象化。

目前,电子设备能够基于用户输入的文字内容自动调用与其匹配的表情符号。但是随着语音技术的发展,用户越来越倾向于在聊天界面使用语音进行交流,在使用语音聊天过程中,若用户想要使用表情符号,需要从表情符号库中手动选择并发送,操作繁琐,降低用户体验。



技术实现要素:

有鉴于此,本发明提供一种表情符号的插入方法、装置和电子设备,以简化用户操作,提供用户体验。

为实现上述目的,本发明提供如下技术方案:

一种表情符号的插入方法,包括:

接收语音数据;

对所述语音数据进行分析,确定与所述语音数据匹配的表情符号;

将所述表情符号插入到所述语音数据,并展示在对话界面中。

优选的,所述对所述语音数据进行分析,确定与所述语音数据匹配的表情符号,包括:

获取所述语音数据的语义内容;

确定与所述语义内容匹配的表情符号。

优选的,所述对所述语音数据进行分析,确定与所述语音数据匹配的表情符号,包括:

在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号;

和/或,在预先建立的语速训练模型中确定与所述语音数据匹配的表情符号。

优选的,所述将所述表情符号插入到所述语音数据,并展示在对话界面中,包括:

确定所述表情符号在所述语音数据中的插入位置;其中,所述插入位置为与所述表情符号匹配的语音数据处;

基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;

将所述一条聊天信息展示在对话界面中。

优选的,所述将所述表情符号插入到所述语音数据,并展示在对话界面中,包括:

确定所述表情符号在所述语音数据中的插入位置;

以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息;

将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;

将插入有所述表情符号的多条聊天信息展示在对话界面中。

优选的,还包括:

当接收到语音转换操作时,将所述语音转换操作对应的语音数据转换为文本数据,其中,所述文本数据中包含所述表情符号,所述表情符号在所述文本数据的插入位置与其在所述语音数据的插入位置对应。

一种表情符号的插入装置,包括:

接收数据单元,用于接收语音数据;

分析确定单元,用于对所述语音数据进行分析,确定与所述语音数据匹配的表情符号;

插入数据单元,用于将所述表情符号插入到所述语音数据中,并展示在对话界面中。

优选的,所述插入数据单元,包括:

第一确定位置模块,用于确定所述表情符号在所述语音数据中的插入位置;其中,所述插入位置为与所述表情符号匹配的语音数据处;

第一插入符号模块,用于基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;

第一展示信息模块,用于将所述一条聊天信息展示在对话界面中。

优选的,所述插入数据单元,包括:

第二确定位置模块,用于确定所述表情符号在所述语音数据中的插入位置;

第一拆分信息模块,用于以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息;

第二插入符号模块,用于将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;

第二展示信息模块,用于将插入有所述表情符号的多条聊天信息展示在对话界面中。

一种电子设备,包括:

语音采集单元,用于采集语音数据;

处理器,用于对所述语音数据进行分析,确定与所述语音数据匹配的表情符号,将所述表情符号插入到语音数据中;

显示单元,用于在对话界面中展示插入有所述表情符号的语音数据。

优选的,所述处理器具体用于确定所述表情符号在所述语音数据中的插入位置,基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;

所述显示单元,具体用于在对话界面中展示所述一条聊天信息。

其中,所述插入位置为与所述表情符号匹配的语音数据处。

优选的,所述处理器具体用于确定所述表情符号在所述语音数据中的插入位置,以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息,将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;

所述显示单元,具体用于在对话界面中展示插入有所述表情符号的多条聊天信息。

经由上述的技术方案可知,与现有技术相比,本发明实施例提供了一种表情符号的插入方法,包括:接收语音数据,对语音数据进行分析,确定与语音数据匹配的表情符号,将所述表情符号插入到语音数据,并展示在对话界面中,由此可见,本发明能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。

图1为本发明一个实施例公开的一种表情符号的插入方法的流程示意图;

图2为本发明另一实施例公开的一种表情符号的插入方法的流程示意图;

图3为本发明实施例公开的电子设备的聊天界面的一种表现形式;

图4为本发明又一实施例公开的一种表情符号的插入方法的流程示意图;

图5为本发明实施例公开的电子设备的聊天界面的另一种表现形式;

图6为本发明又一实施例公开的一种表情符号的插入方法的流程示意图;

图7为本发明一个实施例公开的一种表情符号的插入装置的结构示意图;

图8为本发明另一实施例公开的插入数据单元的结构示意图;

图9为本发明又一实施例公开的插入数据单元的结构示意图;

图10为本发明又一实施例公开的一种表情符号的插入装置的结构示意图;

图11为本发明一个实施例公开的一种电子设备的结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本发明一个实施例公开了一种表情符号的插入方法,如图1所示,该方法包括以下步骤:

步骤101:接收语音数据;

本发明公开的一种表情符号的插入方法可以应用于电子设备中,电子设备所接收的语音数据为电子设备上的语音采集单元采集的语音数据。可选的,用户可以通过触发电子设备上的特定物理按键或者虚拟按键来使得电子设备的语音采集单元采集语音数据;当然,电子设备也可以在语音采集单元处于唤醒状态下,自动采集语音数据。

例如,电子设备当前运行有一聊天app,在聊天app的聊天界面上,在用户按下“按住说话”的虚拟按键的过程中,电子设备通过语音采集单元采集语音数据,当用户松开“按住说话”的虚拟按键时,电子设备的语音采集单元停止采集语音数据。

本发明公开的一种表情符号的插入方法也可以应用于服务器中,服务器接收电子设备发送的语音数据,当电子设备通过语音采集单元采集到语音数据后,将其发送给服务器。

步骤102:对语音数据进行分析,确定与所述语音数据匹配的表情符号;

在本发明中,表情符号包括用户在电子设备的对话界面中所使用各种数据,如动态图片、绘文字(emoji)、由字符串和/或文字组成的表情图案等等。

可选的,作为第一种实现方式,对语音数据进行分析,确定与所述语音数据匹配的表情符号,包括以下过程:

(1)获取所述语音数据的语义内容;

可以通过语音提取算法提取语音数据中的语义内容,该语义内容为语音表现形式;或者,先将语音数据转换为文本数据,然后提取文本数据中的语义内容,该语义内容为文本表现形式。

(2)确定与所述语义内容匹配的表情符号。

在本发明中,预先存储有表情符号库,表情符号库中建立有语义内容与表情符号的对应关系,因此,可以从表情符号库中查找与当前获取的语义内容对应的表情符号。

该表情符号库中建立的语义内容与表情符号的对应关系中,该语义内容可以为语音表现形式,也可以为文本表现形式。

例如,接收的语音数据为“今天好开心”,该语音数据的语义内容为“开心”,那么在表情符号库中查找与“开心”对应的表情符号。

需说明的是,当与同一语义内容对应的表情符号包括至少两个时,可以将所有与同一语义内容对应的表情符号均作为待插入到语音数据中的表情符号;或者,随机选择一个表情符号作为待插入到语音数据中的表情符号;或者,基于预先设定的选择策略选择一个或多个表情符号,如选择使用频率最高的一个表情符号作为待插入到语音数据中的表情符号。

可选的,作为第二种实现方式,对语音数据进行分析,确定与所述语音数据匹配的表情符号,包括:在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号。

在本发明中,系统可以预先训练大量的语音数据来构建语气训练模型,以建立不同的语气信息所对应的表情符号,在接收到语音数据后,通过语气训练模型确定与该语音数据所匹配的表情符号。

例如,系统接收的语音数据为“你在做什么”,用户在向电子设备发送“你在做什么”是生气的语气,系统在预先建立的语气训练模型中确定与“你在做什么”的生气语气匹配的表情符号。

可选的,作为第三种实现方式,对语音数据进行分析,确定与所述语音数据匹配的表情符号,包括:在预先建立的语速训练模型中确定与所述语音数据匹配的表情符号。

在本发明中,系统可以预先训练大量的语音数据来构建语速训练模型,以建立不同的语速信息所对应的表情符号,在接收到语音数据后,通过语速训练模型确定与该语音数据所匹配的表情符号。

例如,系统接收的语音数据为“你在做什么”,用户在向电子设备发送“你在做什么”的语速非常快,系统在预先建立的语速训练模型中确定与“你在做什么”的语速匹配的表情符号。

需说明的是,为了提高确定与语音数据匹配的表情符号的准确性,在发明中,可以并列实施上述实现方式的两种或三种,例如,将上述第一种实现方式和第二种实现方式并列实施,通过语义与语气的配合处理,筛选出与语音数据匹配的表情符号;或者,将上述第二种实现方式和第三种实现方式并列实施,通过语气与语速的配合处理,筛选出与语音数据匹配的表情符号;或者将上述第一种实现方式和第三种实现方式并列实施,通过语义和语速的配合处理,筛选出与语音数据匹配的表情符号;当然,也可以将上述三种实现方式并列实施,通过语义、语气和语速的匹配处理,筛选出与语音数据匹配的表情符号。

也就是说,上述三种实现方式可以并列执行,也可以单独执行,或者任意两个并列执行,即上述三种实现方式可以为“和/或”的关系。

步骤103:将所述表情符号插入到所述语音数据,并展示在对话界面中。

该对话界面为用户通过电子设备与其他用户进行聊天的聊天界面,具体的,由于该语音数据是由本端电子设备通过语音采集单元采集的数据,因此在本端电子设备的对话界面中,是将插入有表情符号的语音数据以发送者的角度进行展示,而在对端电子设备的对话界面中,是将插入有表情符号的语音数据以接收者的角度进行展示。

将所述表情符号插入到所述语音数据,并展示在对话界面中后,当播放该语音数据时,用户不仅能够能到听到语音内容,还能够看到插入到语音数据中的表情符号。

由此可见,本发明实施例提供了一种表情符号的插入方法,包括:接收语音数据,对语音数据进行分析,确定与语音数据匹配的表情符号,将所述表情符号插入到语音数据,并展示在对话界面中。本发明能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。

本发明另一实施例公开了一种表情符号的插入方法,如图2所示,该方法包括以下步骤:

步骤201:接收语音数据;

步骤202:对语音数据进行分析,确定与所述语音数据匹配的表情符号;

步骤203:确定所述表情符号在所述语音数据中的插入位置;

其中,所述插入位置为与所述表情符号匹配的语音数据处。

作为一个可选实施例,当基于前文所描述的确定与语义内容匹配的表情符号时,该插入位置可以为语音数据中用于匹配表情符号的语义内容的后面位置。作为另一个可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。作为又一个可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。

需说明的是,以上仅是插入位置的几种确认方式,在本发明的可选实施例中,也可以将用于匹配表情符号的语音数据的最后位置确定为插入位置。

步骤204:基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;

通过将表情符号插入到语音数据中的所述插入位置,从而生成一条聊天信息。

也就是说,该一条聊天信息中包含了插入表情符号的语音数据。例如,以语音数据为“今天很开心,谢谢你”为例,通过分析确定与该语音数据匹配的表情符号包括两个,一个是用于表征“开心”的表情符号,一个是用于表征“谢谢你”的表情符号。那么,可以将用于表征“开心”的表情符号插入到语音数据为“今天很开心”的后面,将用于表征“谢谢你”的表情符号插入到语音数据为“谢谢你”的后面。

步骤205:将所述一条聊天信息展示在对话界面中。

步骤203-步骤205为步骤将所述表情符号插入到所述语音数据,并展示在对话界面中的具体实现。

如图3所示,为电子设备的聊天界面的一种表现形式,电子设备100上显示有聊天界面100a,在聊天界面100a上,用户a1和用户a2通过语音聊天,电子设备100能够通过语音采集单元采集用户a1的语音数据,同时也能接收用户a2发送过来的语音数据,以语音数据aa为例,在语音数据aa中插入了两个表情符号,那么,当电子设备播放该条语音数据aa时,用户不仅能够能到听到语音内容,还能够看到插入到该条语音数据中的表情符号。

由此可见,本实施例能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。

本发明又一实施例公开了一种表情符号的插入方法,如图4所示,该方法包括以下步骤:

步骤401:接收语音数据;

步骤402:对语音数据进行分析,确定与所述语音数据匹配的表情符号;

步骤403:确定所述表情符号在所述语音数据中的插入位置;

其中,所述插入位置为与所述表情符号匹配的语音数据处。

作为一个可选实施例,当基于前文所描述的确定与语义内容匹配的表情符号时,该插入位置可以为语音数据中用于匹配表情符号的语义内容的后面位置。作为另一可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。

需说明的是,由于本实施例中涉及到对语音数据的拆分,为了保证拆分后的一条聊天信息的完整性,插入位置可以基于用于与表情符号匹配的语音数据的语义内容进行确定。

步骤404:以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息;

可以理解的,本实施例中,是以插入位置位于语音数据中的位置为拆分点;若插入位置位于一条语音数据的最前面或者最后,即位于该条语音数据的两端,那么则无需拆分。

步骤405:将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;

也就是说,表情符号和被拆分的语音数据分别作为单独的一条聊天信息。例如,一段语音数据aa被拆分成两条聊天信息,分别为aa1和aa2,在aa1和aa2之间具有一条表情符号,在aa2之后具有一条表情符号,那么语音数据aa共包括4条聊天信息。

步骤406:将插入有所述表情符号的多条聊天信息展示在对话界面中。

步骤403-步骤406为步骤将所述表情符号插入到所述语音数据,并展示在对话界面中的具体实现。

如图5所示,为电子设备聊天界面的一种表现形式,电子设备100上显示有聊天界面100a,在聊天界面100a上,用户a1和用户a2通过语音聊天,电子设备100能够通过语音采集单元采集用户a1的语音数据,同时也能接收用户a2发送过来的语音数据,其中,一段语音数据拆分成两条聊天信息,分别为语音数据aa1和语音数据aa2,在语音数据aa1和语音数据aa2中插入有一条表情符号bb1,在语音数据aa2的最后插入有一条表情符号bb2。那么,电子设备可以顺序的播放多条语音数据,即顺序的播放语音数据aa1和语音数据aa2,用户不仅能够能到听到语音内容,还能够看到插入到两条语音数据中的表情符号bb1和插入到语音数据aa2之后的表情符号bb2。

由此可见,本实施例能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。

本发明又一实施例公开了一种表情符号的插入方法,如图6所示,该方法包括以下步骤:

步骤601:接收语音数据;

步骤602:对语音数据进行分析,确定与所述语音数据匹配的表情符号;

步骤603:将所述表情符号插入到所述语音数据,并展示在对话界面中;

步骤604:当接收到语音转换操作时,将所述语音转换操作对应的语音数据转换为文本数据。

该语音转换操作可以为触发对话界面中的语音数据的时间达到预设时间并在对话界面弹出选择界面时,点击“转换为文字”的控件的操作,当然,该语音转换操作也可以为其他预设操作。

其中,所述文本数据中包含所述表情符号,所述表情符号在所述文本数据的插入位置与其在所述语音数据的插入位置对应。

也就是说,在将语音数据中插入表情符号后,若用户需要将该语音数据转换为文本数据,系统在转换的过程中,并不会去掉该表情符号,而是基于表情符号在语音数据的插入位置将其插入到对应的文本数据中。

由此可见,本实施例能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。

与上述一种表情符号的插入方法对应的,本发明实施例还公开了一种表情符号的插入装置,可以应用于电子设备中,也可以应用于服务器中。以下通过各个实施例进行描述:

本发明一个实施例公开了一种表情符号的插入装置,如图7所示,该装置包括:接收数据单元701、分析确定单元702和插入数据单元703;其中:

接收数据单元701,用于接收语音数据;

分析确定单元702,用于对所述语音数据进行分析,确定与所述语音数据匹配的表情符号;

可选的,作为第一种实现方式,分析确定单元702,包括:获取内容模块以及确定符合模块;其中:

获取内容模块,用于获取所述语音数据的语义内容;

可以通过语音提取算法提取语音数据中的语义内容,该语义内容为语音表现形式;或者,先将语音数据转换为文本数据,然后提取文本数据中的语义内容,该语义内容为文本表现形式。

确定符号模块,用于确定与所述语义内容匹配的表情符号。

在本发明中,预先存储有表情符号库,表情符号库中预先建立有语义内容与表情符号的对应关系,因此,可以从表情符号库中查找与当前获取的语义内容对应的表情符号。

该表情符号库中建立的语义内容与表情符号的对应关系中,该语义内容可以为语音表现形式,也可以为文本表现形式。

需说明的是,当与同一语义内容对应的表情符号包括至少两个时,可以将所有与同一语义内容对应的表情符号均作为待插入到语音数据中的表情符号;或者,随机选择一个表情符号作为待插入到语音数据中的表情符号;或者,基于预先设定的选择策略选择一个或多个表情符号,如选择使用频率最高的一个表情符号作为待插入到语音数据中的表情符号。

可选的,作为第二种实现方式,分析确定单元702包括:第一确定符号模块;

第一确定符号模块,用于在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号。

在本发明中,系统可以预先训练大量的语音数据来构建语气训练模型,以获取不同的语气信息所对应的表情符号,在接收到语音数据后,通过语气训练模型确定与该语音数据所匹配的表情符号。

可选的,作为第三种实现方式,分析确定单元702,包括:第二确定符号模块;

第二确定符号模块,用于在预先建立的语速训练模型中确定与所述语音数据匹配的表情符号。

在本发明中,系统可以预先训练大量的语音数据来构建语速训练模型,以获取不同的语速信息所对应的表情符号,在接收到语音数据后,通过语速训练模型确定与该语音数据所匹配的表情符号。

上述三种实现方式可以并列执行,也可以单独执行,或者任意两个并列执行,即上述三种实现方式可以为“和/或”的关系。

插入数据单元703,用于将所述表情符号插入到所述语音数据中,并展示在对话界面中。

该对话界面为用户通过电子设备与其他用户进行聊天的聊天界面,具体的,由于该语音数据是由本端电子设备通过语音采集单元采集的数据,因此在本端电子设备的对话界面中,是将插入有表情符号的语音数据以发送者的角度进行展示,而在对端电子设备的对话界面中,是将插入有表情符号的语音数据以接收者的角度进行展示。

将所述表情符号插入到所述语音数据,并展示在对话界面中后,当播放该语音数据时,用户不仅能够能到听到语音内容,还能够看到插入到语音数据中的表情符号。

由此可见,本发明能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。

本发明另一实施例公开了一种表情符号的插入装置,在本实施例中,如图8所示,插入数据单元包括:第一确定位置模块8031、第一插入符号模块8032以及第一展示信息模块8033;具体的:

第一确定位置模块8031,用于确定所述表情符号在所述语音数据中的插入位置;

其中,所述插入位置为与所述表情符号匹配的语音数据处。

作为一个可选实施例,当基于前文所描述的确定与语义内容匹配的表情符号时,该插入位置可以为语音数据中用于匹配表情符号的语义内容的后面位置。作为另一个可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。作为又一个可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。

需说明的是,以上仅是插入位置的几种确认方式,在本发明的可选实施例中,也可以将用于匹配表情符号的语音数据的最后位置确定为插入位置。

第一插入符号模块8032,用于基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;

第一展示信息模块8033,用于将所述一条聊天信息展示在对话界面中。

由此可见,本实施例能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。

本发明又一实施例公开了一种表情符号的插入装置,在本实施例中,如图9所示,插入数据单元包括:第二确定位置模块9031、第一拆分信息模块9032、第二插入符号模块9033以及第二展示信息模块9034;具体的:

第二确定位置模块9031,用于确定所述表情符号在所述语音数据中的插入位置;

其中,所述插入位置为与所述表情符号匹配的语音数据处。

作为一个可选实施例,当基于前文所描述的确定与语义内容匹配的表情符号时,该插入位置可以为语音数据中用于匹配表情符号的语义内容的后面位置。作为另一可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。

需说明的是,由于本实施例中涉及到对语音数据的拆分,为了保证拆分后的一条聊天信息的完整性,插入位置可以基于用于与表情符号匹配的语音数据的语义内容进行确定。

第一拆分信息模块9032,用于以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息;

可以理解的,本实施例中,是以插入位置位于语音数据中的位置为拆分点;若插入位置位于一条语音数据的最前面或者最后,即位于该条语音数据的两端,那么则无需拆分。

第二插入符号模块9033,用于将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;

第二展示信息模块9034,用于将插入有所述表情符号的多条聊天信息展示在对话界面中。

由此可见,本实施例能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。

本发明又一实施例公开了一种表情符号的插入装置,如图10所示,该装置包括:接收数据单元1001、分析确定单元1002、插入数据单元1003以及转换文本单元1004;其中:

接收数据单元1001,用于接收语音数据;

分析确定单元1002,用于对所述语音数据进行分析,确定与所述语音数据匹配的表情符号;

插入数据单元1003,用于将所述表情符号插入到所述语音数据中,并展示在对话界面中;

转换文本单元1004,用于当接收到语音转换操作时,将所述语音转换操作对应的语音数据转换为文本数据。

其中,所述文本数据中包含所述表情符号,所述表情符号在所述文本数据的插入位置与其在所述语音数据的插入位置对应。

也就是说,在将语音数据中插入表情符号后,若用户需要将该语音数据转换为文本数据,系统在转换的过程中,并不会去掉该表情符号,而是基于表情符号在语音数据的插入位置将其插入到对应的文本数据中。

由此可见,本实施例能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。

与上述一种表情符号的插入方法对应的,本发明还公开了一种电子设备,以下通过几个实施例进行描述。

本发明一个实施例公开了一种电子设备,如图11所示,该电子设备包括:语音采集单元110、处理器120以及显示单元130;其中:

语音采集单元110,用于采集语音数据;

可选的,用户可以通过触发电子设备上的特定物理按键或者虚拟按键来使得电子设备的语音采集单元采集语音数据;当然,电子设备也可以在语音采集单元处于唤醒状态下,自动采集语音数据。

处理器120,用于对所述语音数据进行分析,确定与所述语音数据匹配的表情符号,将所述表情符号插入到语音数据中;

可选的,作为第一种实现方式,处理器具体用于获取所述语音数据的语义内容,确定与所述语义内容匹配的表情符号。

具体的,处理器可以通过语音提取算法提取语音数据中的语义内容,该语义内容为语音表现形式;或者,处理器先将语音数据转换为文本数据,然后提取文本数据中的语义内容,该语义内容为文本表现形式。

在本发明中,电子设备预先存储有表情符号库,表情符号库中建立有语义内容与表情符号的对应关系,因此,可以从表情符号库中查找与当前获取的语义内容对应的表情符号。

该表情符号库中建立的语义内容与表情符号的对应关系中,该语义内容可以为语音表现形式,也可以为文本表现形式。

需说明的是,当与同一语义内容对应的表情符号包括至少两个时,可以将所有与同一语义内容对应的表情符号均作为待插入到语音数据中的表情符号;或者,随机选择一个表情符号作为待插入到语音数据中的表情符号;或者,基于预先设定的选择策略选择一个或多个表情符号,如选择使用频率最高的一个表情符号作为待插入到语音数据中的表情符号。

可选的,作为第二种实现方式,处理器具体用于在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号。

在本发明中,系统可以预先训练大量的语音数据来构建语气训练模型,以获取不同的语气信息所对应的表情符号,在接收到语音数据后,通过语气训练模型确定与该语音数据所匹配的表情符号。

可选的,作为第三种实现方式,处理器具体用于在预先建立的语速训练模型中确定与所述语音数据匹配的表情符号。

在本发明中,系统可以预先训练大量的语音数据来构建语速训练模型,以获取不同的语速信息所对应的表情符号,在接收到语音数据后,通过语速训练模型确定与该语音数据所匹配的表情符号。

上述三种实现方式可以并列执行,也可以单独执行,或者任意两个并列执行,即上述三种实现方式可以为“和/或”的关系。

显示单元130,用于在对话界面中展示插入有所述表情符号的语音数据。

该对话界面为用户通过电子设备与其他用户进行聊天的聊天界面,具体的,由于该语音数据是由本端电子设备通过语音采集单元采集的数据,因此在本端电子设备的对话界面中,是将插入有表情符号的语音数据以发送者的角度进行展示,而在对端电子设备的对话界面中,是将插入有表情符号的语音数据以接收者的角度进行展示。

将所述表情符号插入到所述语音数据,并展示在对话界面中后,当播放该语音数据时,用户不仅能够能到听到语音内容,还能够看到插入到语音数据中的表情符号。

由此可见,本发明能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。

本发明另一实施例公开了一种电子设备,在本实施例中,处理器在将所述表情符号插入到所述语音数据,具体包括:处理器用于确定所述表情符号在所述语音数据中的插入位置,基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息。

其中,所述插入位置为与所述表情符号匹配的语音数据处。

作为一个可选实施例,当基于前文所描述的确定与语义内容匹配的表情符号时,该插入位置可以为语音数据中用于匹配表情符号的语义内容的后面位置。作为另一个可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。作为又一个可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。

需说明的是,以上仅是插入位置的几种确认方式,在本发明的可选实施例中,也可以将用于匹配表情符号的语音数据的最后位置确定为插入位置。

显示单元,具体用于在对话界面中展示所述一条聊天信息。

其中,所述插入位置为与所述表情符号匹配的语音数据处。

本发明又一实施例公开了一种电子设备,在本实施例中,处理器在将所述表情符号插入到所述语音数据,具体包括:处理器用于确定所述表情符号在所述语音数据中的插入位置,以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息,将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中。

其中,所述插入位置为与所述表情符号匹配的语音数据处。

作为一个可选实施例,当基于前文所描述的确定与语义内容匹配的表情符号时,该插入位置可以为语音数据中用于匹配表情符号的语义内容的后面位置。作为另一可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。

需说明的是,由于本实施例中涉及到对语音数据的拆分,为了保证拆分后的一条聊天信息的完整性,插入位置可以基于用于与表情符号匹配的语音数据的语义内容进行确定。

可以理解的,本实施例中,是以插入位置位于语音数据中的位置为拆分点;若插入位置位于一条语音数据的最前面或者最后,即位于该条语音数据的两端,那么则无需拆分。

显示单元,具体用于在对话界面中展示插入有所述表情符号的多条聊天信息。

本发明又一实施例公开了一种电子设备,在本实施例中,处理器还用于当接收到语音转换操作时,将所述语音转换操作对应的语音数据转换为文本数据。显示单元还用于在所述对话界面上展示包含所述表情符号的所述文本数据。

其中,所述文本数据中包含所述表情符号,所述表情符号在所述文本数据的插入位置与其在所述语音数据的插入位置对应。

也就是说,在将语音数据中插入表情符号后,若用户需要将该语音数据转换为文本数据,系统在转换的过程中,并不会去掉该表情符号,而是基于表情符号在语音数据的插入位置将其插入到对应的文本数据中。

由此可见,本实施例能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。

本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。

对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1