人机交互方法、装置和系统与流程

文档序号:29506876发布日期:2022-04-06 18:51阅读:142来源:国知局
人机交互方法、装置和系统与流程

1.本技术涉及人机交互技术领域,尤其涉及人机交互方法、装置和系统。


背景技术:

2.人机交互(human computer interaction,hci;或者,human machine interaction,hmi)是一门研究系统与用户之间的交互关系的学问。这里的系统可以是各种各样的机器,也可以是计算机化的系统和软件。在涉及触摸屏输入的人机交互中,可以通过触摸操作来实现输入。但由于成本和技术的原因,通过触摸操作来实现触摸屏上输入的方式,经常会出现手写连笔和笔迹难控制的情况,导致输入困难和输入效率低下。


技术实现要素:

3.本技术提供的人机交互方法、装置和系统,通过多模态(modality)人机交互的方式,有助于实现将一个或多个用户的语音内容输出并显示到触摸屏上对应的输出位置,提升触摸屏输入的效率和用户的体验。
4.为达上述目的,本技术提供如下技术方案:
5.第一方面,本技术提供了一种人机交互方法,该人机交互方法应用于人机交互系统。该方法包括:首先建立第一声纹与触摸屏上的第一输出位置的对应关系;然后在接收到第一语音、并判断该语音的声纹与上述第一声纹匹配时,识别该语音的内容,并将识别的内容输出并显示上述第一输出位置。
6.通过本技术的第一方面,可以实现将一个或多个用户输入的语音内容输出并显示到触摸屏上用户指示的输出位置上,避免多人同时通过语音输入时,将不同用户的语音内容混淆显示在触摸屏上的问题,因此可以提升触摸屏输入的效率和体验。
7.结合第一方面,在一种可能的实现中,上述建立第一声纹与触摸屏上的第一输出位置的对应关系的过程,可以为:接收触摸操作以及第二语音,并且在判断该触摸操作与预定的第一规则匹配、且该第二语音与预定的第二规则匹配时,根据所述触摸操作的位置确定触摸屏上的第一输出位置,并从上述第二语音中提取第一声纹;然后建立该第一声纹与上述第一输出位置的对应关系。
8.结合第一方面,在一种可能的实现方式中,上述根据所述触摸操作的位置确定第一输出位置的过程,可以为:根据所述触摸操作的位置中的触点位置集合确定所述第一输出位置的起始位置和范围。
9.可选地,上述第一输出位置所指示的形状可以为矩形,圆形或菱形等。当上述第一输出位置所指示的形状为矩形时,所述第一输出位置可以包括左上角的坐标、以及宽度和高度。或者,所述第一输出位置还可以包括其起始位置和结束位置,例如第一输出位置的左上角坐标和右下角坐标。
10.可选地,系统还可以输出并在触摸屏上显示该第一输出位置。例如以边框、或者其他可以与触摸屏当前背景相区分的形式显示所述第一输出位置。此外,当上述第一语音的
内容超过了第一输出位置所能输出的上限时,系统还可以在第一输出位置的水平或处置方向生成、并在触摸屏上显示该滚动条。这种实现方式下,可以保证用户输入的语音内容都被记录下来,并且便于用户随时翻看任何被记录的语音内容,因而可以进一步提升用户的体验。
11.结合第一方面,在一种可能的实现方式中,上述判断触摸操作与预定的第一规则匹配的过程,可以为:判断所述触摸操作的位置中的触点位置集合与预定的位置规则一致。或者,识别所述触摸操作的位置中的触点位置集合所构成的形状,判断所述形状与预定的形状匹配。
12.结合第一方面,在一种可能的实现方式中,上述判断第二语音与预定的第二规则匹配的过程,可以为:识别该第二语音的内容,并判断此内容与预定的内容匹配。
13.可选地,系统还可以解除所述第一声纹与所述第一输出位置的对应关系。这样,可以建立所述第一声纹与其他输出位置的对应关系,以便于第一声纹对应的用户可以切换到其他输出位置输入其语音内容。
14.可选地,系统还可以建立第二声纹与所述第一输出位置的对应关系。并且,在接收到第三语音,并且判断该语音的声纹与所述第二声纹匹配时,可以将该语音的内容输出到所述第一输出位置的空白处,或者覆盖上述第一语音的内容。这样,可以实现某个用户通过语音(上述第三语音)对其他用户的语音内容(上述第一语音)进行补充或修改的功能。因此,通过这种实现方式可以让多个用户相互协作通过语音在触摸屏上输入内容,因而可以提升触摸屏输入的效率和体验。此外,可选地,由于上述第三语音和第一语音是由不同的用户发发出的,因此,系统还可以在输出第三语音的内容时,选择不同于输出上述第一语音的内容时的输出格式,使得显示的效果更好。
15.可选地,当上述第二语音是由阵列麦克风采集时,还可以计算该第二语音的声源的位置,并在上述建立所述第一声纹与所述第一输出位置的对应关系之前,判断所述第二语音的声源位置与所述触摸操作的位置是否满足预设的条件。如果满足,才建立所述第一声纹与所述第一输出位置的对应关系;否则,则不建立所述对应关系。
16.可选地,系统还可以接收图像采集器采集的触摸屏前方的图像,并在上述建立所述第一声纹与所述第一输出位置的对应关系之前,实时分析和跟踪上述图像的内容,并根据图像分析和跟踪的结果判断执行所述触摸操作的用户与发出所述第二语音的用户是否为同一个用户。或者,通过联合声源定位和图像跟踪来判断执行触摸操作的用户与发出所述第二语音的用户是否为同一个用户。如果判断是同一个用户,才建立所述对应关系;否则,则不建立所述对应关系。
17.通过上述两种方式,当有多个用户同时启动语音输入时,可以避免将一个用户的声纹与另一个用户所指示的输出位置绑定起来,因而可以提升系统的鲁棒性。
18.第二方面,本技术提供了一种人机交互方法,该人机交互方法应用于计算机设备,该方法包括:首先建立第一声纹与第一输出位置的对应关系;然后在接收到第一语音、并判断该语音的声纹与上述第一声纹匹配时,识别该语音的内容,并将此内容输出到上述第一输出位置。
19.结合第二方面,在一种可能的实现中,上述建立第一声纹与第一输出位置的对应关系的过程,可以为:接收触点位置以及第二语音,并且在判断该触点位置与预定的第一规
则匹配、且该第二语音与预定的第二规则匹配时,根据所述触点位置确定第一输出位置,并从上述第二语音中提取第一声纹;然后建立该第一声纹与上述第一输出位置的对应关系。
20.结合第二方面,在一种可能的实现方式中,上述根据所述触点位置确定第一输出位置的过程,可以为:根据触点位置中的触点位置集合确定所述第一输出位置的起始位置和范围。
21.可选地,上述第一输出位置所指示的形状可以为矩形,圆形或菱形等。当上述第一输出位置所指示的形状为矩形时,所述第一输出位置可以包括左上角的坐标、以及宽度和高度。或者,所述第一输出位置还可以包括其起始位置和结束位置,例如第一输出位置的左上角坐标和右下角坐标。
22.可选地,所述计算机设备还可以输出该第一输出位置;例如以边框、或者其他可以与当前背景相区分的形式显示所述第一输出位置。
23.结合第二方面,在一种可能的实现方式中,上述判断触点位置与预定的第一规则匹配的过程,可以为:判断所述触点位置中的触点位置集合是否与预定的位置规则一致。或者,识别所述触点位置中的触点位置集合所构成的形状,判断所述形状是否与预定的形状匹配。
24.结合第二方面,在一种可能的实现方式中,上述判断第二语音与预定的第二规则匹配的过程,可以为:识别该第二语音的内容,并判断此内容是否与预定的内容匹配。
25.可选地,所述计算机设备还可以解除所述第一声纹与所述第一输出位置的对应关系。
26.可选地,所述计算机设备还可以建立第二声纹与所述第一输出位置的对应关系。并且,在接收到第三语音,并且第三语音的声纹与所述第二声纹匹配时,可以将该第三语音的内容输出到所述第一输出位置的空白处,或者覆盖上述第一语音的内容。
27.可选地,当上述第二语音是由阵列麦克风采集时,还可以计算该第二语音的声源的位置,并在上述建立所述第一声纹与所述第一输出位置的对应关系之前,判断所述第二语音的声源位置与所述触点位置是否满足预设的条件。
28.可选地,所述计算机设备还可以接收图像采集器采集的触摸屏前方的图像,并在上述建立所述第一声纹与所述第一输出位置的对应关系之前,实时分析和跟踪该上述图像的内容,并根据图像分析和跟踪的结果判断执行所述触摸操作的用户与发出所述第二语音的用户为同一个用户。或者,通过联合声源定位和图像跟踪来判断执行触摸操作的用户与发出所述第二语音的用户为同一个用户。
29.第二方面及其任一种可能的设计提供的技术方案的相关内容的解释和有益效果的描述均可以参考上述第一方面或其相应的可能的设计提供的技术方案,此处不再赘述。
30.第三方面,本技术提供一种人机交互系统,该人机交互系统可以用于执行上述第一方面或第二方面提供的任一种方法。该人机交互系统可以包括触摸屏和处理器。
31.触摸屏,用于接收触摸操作,并将所述触摸操作的位置发送给所述处理器。
32.处理器,执行上述第二方面提供的任一种人机交互方法。所述处理器的任一种可能实现的技术方案的相关内容的解释和有益效果的描述均可以参考上述第二方面或其相应的可能的设计提供的技术方案,此处不再赘述。
33.可选的,上述人机交互系统还可以包括语音采集器,用于采集第一语音,第二语音
以及第三语音,并将第一语音、第二语音以及第三语音发送给所述处理器。
34.可选地,上述人机交互系统还可以包括图像采集器,用于采集触摸屏前方附近的图像,并将其发送给所述处理器。第三方面中,处理器和触摸屏执行的可能的技术方案和有益效果的描述均可以参考上述第一方面或第二方面或其相应的可能的设计提供的技术方案,此处不再赘述。
35.第四方面,本技术提供了一种计算机设备,该计算机设备可以用于执行上述第二方面提供的任一种方法,该情况下,该计算机设备具体可以是处理器或包含处理器的设备。
36.在一种可能的设计中,可以根据上述第二方面提供的任一种方法,对该装置进行功能模块的划分。在这种实现方式下,该计算机设备包括语音处理单元以及综合处理单元。
37.语音处理单元用于接收第一语音,并在判断第一语音的声纹与第一声纹匹配时,识别该语音的内容。
38.综合处理单元用于建立所述第一声纹与第一输出位置的对应关系;还用于将上述第一语音的内容输出到所述第一输出位置上。
39.所述计算机设备还包括触点位置处理单元,用于接收触点位置,该触点位置由触摸操作产生;还用于在判断触点位置与预定的第一规则匹配时,根据所述触点位置确定第一输出位置。
40.所述语音处理单元还用于接收第二语音,并在判断该语音与预定的第二规则匹配时,从该语音中提取第一声纹。
41.在上述过程中,触点位置处理单元在根据触点位置确定第一输出位置时,具体用于:根据所述触点位置中的触点位置集合确定第一输出位置的起始位置和范围。可选地,综合处理单元还用于输出第一输出位置。
42.可选地,综合处理单元还用于解除上述第一声纹与第一输出位置的对应关系。
43.可选地,语音处理单元还用于接收第三语音,并在判断第三语音的声纹与第二声纹匹配时,识别第三语音的内容。综合处理单元还用于建立所述第二声纹与所述第一输出位置的对应关系;并用于将所述第三语音的内容输出到所述第一输出位置的空白处,或覆盖上述第一语音的内容。此时,因此,综合处理单元在输出第三语音时,还用于选择不同于输出上述第一语音的内容时的输出格式。
44.可选地,当语音处理单元接收的所述第二语音是由阵列麦克风采集的时,所述语音处理单元还用于计算第二语音的声源的位置。此时,综合处理单元还用于在上述建立第一声纹与第一输出位置的对应关系之前,判断第二语音的声源的位置与所述触点位置是否满足预设的条件。
45.可选地,上述计算机设备还可以包括图像处理单元,用于接收图像。图像处理单元还用于在综合处理单元建立上述第一声纹与第一输出位置的对应关系之前,实时分析和跟踪该图像,然后根据分析和跟踪的结果判断执行所述触摸操作的用户与发出所述第一语音的用户是否为同一个用户。
46.在另一种可能的设计中,该计算机设备包括:存储器和一个或多个处理器;存储器和处理器耦合。上述存储器用于存储计算机程序代码,该计算机程序代码包括计算机指令,当该计算机指令被计算机设备执行时,使得计算机设备执行如第二方面及其任一种可能的设计方式所述的人机交互方法。
47.第五方面,本技术提供一种计算机可读存储介质,该计算机可读存储介质包括计算机指令,当该计算机指令在人机交互系统上运行时,使得人机交互系统实现如第一方面或第二方面提供的任一种可能的设计方式所述的人机交互方法。
48.第六方面,本技术提供一种计算机程序产品,当该计算机程序产品在人机交互系统上运行时,使得人机交互系统实现如第一方面或第二方面提供的任一种可能的设计方式所述的人机交互方法。
49.本技术中第二方面到第六方面及其各种实现方式的具体描述,可以参考第一方面及其各种实现方式中的详细描述;并且,第二方面到第六方面及其各种实现方式的有益效果,可以参考第一方面及其各种实现方式中的有益效果分析,此处不再赘述。
50.在本技术中,上述人机交互系统的名字对设备或功能模块本身不构成限定,在实际实现中,这些设备或功能模块可以以其他名称出现。只要各个设备或功能模块的功能和本技术类似,属于本技术权利要求及其等同技术的范围之内。
51.本技术的这些方面或其他方面在以下的描述中会更加简明易懂。
附图说明
52.图1为本技术实施例提供的人机交互系统的一种硬件结构图。
53.图2为本技术实施例提供的人机交互系统的一种结构示意图一。
54.图3为本技术实施例提供的人机交互系统的一种结构示意图二。
55.图4为本技术实施例提供的人机交互方法的流程示意图。
56.图5a-图5c为本技术实施例提供的根据触摸操作确定输出位置的示意图。
57.图6a和图6b为本技术实施例提供的计算发出第一语音的用户的位置的方法示意图。
58.图6c为本技术实施例提供的判断语音和人脸特征的对应关系的方法示意图。
59.图7为本技术实施例提供的计算机设备的结构示意图。
60.图8为本技术实施例提供的计算机程序产品的结构示意图。
具体实施方式
61.在本技术实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本技术实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
62.在本技术的实施例中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本技术的描述中,除非另有说明,“多个”的含义是两个或两个以上。
63.本技术实施例提供一种人机交互方法、装置和系统,人机交互系统通过获取触摸操作和第一语音,当判断所述触摸操作符合预定的第一规则、以及所述第一语音符合预定的第二规则时,建立第一语音的声纹与输出位置的对应关系;其中,上述输出位置是指根据所述触摸操作确定的触摸屏上的输出位置;然后获取第二语音,并判断该第二语音的声纹
与第一语音的声纹是否匹配,如果匹配,则将第二语音对应的文本内容输出并显示到触摸屏上的所述输出位置。
64.可选地,在上述过程中,在建立上述第一语音的声纹与输出位置的对应关系之前,还可以进一步判断第一语音的声源的位置与触摸操作的位置是否满足预设的条件,如果判断为是,才建立上述对应关系。上述的判断是为了进一步确认上述执行触摸操作的用户和发出第一语音的用户是否为同一个用户,因而可以提升建立所述对应关系的准确性,最终可以提升系统的鲁棒性。
65.同样可选地,在建立上述第一语音的声纹与输出位置的对应关系之前,还可以利用摄像头采集触摸屏前方附近的图像,并根据对采集的图像实时分析和跟踪来判断执行触摸操作的用户和发出第一语音的用户是否为同一个用户,该过程同样可以提升建立所述对应关系的准确性,进而提升系统的鲁棒性。
66.通过本技术实施例,可以让一个或多个用户以语音的方式实现触摸屏的输入,提升了输入的效率;并且能够让各个用户输入的语音内容输出并显示到触摸屏上该用户指示的输出位置处,避免将不同用户的语音内容混淆显示在触摸屏上的问题,因此也可以提升输入的体验。
67.上述人机交互方法可以通过安装在设备上的应用程序实现,例如人机交互应用程序。
68.上述应用程序可以是安装在设备中的嵌入式应用程序(即设备的系统应用),也可以是可下载应用程序。其中,嵌入式应用程序是作为设备(如手机)实现的一部分提供的应用程序。可下载应用程序是一个可以提供自己的因特网协议多媒体子系统(internet protocol multimedia subsystem,ims)连接的应用程序,该可下载应用程序是可以预先安装在设备中的应用或可以由用户下载并安装在设备中的第三方应用。
69.图1,为本技术实施例提供的人机交互系统的硬件结构。如图1所示,人机交互系统10包括处理器11、存储器12、触摸屏13以及语音采集器14。可选地,人机交互系统10还可以包括图像采集器15。
70.处理器11是人机交互系统10的控制中心,可以是一个通用中央处理单元(central processing unit,cpu),也可以是其他通用处理器等,例如图形处理器(graphics processing unit,gpu)。其中,通用处理器可以是微处理器或者是任何常规的处理器等。作为一个示例,处理器11可以包括一个或多个cpu,例如图1中所示的cpu 0和cpu 1。可选地,处理器11还可以包括一个或多个gpu,例如图1所示的gpu0和gpu1。
71.存储器12,可以是只读存储器(read-only memory,rom)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,ram)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(electrically erasable programmable read-only memory,eeprom)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器12可以独立于处理器11,也可以通过总线与处理器11相连接,还可以和处理器11集成在一起。存储器12用于存储数据、指令或者程序代码。处理器11调用并执行存储器12中存储的指令或程序代码时,能够实现本技术实施例提供的人机交互方法。
72.触摸屏13,具体可以包括触控板131和显示屏132。
73.其中,触控板131可以采用电阻式、电容式、红外线以及表面声波等多种类型来实现触控板。触控板131用于采集用户在其上或附近的触摸事件(比如用户使用手指、触控笔等任何适合的物体在触控板上或在触控板附近的操作),并将采集到的触摸信息发送给其他器件(例如处理器11)。其中,用户在触控板附近的触摸事件可以称之为悬浮触控;悬浮触控可以是指,用户无需为了选择、移动或拖动目标(例如图标等)而直接接触触控板,而只需用户位于设备附近以便执行所想要的功能。
74.显示屏132可以采用液晶显示屏、有机发光二极管等形式来配置显示屏132。触控板131可以覆盖在显示屏132之上,当触控板131检测到在其上或附近的触摸事件后,传送给处理器11以确定触摸事件的类型,处理器11可以根据触摸事件的类型在显示屏132上提供相应的视觉输出。显示屏132用于显示由用户输入的信息或提供给用户的信息。
75.语音采集器14也称“话筒”,或“传声器”等,可以是单麦克风;或者可选地,也可以是麦克风阵列。语音采集器14用于接收语音信号,并将语音信号转换为电信号后发送给其他器件(例如处理器11)处理。当语音采集器14为麦克风阵列时,还用于定位声源的位置。
76.图像采集器15可以是ccd、cmos等成像设备,也称“摄像头”。图像采集器15用于采集图像,并将采集的图像数据发送给其他器件(例如处理器11)处理。
77.上述处理器11、存储器12、触摸屏13、语音采集器14以及图像采集器15可以集成在一个设备上,在这种实现下,人机交互系统10可以是电子白板、智能手机、带触摸屏的笔记本电脑、带触摸屏的计算机、平板、上网本、车载等终端设备。示例性的,如果是电子白板,参考图2所示,上述人机交互应用程序可以在电子白板20内运行。可选的,该人机交互系统10还可以包括触摸笔21,触摸笔21用于在电子白板20的触摸屏13上输入触摸操作。
78.此外,上述处理器11、存储器12、触摸屏13、语音采集器14以及图像采集器15也可以分别集成在不同的设备上,在这种实现下,上述人机交互系统10可以包括多个设备,以执行本技术实施例提供的人机交互方法。示例性的,如图3所示的人机交互系统10可以包括:电子白板20、计算机32和投影机33。可选的,人机交互系统10还可以包括触摸笔21,触摸笔21用于在电子白板20的触摸屏13上输入触摸操作。其中,处理器11可以是计算机32的处理器。存储器12可以是计算机32的存储器。这时,上述人机交互应用程序可以在计算机32内运行。另外,触摸屏13可以是电子白板20的触摸屏。语音采集器14可以集成在电子白板20中。或者,语音采集器14也可以集成在计算机32、投影机33或者触摸笔21中,本技术实施对此不作限定。图像采集器15可以集成在电子白板20中。
79.需要说明的是,如果上述语音采集器14是麦克风阵列时,其集成位置与触摸屏需要满足一定关系;具体地,其集成的位置与可以在触摸屏的上方或者下方、与触摸屏的水平方向平行,且其中点与触摸屏的水平方向的中点重合,例如可以将其集成在触摸屏的上边沿或下边沿上(如图2或图3所示的部署方式)。此外,则其部署的位置也可以在触摸屏的左边或者右边、与触摸屏的垂直方向平行,且其中点与触摸屏的垂直方向的中点重合。
80.图1中示出的结构并不构成对该人机交互系统10的限定,除图1所示部件之外,该人机交互系统10可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置;上述对人机交互系统10的描述也仅为示例性说明,并不构成对本实施例的限定。
81.下面结合附图对本技术实施例提供的人机交互方法进行描述。
82.请参考图4,图4示出了本技术实施例提供的人机交互方法的流程示意图,本实施例中以在会场中(该会议室里部署有电子白板),多个用户讨论时,有的用户想要以语音方式在电子白板上记录一些内容的场景为例,该人机交互方法包括以下但不限于以下步骤:
83.s402、触摸屏接收触摸操作,确定触摸操作的位置信息。
84.用户a通过手指或触摸笔在触摸屏上进行了触摸操作,则触摸屏会感应到该操作,并得到该触摸操作的位置信息。触摸操作的位置信息可以是用户a在执行触摸操作时手指或触摸笔在触摸屏上的触点的位置,例如,可以是用户a的触摸操作产生的触点在触摸屏中的坐标。
85.触摸操作的位置信息可以是单个触点在触摸屏的位置,例如,用户a用单个手指触摸屏幕所产生的触点位置;触摸操作的位置信息还可以是多个触点在触摸屏的位置,例如,用户a同时用左手和右手的食指触摸屏幕所产生的两个触点位置。
86.再例如,用户a用手指或触摸笔在触摸屏上画一条线,在该触摸操作过程中,触摸屏连续多次得到该触摸操作的位置信息。其中,每次得到的位置信息中包含单个触点位置,代表用户a在画一条线的滑动过程中,不同时刻所产生的触点位置。
87.s404、触摸屏向处理器发送触摸操作的位置信息。
88.具体的,触摸屏可以周期性或触发性或实时性地向处理器发送检测到的触摸操作所产生的触点位置。例如,触摸屏可以在每个周期向处理器发送一帧数据。该帧数据包括该周期内检测到的触点位置;可以理解的是,当在该周期内没有检测到触点时,发送的该帧数据中不会包含触点的位置。
89.由于触摸屏可能会按一定的时间周期向处理器发送检测周期内单个或者多个触点的位置;为了保持对触摸操作的响应灵敏度和实时性,上述时间周期通常会很短(例如ms级),因而,在用户a完成一个完整触摸操作的持续过程中,触摸屏通常会多次向处理器发送触摸操作的位置信息。
90.可选地,在有些实现下,触摸屏在向处理器发送触摸操作的位置信息时,还会携带所述位置信息中每个触点位置对应触摸状态信息,例如是“按下”、“抬起”或者“移动”等状态。
91.s406、处理器接收触摸操作的位置信息,并判断触摸操作与预定的第一规则是否匹配。
92.处理器实时接收触摸操作的位置信息。
93.处理器通常会在用户a完成一个完整触摸操作的过程中,多次收到触摸操作的位置信息。因此,处理器在接收到触摸操作的位置信息时,会先判断某个用户(此处以用户a为例)本次触摸操作是否完成。具体地,处理器可以通过踪触摸操作来判断触摸操作是否完成。例如,处理器在每次接收到触摸操作的位置信息时开始计时,如果在预定的时间间隔内,没有再次接收到触摸操作的位置信息,则判断当前的触摸操作操作完成;并从判断当前触摸操作结束的时刻起,将后续收到的触摸操作的位置信息作为下一个的触摸操作的位置信息。如果在预定的时间间隔内,再次接收到了触摸操作的位置信息,即认为当前触摸操作还未完成,并将该再次接收到的位置信息作为当前触摸操作的位置信息。然后从所述再次接收到了触摸操作的位置信息的时刻开始计时,按照上述的过程继续判断;直到在接收到某次触摸操作的位置信息后,在预定的时间间隔内没有再次接收到触摸操作的位置信息,
则认为触摸操作结束。其中,预定时间间隔根据经验值或者实际情况设置,本技术中不限定。处理器还可以根据上述触摸操作的位置信息中携带的触摸状态信息判断触摸操作是否结束。例如当触摸状态为“按下”或者“移动”时,则判断触摸操作未完成;当触摸状态为“抬起”时,则判断触摸操作已完成。
94.上述处理器判断触摸操作是否完成的方法只是示例性的方法。根据不同触摸屏厂家的驱动实现方式的不同,处理器判断触摸操作是否完成的方法也可能不同,本技术实施例对此不作限定。
95.当处理器判断本次触摸操作完成时,然后判断该触摸操作与预定的第一规则是否匹配。其中,第一规则是预先定义或者配置的关于触摸操作的任意规则,该规则用以判断用户a是否想启动语音输入。示例性地,预定的第一规则可以为“触摸屏上的任意一个点”;还可以为“触摸屏上的两个点,且两个点的连线与触摸屏的水平方向平行、两个点距离不低于预设的值m”;也可以为“一条触摸轨迹,且该触摸轨迹与触摸屏水平方向平行,且长度不低于预设的值”。处理器可以判断接收到的本次触摸操作所产生的一个或多个触点位置集合是否满足上述第一规则定义的条件,如果满足,则可认为该触摸操作与预定的第一规则匹配。
96.此外,预定的第一规则还可以是包含某种形状的图像,在这种实现方式下,处理器可以利用图像匹配的技术,将本次触摸操作过程中接收到的触摸操作的位置信息所构成的形状与预定的形状进行比对,如果比对的结果一致,则可以认为触摸操作与预定的第一规则匹配。
97.预定的第一规则的内容、以及判断触摸操作与预定的第一规则是否匹配的方式可以是除上述例子外的其他内容和方式,本技术不做限定。
98.在本步骤中,如果处理器判断触摸操作与预定的第一规则匹配,则初步判断用户a想要启动语音输入,继续执行本方法中的后续步骤;反之,如果处理器判断用户a的触摸操作与预定的第一规则不匹配,则认为用户a是其他的触摸操作,流程结束。
99.s408、处理器根据触摸操作的位置信息确定触摸屏上的输出位置。
100.如s406中描述,处理器在判断触摸操作符合预定的第一规则时,可以判断用户a想要启动语音输入,并且还可以从该触摸操作的位置信息中确定用户a指示的触摸屏上输出位置。其中,该输出位置用于指示语音内容输出在触摸屏上的起始位置和范围,即显示语音内容的输出框的位置和大小。下面以输出框的形状为矩形的情况为例,说明所述输出位置包含的内容和确定的方式。
101.在第一种实现方式下,所述输出位置包含输出框的起始位置、以及输出框的宽度和高度。如果以从左到右、从上到下的输出顺序为例,则上述输出框的起始位置可以是输出框左上角的坐标。上述输出位置的确定方式可以为:以触摸屏的左上角的点为原点,以原点为端点的一边为横轴,以原点为端点的另一边为纵轴。从接收到的触摸操作的位置信息所包含的触点集合中,选出最小水平坐标对应的触点或者最小垂直坐标对应的触点为第一触点,以及选出最大水平坐标对应的触点或者最大垂直坐标对应的触点为第二触点。例如图5a-图5b所示的触点集合中,处理器可以将触点a或b作为第一触点,将触点c或者d作为第二触点。然后将第一触点作为输出框的起始位置,并将第二触点与第一触点的水平坐标差作为输出框的宽度、将第二触点与第一触点的垂直坐标差作为输出框的高度。当以触点a为第
一触点、且触点c为第二触点时,输出框的起始位置、以及其宽度和高度如图5a所示。当以触点a为第一触点、且触点d为第二触点时,输出框的起始位置、以及其宽度和高度如图5b所示。当以触点b为第一触点,以触点c或d作为第二触点的情况同理可得。
102.上述输出位置的确定方式也可以为:以触摸屏的左上角的点为原点,从接收到的触摸操作的位置信息所包含的触点集合中,将最小的水平坐标和最小的垂直坐标构成的点(该点可能不是实际的触点)作为第一触点,将最大的水平坐标和最大的垂直坐标构成的点作为第二触点(该点也可能不是实际的触点)。然后用上述类似的方式,可确定输出框的起始位置、及其宽度和高度。例如在图5a-图5c所示的触点集合中,取触点a的水平坐标xa和触点b的垂直坐标yb构成的点(xa,yb)作为第一触点。取触点d的水平坐标xd和触点c的垂直坐标yc构成的点(xd,yc)作为第二触点。此时,输出框的起始位置、以及其宽度和高度如图5c所示。
103.在第二种实现方式下,所述输出位置包含输出框的起始位置,及结束位置。如果仍以从左到右、从上到下的输出顺序为例,则输出框的起始和结束位置分别为输出框左上角和右下角的坐标。类似上述第一种实现方式中的介绍,处理器可以从接收到的触摸操作的位置信息所包含的触点集合,确定输出框的左上角和右下角的坐标。例如,可以分别将第一种实现方式中确定的所述第一触点和第二触点的坐标分别作为输出框的左上角和右下角的坐标,即可确定该输出框的起始位置和结束位置。具体过程不再赘述。
104.可选地,系统可以定义输出框的高度为预设的值,在这种实现方式下,本步骤只需要确定输出框的起始位置,以及宽度。可替代地,系统也可以定义输出框的高度和宽度都为预设的值,在这种实现方式下,本步骤只需要确定输出框的起始位置。
105.上述输出位置包含的内容和确定方式仅为示例性的描述;在有些实现方式下,系统也可以定义上述显示语音内容的输出框的形状为除矩形之外的其他形状,如菱形、圆形等。相应地,输出位置中包含的内容以及确定方式可能是上述第一种和第二种实现方式之外的其他实现方式,本技术实施例对此不做限定。
106.可选的,处理器还可以根据确定出的输出位置(即输出框的位置和大小),调用渲染指令生成该输出位置,以便于在显示屏上可以显示该输出位置。例如,可以以边框的形式生成并输出上述输出位置,输出框的边框可以是如图5a-图5c所示的黑色虚线框,也可以是其他颜色的虚线框,还可以是黑色实线框或其他颜色的实线框。处理器可以通过改变输出位置背景颜色的方式、或者通过任意能够将输出位置与显示屏上当前显示的背景区分开的方式显示输出位置。本技术实施例对此不作限定。
107.s410-s412、语音采集器采集、并向处理器发送第一语音。
108.具体地,语音采集器实时采集第一语音信号,并将采集到的第一语音发送给处理器。
109.可以理解的是,由于语音采集器所采集的语音信号来自于会场中,因而,上述第一语音可以是由会场中的用户a发出的,也可以由会场中的其他用户发出的。
110.s414、处理器接收第一语音,并判断第一语音与预定的第二规则是否匹配。
111.在本实施例中,所述第二规则是用以判断发出第一语音的用户,例如用户a,是否想启动语音输入。
112.预定的第二规则,可以是特定内容的文本,如“启动语音输入”。
113.判断第一语音与预定的第二规则是否匹配的方法,可以是首先利用语音识别的技术将接收到的第一语音信号转换为文本,然后采用文本匹配的方法判断接收到的第一语音的内容是否与上述特定内容一致。如果一致,则判断为第一语音与预定的第二规则匹配;反之,则可以判断为不匹配。需要理解的是,处理器所采用文本匹配方式,可以不仅是字面上匹配,还可以是语义层面的匹配。例如,如果处理器接收的第一语音的内容为“开始语音输入”,处理器确定该语音的内容与上述特定内容“启动语音输入”在语义层面是匹配的,因而判断该第一语音与预定的第二规则匹配。
114.上述预定的第二规则的内容、以及判断第一语音与预定的第二规则是否匹配的方式可以是除上述例子外的其他内容和方式,本技术实施例不作限定。
115.在本步骤中,如果处理器判断第一语音与预定的第二规则匹配,并且结合在上述步骤s406中,处理器已经接收到符合第一规则的触摸操作,则认为该第一语音是由用户a发出的,即认为步骤s406中接收到的触摸操作和本步骤中接收到到的第一语音分别是由同一个用户执行和发出的,并确认用户a要启动语音输入,则继续执行本方法后续的步骤。如果处理器判断第一语音与预定的第二规则不匹配,则认为该第一语音不是由用户a发出的,即认为步骤s406中接收到的触摸操作和本步骤中接收到的第一语音并不是由同一个用户执行和发出的,例如可能是由会场中的其他用户随意发出的语音。此时处理器确认不是用户a想要启动语音输入,则不会执行后续的步骤。
116.s416、处理器建立第一语音的声纹与所述输出位置的对应关系。
117.具体地,处理器对第一语音信号进行去噪等处理,从处理后的信号中提取出第一语音的声纹特征,例如如声学或语言特征,并建立第一语音的声纹,即用户a的声纹特征,与s408中确定的所述输出位置,即用户a的触摸操作所指示的输出位置之间的对应关系。建立对应关系的具体过程可以包括:将用户a的声纹特征数据作为key、以s405中确定的触摸屏上的输出位置(假设该输出位置为(x1,y1,w1,h1))作为value,按照字典或哈希表的方式保存如表1所示的声纹库,以便于在后续步骤中可以通过用户a的声纹确定其对应的触摸屏的输出位置。
118.表1
119.用户声纹(key)输出位置(value)a声纹特征a(x1,y1,w1,h1)
120.s418-s420、语音采集器采集第二语音、并向处理器发送第二语音。
121.在会议进行的过程中,语音采集设备会采集到不同人的语音,因此,第二语音可能是由用户a发出的,也可能是由其他用户发出的。
122.s422、处理器接收第二语音,并判断第二语音的声纹与第一语音的声纹是否匹配。
123.如上所述,由于第二语音可能是由任意用户发出的,在某些场景下,对于用户a在输出语音到输出位置的过程中,并不希望被别的用户的语音所干扰。因此,处理器在接收到第二语音时,会判断第二语音是否是由用户a发出。
124.具体地,处理器可以对第二语音采取类似s414中对第一语音的处理方式,对第二语音进行去噪等处理后、再提取其声纹特征;然后采用声纹识别的技术判断第二语音的声纹与表1所示的声纹库中用户a的声纹是否匹配,从而可以判断第二语音是否是由用户a发出的。
125.如果本步骤的判断结果为是,说明是用户a的语音,则执行步骤s424。如果判断的结果为否,说明不是用户a的语音,则可以丢弃该语音信号,并且回到步骤s418,重新执行语音信号的采集和判断的过程。
126.s424-s426、处理器识别第二语音的内容,并将该内容输出并显示到触摸屏上所述输出位置上。
127.处理器可以采用语音识别的技术将第二语音信号转换为文本内容,然后将该文本内容输出、显示到触摸屏上所述输出位置上;其中,所述输出位置是指s416中建立的与第一语音的声纹相对应的输出位置。
128.处理器输出第二语音内容的过程可以为:根据输出位置信息和文本内容,调用渲染指令生成包含所述第二语音内容的文本窗口,再根据所述输出位置信息将生成的所述文本窗口与其它的窗口(例如系统背景窗)融合生成像素阵列,然后将该像素阵列输出到预定的存储区(例如系统的帧缓冲区)。这样,在系统发出显示信号(例如垂直同步信号)时,所述预定存储区的内容就可以显示在触摸屏上了。上述处理器输出第二语音内容的方式仅为示例性描述。根据处理器所运行的操作系统的实际显示机制的不同,处理器输出所述第二语音内容的方式也可能不同,本技术实施例对此不作限定。
129.在执行完本步骤之后,本技术实施例还可以继续采集第三语音,并且对第三语音采取与第二语音一致的处理和判断过程;这样,在用户a成功启动了语音输入功能后,可以持续地通过语音输入向用户a指示的输出框(通过上述触摸操作所指示的输出位置信息)中输出内容。
130.可以理解的是,如果用户a通过实际输入的语音内容超过了输出位置信息所指示的输出框的范围,则可以根据情况生成输出框的水平或垂直方向的滚动条,以保证用户a输入的语音内容都被记录下来,并且可以通过滚动条展示记录的所有内容。在这种情况下,处理器可以在所述输出位置默认输出最近输入的内容。当检测到用户在操作所述滚动条时,根据操作的滚动条的位置,输出相应部分的语音文本内容,以便于用户可以翻看自己想看的内容。
131.此外,实际应用中,语音采集器可以采用阵列麦克风。由于阵列麦克风可以定位声源位置,在另外一种实现中,在上述的步骤s414和s416之间,还可以包括下述步骤415。
132.s415、处理器判断第一语音的声源的位置与触摸操作的位置信息是否满足预设的条件。
133.执行触摸操作的用户的位置通常在触摸操作的位置附近,因而处理器可以通过判断第一语音所属的声源的位置与触摸操作的位置信息是否满足预设的条件,来验证发出第一语音的是否为用户a(即进一步验证步骤s406中接收的执行触摸操作的用户和步骤s414中接收的发出第一语音的用户是否为同一个用户)。
134.具体地,处理器接收阵列麦克风采集的第一语音,根据第一语音计算第一语音所属的声源位置,得到声源相对于阵列麦克风的位置。如上述在人机交互系统(参考图2或图3)的介绍中所描述,通常阵列麦克风集成在触摸屏的上边沿或下边沿上(即阵列麦克风的集成位置满足与触摸屏的水平方向平行,且其中点与触摸屏的水平方向的中点重合),因此,也可以将所述声源相对于阵列麦克风的位置作为所述声源相对于触摸屏的位置;该位置包括声源相对于触摸屏的垂直距离,以及相对于触摸屏水平方向的中点的水平距离。
135.假设采集第一语音的阵列麦克风为包含n个麦克风(mc1~mcn)的阵列麦克风,利用该阵列麦克风计算声源的位置的过程如下:
136.参考图6a,将mc1和mc2作为麦克风阵列的左端的子麦克阵列,c1是该左端的子麦克阵列的中点;同理,将mc3和mc4作为右端的子麦克阵列,c2是该右端的子麦克阵列的中点。
137.首先利用声源到达mc1和mc2的时间差(即mc1和mc2采集语音信号的时间差)及mc1与mc2之间的距离,计算出声源和c1的连线与阵列麦克风的夹角为α1;同理可以计算出声源和c2的连线与阵列麦克风的夹角为α2。
138.进一步地,参考图6b,由于c1和c2之间的距离是已知的,因而可以根据三角函数关系计算出声源相对于阵列麦克风的垂直距离(即相对于触摸屏的垂直距离)h,以及相对于阵列麦克风的中点的水平距离(即相对于触摸屏的水平方向的中点的水平距离)w。
139.可以理解的是,触摸操作的位置相对于触摸屏的垂直距离为0,相对于触摸屏水平方向的中点的水平距离可以根据触摸操作的位置信息中的水平坐标获得;因此,可以以触摸屏作为参考,得到声源与触摸操作的位置的垂直距离(即声源相对于触摸屏的垂直距离),以及声源与触摸操作的位置的水平距离。进而判断如果声源与触摸操作的位置的垂直距离不超过预定的范围(例如,基于经验值设定为0.5m),且声源与触摸操作的位置的水平距离也不超过预定的范围(例如,基于经验值设定为0.5m),则认为发出第一语音的是用户a(即本步骤判断的结果为是时,认为执行触摸操作的用户和发出第一语音的用户为同一个用户);否则,则认为发出第一语音的不是用户a(即本步骤判断的结果为否时,认为执行触摸操作的用户和发出第一语音的用户不是同一个用户)。
140.可选地,上述判断执行触摸操作的用户和发出第一语音的用户不是同一个用户的方式还可以通过对触摸屏前的图像的采集和跟踪来实现。假设在本技术实施例中,摄像头部署在触摸屏上,例如位于触摸屏上边沿的中心(例如图2或图3所示的位置),可以采集到触摸屏前方附近的图像并实时发送给处理器;处理器对摄像头采集发送的图像实时分析和跟踪,例如对图像中的人的肢体动作和唇动信息进行分析和跟踪,从而判断执行触摸操作的用户与发出第一语音的用户是否为同一个用户。
141.此外,还可以通过联合第一语音的声源的位置计算和图像跟踪,来判断执行触摸操作的用户与发出第一语音的用户是否为同一个用户。在这种情况下,假设摄像头部署在阵列麦克风的中点上,如图6c所示。此时,处理器可以通过机器学习算法识别执行触摸操作的用户的人脸特征,例如用户a的人脸特征face-a,并将所述face-a与用户a的触摸操作指示的位置,例如(x1,y1,w1,h1)绑定。然后计算用户a的人脸特征即face-a相对于摄像头的夹角a1-a。通过上述声源位置计算可以得到第一语音的声源相对于阵列麦克风中点(即摄像头)的夹角a2-a。然后,通过比较上述a1-a和a2-a,如果二者相差在预定的范围内,则认为第一语音与face-a是属于同一个用户的特征,因此可以判断执行上述触摸操作的用户与发出第一语音的用户是为同一个用户,因而可以将第一语音的声纹与(x1,y1,w1,h1)对应起来。
142.当会场上有另一个用户与用户a同时启动语音输入时,通过上述方法,可以避免将用户a的声纹与所述另一个用户所指示的输出位置建立对应关系,因而可以提升系统的鲁棒性。
143.还需要说明的是,上述步骤s402-s406中对用户a触摸操作的检测和判断,以及步骤s410-s414中对用户a的语音信号的采集和判断,是判断用户a是否要启动语音输入的两个条件,两个条件的判断没有先后顺序,即步骤s402-s406与步骤s410-s414的执行没有现有顺序,可以先执行触摸操作的检测和判断,也可以先执行语音信号的采集和判断。
144.上述描述可知,本技术实施例中,终端设备根据用户a的触摸操作和语音输入判断用户a想要启动语音输入时,并将用户a的声纹与用户a指示的文本输出位置对应起来。这样,当会场中有多个人发言时(包括用户a),可以通过声纹匹配,实现只将用户a的语音内容、而不是会场中其他用户的语音内容显示到上述用户a指示的文本输出位置上(而不是触摸屏上的其他位置上)。
145.实际应用中,可能存在如果用户a在指定的输出位置上启动了语音输入后,想要更换语音输入的输出位置的场景,例如如果用户a想要将输出位置从(x1,y1,w1,h1)更换到(x3,y3,w3,h3)时,本技术可通过类似的过程完成用户a的声纹与(x3,y3,w3,h3)的绑定,从而实现将用户a的语音内容输出到(x3,y3,w3,h3)指示的输出框内。在这种场景下,系统保存的声纹库会从上述表1示意的内容更新到如下所示的表2所示意的内容。具体地,系统可通过如下两种可能的方式来实现该场景:
146.第一种可能的实现方式可以为:用户a可以通过发出符合第三规则的语音(例如该语音内容与“关闭语音输入”匹配)来指示系统解除用户a的声纹与输出位置(x1,y1,w1,h1)的对应关系。具体地,当处理器检测符合第三规则的语音时,提取该语音的声纹,并将该声纹与系统保存的声纹库中声纹逐一比对,然后将能与该声纹匹配上的声纹和其对应的输出位置从所述声纹库中删除。然后,用户a再通过上述类似的过程(执行符合第一规则的触摸操作和发出符合第二规则的语音)来指示系统再次启动语音输入,建立其声纹新指定的输出位置(x3,y3,w3,h3)的对应关系。
147.第二种可能的实现方式可以为:用户a直接通过上述类似的过程来指示系统重新启动语音输入,建立其声纹与新指定的输出位置(x3,y3,w3,h3)的对应关系。在这种实现方式下,当处理器接收到符合第二规则的语音时,判断该语音的声纹已经在系统保存的声纹表中存在,则直接更新该声纹对应的输出位置,从而将用户a的声纹对应的输出位置更新为(x3,y3,w3,h3)。
148.表2
149.用户声纹(key)输出位置(value)a声纹特征a(x3,y3,w3,h3)
150.可以理解的是,如上所述,会场上通常会有多人讨论,因此,不仅用户a在触摸屏上操作,在用户a启动和执行语音输入的过程中,其他用户,比如用户b也可以在同一触摸屏上操作。基于同样的实现,本技术也可以实现同时将用户b的语音输出显示到触摸屏上用户b所指示的输出位置上。具体地,处理器在会在上述表2的基础上,增加保存用户b的声纹与用户b指示的输出位置的对应关系。此时,系统保存的声纹库为如表3所示的内容。
151.表3
152.用户声纹(key)输出位置(value)a声纹特征a(x3,y3,w3,h3)b声纹特征b(x2,y2,w2,h2)
153.需要说明的是,当用户a和用户b同时启动语音输入时,需要采用上述步骤s415来进一步验证执行触摸操作的用户与发出语音的用户是否为同一个用户,从而可以避免将用户a的声纹与用户b所指示的输出位置建立对应关系,因而可以提升系统的鲁棒性。在这种情况下,则在s422中,处理器可以将第二语音的声纹与表3所示意的声纹库中的声纹逐一比对。如果能与其中一个声纹匹配上,则认为s422的判断结果为是。反之,如果第二语音不能与系统保存的声纹库中的声纹中的任何一个匹配上,则认为s422的判断结果为否,则不输出第二语音。
154.因此,本技术实施例通过声纹匹配识别第二语音对应的用户身份,可以避免在多人同时通过语音输入时,因无法区分发出语音的用户的身份而将不同用户的语音内容混淆显示在触摸屏上的问题。
155.此外,实际应用中,用户a已经解除了跟特定输出位置的绑定关系,而用户c可能想要对用户a历史指定的输出位置上的内容,例如输出位置(x1,y1,w1,h1)中的内容,进行修改或补充。此时,系统基于同样的实现建立用户c的声纹与输出位置(x1,y1,w1,h1)的对应关系,并将用户c的语音内容追加输出在输出框(x1,y1,w1,h1)已有的内容之后。或者系统基于同样的实现建立用户c的声纹与输出位置(x1’,y1’,w1’,h1’)的对应关系,并将用户c的语音内容输出在输出框(x1’,y1’,w1’,h1’)内;其中,(x1’,y1’,w1’,h1’)是叠加在(x1,y1,w1,h1)之上的输出框。因此,在第一种可能的场景下,系统保存的声纹库的内容可以如表4a-1或表4a-2所示。
156.表4a-1
157.用户声纹(key)输出位置(value)a声纹特征a(x3,y3,w3,h3)b声纹特征b(x2,y2,w2,h2)c声纹特征c(x1,y1,w1,h1)
158.表4a-2
159.用户声纹(key)输出位置(value)a声纹特征a(x3,y3,w3,h3)b声纹特征b(x2,y2,w2,h2)c声纹特征c(x1’,y1’,w1’,h1’)
160.此外,可能还存在用户c对用户a当前输出位置上,例如对(x3,y3,w3,h3)的内容进行修改或补充的场景。同理,系统可以建立用户c与输出位置(x3,y3,w3,h3)的对应关系,由于用户a和用户c的声纹与同一个输出位置对应,因此用户a和用户c可以同时在(x3,y3,w3,h3)中输入语音内容,此时,系统可以按照用户a和用户c的语音的采集时间的先后关系,依次输出到(x3,y3,w3,h3)上。此外,系统还可以通过建立用户c与叠加在(x3,y3,w3,h3)之上的输出位置(x3’,y3’,w3’,h3’)的对应关系来实现用户c对用户a输入的内容进行补充或修改的场景。该过程类似上述在第一种可能的场景中的实现描述,因此不再赘述。因此,在第二种可能的场景下,系统保存的声纹库的内容可以如表4b-1或表4b-2所示。
161.表4b-1
[0162][0163][0164]
表4b-2
[0165]
用户声纹(key)输出位置(value)a声纹特征a(x3,y3,w3,h3)b声纹特征b(x2,y2,w2,h2)c声纹特征c(x3’,y3’,w3’,h3’)
[0166]
可选地,在上述两种可能的场景中,系统可以区分显示用户a和用户c输入的语音内容。具体地,可以将用户c补充追加的内容或者叠加输出的内容以不同于用户a的语音内容的格式显示在触摸屏上,例如采用与显示用户a的语音文本时不同的颜色、字体或者其他格式等显示用户c的语音内容,本技术对系统采用不同的格式显示不同用户的语音内容的方式不作限定。
[0167]
可见,本技术实施例,还可以让多个用户以互相协作的方式实现通过语音在触摸屏上输入内容,提升了输入的效率和体验。
[0168]
上述描述的会场中的各种实施场景并不构成本本技术实施例的限定,可以理解的是,本技术实施例还可以应用在其他的通过语音实现触摸屏输入的场景,例如在教育场景中,老师、学生之间以语音的方式在交互式电子黑板上独立或者协作输入内容,或者在家庭场景中,例如家庭成员之间以语音的方式在平板、具有触摸功能的电脑显示屏或者电子白板上独立或者协作输入内容等。
[0169]
本技术实施例可以根据上述方法示例对人机交互系统进行划分。参考图1,图1示出的人机交互系统可以用于执行人机交互方法,例如用于执行图4所示的方法。所述的人机交互系统包括:触摸屏13和处理器11,存储器12。其中,
[0170]
触摸屏13,用于接收触摸操作,并将该触摸操作的位置信息发送给处理器11。
[0171]
处理器11,用于建立第一声纹与触摸屏13上的第一输出位置的对应关系。
[0172]
处理器11,还用于接收第一语音、并在判断该语音的声纹与所述第一声纹匹配时,识别该语音的内容,并将该语音的内容输出并显示到所述第一输出位置处。
[0173]
存储器12用于存储数据、指令或者程序代码。处理器11调用并执行存储器12中存储的指令或程序代码时,能够实现本技术实施例提供的人机交互方法。
[0174]
在上述过程中,处理器11在上述建立第一声纹与触摸屏13上的第一输出位置的对应关系时,具体用于:接收触摸操作的位置信息,以及接收第二语音;并在判断所述触摸操作与预定的第一规则匹配、且所述第二语音与预定的第二规则匹配时,根据所述触摸操作的位置确定触摸屏13上的第一输出位置,并从所述第二语音中提取第一声纹,然后建立所述第一声纹与触摸屏13上的第一输出位置的对应关系。例如,结合图4,触摸屏13可以用于执行s402和s404,处理器11可以用于执行s406、s408,s414,s416,s422,s424以及s426。在上述过程中,处理器11在根据所述触摸操作的位置确定触摸屏13上的第一输出位置时,具体
用于:根据所述触摸操作的位置中的触点位置集合确定触摸屏13上的第一输出位置的起始位置和范围。可选地,处理器11还用于输出并在触摸屏13上显示所述第一输出位置。
[0175]
可选地,处理器11还用于解除第一声纹与触摸屏13上的第一输出位置的对应关系。
[0176]
可选地,处理器11还用于建立第二声纹与触摸屏13上的第一输出位置的对应关系。此时,处理器11在接收到第三语音、并判断所述第三语音的声纹与所述第二声纹匹配时,识别所述第三语音的内容,并将该内容输出并显示到所述触摸屏13的所述第一输出位置的空白处或者覆盖上述第一语音的内容。可选地,在这种情况下,由于处理器11还用于在输出第三语音的内容时,选择不同于输出上述第一语音的内容时的输出格式。
[0177]
可选地,当处理器11接收的所述第二语音是由阵列麦克风采集时,还用于计算第二语音的声源的位置,并在上述建立所述第一声纹与所述第一输出位置的对应关系之前,还用于判断所述第二语音的声源位置与所述触摸操作的位置是否满足预设的条件。例如,结合图4,处理器11可以用于执行s415。
[0178]
可选地,处理器11还用于接收触摸屏13前方附近的图像,并在上述判断所述触摸操作与预定的第一规则匹配、且所述第一语音与预定的第二规则匹配之后,还用于实时分析和跟踪该图像,并根据图像分析和跟踪的结果判断执行所述触摸操作的用户与发出所述第一语音的用户是否为同一个用户。
[0179]
可选的,触摸屏13,还用于根据处理器11的指令显示文本内容、输出位置或者滚动条。
[0180]
可选的,语音采集器14可以用于采集语音,并将所采集的语音发送给处理器11。例如结合图4,语音采集器14可以用于执行s410,s412,s418以及s420。
[0181]
可选地,图像采集器15可以用于采集触摸屏13前方附近的图像,并将该图像实时发送给处理器11。
[0182]
关于上述可选方式的具体描述参见前述的方法实施例,此处不再赘述。此外,上述提供的任一种人机交互系统的解释以及有益效果的描述均可参考上述对应的方法实施例,不再赘述。
[0183]
另外,本技术实施例可以根据上述方法示例对上述处理器,或者包含处理器的计算机设备进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本技术实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
[0184]
如图7所示,为本技术实施例提供的一种处理器或计算机设备的结构示意图。处理器或计算机设备用于执行上述人机交互方法,例如用于执行图4所示的方法。其中,处理器或计算机设备可以包括语音处理单元702以及综合处理单元704。
[0185]
语音处理单元702用于接收第一语音,并在判断第一语音的声纹与第一声纹匹配时,识别第二语音的内容。
[0186]
综合处理单元704建立所述第一声纹与第一输出位置的对应关系;还用于将所述第一语音的内容输出到所述第一输出位置。
[0187]
上述处理器或计算设备还包括触点位置处理单元701,用于接收触点位置,该触点
位置由触摸操作产生。触点位置处理单元701还用于在判断触点位置与预定的第一规则匹配时,根据所述触点位置确定第一输出位置。
[0188]
语音处理单元702还用于接收第二语音,并在判断第二语音与预定的第二规则匹配时,从第一语音中提取第一声纹。
[0189]
结合图4,触点位置处理单元701可以用于执行s406和s408,语音处理单元702可以用于执行s414、s422和s424,综合处理单元704可以用于执行s416和s426。
[0190]
在上述过程中,触点位置处理单元701在根据触点位置确定第一输出位置时,具体用于:根据所述触点位置中的触点位置集合确定第一输出位置的起始位置和范围。可选地,综合处理单元705还用于输出所述第一输出位置。
[0191]
可选地,综合处理单元704还用于解除第一声纹与第一输出位置的对应关系。
[0192]
可选地,所述语音处理单元702还用于接收第三语音,在判断所述第三语音的声纹与第二声纹匹配时,识别所述第三语音的内容。综合处理单元704还用于建立所述第二声纹与第一输出位置的对应关系,并将所述第三语音的内容输出到所述第一输出位置,例如输出到所述第一输出位置的空白处或者覆盖上述第一语音的内容。
[0193]
可选地,当语音处理单元702接收的所述第二语音是由阵列麦克风采集的时,还用于计算第二语音的声源的位置。此时,综合处理单元704还用于在上述建立第一声纹的标识与第一输出位置的对应关系之前,判断第二语音的声源的位置与所述触点位置是否满足预设的条件。例如结合图4,综合处理单元704可以用于执行s415。
[0194]
可选地,本处理器或计算机设备还可以包括图像处理单元703,用于接收图像,并在所述综合处理单元704建立第一声纹的标识与第一输出位置的对应关系之前,实时分析和跟踪该图像,然后根据分析和跟踪的结果判断执行所述触摸操作的用户与发出所述第一语音的用户是否为同一个用户。
[0195]
上述主要从方法的角度对本技术实施例提供的方案进行了介绍。为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本技术能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。
[0196]
作为一个示例,结合图1,计算机设备中的触点位置处理单元701、语音处理单元7022、综合处理单元704以及图像处理单元703实现的功能与图1中的处理器11的功能相同。
[0197]
关于上述可选方式的具体描述参见前述的方法实施例,此处不再赘述。此外,上述提供的任一种处理器或计算机设备的解释以及有益效果的描述均可参考上述对应的方法实施例,不再赘述。
[0198]
本技术另一实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当指令在人机交互系统或者计算机设备上运行时,该人机交互系统或者计算机设备执行上述方法实施例所示的方法流程中人机交互系统或者计算机设备执行的各个步骤。
[0199]
在一些实施例中,所公开的方法可以实施为以机器可读格式被编码在计算机可读存储介质上的或者被编码在其它非瞬时性介质或者制品上的计算机程序指令。
[0200]
图8示意性地示出本技术实施例提供的计算机程序产品的概念性局部视图,所述计算机程序产品包括用于在计算设备上执行计算机进程的计算机程序。
[0201]
在一个实施例中,计算机程序产品是使用信号承载介质90来提供的。所述信号承载介质90可以包括一个或多个程序指令,其当被一个或多个处理器运行时可以提供以上针对图4描述的功能或者部分功能。因此,例如,参考图4中s402~s426的一个或多个特征可以由与信号承载介质90相关联的一个或多个指令来承担。此外,图8中的程序指令也描述示例指令。
[0202]
在一些示例中,信号承载介质90可以包含计算机可读介质91,诸如但不限于,硬盘驱动器、紧密盘(cd)、数字视频光盘(dvd)、数字磁带、存储器、只读存储记忆体(read-only memory,rom)或随机存储记忆体(random access memory,ram)等等。
[0203]
在一些实施方式中,信号承载介质90可以包含计算机可记录介质92,诸如但不限于,存储器、读/写(r/w)cd、r/w dvd、等等。
[0204]
在一些实施方式中,信号承载介质90可以包含通信介质93,诸如但不限于,数字和/或模拟通信介质(例如,光纤电缆、波导、有线通信链路、无线通信链路、等等)。
[0205]
信号承载介质90可以由无线形式的通信介质93(例如,遵守ieee 802.11标准或者其它传输协议的无线通信介质)来传达。一个或多个程序指令可以是,例如,计算机可执行指令或者逻辑实施指令。
[0206]
在一些示例中,诸如针对图4描述的人机交互系统好或者计算机设备可以被配置为,响应于通过计算机可读介质91、计算机可记录介质92、和/或通信介质93中的一个或多个程序指令,提供各种操作、功能、或者动作。
[0207]
应该理解,这里描述的布置仅仅是用于示例的目的。因而,本领域技术人员将理解,其它布置和其它元素(例如,机器、接口、功能、顺序、和功能组等等)能够被取而代之地使用,并且一些元素可以根据所期望的结果而一并省略。另外,所描述的元素中的许多是可以被实现为离散的或者分布式的组件的、或者以任何适当的组合和位置来结合其它组件实施的功能实体。
[0208]
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件程序实现时,可以全部或部分地以计算机程序产品的形式来实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机执行指令时,全部或部分地产生按照本技术实施例的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令可以从一个网站站点、计算机、服务器或者数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,dsl))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可以用介质集成的服务器、数据中心等数据存储设备。可用介质可以是磁性介质(例如,软盘、硬盘、磁带),光介质(例如,dvd)、或者半导体介质(例如固态硬盘(solid state disk,ssd))等。
[0209]
以上所述,仅为本技术的具体实施方式。熟悉本技术领域的技术人员根据本技术提供的具体实施方式,可想到变化或替换,都应涵盖在本技术的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1