一种智能穿戴设备、交互控制方法及装置与流程

文档序号:28266855发布日期:2021-12-31 18:42阅读:97来源:国知局
一种智能穿戴设备、交互控制方法及装置与流程

1.本技术涉及智能电子设备,更具体的说,是涉及一种智能穿戴设备、交互控制方法及装置。


背景技术:

2.目前智能眼镜比较广泛的三种交互方式包括语音控制、手势识别和眼动跟踪。但当前存在的这些控制方式各自都存在一定的缺点。例如语音控制的准确度受限于说话方式和环境噪音;手势识别存在精度低、背景干扰难处理等问题;眼动跟踪会受到眼睛本身固有的眨动以及抖动干扰而出现误判的情况。


技术实现要素:

3.有鉴于此,本技术提供如下技术方案:
4.一种智能穿戴设备,包括:
5.设置于面部支撑装置上的传感器,所述传感器用于检测佩戴所述智能穿戴设备的第一对象面部的第一动作,并在检测到所述第一动作时生成相应的控制指令。
6.可选的,所述传感器具体用于检测佩戴所述智能穿戴设备的第一对象面部中特定位置的压力,并在检测到的压力满足第一条件时生成相应的控制指令。
7.可选的,所述面部支撑装置具有两个,两个所述面部支撑装置上分别设置有一个所述传感器。
8.一种交互控制方法,应用于上述任意一种智能穿戴设备,方法包括:
9.获得第一行为数据,所述第一行为数据由第一传感器在用户执行第一动作时检测确定,所述第一动作的检测不受环境条件影响;
10.基于所述第一行为数据生成第一指令。
11.可选的,所述第一传感器设置于第一面部支撑装置上,还包括:
12.获得第二行为数据,所述第二行为数据由设置于第二面部支撑装置上的第二传感器在用户执行所述第一动作时检测确定;
13.基于所述第二行为数据生成不同于所述第一指令的第二指令。
14.可选的,还包括:
15.获得第三行为数据,所述第三行为数据包括所述第一行为数据和所述第二行为数据,所述第三行为数据由所述第一传感器和所述第二传感器同时检测到所述第一动作时检测确定;
16.基于所述第三行为数据生成不同于所述第一指令和所述第二指令的第三指令。
17.可选的,在所述基于所述第一行为数据生成第一指令后,或所述基于所述第二行为数据生成不同于所述第一指令的第二指令后,还包括:
18.响应于所述第一指令或所述第二指令,在显示区域显示输出第一内容,所述第一内容中包括可触发的虚拟按钮。
19.可选的,所述第一行为数据为改变所述显示区域上显示内容中可触发的虚拟按钮的选择状态的行为数据,或,所述第一行为数据为调出第一应用显示界面的行为数据。
20.可选的,所述第三行为数据为控制触发所述第一内容中处于选择状态的虚拟按钮的行为数据。
21.一种交互控制装置,应用于上述任意一种智能穿戴设备,装置包括:
22.行为获得模块,用于获得第一行为数据,所述第一行为数据由第一传感器在用户执行第一动作时检测确定,所述第一动作的检测不受环境条件影响;
23.指令生成模块,用于基于所述第一行为数据生成第一指令。
24.经由上述的技术方案可知,本技术实施例公开了一种智能穿戴设备、交互控制方法及装置,所述智能穿戴设备包含设置于面部支撑装置上的传感器,该传感器可以检测用户面部的第一动作,并且在检测到第一动作时生成相应的控制指令。该实现方案中,用于检测用户第一动作的传感器设置于面部支撑装置上,因此会与用户面部紧密贴合,从而保证能够精准的检测用户的面部动作,且该检测过程不会收到环境条件影响,因此能够进一步保障检测结果的准确性,进而提升相应控制指令的准确度。
附图说明
25.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
26.图1为本技术实施例公开的一种智能穿戴设备的结构示例图;
27.图2为本技术实施例公开的智能眼镜的显示区域示意图;
28.图3为本技术实施例公开的一种交互控制方法的流程图;
29.图4为本技术实施例公开的显示区域中第一按钮选择状态改变的示意图;
30.图5为本技术实施例公开的通过第一动作改变光标位置的示意图;
31.图6为本技术实施例公开的一种交互控制装置的结构示意图。
具体实施方式
32.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
33.图1为本技术实施例公开的一种智能穿戴设备的结构示例图,图1中,以智能眼镜为例进行展示,结合图1所示,智能穿戴设备可以但不限于包括:设置于面部支撑装置上的传感器,所述传感器用于检测佩戴所述智能穿戴设备的第一对象面部的第一动作,并在检测到所述第一动作时生成相应的控制指令。
34.具体的,其中的面部支撑装置可以是鼻托,图1中鼻托位置处的黑色结构即为所述传感器。所述传感器可以设置在鼻托与第一对象面部的接触面上的部分或全部区域,由此,传感器可以和第一对象面部紧密贴合,实现对第一对象面部动作的精准检测。
35.所述传感器需要与智能穿戴设备的处理单元实现通信,以将检测结果传送给处理单元,使得处理单元基于检测结果控制进行对应的响应操作,实现第一对象与所述智能穿戴设备的交互。具体的,传感器与处理单元的通信可以通过实体线路来实现,例如,传感器与处理单元的连接线路可以内嵌在鼻托结构、智能眼镜镜框、智能眼镜镜腿中的至少一个结构中,或者也可以紧密贴合的固定设置在前述各结构的外部,使得从外观上并不能看出连接线路的存在,从而不影响智能眼镜的美观性且不会对第一对象佩戴所述智能眼镜的舒适性产生影响。
36.当然,其他实现中,传感器与处理单元也可以通过无线连接方式实现通信。例如,传感器侧设置有信号产生装置,该信号产生装置只有在检测到第一动作时才会产生并发送信号,对应的处理单元测设置有信号感应装置,当传感器侧的发出信号时,能够被处理单元侧的信号感应装置感应接收到,从而实现通信。或者,由于智能眼镜体积较小,传感器和处理单元距离较近,两者之间的通信可以通过当前已经存在的或未来可能出现的无线网络技术来实现。
37.所述智能穿戴设备中用于检测用户第一动作的传感器设置于面部支撑装置上,因此会与用户面部紧密贴合,从而保证能够精准的检测用户的面部动作,且该检测过程不受限于环境条件,如光亮、噪音、环境物体等,因此能够进一步保障检测结果的准确性。
38.一个实现中,所述传感器可以是微压传感器,其具体用于检测佩戴所述智能穿戴设备的第一对象面部中特定位置的压力,并在检测到的压力满足第一条件时生成相应的控制指令。前文已经介绍到,面部支撑装置可以为鼻托,因此所述微压传感器可以检测第一对象鼻梁一侧的压力。由于面部通常不会出现动作幅度较大的动作,因此本实现中,传感器为微压传感器,以检测第一对象面部的动作幅度较小的第一动作。
39.可以理解的,由于智能眼镜中鼻托包括左右两个,因此具体实现中,所述面部支撑装置具有两个,两个所述面部支撑装置上分别设置有一个所述传感器,用于分别检测第一对象左侧面部的第一动作和第一对象右侧面部的第一动作。本技术中,所述第一动作可以但不限制为眨眼动作;第一对象在眨眼时,眼周肌肉群会带动鼻梁处的肌肉或皮肤产生微小的抖动,这个抖动的过程会使得鼻梁与鼻托之间的压力产生微小的变化,传感器在检测到该微小的变化时,确定检测到第一动作。
40.一个具体实现中,智能眼镜的左右两个鼻托上分别设置有一个传感器,当用户单独眨左眼时,左侧传感器检测到第一动作,而右侧传感器没有检测到第一动作,确定为左侧动作;当用户单独眨右眼时,左侧传感器没有检测到第一动作,而右侧传感器检测到第一动作,确定为右侧动作;当用户同时眨动双眼时,左侧传感器和右侧传感器都检测到第一动作,确定为确认动作。其对应关系如表1所示。
41.表1行为动作对应关系表
[0042][0043]
智能眼镜的左右两个镜片分别对应左右两个显示区域,可称为左显区域和右显区域,如图2所示。左显区域和右显区域的显示可以统一控制,也可以分开单独控制。表2为显
示区域与事件对应关系表,可结合表2以及前述内容理解智能穿戴设备的工作实现。
[0044]
表2显示区域与事件对应关系表
[0045][0046]
结合上表,在左显和右显均没有显示内容时,确认当前无事件,不需要做任何处理;在左显亮而右显不亮时,确定左显区待选择,用户可以通过执行前述左侧动作将左显内容选中;在左显不亮而右显亮时,确定右显区待选择,用户可以通过执行前述右侧动作将左显内容选中;在左显和右显同时亮时,确定左显区和右显区同时待选择,用户可以通过执行前述左侧动作或右侧动作控制将左显内容选中或右显内容选中;在左显区域高亮时,表示左显区域对应内容处于被选中状态;在右显区域高亮时,表示右显区域对应内容处于被选中状态。
[0047]
上述实现中,用户相应的动作检测并不受环境光亮、环境噪声、环境物体的影响,因而能够有效保证检测结果的准确性,提升用户的使用体验。
[0048]
本技术还公开了一种交互控制方法,图3为本技术实施例公开的一种交互控制方法的流程图,图3所示方法应用于上述实施例中的任意一种智能穿戴设备,结合图3所示,交互控制方法可以包括:
[0049]
步骤301:获得第一行为数据,所述第一行为数据由第一传感器在用户执行第一动作时检测确定,所述第一动作的检测不受环境条件影响。
[0050]
所述第一行为数据可以理解为用户在执行第一动作时所述第一传感器检测得到的数据,正如前述内容所述,所述传感器检测的是用户的面部动作,因此,第一传感器检测第一动作的过程不会受外部条件干扰,从而能够大大降低外部干扰因素造成的误检测和误判,保证检测结果的准确性。
[0051]
第一行为数据可以是用户单侧动作所产生的数据,例如,其可以是用户在单独眨左眼时由设置在智能眼镜左侧鼻托上的传感器检测获得的,或者是用户在单独眨右眼时由设置在智能眼镜右侧鼻托上的传感器检测获得的。
[0052]
第一行为数据从第一传感器传送到处理单元的方式可以有不同的实现,具体可以通过有线通信方式实现或无线通信方式实现,具体可参见智能穿戴设备实施例中相应部分的内容介绍。
[0053]
步骤302:基于所述第一行为数据生成第一指令。
[0054]
处理单元在接收到所述第一行为数据后,可以根据预设的关系表确定生成怎样的控制指令。预设的关系中记录里行为数据与控制指令的对应关系,这样就可以依据收到的第一行为数据快速确定需要生成的第一指令。
[0055]
具体的,所述第一指令可以是控制智能穿戴设备的显示区域显示输出内容的指令,指令指示的操作可以是移动光标、改变内容选择状态等。智能眼镜的显示区域包括第一
显示区域和第二显示区域,分别对应前述实施例中的左显和右显。则所述第一行为数据可以表征用户在左侧或右侧执行了第一动作。例如,在第一行为数据表征用户执行了左侧动作时,确定选择智能眼镜左显区域的内容;在第一行为数据表征用户执行了右侧动作时,确定选择智能眼镜优先区域的内容。
[0056]
在确定选择智能眼镜左显区域或右显区域的内容的实现中,左显区域或右显区域中的显示内容中包括可触发的虚拟按钮,这样,基于所述第一行为数据,可以将显示内容中的可触发虚拟按钮由未选中状态改变为选中状态。也即,所述第一动作表征选择所述第一显示区域中的虚拟按钮,所述第二动作表征选择所述第二显示区域中的按钮。图4为本技术实施例公开的显示区域中第一按钮选择状态改变的示意图,可结合图4理解前述内容。
[0057]
本实施例所述交互控制方法,用于检测用户第一动作的传感器设置于面部支撑装置上,因此会与用户面部紧密贴合,从而保证能够精准的检测用户的面部动作,且该检测过程不会收到环境条件影响,因此能够进一步保障检测结果的准确性,进而提升相应控制指令的准确度。
[0058]
基于以上内容,一个实现中,所述第一传感器设置于第一面部支撑装置上,交互控制方法还可以包括:获得第二行为数据,所述第二行为数据由设置于第二面部支撑装置上的第二传感器在用户执行所述第一动作时检测确定;基于所述第二行为数据生成不同于所述第一指令的第二指令。
[0059]
其中,第二行为数据由设置于第二面部支撑装置上的第二传感器检测获得,其表征的意义与第一行为数据表征的意义相同,即用户执行了第一动作,只不过第二行为数据与第一行为数据表征的是不同侧的第一动作,如第一行为数据表征用户面部左侧执行了第一动作,第二行为数据表征用户面部右侧执行了第一动作。
[0060]
一个实现中,在所述基于所述第一行为数据生成第一指令后,或所述基于所述第二行为数据生成不同于所述第一指令的第二指令后,还可以包括:响应于所述第一指令或所述第二指令,在显示区域显示输出第一内容,所述第一内容中包括可触发的虚拟按钮。
[0061]
一个示例中,智能穿戴设备的显示区域显示的是联系人信息,其具体显示内容是多个联系人列表,如图5所示,为通过第一动作改变光标位置的示意图,结合图5所示,其中中间部分为原始显示内容,在用户左侧执行了第一动作时,智能穿戴设备获得第一行为数据,控制光标向上移动一个位置,显示内容变为图5中左侧部分所示;而如果在原始显示内容状态下,用户左侧执行了第一动作时,智能眼镜获取第二行为数据,控制光标向下移动一个位置。
[0062]
一个实现中,交互控制方法还可以包括:获得第三行为数据,所述第三行为数据包括所述第一行为数据和所述第二行为数据,所述第三行为数据由所述第一传感器和所述第二传感器同时检测到所述第一动作时检测确定;基于所述第三行为数据生成不同于所述第一指令和所述第二指令的第三指令。
[0063]
所述第三行为数据可以为控制触发所述第一内容中处于选择状态的虚拟按钮的行为数据。可以理解的,第三行为数据包括所述第一行为数据和所述第二行为数据,即用户左侧和右侧同时执行了第一动作,如用户同时眨动双眼。所述第三行为数据可以表征确认的动作,即在检测到第三行为数据时,生成确认触发的第三指令。
[0064]
为了更好的理解本技术实现,下面给出一个具体的例子。一个示例中,用户与智能
眼镜交互控制接收通话的过程如下:
[0065]
通话呼入

左显和右显区域待选择

左侧动作(对应第一行为数据)

左显区域被选中

确认动作(对应第三行为数据)

通话挂断;
[0066]
或者,
[0067]
通话呼入

左显和右显区域待选择

右侧动作(对应第二行为数据)

右显区域被选中

确认动作(对应第三行为数据)

通话接通。
[0068]
用户与智能眼镜交互控制发出通话的过程如下:
[0069]
确认动作(对应第三行为数据)

常用联系人在左显区域显示

左侧动作(对应第一行为数据)/右侧动作(对应第二行为数据)

上/下移动选中联系人

确认动作

呼出确认

确认动作

通话呼出。
[0070]
可以理解的,在不同的示例中,第一行为数据、第二行为数据和第三行为数据可以以任意组合的方式出现。例如一些示例中仅检测获得第一行为数据,一些示例中检测获得了第一行为数据和第三行为数据,一些示例中检测获得了第二行为数据和第三行为数据等。其中不同行为数据被检测到的次数也不固定,不同行为数据之间的先后顺序也不固定,均可以跟随场景的不同而适应性存在。例如,不同于上述控制发出通话的过程中确认动作调出联系人的实现,一些实现中,基于第一行为数据的第一指令也可以调出某应用。由此,所述第一行为数据可以为改变所述显示区域上显示内容中可触发的虚拟按钮的选择状态的行为数据,或,所述第一行为数据为调出第一应用显示界面的行为数据。
[0071]
前面已经介绍到,所述第三行为数据可以对应用户同时眨动双眼的动作,不过在实现中,为了区别用户正常眨动双眼和触发确认操作眨动双眼,可以通过相应设置,使得只有用户在用力的同时眨动双眼时,才会被传感器检测到第三行为数据。而另一个实现中,所述第三行为数据也可以包括至少两个动作,所述至少两个动作中任意两个动作之间的时间间隔小于第一阈值。本实现中,为了区分用户正常眨动双眼和触发确认操作,配置为只有在用户连续两次同时眨动双眼时,传感器才会检测到第三行为数据。该实现考虑用户通常两次眨动眼睛间会间隔一定时间,因此若用户有意的快速连续的两次眨动双眼,则认为用户想要触发确认操作。
[0072]
此外,另一个实现中,交互控制方法在获得第一行为数据前,还可以包括:获得用户录入的模板行为数据,以使得后续在传感器检测到用户执行的第一动作时,基于所述模板行为数据确定所述第一动作是否对应所述第一行为数据或所述第二行为数据。
[0073]
即使是相同的眨眼动作,不同用户的眨眼力度和眨眼频率也不完全相同,因此本实现中,考虑不同用户存在的习惯差异性,会预先录入用户的模板行为数据,以更好的对后续用户的操作动作进行匹配识别。
[0074]
对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本技术并不受所描述的动作顺序的限制,因为依据本技术,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本技术所必须的。
[0075]
上述本技术公开的实施例中详细描述了方法,对于本技术的方法可采用多种形式的装置实现,因此本技术还公开了一种装置,下面给出具体的实施例进行详细说明。
[0076]
图6为本技术实施例公开的一种交互控制装置的结构示意图,图6所示交互控制装
置应用于前述实施例中所述的任意一种智能穿戴设备,结合图6所示,交互控制装置60可以包括:
[0077]
行为获得模块601,用于获得第一行为数据,所述第一行为数据由第一传感器在用户执行第一动作时检测确定,所述第一动作的检测不受环境条件影响。
[0078]
指令生成模块602,用于基于所述第一行为数据生成第一指令。
[0079]
本实施例所述交互控制装置,用于检测用户第一动作的传感器设置于面部支撑装置上,因此会与用户面部紧密贴合,从而保证能够精准的检测用户的面部动作,且该检测过程不会收到环境条件影响,因此能够进一步保障检测结果的准确性,进而提升相应控制指令的准确度。
[0080]
一个实现中,所述第一传感器设置于第一面部支撑装置上,所述行为获得模块还用于:获得第二行为数据,所述第二行为数据由设置于第二面部支撑装置上的第二传感器在用户执行所述第一动作时检测确定;则所述指令生成模块还用于:基于所述第二行为数据生成不同于所述第一指令的第二指令。
[0081]
一个实现中,所述行为获得模块还用于:获得第三行为数据,所述第三行为数据包括所述第一行为数据和所述第二行为数据,所述第三行为数据由所述第一传感器和所述第二传感器同时检测到所述第一动作时检测确定;所述指令生成模块还用于:基于所述第三行为数据生成不同于所述第一指令和所述第二指令的第三指令。
[0082]
一个实现中,交互控制装置还包括:显示控制模块,用于在指令生成模块基于所述第一行为数据生成第一指令后,或基于所述第二行为数据生成不同于所述第一指令的第二指令后,响应于所述第一指令或所述第二指令,在显示区域显示输出第一内容,所述第一内容中包括可触发的虚拟按钮。
[0083]
一个实现中,所述第一行为数据为改变所述显示区域上显示内容中可触发的虚拟按钮的选择状态的行为数据,或,所述第一行为数据为调出第一应用显示界面的行为数据。
[0084]
一个实现种,所述第三行为数据为控制触发所述第一内容中处于选择状态的虚拟按钮的行为数据。
[0085]
上述交互控制装置中各个模块的具体实现以及其他可能的实现方式,可参照方法实施例中相应部分的内容介绍,在此不在重复赘述。
[0086]
上述实施例中的所述的任意一种交互控制装置包括处理器和存储器,上述实施例中的行为获得模块、指令生成模块、显示控制模块等均作为程序模块存储在存储器中,由处理器执行存储在所述存储器中的上述程序模块来实现相应的功能。
[0087]
处理器中包含内核,由内核去存储器中调取相应的程序模块。内核可以设置一个或多个,通过调整内核参数来实现回访数据的处理。
[0088]
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram),存储器包括至少一个存储芯片。
[0089]
本技术实施例提供了一种存储介质,其上存储有程序,该程序被处理器执行时实现上述实施例中所述的交互控制方法。
[0090]
本技术实施例提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行上述实施例中所述的交互控制方法。
[0091]
进一步,本实施例提供了一种电子设备,包括处理器以及存储器。其中存储器用于存储所述处理器的可执行指令,所述处理器配置为经由执行所述可执行指令来执行上述实施例中所述的交互控制方法。其中,所述可执行指令包括:获得第一行为数据,所述第一行为数据由第一传感器在用户执行第一动作时检测确定,所述第一动作的检测不受环境条件影响;基于所述第一行为数据生成第一指令。
[0092]
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
[0093]
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0094]
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(ram)、内存、只读存储器(rom)、电可编程rom、电可擦除可编程rom、寄存器、硬盘、可移动磁盘、cd

rom、或技术领域内所公知的任意其它形式的存储介质中。
[0095]
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本技术。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本技术的精神或范围的情况下,在其它实施例中实现。因此,本技术将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1