一种多传感器协同获取头部指令的方法及混合现实智能眼镜与流程

文档序号:19744456发布日期:2020-01-21 18:05阅读:165来源:国知局
一种多传感器协同获取头部指令的方法及混合现实智能眼镜与流程

本发明涉及头戴智能设备领域,尤其涉及一种多传感器协同获取头部指令的方法及混合现实智能眼镜。



背景技术:

目前,头戴式智能设备逐渐成为普通大众消费品,为了能够使佩戴者能够更加方便的使用此设备,大多数头戴设备配备了单独传感器用来感知头部动作,根据具体的动作类型(例如点头、摇头)生成相应机器头部指令,从而达到对设备进行控制的目的。但是,在实际应用场景中,头部的动作是多种多样的,仅通过单独传感器难以准确感知佩戴者的头部动作是否为头部指令,若仅仅凭借此头戴智能设备的位置姿态变化数据生成机器头部指令,会造成误操作。如何准确获取头部指令成为亟待解决的问题。



技术实现要素:

本发明提供一种多传感器协同获取头部指令的方法及混合现实智能眼镜,用以实现准确获取混合现实智能眼镜的头部指令。

为了实现上述目的,本发明技术方案提供了一种多传感器协同获取头部指令的方法,所述方法包括:所述混合现实智能眼镜包括至少三个位置姿态传感器组成的位置姿态传感器组合:光线传感器阵列用于接收光信号,若所述光线传感器阵列中的至少三个光线传感器均未接收到所述光信号,则开始获取头部指令。位置姿态传感器组合不间断采集所述混合现实智能眼镜不同结构的姿态变化信息。根据所述不同结构的姿态变化信息的一致性判断头部指令是否有效,执行有效头部指令。其中,所述至少三个光线传感器与所述至少三个位置姿态传感器位置相同。

作为上述技术方案的优选,位置姿态传感器组合不间断采集所述混合现实智能眼镜不同结构的姿态变化信息,包括:三个位置姿态传感器分别连续采集所述混合现实智能眼镜一侧支撑结构、另一侧支撑结构和头梁结构的姿态变化信息。姿态变化信息包括第一姿态信息、第二姿态信息和第三姿态信息。

作为上述技术方案的优选,第一姿态信息包括,第一加速度变化信息,第一角度变化信息(一侧支撑结构)。第二姿态信息包括,第二加速度变化信息,第二角度变化信息(另一侧支撑结构)。和第三姿态信息包括,第三加速度变化信息,第三角变化信息(眼镜头梁结构)。

作为上述技术方案的优选,根据不同结构的姿态变化信息的一致性判断头部指令是否有效,执行有效头部指令,包括:从第一加速度变化信息、第二加速度变化信息、第三加速度变化信息中分别获取,第一加速度变化速率、第二加速度变化速率、第三加速度变化速率。比较第一加速度变化速率、第二加速度变化速率、第三加速度变化速率两两之间的差值是否均在加速度速率差阈值区间内,若在,则具有加速度一致性,所述头部指令有效。加速度阈值区间是预设的。

作为上述技术方案的优选,根据所述不同结构的姿态数据的一致性判断头部指令是否有效,执行有效头部指令包括:从所述第一角度变化信息、第二角度变化信息、第三位角度变化息中分别获取,第一角度变化速率、第二角度变化速率、第三角度变化速率。比较第一角度变化速率、第二角度变化速率、第三角度变化速率两两之间的差值是否均在角度变化速率差阈值区间内,若在,则具有角度变化一致性,所述头部指令有效。角度阈值区间是预设的。

本发明技术方案还提供一种多传感器协同获取头部指令的混合现实智能眼镜,所述混合现实智能眼镜包括至少三个位置姿态传感器组成的位置姿态传感器组合,包括:光线传感器阵列,用于接收光信号,若所述光线传感器阵列中的至少三个光线传感器均未接收到所述光信号,则开始获取头部指令。位置姿态传感器组合,用于不间断采集所述混合现实智能眼镜不同结构的姿态变化信息。处理器,用于根据所述位置姿态传感器组合采集的所述不同结构的姿态变化信息的一致性判断头部指令是否有效,执行有效头部指令。其中,所述至少三个光线传感器与所述至少三个位置姿态传感器位置相同。

作为上述技术方案的优选,位置姿态传感器组合,包括:第一位置姿态传感器用于采集第一姿态信息,具体为混合现实智能眼镜一侧支撑结构的姿态变化信息。第二位置姿态传感器用于采集第二姿态信息,具体为所述混合现实智能眼镜另一侧支撑结构的姿态变化信息。第三位置姿态传感器用于采集第三姿态信息,具体为所述混合现实智能眼镜头梁结构的姿态变化信息。

作为上述技术方案的优选,所述第一姿态信息、第二姿态信息和第三姿态信息,分别包括:第一加速度变化信息,第一角度变化信息(一侧支撑结构)。第二加速度变化信息,第二角度变化信息(另一侧支撑结构)。第三加速度变化信息,第三角变化信息(眼镜头梁结构)。

作为上述技术方案的优选,处理器,包括:加速度变化速率获取单元,用于从所述第一位置姿态传感器、第二位置姿态传感器、第三位置姿态传感器采集的第一加速度变化信息、第二加速度变化信息、第三加速度变化信息中分别获取,第一加速度变化速率、第二加速度变化速率、第三加速度变化速率。加速度变化速率判断单元,用于对加速度变化速率获取单元获取的第一加速度变化速率、第二加速度变化速率、第三加速度变化速率之间互相做差获得差值,判断差值是否均在加速度速率差阈值区间内,若在,则具有加速度一致性,所述头部指令有效。加速度阈值区间是预设的。

作为上述技术方案的优选,所述处理器,还包括:角速度变化速率获取单元,用于从所述第一位置姿态传感器、第二位置姿态传感器、第三位置姿态传感器采集的所述第一角度变化信息、第二角度变化信息、第三位角度变化息中分别获取,第一角度变化速率、第二角度变化速率、第三角度变化速率。角速度变化速率判断单元,用于对角速度变化速率获取单元获取的所述第一角度变化速率、第二角度变化速率、第三角度变化速率之间互相做差获得差值,判断差值是否均在角度变化速率差阈值区间内,若在,则具有角度变化一致性,所述头部指令有效。所述角度阈值区间是预设的。

本发明技术方案提供了一种多传感器协同获取头部指令的方法及混合现实智能眼镜。接收光信号的光线传感器阵列,若三个光线传感器均未接收到光信号,开始获取头部指令。此时,位置姿态传感器组合连续采集混合现实智能眼镜的姿态变化信息。处理器根据不同结构的姿态变化信息的一致性判断头部指令是否有效,执行有效头部指令。本发明通过光学传感器确定当前使用状态,位置姿态传感器组合采集混合现实智能眼镜各个结构的姿态变化信息,若变化信息一致,则为有效头部指令。通过光学传感器和位置姿态传感器组合同时采集相应数据,协同确定当前使用状态和摆动幅度,准确获得头部指令,避免了误操作,提成了准确度。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明实施例提供的流程示意图;

图2为本发明又一实施例提供的流程图;

图3为本发明技术方案提供的一种多传感器协同获取头部指令的混合现实智能眼镜的结构示意图;

图4为图3中,位置姿态传感器组合32的结构示意图;

图5为图3中,处理器33的结构示意图一;

图6为图3中,处理器33的结构示意图二;

图7为本发明技术方案在实际应用场景中使用的状态图一;

图8为本发明技术方案在实际应用场景中使用的状态图二。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。

图1为本发明实施例提供的流程示意图,如图1所示,本实施例提供了一种多传感器协同获取头部指令的方法,包括至少三个位置姿态传感器组成的位置姿态传感器组合:

步骤101、若光线传感器阵列中的各光线传感器均未接收到光信号,则开始获取头部指令。

光线传感器阵列中包括至少三个光线传感器。

步骤102、位置姿态传感器组合不间断采集混合现实智能眼镜姿态变化信息。

前述,位置姿态传感器组合中包括至少三个位置姿态传感器。

三个位置姿态传感器分别用于连续采集混合现实智能眼镜一侧支撑结构、另一侧支撑结构和头梁结构的姿态变化信息。分别为第一姿态信息、第二姿态信息和第三姿态信息。

步骤103、根据姿态变化信息的一致性判断头部指令是否有效,执行有效头部指令。

从第一姿态信息、第二姿态信息和第三姿态信息中,分别获取各自的加速度变化信息(三个),进一步获取相应的加速度变化速率(三个),对上述加速度变化速率进行做差比较,判断差值是否在加速度速率差阈值区间内,若均在上述区间内,则具有加速度一致性,当前头部指令有效。

还从第一姿态信息、第二姿态信息和第三姿态信息中,分别获取各自的角度变化信息(三个),进一步获取相应的角度变化速率(三个),对上述角度变化速率进行做差比较,判断差值是否在角度变化速率差阈值区间内,若均在此区间内,则具有角度变化一致性,当前头部指令有效。

其中,三个光线传感器与所述至少三个位置姿态传感器位置相同。

本发明技术方案提供了一种多传感器协同获取头部指令的方法及混合现实智能眼镜。接收光信号的光线传感器阵列,若三个光线传感器均未接收到光信号,开始获取头部指令。此时,位置姿态传感器组合连续采集混合现实智能眼镜的姿态变化信息。处理器根据不同结构的姿态变化信息的一致性判断头部指令是否有效,执行有效头部指令。本发明通过光学传感器确定当前使用状态,位置姿态传感器组合采集混合现实智能眼镜各个结构的姿态变化信息,若变化信息一致,则为有效头部指令。通过光学传感器和位置姿态传感器组合同时采集相应数据,协同确定当前使用状态和摆动幅度,准确获得头部指令,避免了误操作,提成了准确度。

现用具体实施例描述本发明技术方案,在本实施例中,以最低三个位置姿态传感器组成的位置姿态传感器组合为例进行说明。并非用以对位置姿态传感器的数量进行限制。在本实施例中,以三个光线传感器为例进行说明,并非用以对光线传感器数量进行限制。

图2为本发明又一实施例提供的流程图,如图2所示:

步骤201、判断三个光线传感器是否均未接收到光信号,若是执行步骤202,否则结束。

由于光线传感器装置于混合现实智能眼镜框架两侧支撑结构内侧,头梁结构内侧,所以只有三个光线传感器都未接收到光信号的条件下,混合现实智能眼镜才为被佩戴的使用状态。

步骤202、三个位置姿态传感器采集混合现实智能眼镜各结构的位置姿态变化信息。

在本实施例中,为了更好的区分上述三个位置姿态传感器,分别将其命名为左侧支撑结构位置姿态传感器、右侧支撑结构位置姿态传感器、头梁位置姿态传感器。

在佩戴者进行头部动作时,混合现实智能眼镜随着佩戴者头部的动作而产生姿态变化信息。此时,左侧支撑结构位置姿态传感器、右侧支撑结构位置姿态传感器、头梁位置姿态传感器同步采集混合现实智能眼镜左侧支撑结构、右侧支撑结构和头梁结构的姿态信息。

步骤203、提取加速度变化信息和角度变化信息。

具体的,从左侧支撑结构姿态信息中提取混合现实智能眼镜左侧支撑结构的,左加速度变化信息和左角度变化信息。从右侧支撑结构姿态信息中提取混合现实智能眼镜右侧支撑结构的,右加速度变化信息和右角度变化信息。从头梁结构姿态信息中提取混合现实智能眼镜的头梁加速度变化信息和头梁角度变化信息。

步骤204、生成加速度变化速率集合和角度变化速率集合。

具体的,加速度变化速率集合,包括:

左侧支撑结构加速度变化速率、右侧支撑结构加速度变化速率、头梁加速度变化速率。

角度变化速率集合,包括:

左侧支撑结构角度变化速率、右侧支撑结构角度变化速率、头梁角度变化速率。

步骤205、获取加速度变化速率差值,判断是否在加速度阈值区间,若在执行步骤207,否则结束。

具体的,左侧支撑结构加速度变化速率、右侧支撑结构加速度变化速率、头梁加速度变化速率两两做差,得到三个加速度变化速率差值。若这三个加速度变化速率差值均在加速度阈值区间内。则说明混合现实当前左侧支撑结构、右侧支撑结构和头梁结构的姿态变化一致,进一步说明混合现实智能眼镜当前姿态变化规律且佩戴于头部,并非是掉落、被甩动等不规则的姿态变化。

步骤206、获取角度变化速率差值,判断是否在角度阈值区间,若在执行步骤207,否则结束。

左侧支撑结构角度变化速率、右侧支撑结构角度变化速率、头梁角度变化速率两两做差,得到三个角度变化速率差值,得到三个角度变化速率差值。若这三个角度变化速率差值均在角度阈值区间内。则说明混合现实当前左侧支撑结构、右侧支撑结构和头梁结构的姿态变化一致,进一步说明混合现实智能眼镜当前姿态变化规律且佩戴于头部,并非是掉落、被甩动等不规则的姿态变化。

步骤207、调取头部动作对应的头部指令并执行。

具体的,提前预设有加速度临界值,用于界定加速度变化的快慢;提前预设有角度临界值,用于界定角度变化快慢。

例如:当加速度变化速率高于加速度临界值,角度变化速率也高于角度临界值时,对应界面切换头部指令。当加速度变化速率低于加速度临界值,角度变化速率也低于角度临界值时,对应滑动头部指令。当加速度变化速率高于加速度临界值但角度变化速率低于角度临界值时,对应缩放头部指令等等。

本发明技术方案提供了一种多传感器协同获取头部指令的方法及混合现实智能眼镜。接收光信号的光线传感器阵列,若三个光线传感器均未接收到光信号,开始获取头部指令。此时,位置姿态传感器组合连续采集混合现实智能眼镜的姿态变化信息。处理器根据不同结构的姿态变化信息的一致性判断头部指令是否有效,执行有效头部指令。本发明通过光学传感器确定当前使用状态,位置姿态传感器组合采集混合现实智能眼镜各个结构的姿态变化信息,若变化信息一致,则为有效头部指令。通过光学传感器和位置姿态传感器组合同时采集相应数据,协同确定当前使用状态和摆动幅度,准确获得头部指令,避免了误操作,提成了准确度。

本发明技术方案还提供了一种多传感器协同获取头部指令的混合现实智能眼镜,混合现实智能眼镜包括至少三个位置姿态传感器组成的位置位置姿态传感器组合,图3为本发明技术方案提供的一种多传感器协同获取头部指令的混合现实智能眼镜的结构示意图,如图3所示:

光线传感器阵列31,用于接收光信号,若所述光线传感器阵列中的至少三个光线传感器均未接收到所述光信号,则开始获取头部指令。

位置姿态传感器组合32,用于不间断采集所述混合现实智能眼镜不同结构的姿态变化信息。

处理器33,用于根据所述位置位置姿态传感器组合采集的所述不同结构的姿态变化信息的一致性判断头部指令是否有效,执行有效头部指令。

其中,三个光线传感器与所述至少三个位置姿态传感器位置相同,三个位置姿态传感器置于所述混合现实智能眼镜结构内部。

图4为位置姿态传感器组合32的结构示意图,如图所示:

第一位置姿态传感器41,用于采集第一姿态信息,具体为所述混合现实智能眼镜一侧支撑结构的姿态变化信息。第一姿态信息包括:第一加速度变化信息,第一角度变化信息。

第二位置姿态传感器42,用于采集第二姿态信息,具体为所述混合现实智能眼镜另一侧支撑结构的姿态变化信息。第二姿态信息包括:第二加速度变化信息,第二角度变化信息。

第三位置姿态传感器43,用于采集第三姿态信息,具体为所述混合现实智能眼镜头梁结构的姿态变化信息。第三姿态信息包括:第三加速度变化信息,第三角变化信息。

图5为处理器33的结构示意图一,如图所示:

加速度变化速率获取单元51,用于从所述第一位置位置姿态传感器41、第二位置位置姿态传感器42、第三位置位置姿态传感器43采集的第一加速度变化信息、第二加速度变化信息、第三加速度变化信息中分别获取,第一加速度变化速率、第二加速度变化速率、第三加速度变化速率。

加速度变化速率判断单元52,用于对加速度变化速率获取单元获取51的第一加速度变化速率、第二加速度变化速率、第三加速度变化速率之间互相做差获得差值,判断差值是否均在加速度速率差阈值区间内,若在,则具有加速度一致性,所述头部指令有效。加速度阈值区间是预设的。

图6为处理器33的结构示意图二,处理器33,还包括:

角速度变化速率获取单元53,用于从所述第一位置位置姿态传感器41、第二位置位置姿态传感器42、第三位置位置姿态传感器43采集的第一角度变化信息、第二角度变化信息、第三位角度变化息中分别获取,第一角度变化速率、第二角度变化速率、第三角度变化速率。

角速度变化速率判断单元54,用于对角速度变化速率获取单元53获取的第一角度变化速率、第二角度变化速率、第三角度变化速率之间互相做差获得差值,判断差值是否均在角度变化速率差阈值区间内,若在,则具有角度变化一致性,所述头部指令有效。所述角度阈值区间是预设的。

为了更好的说明本发明技术方案,图7和图8为本申请技术方案在实际应用场景中使用的状态图。

为了更好的说明使用状态下混合现实智能眼镜的姿态变化,省略了佩戴此混合现实智能眼镜佩戴者,仅以混合现实在实际使用中的位置姿态进行说明:

如图7所示,混合现实智能眼镜位置姿态左右摆动,在空间上z轴维持不动,x轴和y轴产生变化,其角度变化过程如图所示。显而易见的,在摆动过程中,经历了时间t。处理器根据角度变化和时间获取水平方向上x轴和y轴的角度变化速率,根据单位时间内角度变化幅度,进一步获取加速度变化速率。而在此过程中,z轴上没有任何变化。处理器根据以上速率和加速度变化速率结合上述判断条件,判断出混合显示智能眼镜佩戴者现在进行左右摆头的动作,并调取相应机器头部指令执行。

如图7所示,本发明中,光线传感器嵌于混合现实智能眼镜内侧结构面上。

如图8所示,混合现实智能眼镜位置姿态上下摆动,在空间上y轴维持不动,x轴和z轴产生变化,其角度变化过程如图所示。显而易见的,在摆动过程中,经历了时间t。处理器根据角度变化和时间获取垂直方向上z轴和x轴的角度变化速率,根据单位时间内角度变化幅度,进一步获取加速度变化速率。而在此过程中,y轴上没有任何变化。处理器根据以上速率和加速度变化速率结合上述判断条件,判断出混合显示智能眼镜佩戴者现在进行上下摆头的动作,并调取相应机器头部指令执行。

本发明技术方案提供了一种多传感器协同获取头部指令的方法及混合现实智能眼镜。接收光信号的光线传感器阵列,若三个光线传感器均未接收到光信号,开始获取头部指令。此时,位置姿态传感器组合连续采集混合现实智能眼镜的姿态变化信息。处理器根据不同结构的姿态变化信息的一致性判断头部指令是否有效,执行有效头部指令。本发明通过光学传感器确定当前使用状态,位置姿态传感器组合采集混合现实智能眼镜各个结构的姿态变化信息,若变化信息一致,则为有效头部指令。通过光学传感器和位置姿态传感器组合同时采集相应数据,协同确定当前使用状态和摆动幅度,准确获得头部指令,避免了误操作,提成了准确度。

最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1