基于视线追踪技术的目标定位方法和装置的制造方法

文档序号:9523706阅读:497来源:国知局
基于视线追踪技术的目标定位方法和装置的制造方法
【技术领域】
[0001]本发明涉及电子信息技术领域,特别涉及一种基于视线追踪技术的目标定位方法和装置。
【背景技术】
[0002]随着视线追踪技术日趋完善,视线追踪交互技术作为一种新型交互模式越来越多被各类电子产品所采用。
[0003]目前视线追踪技术主要通过“瞳孔-角膜反射方法”实现,利用眼动过程中普尔钦斑理论上保持不变的特征,实时定位眼睛图像上的瞳孔位置,计算角膜反射向量,估算得到用户的视线方向。然而在实际应用中,当视线位置向屏幕边缘移动时,会伴随着一定的头部运动等干扰,造成视线追踪系统在屏幕中心位置的测量精度最高,并随着视线相对屏幕中心点的偏离测量精度下降。
[0004]当采用视线追踪系统捕获的注视点信号替代鼠标驱动光标进行交互操作时,其交互准确性必然随着交互目标的空间位置偏离屏幕中心区域受到一定程度的影响,影响人机交互。

【发明内容】

[0005]本发明实施例所要解决的一个技术问题是:解决视线追踪定位技术在屏幕边缘精度降低影响人机交互的问题。
[0006]根据本发明实施例的一个方面,提出一种基于视线追踪技术的目标定位方法,包括:采集用户在交互界面中的视线坐标序列;根据用户已有的视线坐标序列判断视线移动方向以及该视线移动方向是否指向交互界面的边缘区域;响应于视线移动方向指向交互界面的边缘区域的判断结果,通过补偿系数对当前视线坐标位置在该视线移动方向上进行偏移补偿。
[0007]在一个实施例中,根据用户已有的视线坐标序列判断视线移动方向包括:根据用户当前视线坐标及其前一视线坐标确定出视线移动方向为该前一视线坐标指向该当前视线坐标的方向。
[0008]在一个实施例中,根据用户已有的视线坐标序列判断该视线移动方向是否指向交互界面的边缘区域包括:
[0009]计算当前视线坐标到交互界面中心点的距离;
[0010]计算前一视线坐标到交互界面中心点的距离;
[0011]比较当前视线坐标到交互界面中心点的距离以及前一视线坐标到交互界面中心点的距离,如果当前视线坐标到交互界面中心点的距离大于前一视线坐标到交互界面中心点的距离,则判断出视线移动方向指向交互界面的边缘区域。
[0012]在一个实施例中,通过补偿系数对当前视线坐标位置在该视线移动方向上进行偏移补偿包括:
[0013]ΧΒ, = Χβ+ΛΧ,
[0014]ΥΒ.= YB+ Δ Y,
[0015]Δ X = (XB-XA) XK,
[0016]Δ Y = (YB-YA) XK,
[0017]其中,XB和YB分别表示当前视线坐标B的横坐标和纵坐标,XB,和YB,分别表示补偿后的当前视线坐标B’的横坐标和纵坐标,Δ X表示横坐标方向上的偏移量,Δ Y表示纵坐标方向上的偏移量,乂八和¥八分别表示前一视线坐标A的横坐标和纵坐标,K表示补偿系数,根据当前视线坐标到前一视线坐标的距离以及当前视线坐标偏离交互界面中心点的程度确定K的值。
[0018]在一个实施例中,补偿系数K的值通过以下公式确定:
[0019]K = |B-A| XKi+lB-Ol XK2
[0020]其中,|Β-Α|表示当前视线坐标Β到前一视线坐标Α的距离,|B-0|表示当前视线坐标到交互界面中心点的距离,Ki和K2表示偏移系数,取值范围为0?1。
[0021]在一个实施例中,根据采集视线坐标序列的眼动仪的分辨率以及用户眼睛与交互界面的距离中的至少一项信息确定偏移系数Ki和κ2的值。
[0022]根据本发明实施例的再一个方面,提出一种基于视线追踪技术的目标定位装置,包括:视标采集模块,用于采集用户在交互界面中的视线坐标序列;视线判断模块,用于根据用户已有的视线坐标序列判断视线移动方向以及该视线移动方向是否指向交互界面的边缘区域;偏移补偿模块,用于响应于视线移动方向指向交互界面的边缘区域的判断结果,通过补偿系数对当前视线坐标位置在该视线移动方向上进行偏移补偿。
[0023]在一个实施例中,视线判断模块包括:视线移动方向判断单元,用于根据用户当前视线坐标及其前一视线坐标确定出视线移动方向为该前一视线坐标指向该当前视线坐标的方向。
[0024]在一个实施例中,视线判断模块包括:边缘区域判断单元,用于计算当前视线坐标到交互界面中心点的距离;计算前一视线坐标到交互界面中心点的距离;比较当前视线坐标到交互界面中心点的距离以及前一视线坐标到交互界面中心点的距离,如果当前视线坐标到交互界面中心点的距离大于前一视线坐标到交互界面中心点的距离,则判断出视线移动方向指向交互界面的边缘区域。
[0025]在一个实施例中,偏移补偿模块,具体用于:
[0026]ΧΒ, = ΧΒ+ Δ X,
[0027]ΥΒ, = ΥΒ+ Δ Υ,
[0028]Δ X = (ΧΒ-ΧΑ) ΧΚ,
[0029]Δ Υ = (ΥΒ-ΥΑ) ΧΚ,
[0030]其中,ΧΒ和ΥΒ分别表示当前视线坐标Β的横坐标和纵坐标,ΧΒ,和ΥΒ,分别表示补偿后的当前视线坐标Β’的横坐标和纵坐标,Δ X表示横坐标方向上的偏移量,Δ Υ表示纵坐标方向上的偏移量,乂八和¥八分别表示前一视线坐标Α的横坐标和纵坐标,K表示补偿系数,根据当前视线坐标到前一视线坐标的距离以及当前视线坐标偏离交互界面中心点的程度确定K的值。
[0031]在一个实施例中,偏移补偿模块中的补偿系数K的值通过以下公式确定:
[0032]K = IΒ-ΑI X Ki+1B-01 X K2
[0033]其中,B-A表示当前视线坐标B到前一视线坐标A的距离,|Β_θ|表示当前视线坐标到交互界面中心点的距离,Ki和K2表示偏移系数,取值范围为0?1。
[0034]在一个实施例中,可以根据采集视线坐标序列的眼动仪的分辨率以及用户眼睛与交互界面的距离中的至少一项信息确定偏移补偿模块中的偏移系数Ki和κ2的值。
[0035]本发明实施例根据视线追踪技术捕获的注视点的精度变化规律,对移向交互界面边缘区域的视线坐标位置在视线移动方向上进行偏移补偿,以提高边缘区域注视点的测量精度,可以更有效地对边缘区域交互目标进行定位,使得人机交互更加自然和谐。
[0036]通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
【附图说明】
[0037]为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0038]图1为本发明基于视线追踪技术的目标定位方法一个实施例的流程示意图。
[0039]图2为本发明基于视线追踪技术的目标定位原理示意图。
[0040]图3为本发明基于视线追踪技术的目标定位装置一个实施例的结构示意图。
[0041]图4为本发明基于视线追踪技术的目标定位装置一个实施例的结构示意图。
【具体实施方式】
[0042]下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1