体感交互系统以及方法

文档序号:10724255阅读:532来源:国知局
体感交互系统以及方法
【专利摘要】本发明公开了一种体感交互系统以及方法,所述体感交互系统包括体感交互装置以及至少一个受控设备,其中,所述体感交互装置与所述受控设备远程无线连接,所述体感交互装置用于采集人体图像数据,对所述人体图像数据识别得到相应的人体动作信息,根据所述人体动作信息确定功能指令,并将所述功能指令发送至所述受控设备;所述受控设备用于接收所述功能指令,执行与所述功能指令对应的功能操作。上述体感交互装置通过远程控制受控设备的方式能够大大降低环境对控制准确率的影响,而且,相较于现有技术,受控设备的设置位置也不再局限于其本身深度相机的感测范围,使体感交互技术对硬件设备的操控得到了更好的发展。
【专利说明】
体感交互系统以及方法
技术领域
[0001] 本发明涉及智能终端技术领域,特别是涉及一种体感交互系统以及方法。
【背景技术】
[0002] 体感交互技术作为新一代的人机交互技术,相比于键盘、鼠标以及触摸交互技术, 更加自然和直观,例如体感游戏是通过自身的身体动作来操作游戏,相较于传统的通过键 盘、鼠标以及有线手柄等的游戏,体感游戏不再是手指操作运动,身体的运动量和娱乐性都 得到了很大的提高,因此,体感游戏得到了很好的发展。
[0003] 上述列举的体感游戏一般是利用体感技术与计算机、电视等智能设备中的软件进 行交互,但是体感交互技术还有一种比较重要的应用为利用体感交互技术对硬件设备进行 操控,比如结合机器人、计算机、体感摄像头可以实现机器人的自动跟踪与壁障,同时可以 实现近距离手势操控机器人等。
[0004] 由于体感操控一般是针对可移动的硬件设备,如机器人或无人驾驶车辆等,都是 通过在该受控设备上安装体感设备来实现体感控制,比如,在行走的机器人上连接安装一 个深度相机,在不超过深度相机感测范围的区域内可以实现对机器人的体感控制。但是这 种常规的方式收到了严重的区域性限制,检测范围有限,而且受环境例如光的影响较大,因 此极大的限制了体感交互技术对硬件设备进行操控的发展。

【发明内容】

[0005] 本发明主要解决的技术问题是提供一种体感交互系统以及方法,能够在减小外界 环境影响的前提下,有效提高可移动的硬件设备的体感交互的实施应用范围。
[0006] 为解决上述技术问题,本发明采用的一个技术方案是:提供一种体感交互系统,
[0007] 所述体感交互系统包括体感交互装置以及至少一个受控设备,其中,所述体感交 互装置与所述受控设备远程无线连接,
[0008] 所述体感交互装置用于采集人体图像数据,对所述人体图像数据识别得到相应的 人体动作信息,根据所述人体动作信息确定功能指令,并将所述功能指令发送至所述受控 设备;
[0009] 所述受控设备用于接收所述功能指令,执行与所述功能指令对应的功能操作。
[0010] 其中,所述人体动作信息包括人体骨架对应不同部位之间的夹角或所述夹角的变 化范围。
[0011] 其中,所述功能指令包括加速、减速、前进、后退、左转、右转中的至少一种;
[0012] 所述体感交互装置具体用于:
[0013] 计算所述人体骨架中的人体躯干与左手大臂之间的夹
,并 当0<α<30°时,确定为前进指令,否则确定为后退指令,其中,向量为人体躯干向量, 向量为左手大臂向量;
[0014] 计算所述左手大臂与左手小臂之间夹
,并当β值相较于前 一时刻变大时,确定为加速指令,否则确定为减速指令,其中,向量为左手小臂向量;
[0015] 计算右手大臂向量与人体躯干法线向量;;之间的夹
,并 当0< γ <90°时,确定为左转指令,否则确定为右转指令,其中,= ?^χ??^,向量 为右臂肩部向量。
[0016] 其中,所述受控设备还用于采集所述受控设备操作时的图像数据,并将所述图像 数据传送至所述体感交互装置,
[0017] 所述体感交互装置还用于显示所述图像数据。
[0018] 其中,所述体感交互装置还用于分析所述图像数据得到所述受控设备的实际操作 信息,并在判断所述实际操作信息与发送的对应功能指令不匹配时,发出所述受控设备出 错的通知。
[0019] 其中,所述体感交互装置执行所述根据所述人体动作信息确定功能指令,包括判 断所述人体动作信息是否属于预设人体动作,若是,则获取与所述预设人体动作对应的功 能指令。
[0020] 其中,所述体感交互装置具体用于利用所述人体图像数据建立人体模型,并识别 出所述人体模型对应的所述人体动作信息。
[0021] 为解决上述技术问题,本发明采用的另一个技术方案是:提供一种体感交互方法,
[0022] 所述体感交互方法包括:
[0023]体感交互装置采集人体图像数据;
[0024]对所述人体图像数据识别得到相应的人体动作信息;
[0025 ]根据所述人体动作信息确定功能指令;
[0026]将所述功能指令发送至至少一个与所述体感交互装置远程无线连接的受控设备, 以使所述受控设备接收并执行所述操作指令。
[0027] 其中,所述人体动作信息包括人体骨架对应不同部位之间的夹角或所述夹角的变 化范围。
[0028] 其中,所述功能指令包括加速、减速、前进、后退、左转、右转中的至少一种;
[0029 ]所述根据所述人体动作信息确定功能指令的步骤包括:
[0030]计算所述人体骨架中的人体躯干与左手大臂之间的
,并 当0<α<30°时,确定为前进指令,否则确定为后退指令,其中,向量为人体躯干向量, 向量为左手大臂向量;
[0031] 计算所述左手大臂与左手小臂之间
,并当β值相较于前 一时刻变大时,确定为加速指令,否则确定为减速指令,其中,向量为左手小臂向量;
[0032] 计算右手大臂向量]与人体躯干法线向量^之间的
'并 当0< γ <90°时,确定为左转指令,否则确定为右转指令,其中,,向量 为右臂肩部向量。
[0033] 本发明的有益效果是:区别于现有技术的情况,本实施方式的体感交互系统的体 感交互装置与至少一个受控设备通过远程无线连接,体感交互装置采集人体图像数据,对 该人体图像数据识别得到相应的人体动作信息,再根据人体动作信息确定功能指令后,将 该功能指令发送至所述受控设备,受控设备用于接收所述功能指令,执行与所述功能指令 对应的功能操作。上述体感交互装置通过远程控制受控设备的方式能够大大降低环境对控 制准确率的影响,而且,相较于现有技术,受控设备的设置位置也不再局限于其本身深度相 机的感测范围,使体感交互技术对硬件设备的操控得到了更好的发展。而且一个体感交互 装置控制多个受控设备的实施方式能够进一步提高对受控设备远程控制的效率,降低成 本。
【附图说明】
[0034] 图1是本发明体感交互系统一实施方式的结构示意图;
[0035] 图2是本发明人体模型一实施方式的结构示意图;
[0036] 图3是体感交互系统另一实施方式的结构示意图;
[0037]图4是本发明体感交互系统再一实施方式的结构示意图;
[0038]图5是本发明体感交互系统又一实施方式的结构示意图;
[0039]图6是本发明体感交互方法一实施方式的流程示意图;
[0040]图7是本发明体感交互方法另一实施方式的流程示意图。
【具体实施方式】
[0041 ]参阅图1,图1是本发明体感交互系统一实施方式的结构示意图。如图1所示,本实 施方式的体感交互系统包括体感交互装置101以及受控设备102,其中,体感交互装置101与 受控设备102远程无线连接。
[0042]其中,该受控设备102包括行走机器人、无人驾驶车辆等远程操控设备中的至少一 种。
[0043]为了更加清晰的描述该体感交互系统的工作过程,进一步地参阅图2,图2是本发 明体感交互系统另一实施方式的结构示意图,是对图1体感交互系统的细化结构示意图。如 图2所示,体感交互装置201包括相互电路连接的图像采集单元2011以及处理器2012。其中, 该图像采集单元2011包括深度相机、RGB相机以及S0C控制芯片中的至少一种,该处理器 2012为RAM处理器。
[0044] 该体感交互装置201用于通过其图像采集单元2011采集人体图像数据,通过其处 理器2012对所述人体图像数据识别得到相应的人体动作信息,根据所述人体动作信息确定 功能指令,并将所述功能指令发送至所述受控设备。
[0045] 其中,该人体图像数据为人体深度图像数据,在一般情况下,该图像信息为包括用 户动作指令信息的深度图像信息。如果体感交互装置201的图像采集单元为S0C控制芯片, 那么该人体深度图像数据的的三维重建算法、体感识别算法等应用程序通过DSP的方式集 成在该S0C控制芯片中。
[0046]在具体的实施方式中,为了实现对远程受控设备202的远程体感操控,体感交互装 置201通过其处理器2012先根据受控设备202的类型将与其对应的功能指令进行分类,如前 进指令、后退指令、加速指令、减速指令、左转指令以及右转指令等,在此不做限定。
[0047]在其他实施方式中,体感交互装置201也可以设置受控设备通用性的功能指令,在 此不做限定。
[0048]在完成对功能指令的分类后,体感交互装置201通过其控制器2012根据设定的功 能指令预设人体动作,其中,该人体动作包括人体姿势,并将设定的人体动作与功能指令之 间建立对应关系。
[0049]在体感交互装置201与受控设备建立远程无线连接后,通过其图像采集单元2011 获取人体图像数据,并对获取到的人体图像数据进行识别,确定对应的人体动作信息。
[0050] 在一个可选的实施方式,为了减小无线网络传输的无效工作量,提高体感交互成 功率,体感交互装置201在采集到人体图像数据后,首先判断当前采集到的人体图像数据对 应的人体动作信息是否在预先设定的人体动作范围内,即判断是否属于预设人体动作,如 果属于预设人体动作,体感交互装置201再通过其处理器2012将该人体动作信息转换成功 能指令。
[0051] 具体地,体感交互装置201首先通过其处理器2012对采集到的人体图像数据进行 处理,利用所述人体图像数据建立人体模型,再根据该人体模型进行人体动作信息的识别。 其中,该人体动作信息包括人体骨架对应不同部位之间的夹角或所述夹角的变化范围,如 人体骨架中的人体躯干与左手大臂之间的夹角,左手大臂与左手小臂之间的夹角以及右手 大臂向量与人体躯干法线向量之间的夹角等人体模型数据等。
[0052]进一步地,体感交互装置201根据上述人体动作信息以及预先建立的人体动作信 息与功能指令之间的的对应关系,确定当前采集到的人体图像数据对应的功能指令。
[0053] 其中,该功能指令包括加速、减速、前进、后退、左转、右转中的至少一种。
[0054] 在具体的实施方式中,如图3所示,图3为本发明人体模型一实施方式的结构示意 图。结合图2和图3,体感交互装置201通过其处理器2012根据人体骨架中的人体躯干与左手 大臂之间的夹角α确定是前进指令或者是后退指令。其中,人体骨架中的人体躯干与左手大
_,并当0<α<30°时,确定为前进指令,否则确定为后退 指令,向量为人体躯干向量,向量为左手大臂向量。
[0055] 体感交互装置201通过其处理器2012根据左手大臂与左手小臂之间夹角β确定是 加速指令还是后退指令。具体地,左手大臂与左手小臂之间
,并当 β值相较于前一时刻变大时,确定为加速指令,否则确定为减速指令,其中,向量为左 手小臂向量,如图3所示。
[0056]体感交互装置201通其处理器2012根据人体躯干与右手大臂的相对位置确定是左 转指令还是右转指令。具体地,通过右手大臂向量^^与人体躯干法线向量;;之间的夹角 γ来确定,其中,
,并当〇< γ <90°时,确定为左转指令,否则确定为右转 指令,其中,^ = ?^χ?^ζ,向量为右臂肩部向量。如图3所示。
[0057] 以上指令结合了夹角以及夹角的变化范围两种方式,仅需要通过双手就可以完整 地控制受控终端的运行。
[0058] 需要说明的是,上述对指令的确定和计算方法只是举例,而非限定,在其他实施方 式中,也可以通过其他人体模型数据进行确定,本实施方式例举的人体动作信息也可以代 表上述六种指令之外的其他功能指令,人体动作信息与功能指令之间的对应关系也可以互 换,只要是与预先设定的对应关系相符合即可,在此不做限定。
[0059] 体感交互装置201在确定采集到的人体图像数据对应的功能指令后,进一步地通 过远程无线将该功能指令发送至受控设备202。
[0060] 受控设备202接收到该功能指令后,执行与该功能指令对应的功能操作,如接收到 左转指令,则执行左转操作,如接收到的是前进指令,则执行前进操作,如接收到的是加速 指令,则加快当前操作的速度等,在此不做限定。
[0061] 在另一个实施方式中,为了更清楚的了解当前受控设备所处的环境以及工作状 况,提高远程操控的可执行性,受控设备还用于采集所述受控设备操作时的图像数据,并将 所述图像数据传送至所述体感交互装置,所述体感交互装置还用于显示所述图像数据。
[0062] 具体地,如图4所示,图4是本发明体感交互系统再一实施方式的结构示意图。该受 控设备402包括摄像头4021,通过该摄像头4021采集当前操作时的图像数据,其中,该图像 数据包括受控设备402周围环境特征以及该受控设备402的运行状况。受控设备402将该摄 像头4021采集到的图像数据通过远程无线的方式发送至体感交互装置401。
[0063] 该体感交互装置401除了包括图像采集单元4011以及处理器4012外,还包括显示 单元4013。该体感交互装置401在接收到受控设备402发送的该受控设备402操作时的图像 数据后,通过该显示单元4013进行显示,以供工作人员进行参考。其中,该显示单元包括液 晶显示屏以及LED显示屏中的至少一种,在此不做限定。
[0064]在另一个实施方式中,体感交互装置401在接收到该受控设备402操作时的图像数 据后,进一步地分析所述图像数据得到所述受控设备的实际操作信息,判断该实际操作信 息是否与体感交互装置401发送的功能指令对应的操作是否相匹配,如果该实际操作信息 与对应的功能指令不或功能指令对应的操作不匹配时,发出数控设备出错的通知,如通过 发出报警的方式来实现,在此不做限定。
[0065]在另一个实施方式中,为了进一步提高对受控设备远程控制的效率,降低成本,如 图5所示,本实施方式的体感交互装置501与多个受控设备502远程无线连接,实现一个体感 交互装置501控制多个受控设备502的目的。例如可通过一个体感交互装置501同时控制多 个机器人进行阅兵或者动作表演等。
[0066]区别于现有技术,本实施方式的体感交互系统的体感交互装置与至少一个受控设 备通过远程无线连接,体感交互装置采集人体图像数据,对该人体图像数据识别得到相应 的人体动作信息,再根据人体动作信息确定功能指令后,将该功能指令发送至所述受控设 备,受控设备用于接收所述功能指令,执行与所述功能指令对应的功能操作。上述体感交互 装置通过远程控制受控设备的方式能够大大降低环境对控制准确率的影响,而且,相较于 现有技术,受控设备的设置位置也不再局限于其本身深度相机的感测范围,使体感交互技 术对硬件设备的操控得到了更好的发展。而且一个体感交互装置控制多个受控设备的实施 方式能够进一步提高对受控设备远程控制的效率,降低成本。
[0067] 另外,受控设备采集其操作时的图像数据,并将该图像数据传送至所述体感交互 装置,体感交互装置显示所述图像数据的实施方式,能够使远程的受控设备的周围环境状 况以及当前的实际操作情形一目了然的出现在控制端,为工作人员对当前受控设备工作状 况的监控和调整提供依据,也能够进一步的提高远程操控的可执行性和受控设备的工作效 率。
[0068] 参阅图6,图6是本发明体感交互方法一实施方式的流程示意图。本实施方式的体 感交互方法包括如下步骤:
[0069] 601:体感交互装置采集人体图像数据。
[0070]该体感交互装置包括相互电路连接的图像采集单元以及处理器。其中,该图像采 集单元包括深度相机、RGB相机以及S0C控制芯片中的至少一种,该处理器为RAM处理器。
[0071] 其中,该人体图像数据为人体深度图像数据,在一般情况下,该图像信息为包括用 户动作指令信息的深度图像信息。
[0072] 在具体的实施方式中,为了实现对远程受控设备的远程体感操控,体感交互装置 通过其处理器先根据受控设备的类型将与其对应的功能指令进行分类,如前进指令、后退 指令、加速指令、减速指令、左转指令以及右转指令等,在此不做限定。
[0073]在其他实施方式中,体感交互装置也可以设置受控设备通用性的功能指令,在此 不做限定。
[0074] 在完成对功能指令的分类后,体感交互装置通过其控制器根据设定的功能指令预 设人体动作,其中,该人体动作包括人体姿势,并将设定的人体动作与功能指令之间建立对 应关系。
[0075] 体感交互装置在与受控设备建立远程无线连接后,通过其图像采集单元获取人体 图像数据。
[0076] 602:对所述人体图像数据识别得到相应的人体动作信息。
[0077]具体地,体感交互装置首先通过其处理器对采集到的人体图像数据进行处理,利 用所述人体图像数据建立人体模型,再根据该人体模型进行人体动作信息的识别。其中,该 人体动作信息包括人体骨架对应不同部位之间的夹角或所述夹角的变化范围,如人体骨架 中的人体躯干与左手大臂之间的夹角,左手大臂与左手小臂之间的夹角以及右手大臂向量 与人体躯干法线向量之间的夹角等人体模型数据等。
[0078] 603:根据所述人体动作信息确定功能指令。
[0079]进一步地,体感交互装置根据上述人体动作信息以及预先建立的人体动作信息与 功能指令之间的的对应关系,确定当前采集到的人体图像数据对应的功能指令。
[0080]在一个可选的实施方式,为了减小无线网络传输的无效工作量,提高体感交互成 功率,体感交互装置在采集到人体图像数据后,首先判断当前采集到的人体图像数据对应 的人体动作信息是否在预先设定的人体动作范围内,即判断是否属于预设人体动作,如果 属于预设人体动作,体感交互装置再通过其处理器将该人体动作信息转换成功能指令。 [0081 ]其中,该功能指令包括加速、减速、前进、后退、左转、右转中的至少一种。
[0082] 在具体的实施方式中,体感交互装置=通过其处理器=根据人体骨架中的人体躯 干与左手大臂之间的夹角α确定是前进指令或者是后退指令。其中,人体骨架中的人体躯干 与左手大臂之间的
,并当0<α<30°时,确定为前进指令,否则确 定为后退指令,向量为人体躯干向量,向量为左手大臂向量。β确定是加速指令 还是后退指令。具体地,左手大臂与左手小臂之间
,并当β值相较 于前一时刻变大时,确定为加速指令,否则确定为减速指令,其中,向量为左手小臂向 量。
[0083] 体感交互装置通过其处理器根据左手大臂与左手小臂之间夹角,
[0084]体感交互装置通其处理器根据人体躯干与右手大臂的相对位置确定是左转指令 还是右转指令。具体地,通过右手大臂向量/ν6Λ^与人体躯干法线向量^之间的夹角γ来确 定,
,_并当γ <90°时,确定为左转指令,否则确定为右转指令,其 中,5 = 为右臂肩部向量。
[0085] 需要说明的是,上述对指令的确定和计算方法只是举例,而非限定,在其他实施方 式中,也可以通过其他人体模型数据进行确定,本实施方式例举的人体动作信息也可以代 表上述六种指令之外的其他功能指令,人体动作信息与功能指令之间的对应关系也可以互 换,只要是与预先设定的对应关系相符合即可,在此不做限定。
[0086] 604:将所述功能指令发送至至少一个与所述体感交互装置远程无线连接的受控 设备,以使所述受控设备接收并执行所述操作指令。
[0087] 体感交互装置在确定采集到的人体图像数据对应的功能指令后,进一步地通过远 程无线将该功能指令发送至受控设备。
[0088] 受控设备接收到该功能指令后,执行与该功能指令对应的功能操作,如接收到左 转指令,则执行左转操作,如接收到的是前进指令,则执行前进操作,如接收到的是加速指 令,则加快当前操作的速度等,在此不做限定。
[0089] 需要说明的是,其中,与该无线体感交互装置远程无线连接的受控设备的数量可 以为1个可以为多个,当体感交互装置与多个受控设备远程无线连接,可实现一个体感交互 装置控制多个受控设备的目的。例如可通过一个体感交互装置同时控制多个机器人进行阅 兵或者动作表演等。
[0090] 在另一个实施方式中,如图7所示,图7是本发明体感交互方法另一实施方式的流 程示意图,为了更清楚的了解当前受控设备所处的环境以及工作状况,提高远程操控的可 执行性,在步骤704将所述功能指令发送至至少一个与所述体感交互装置远程无线连接的 受控设备,以使所述受控设备接收并执行所述操作指令之后,还包括如下步骤:
[0091] 705:接收并显示受控设备发送的所述受控设备操作时的图像数据。
[0092] 具体地,受控设备可通过设置摄像头,通过该摄像头采集当前操作时的图像数据, 其中,该图像数据包括受控设备周围环境特征以及该受控设备的运行状况。并将采集到的 图像数据通过远程无线的方式发送至体感交互装置。
[0093] 对应地,体感交互装置在接收到受控设备发送的该受控设备操作时的图像数据 后,可通过显示屏进行显示,以供工作人员进行参考。其中,该显示单元包括液晶显示屏以 及LED显示屏中的至少一种,在此不做限定。
[0094] 其中,步骤701~704与步骤601~604相同,具体请参阅图6及其相关文字的描述, 在此不再赘述。
[0095]在另一个实施方式中,体感交互装置在接收到该受控设备4操作时的图像数据后, 进一步地分析所述图像数据得到所述受控设备的实际操作信息,判断该实际操作信息是否 与体感交互装置发送的功能指令对应的操作是否相匹配,如果该实际操作信息与对应的功 能指令不或功能指令对应的操作不匹配时,发出数控设备出错的通知,如通过发出报警的 方式来实现,在此不做限定。
[0096]区别于现有技术,本实施方式的体感交互装置体感交互装置采集人体图像数据, 对该人体图像数据识别得到相应的人体动作信息,再根据人体动作信息确定功能指令后, 将该功能指令发送至至少一个与通过远程无线连接的受控设备,以使该受控设备执行与所 述功能指令对应的功能操作。上述体感交互装置通过远程控制受控设备的方式能够大大降 低环境对控制准确率的影响,而且,相较于现有技术,受控设备的设置位置也不再局限于其 本身深度相机的感测范围,使体感交互技术对硬件设备的操控得到了更好的发展。而且一 个体感交互装置控制多个受控设备的实施方式能够进一步提高对受控设备远程控制的效 率,降低成本。
[0097] 另外,受控设备采集其操作时的图像数据,并将该图像数据传送至所述体感交互 装置,体感交互装置显示所述图像数据的实施方式,能够使远程的受控设备的周围环境状 况以及当前的实际操作情形一目了然的出现在控制端,为工作人员对当前受控设备工作状 况的监控和调整提供依据,也能够进一步的提高远程操控的可执行性和受控设备的工作效 率。
[0098] 以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本 发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的 技术领域,均同理包括在本发明的专利保护范围内。
【主权项】
1. 一种体感交互系统,其特征在于,所述体感交互系统包括体感交互装置W及至少一 个受控设备,其中,所述体感交互装置与所述受控设备远程无线连接, 所述体感交互装置用于采集人体图像数据,对所述人体图像数据识别得到相应的人体 动作信息,根据所述人体动作信息确定功能指令,并将所述功能指令发送至所述受控设备; 所述受控设备用于接收所述功能指令,执行与所述功能指令对应的功能操作。2. 根据权利要求1所述体感交互系统,其特征在于,所述人体动作信息包括人体骨架对 应不同部位之间的夹角或所述夹角的变化范围。3. 根据权利要求2所述体感交互系统,其特征在于,所述功能指令包括加速、减速、前 进、后退、左转、右转中的至少一种; 所述体感交互装置具体用于: 计算所述人体骨架中的人体躯干与左手大臂之间的夹角,并当0 《α《30°时,确定为前进指令,否则确定为后退指令,其中,向量iVjWj为人体躯干向量,向 量方^为左手大臂向量; 计算所述左手大臂与左手小臂之间夹角并当β值相较于前一时 刻变大时,确定为加速指令,否则确定为减速指令,其中,向量为左手小臂向量; 计算右手大臂向量??;万;与人体躯干法线向量;;之间的夹角'并当〇《 丫《90°时,确定为左转指令,否则确定为右转指令,其中,二苗,向量茨^为右 臂肩部向重。4. 根据权利要求1所述的体感交互系统,其特征在于,所述受控设备还用于采集所述受 控设备操作时的图像数据,并将所述图像数据传送至所述体感交互装置, 所述体感交互装置还用于显示所述图像数据。5. 根据权利要求4所述的体感交互系统,其特征在于,所述体感交互装置还用于分析所 述图像数据得到所述受控设备的实际操作信息,并在判断所述实际操作信息与发送的对应 功能指令不匹配时,发出所述受控设备出错的通知。6. 根据权利要求1所述的体感交互系统,其特征在于,所述体感交互装置执行所述根据 所述人体动作信息确定功能指令,包括判断所述人体动作信息是否属于预设人体动作,若 是,则获取与所述预设人体动作对应的功能指令。7. 根据权利要求1所述的体感交互系统,其特征在于,所述体感交互装置具体用于利用 所述人体图像数据建立人体模型,并识别出所述人体模型对应的所述人体动作信息。8. -种体感交互方法,其特征在于,所述体感交互方法包括: 体感交互装置采集人体图像数据; 对所述人体图像数据识别得到相应的人体动作信息; 根据所述人体动作信息确定功能指令; 将所述功能指令发送至至少一个与所述体感交互装置远程无线连接的受控设备,W使 所述受控设备接收并执行所述操作指令。9. 根据权利要求8所述的体感交互方法,其特征在于,所述人体动作信息包括人体骨架 对应不同部位之间的夹角或所述夹角的变化范围。10. 根据权利要求9所述的体感交互方法,其特征在于,所述功能指令包括加速、减速、 前进、后退、左转、右转中的至少一种; 所述根据所述人体动作信息确定功能指令的步骤包括: 计算所述人体骨架中的人体躯干与左手大臂之间的夹角<并当0 《α《30°时,确定为前进指令,否则确定为后退指令,其中,向量为人体躯干向量,向 量为左手大臂向量; 计算所述左手大臂与左手小臂之间夹角,并当β值相较于前一时 刻变大时,确定为加速指令,否则确定为减速指令,其中,向量?ζ?ζ为左手小臂向量; 计算右手大臂向量与人体躯干法线向量;?之间的夹^并当〇《 丫《90°时,确定为左转指令,否则确定为右转指令,其中,;= 向量苗^为右 臂肩部向量。
【文档编号】G06F3/01GK106095087SQ201610394226
【公开日】2016年11月9日
【申请日】2016年6月2日 公开号201610394226.3, CN 106095087 A, CN 106095087A, CN 201610394226, CN-A-106095087, CN106095087 A, CN106095087A, CN201610394226, CN201610394226.3
【发明人】黄源浩, 刘龙, 肖振中, 许星
【申请人】深圳奥比中光科技有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1