一种高体验人机交互遥控无人车的方法与流程

文档序号:11250233阅读:621来源:国知局
一种高体验人机交互遥控无人车的方法与流程

本发明涉及无人车领域,具体的说是涉及一种高体验人机交互遥控无人车的方法。



背景技术:

无人车在反恐、危险区域执行任务(排雷等)、为部队拖运器材与装备(例如“大狗”机器人)等方面具有重要的应用潜力,目前美国、德国、法国、英国、以色列、日本、韩国等国家的无人车应用技术比较先进,并针对关键技术进行了相应的研究,其中人-机交互方式也是重要的方面。

在一类无人车中,遥控式及半自主式无人车的人机交互方式为传统的操作台,操作者一种可能得操作方式是,通过操作台的操纵杆或者按钮给无人车发送命令,通过显示器显示回传的视频信息。

上述方式的一个弊端是,人员需要在测控室中进行观测及控制或者携带操纵台;此外,虽然可以开发相应的app将数据在移动设备上进行显示,也存在人机交互的体验效果问题。

随着硬件集成度及软件技术的进步,智能可穿戴设备风生水起;谷歌公司于2012年4月发布了一款“拓展现实”的眼镜---谷歌眼镜,该款智能设备具有通过声音控制拍照、视频通话、导航的功能,此外还具备网上冲浪、处理文字信息及电子邮件等功能。虽然谷歌眼镜有上述诸多的优点,但是也存在高成本、缺乏杀手级的应用app、虚拟现实与真实场景的叠加容易造成人员的分神,可能会导致潜在的危险(例如开车时)、由于谷歌眼镜的联网性,拍照的图片随时可能会上传到网上,从而带来了隐私被侵犯的隐患。

在本专利所述的应用场景中,谷歌眼镜的优势正好可以凸显,同时上述所述的缺点,可以得到很好的规避。操作人员利用谷歌眼镜的高体验人机交互效果,可以使得操作过程更加人性化;同时基于无人车开发的特殊app可以保证操作的可行性;因此,利用谷歌眼镜高体验的人机交互效果,把谷歌眼镜用于无人车中-----这是本专利的基本思想。



技术实现要素:

发本发明的目的,在于针对现有的水文测量无人车人机交互的体验效果差,提供了一种高体验人机交互遥控无人车的方法,旨在提供一种更加人性化的人机交互方法,满足操作人员灵活、舒适的监测及控制无人车的工作。下面详细说明本发明的方法。

本发明的方法是这样的:

所述的高体验人机交互遥控无人车的示意图如图1所示,图中包括谷歌眼镜、控制台、无人车。

硬件描述:

1)在控制台上安装蓝牙模块,并将其与控制台部分的主控制器进行相应的电气连接。

2)在控制台上安装ism波段的收发通信模块,并将其与控制台部分的主控制器进行相应的电气连接;在无人车上也安装相应的收发通信模块,并将其与无人车上的主控制器进行相应的电气连接,从而实现控制台与无人车之间的无线通信功能。

3)对于人机交互终端处的谷歌眼镜,为了尽可能的延长供电时间。操作者需要携带一个大容量的充电宝,同时用充电线将谷歌眼镜与充电宝进行连接。

软件描述:

1)对谷歌眼镜进行二次开发,安装相应的app,实现视频播放及语音识别控制等功能。相应软件的工作流程如图2所示。软件刚启动时,首先进行硬件初始化,包括对微型投影仪、语音模块、触控开关、蓝牙模块等进行初始化;然后打开蓝牙模块并建立与控制台之间的通信连接(控制台已经打开,并且相应的蓝牙模块也已经打开,并做好建立连接的准备);接着谷歌眼镜向控制台发送读取无人车视频信息指令并等待,等到视频信息流上传到谷歌眼镜上时,将信息通过微型投影仪投影到镜片上,供人观看。然后程序通过轮询语音模块及重复发送读取视频信息指令进行循环。当语音模块检测到“前进语音”时,控制器通过蓝牙向控制台发送“前进指令”;这里的前进指令,包括高、中、低三挡。当语音模块检测到“后退语音”时,控制器通过蓝牙向控制台发送“后退指令”;这里的后退指令,包括高、中、低三挡。当语音模块检测到“停止语音”时,控制器通过蓝牙向控制台发送“停止指令”;这里的停止指令,包括高、中、低三挡。当语音模块检测到“转向语音”时,控制器通过蓝牙向控制台发送“转向及角度指令”;当语音模块检测到“读取传感器语音”时,控制器通过蓝牙向控制台发送“读取传感器指令”;此时无人车会将采集到的传感器信息(一些水文信息及相应的语音信号)上传到谷歌眼镜上,并在眼镜上进行显示。

2)控制台的控制器中的程序完成接收并转发谷歌眼镜发送的控制指令,保存及上传无人车发回的视频及传感器信息。相应的软件流程图如图3所示。控制台启动后,首先对蓝牙模块、ism波段通信模块进行初始化。然后轮询检测蓝牙模块、ism波段通信模块。当检测到蓝牙模块接收缓冲区中有控制信号传输过来时,控制器将控制信号转发给ism波段通信模块缓冲区中发送给无人车;当检测到ism波段模块接收缓冲区中有信息传输过来时,控制器将其转发给蓝牙模块发送缓冲区中。

3)无人车控制器中的程序完成接收控制台发送过来的控制命令,并将其转化成相应的控制动作。同时实时采集相应传感器的数据,当控制台发送过来相应的读取命令时,将传感器的数据通过ism波段通信模块发给控制台。相应的软件流程图如图4所示。无人车启动后,首先对ism波段通信模块、电机驱动、数据采集传感器进行初始化,使得通信模块能够进行通信。然后获取数据采集模块的数据并轮询通信模块中的指令信息。当接收到前进指令时,控制器将其转化成相应的具体动作信号,控制相应的驱动动作,根据不同的档位(上、中、下),使无人车产生前进的动作;当接收到后退指令时,控制器将其转化成相应的具体动作信号,控制相应的驱动动作,根据不同的档位(上、中、下),使无人车产生后退的动作;当接收到停止指令时,控制器将其转化成相应的具体动作信号,控制相应的驱动动作,使无人车产生停止的动作;当接收到转向指令时,控制器将其转化成相应的具体动作信号,控制相应的驱动动作,根据不同的档位(上、中、下)及转向角度,使无人车产生转向的动作。

所述的高体验人机交互遥控无人车方法的整体过程描述如下:

1)首先,依次启动控制台、无人车、谷歌眼镜。并通过充电线将谷歌眼镜与充电宝进行连接。此时,控制台、无人车、谷歌眼镜控制器中的程序开始运行。

2)启动不久,控制台与谷歌眼镜之间通过蓝牙建立通信链路,控制台与无人车之间通过ism波段模块建立通信链路。此时,整个系统的信息通道已经建立。

3)操作人员戴上谷歌眼镜,此时谷歌已将读取视频指令发送下去,无人车上的视频信息,通过控制台的中转,上传到谷歌眼镜上,并显示给操作人员观看。此外,控制台保存中转的视频信息。

4)当操作人员发送“前进”语音指令时,指令通过控制台的中转发送给无人车,然后无人车产生前进的动作;同时,在此过程中,视频信息不断回传到谷歌眼镜上。其他的“后退”、“停止”、“转向”指令的工作过程与之类同。

在本发明中既充分避免了谷歌眼镜在传统消费者应用中所带来的高成本、泄露隐私、分神不安全的弊端又利用了谷歌眼镜多维度、人性化的人机交互方式,达到了高体验人机交互的目的。

附图说明

图1为本发明高体验人机交互遥控无人车的示意图。

图2为本发明谷歌眼镜二次开发app的软件流程图。

图3为本发明高体验人机交互遥控无人车控制台的软件流程图。

图4高体验人机交互遥控无人车控制器的软件流程图。

具体实施方式

以下结合优选实施例对本发明进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。

在androidwear版本中,根据上述的谷歌眼镜中工作的软件流程图,利用android中提供的视频处理api、语音处理api、眼部识别api、蓝牙通信api等,开发app,然后将其运行在谷歌眼镜中;所述的谷歌眼镜是googleglass2。

控制台控制器中,根据上述的控制台控制器工作的软件流程图,运行实时嵌入式系统,在操作系统中提供的蓝牙通信api,多线程等机制下,开发应用程序;由于ism波段通信模块,没有现成的驱动程序,开发相应的驱动程序。

无人车控制器中,根据上述的无人车控制器控制器的软件流程图,运行实时嵌入式系统,在操作系统中提供的多线程等机制下,开发应用程序;由于ism波段通信模块、各种数据采集模块,没有现成的驱动程序,开发相应的驱动程序。

在一种实施例中,所述的蓝牙模块采用5v供电电压,其端口电流为15-20ma;所述的ism波段通信模块采用通信距离6km、跳频通信方式。

在一种实施例中,所述的蓝牙模块采用3.3v供电电压,其端口电流为15-20ma;所述的ism波段通信模块采用1.9-3.6v供电电压,io工作电压为3.3v/5v,通信距离为250m。

在一种实施例中,所述的充电宝,采用20ah的电池容量,usb充电接口。

在另一种实施例中,所述的ism通信模块,也可以采用移动的3g通信网络进行通信。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1