一种面向多变作业需求壁面维护机器人的路径调整方法

文档序号:33477970发布日期:2023-03-15 11:01阅读:27来源:国知局
一种面向多变作业需求壁面维护机器人的路径调整方法

1.本发明涉及了一种机器人的路径调整方法,具体涉及一种面向多变作业需求壁面维护机器人的路径调整方法。


背景技术:

2.船舶除锈作业是壁面维护机器人路径规划研究较多的领域。路径规划需要对轨迹进行合理性规划,假设移动机器人像人一样面临一个简单或复杂、静态或动态、已知或未知的真实环境中时,那么它的首要问题是如何感知环境,避开障碍物,继而以最小或较小的消耗(如时间、空间或者能量)来完成事先设定的任务。然而这些工作的基础就是路径规划,它采用一定的性能评价指标,来判定机器人怎样实现从所处的环境中寻找到一条从初始位置到目标位置的最优或次优路径。捕食者猎物算法是一种新型的覆盖路径规划方法,它具有较好的自适应能力,面对于工作环境的变化仍能完成覆盖任务。类似于生物激励神经网络算法,捕食者猎物法也存在着一个决策模型。但该决策模型面对多机器人覆盖任务,容易使机器人在覆盖过程中聚集,导致路径质量下降,同时过于贪婪的决策方法使得机器人容易陷入局部最优。


技术实现要素:

3.为了解决背景技术中存在的问题,本发明所提供一种面向多变作业需求壁面维护机器人的路径调整方法,该方法针对立面维护作业机器人在除锈、喷漆、检测、除海生物及辐射环境下进行作业时,面临障碍物几何分布不均的问题,研究了爬壁机器人全覆盖路径规划算法,基于栅格地图,根据多机器人运动特点和工作环境中各方向移动的能耗区别,对捕食者猎物法中的决策模型进行改进,并将滚动优化决策集于与捕食者猎物法中,提出并使用一种基于滚动优化和分散捕食者猎物法的全覆盖路径规划算法,最终规划出最适合当前作业要求的多机器人的覆盖路径。
4.本发明采用的技术方案是:
5.本发明壁面维护机器人的路径调整方法包括如下步骤:
6.步骤1:将若干壁面维护机器人所在的壁面的整体栅格化地图输入捕食者猎物模型中,针对每个壁面维护机器人,将壁面维护机器人所在的栅格位置输入捕食者猎物模型中,捕食者猎物模型需要初始化自身的参数并接收机器人的初始状态;将与壁面维护机器人所在栅格相连的栅格作为壁面维护机器人的临近点;选取各个临近点中的若干自由栅格作为壁面维护机器人下一步移动的候选栅格。
7.步骤2:针对每个壁面维护机器人,捕食者猎物模型建立当前壁面维护机器人的滚动窗口进而确定规划窗口,根据各个候选栅格在规划窗口内获取壁面维护机器人未来t步的若干条移动路径,捕食者猎物模型输出壁面维护机器人未来t步的各条移动路径各自的累计效益函数。
8.步骤3:针对每个壁面维护机器人,使用鲸鱼优化算法woa计算壁面维护机器人未
来t步的各条移动路径各自的累计效益函数的累积奖励值,选取其中累积奖励值最大的一条移动路径作为壁面维护机器人未来t步的移动路径,驱动壁面维护机器人根据最佳移动路径移动第一步并对当前所在的壁面的栅格位置进行维护。
9.步骤4:重复步骤2-3,直至壁面维护机器人已移动t步或壁面维护机器人所在的壁面的整体栅格化地图已被完全覆盖。
10.步骤5:当壁面的整体栅格化地图已被完全覆盖,结束壁面维护机器人对壁面的维护;当壁面的整体栅格化地图未被完全覆盖,则重复步骤1-5直至壁面的整体栅格化地图已被完全覆盖,结束壁面维护机器人对壁面的维护。捕食者猎物模型输出最佳路径后结束路径调整。
11.当各个壁面维护机器人已完成自身的未来t步的移动后,壁面的整体栅格化地图未被完全覆盖,则需要回溯路径规划的引导机器人脱离死区,并重复上述步骤,重复时需要再次更新栅格地图状态、机器人状态和滚动窗口等。
12.所述的步骤1中,临近点的最大数量为8个;自由栅格具体为未覆盖且无障碍物的栅格,整体栅格化地图中各个壁面维护机器人所在的栅格以及各个壁面维护机器人已经过的栅格均作为已覆盖栅格,其它各个栅格均为未覆盖栅格。
13.整体栅格化地图已被完全覆盖表明整体栅格化地图的每个栅格已被壁面维护机器人经过并被维护。捕食者猎物决策模型中避开捕食者奖励函数在多机器人覆盖过程容易使得机器人聚集在同一区域;平滑度奖励函数考虑转弯会带来过多的消耗而忽略了机器人斜向移动时会产生更长覆盖的路径,会使得覆盖区域分区等问题;机器人在覆盖过程中属于相互竞争的关系,需要防止机器人的回溯区域被其它机器人抢先覆盖。
14.所述的步骤2中,针对每个壁面维护机器人,捕食者猎物模型根据各个候选栅格建立当前壁面维护机器人的滚动窗口进而确定规划窗口,具体如下:
15.2.1)壁面维护机器人中安装有位置传感器,通过位置传感器建立以壁面维护机器人为中心,半径为r的圆形区域的机器人坐标系oxy,并将机器人坐标系oxy坐标转换为壁面的整体栅格化地图的世界坐标系oxy,从而建立壁面维护机器人的滚动窗口;滚动窗口的大小与机器人位置传感器的探测范围有关,位置传感器具体采用思岚雷达,为360
°
的激光雷达探测器,r为雷达探测半径。基于机器人坐标系oxy,机器人通过传感器获得到的外界信息,并根据这些信息进行环境建模,再根据oxy与oxy之间的坐标变换关系,将获取的信息在全局环境上进行建模。
16.2.2)根据壁面维护机器人的滚动窗口,确定壁面维护机器人的矩形的规划窗口,确定的规划窗口的范围小于滚动窗口的范围,并且规划窗口的范围的边长为t+2,t为壁面维护机器人未来移动的预设步数。
17.规划窗口是机器人进行路径规划的区域,后续需对机器人未来t步的路径进行预测。机器人在规划窗口内规划机器人行走路线,机器人每移动一步,窗口也随着移动,根据传感器反馈的最新信息实时对滚动窗口进行更新。
18.给出基于滚动优化的决策方法,机器人在工作空间中执行覆盖任务时,需要实时探索周围的局部环境信息,以逐步滚动的方式进行路径规划,可确保路径的合理性和安全性。
19.所述的步骤2.1)中,壁面维护机器人的滚动窗口具体如下:
20.win(o(t))={o|o∈w,d(o(t),o)≤r}
21.其中,win()表示滚动窗口;o(t)表示壁面维护机器人在当前t时刻所处的位置;o表示壁面的整体栅格化地图中任意一栅格的位置;w表示壁面的整体栅格化地图中所有栅格坐标的集合;d(o(t),o)表示壁面维护机器人在当前t时刻所处的位置o(t)和壁面的整体栅格化地图中任意一栅格的位置o的欧式距离。
22.滚动窗口是对探测范围内的环境进行建模的区域,由于距离会影响激光雷达的采集精度,同时过大的滚动窗口会增加局部环境信息建模的计算量,所以需要选取合适的滚动窗口大小。
23.所述的步骤2中,根据各个候选栅格在规划窗口内获取壁面维护机器人未来t步的若干条移动路径,针对壁面维护机器人未来t步的每条移动路径,首先选取壁面维护机器人当前所在的栅格的临近点中的其中一个候选栅格作为移动路径的第一个移动栅格点,然后选取第一个移动栅格点的临近点中的其中一个候选栅格作为移动路径的第二个移动栅格点,直至选取出移动路径的第t个移动栅格点,共同构成移动路径;移动路径中包括t个连续的栅格。
24.选择最佳移动路径为最佳移动序列,即选择移动序列最靠前的序列控制壁面维护机器人移动。
25.所述的步骤2中,捕食者猎物模型输出壁面维护机器人未来t步的各条移动路径各自的累计效益函数,针对壁面维护机器人未来t步的每条移动路径,壁面维护机器人根据移动路径移动t步,每次移动时,捕食者猎物模型均计算壁面维护机器人自当前所在的栅格移动至下一个栅格的奖励值,当壁面维护机器人移动t步后,捕食者猎物模型将计算获得的t个奖励值进行累计获得累计效益函数。
26.所述的奖励值包括避开捕食者奖励、平滑度奖励和边界奖励。
27.所述的步骤3中,使用鲸鱼优化算法woa计算时,鲸鱼优化算法woa进行迭代计算,直至达到最大迭代次数时,结束计算。
28.所述的步骤4中,每次重复步骤2-3时,均对自身内部的参数进行更新,具体为更新壁面的整体栅格化地图中的自由栅格,即更新当前壁面的整体栅格化地图中的各个自由栅格的位置,同时选取各个自由栅格中的若干候选栅格;更新起始点,即以壁面维护机器人当前所在的栅格位置为原点;更新其它各个壁面维护机器人的位置;更新捕食者猎物模型的两个权重因子;更新壁面维护机器人的临近点的最大个数等;还包括临近半径以及捕食者猎物模型的运行时长等参数。
29.捕食者猎物模型初始化自身的参数包括初始化sigmoid激活函数和反向sigmoid激活函数的斜率、捕食者的影响范围、回溯区域范围等参数,同时初始化权重因子种群。在路径调整过程中,权重因子会影响奖励值中各个函数占比的大小,进而使得机器人做出不同的决策,得到不同的路径。捕食者猎物法可在同等大小的无障碍工作空间中模拟机器人的覆盖规划,利用优化算法找到路径最优情况下的权重因子,并在其将套用于实际的规划任务中,可获得较好路径的而同时,也实现了对地图的自适应规划。
30.每次重复使用鲸鱼优化算法woa时,也需要生成鲸鱼优化算法woa的权重α1、α2、α3的初始种群。
31.在捕食者猎物模型运行过程中,还需要判断是都选取到候选栅格,若没有选取到
候选栅格或捕食者猎物模型运行超过预设最大运行时长,则需要重新进行路径的调整。
32.本发明的有益效果是:
33.本发明方法采用动态捕食者规划算法,可以有效调整机器人路径规划效率,有效遏制机器人对角运动,在提升区域覆盖的同时,减少路径交汇。
附图说明
34.图1是捕食者奖励值的组成示意图;
35.图2是分散捕食者猎物模型的覆盖路径规划算法流程图。
具体实施方式
36.下面结合附图及具体实施例对本发明作进一步详细说明。
37.如图2所示,本发明壁面维护机器人的路径调整方法包括如下步骤:
38.步骤1:将若干壁面维护机器人所在的壁面的整体栅格化地图输入捕食者猎物模型中,针对每个壁面维护机器人,将壁面维护机器人所在的栅格位置输入捕食者猎物模型中,捕食者猎物模型需要初始化自身的参数并接收机器人的初始状态;将与壁面维护机器人所在栅格相连的栅格作为壁面维护机器人的临近点;选取各个临近点中的若干自由栅格作为壁面维护机器人下一步移动的候选栅格。
39.步骤1中,临近点的最大数量为8个;自由栅格具体为未覆盖且无障碍物的栅格,整体栅格化地图中各个壁面维护机器人所在的栅格以及各个壁面维护机器人已经过的栅格均作为已覆盖栅格,其它各个栅格均为未覆盖栅格。
40.整体栅格化地图已被完全覆盖表明整体栅格化地图的每个栅格已被壁面维护机器人经过并被维护。捕食者猎物决策模型中避开捕食者奖励函数在多机器人覆盖过程容易使得机器人聚集在同一区域;平滑度奖励函数考虑转弯会带来过多的消耗而忽略了机器人斜向移动时会产生更长覆盖的路径,会使得覆盖区域分区等问题;机器人在覆盖过程中属于相互竞争的关系,需要防止机器人的回溯区域被其它机器人抢先覆盖。
41.步骤2:针对每个壁面维护机器人,捕食者猎物模型建立当前壁面维护机器人的滚动窗口进而确定规划窗口,根据各个候选栅格在规划窗口内获取壁面维护机器人未来t步的若干条移动路径,捕食者猎物模型输出壁面维护机器人未来t步的各条移动路径各自的累计效益函数。
42.步骤2中,针对每个壁面维护机器人,捕食者猎物模型根据各个候选栅格建立当前壁面维护机器人的滚动窗口进而确定规划窗口,具体如下:
43.2.1)壁面维护机器人中安装有位置传感器,通过位置传感器建立以壁面维护机器人为中心,半径为r的圆形区域的机器人坐标系oxy,并将机器人坐标系oxy坐标转换为壁面的整体栅格化地图的世界坐标系oxy,从而建立壁面维护机器人的滚动窗口;滚动窗口的大小与机器人位置传感器的探测范围有关,位置传感器具体采用思岚雷达,为360
°
的激光雷达探测器,r为雷达探测半径。基于机器人坐标系oxy,机器人通过传感器获得到的外界信息,并根据这些信息进行环境建模,再根据oxy与oxy之间的坐标变换关系,将获取的信息在全局环境上进行建模。
44.2.2)根据壁面维护机器人的滚动窗口,确定壁面维护机器人的矩形的规划窗口,
确定的规划窗口的范围小于滚动窗口的范围,并且规划窗口的范围的边长为t+2,t为壁面维护机器人未来移动的预设步数。
45.规划窗口是机器人进行路径规划的区域,后续需对机器人未来t步的路径进行预测。机器人在规划窗口内规划机器人行走路线,机器人每移动一步,窗口也随着移动,根据传感器反馈的最新信息实时对滚动窗口进行更新。
46.给出基于滚动优化的决策方法,机器人在工作空间中执行覆盖任务时,需要实时探索周围的局部环境信息,以逐步滚动的方式进行路径规划,可确保路径的合理性和安全性。
47.步骤2.1)中,壁面维护机器人的滚动窗口具体如下:
48.win(o(t))={o|o∈w,d(o(t),o)≤r}
49.其中,win()表示滚动窗口;o(t)表示壁面维护机器人在当前t时刻所处的位置;o表示壁面的整体栅格化地图中任意一栅格的位置;w表示壁面的整体栅格化地图中所有栅格坐标的集合;d(o(t),o)表示壁面维护机器人在当前t时刻所处的位置o(t)和壁面的整体栅格化地图中任意一栅格的位置o的欧式距离。
50.滚动窗口是对探测范围内的环境进行建模的区域,由于距离会影响激光雷达的采集精度,同时过大的滚动窗口会增加局部环境信息建模的计算量,所以需要选取合适的滚动窗口大小。
51.步骤2中,根据各个候选栅格在规划窗口内获取壁面维护机器人未来t步的若干条移动路径,针对壁面维护机器人未来t步的每条移动路径,首先选取壁面维护机器人当前所在的栅格的临近点中的其中一个候选栅格作为移动路径的第一个移动栅格点,然后选取第一个移动栅格点的临近点中的其中一个候选栅格作为移动路径的第二个移动栅格点,直至选取出移动路径的第t个移动栅格点,共同构成移动路径;移动路径中包括t个连续的栅格。
52.选择最佳移动路径为最佳移动序列,即选择移动序列最靠前的序列控制壁面维护机器人移动。
53.步骤2中,捕食者猎物模型输出壁面维护机器人未来t步的各条移动路径各自的累计效益函数,针对壁面维护机器人未来t步的每条移动路径,壁面维护机器人根据移动路径移动t步,每次移动时,捕食者猎物模型均计算壁面维护机器人自当前所在的栅格移动至下一个栅格的奖励值,当壁面维护机器人移动t步后,捕食者猎物模型将计算获得的t个奖励值进行累计获得累计效益函数。
54.如图1所示,奖励值包括避开捕食者奖励、平滑度奖励和边界奖励。
55.步骤3:针对每个壁面维护机器人,使用鲸鱼优化算法woa计算壁面维护机器人未来t步的各条移动路径各自的累计效益函数的累积奖励值,选取其中累积奖励值最大的一条移动路径作为壁面维护机器人未来t步的移动路径,驱动壁面维护机器人根据最佳移动路径移动第一步并对当前所在的壁面的栅格位置进行维护。
56.步骤3中,使用鲸鱼优化算法woa计算时,鲸鱼优化算法woa进行迭代计算,直至达到最大迭代次数时,结束计算。
57.步骤4:重复步骤2-3,直至壁面维护机器人已移动t步或壁面维护机器人所在的壁面的整体栅格化地图已被完全覆盖。
58.步骤4中,每次重复步骤2-3时,均对自身内部的参数进行更新,具体为更新壁面的
整体栅格化地图中的自由栅格,即更新当前壁面的整体栅格化地图中的各个自由栅格的位置,同时选取各个自由栅格中的若干候选栅格;更新起始点,即以壁面维护机器人当前所在的栅格位置为原点;更新其它各个壁面维护机器人的位置;更新捕食者猎物模型的两个权重因子;更新壁面维护机器人的临近点的最大个数等;还包括临近半径以及捕食者猎物模型的运行时长等参数。
59.捕食者猎物模型初始化自身的参数包括初始化sigmoid激活函数和反向sigmoid激活函数的斜率、捕食者的影响范围、回溯区域范围等参数,同时初始化权重因子种群。在路径调整过程中,权重因子会影响奖励值中各个函数占比的大小,进而使得机器人做出不同的决策,得到不同的路径。捕食者猎物法可在同等大小的无障碍工作空间中模拟机器人的覆盖规划,利用优化算法找到路径最优情况下的权重因子,并在其将套用于实际的规划任务中,可获得较好路径的而同时,也实现了对地图的自适应规划。
60.每次重复使用鲸鱼优化算法woa时,也需要生成鲸鱼优化算法woa的权重α1、α2、α3的初始种群。
61.在捕食者猎物模型运行过程中,还需要判断是都选取到候选栅格,若没有选取到候选栅格或捕食者猎物模型运行超过预设最大运行时长,则需要重新进行路径的调整。
62.步骤5:当壁面的整体栅格化地图已被完全覆盖,结束壁面维护机器人对壁面的维护;当壁面的整体栅格化地图未被完全覆盖,则重复步骤1-5直至壁面的整体栅格化地图已被完全覆盖,结束壁面维护机器人对壁面的维护。捕食者猎物模型输出最佳路径后结束路径调整。
63.当各个壁面维护机器人已完成自身的未来t步的移动后,壁面的整体栅格化地图未被完全覆盖,则需要回溯路径规划的引导机器人脱离死区,并重复上述步骤,重复时需要再次更新栅格地图状态、机器人状态和滚动窗口等。
64.本发明方法针对立面维护作业机器人在除锈、喷漆、检测、除海生物及辐射环境下进行作业时,面临障碍物几何分布不均的问题,研究了爬壁机器人全覆盖路径规划算法,基于栅格地图,根据多机器人运动特点和工作环境中各方向移动的能耗区别,对捕食者猎物法中的决策模型进行改进,并将滚动优化决策集于与捕食者猎物法中,提出并使用一种基于滚动优化和分散捕食者猎物法的全覆盖路径规划算法,最终规划出最适合当前作业要求的多机器人的覆盖路径。
65.本说明书的实施例所述的内容仅仅是对发明构思的实现形式的列举,仅作说明用途。本发明的保护范围不应当被视为仅限于本实施例所陈述的具体形式,本发明的保护范围也及于本领域的普通技术人员根据本发明构思所能想到的等同技术手段。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1