一种驾驶方法及系统的制作方法

文档序号:9389082阅读:386来源:国知局
一种驾驶方法及系统的制作方法
【技术领域】
[0001] 本发明涉及车辆安全技术领域,特别涉及一种驾驶方法及系统。
【背景技术】
[0002] 随着电子技术的快速发展,汽车等车辆已经成为生活中必不可少的交通工具。而 伴随着车辆的普及,道路上的车辆越来越密集,行车安全也越来越重要。
[0003] 通常,驾驶员在驾驶车辆行驶的过程中,可能会发生一些诸如插车、障碍物阻挡等 突发事件,此时,驾驶员可以手动操作方向盘,油门,刹车等以避免车辆与障碍物发生碰撞, 但是由于在发生突发事件时,驾驶员通常处于紧张状态,驾驶员对方向盘,油门、刹车等操 作的准确性较低。为此,相关技术提供了一种驾驶系统,该驾驶系统包括:环境感知模块和 避撞控制模块,避撞控制模块中存储有驾驶员根据驾驶车辆过程中的避撞经验设置的环境 状态量与决策动作的对应关系,其中,环境状态量可以为障碍物的位置,环境感知模块可以 在车辆的行驶环境中存在由障碍物引发的突发事件时获取车辆当前的环境状态量,避撞控 制模块可以根据车辆当前的环境状态量从环境状态量与决策动作的对应关系中确定与车 辆当前的环境状态量对应的目标决策动作,然后根据该目标决策动作控制车辆行驶,从而 避免车辆与障碍物发生碰撞。
[0004] 在实现本发明的过程中,发明人发现相关技术至少存在以下问题:
[0005] 相关技术中的驾驶系统是以驾驶员的避撞经验为依据控制车辆行驶的,受驾驶员 经验的限制,驾驶系统具有一定的局限性,且由于是以驾驶员的避撞经验为依据控制车辆 行驶的,因此,驾驶系统的稳定性较低,灵活性较差。

【发明内容】

[0006] 为了解决相关技术中驾驶系统具有局限性,稳定性较低,灵活性较差的问题,本发 明提供一种驾驶方法及系统。所述技术方案如下:
[0007] 第一方面,提供一种驾驶系统,所述驾驶系统包括:环境感知模块和避撞控制模 块,
[0008] 所述环境感知模块用于在车辆行驶过程中监测所述车辆的行驶环境;预测所述车 辆的行驶环境中是否会发生由障碍物引发的突发事件;在所述车辆的行驶环境中会发生由 障碍物引发的突发事件时,获取所述障碍物的当前位置;
[0009] 所述避撞控制模块用于根据所述障碍物的当前位置,采用自适应学习算法确定目 标决策动作;根据所述目标决策动作控制所述车辆行驶。
[0010] 可选地,所述避撞控制模块用于:
[0011] 从经验存储库中确定与所述障碍物的当前位置对应的目标可执行动作,所述经验 存储库中记录了预先通过自适应学习算法确定的障碍物的位置与可执行动作的对应关系, 每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所述决策 动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策动作在 执行时的立即回报;
[0012] 计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;
[0013] 确定所述未来无穷回报累加和最大的第一决策动作;
[0014] 根据所述障碍物的当前位置和所述第一决策动作,确定所述第一决策动作在执行 时需要付出的第一代价;
[0015] 根据所述第一代价和最大的未来回报累加和确定评价误差;
[0016] 根据所述第一代价和预设的效用期望确定动作误差;
[0017] 根据所述评价误差和所述动作误差对所述第一决策动作进行调节得到第二决策 动作,所述第二决策动作在执行时需要付出的代价为第二代价,所述第二代价小于所述第 一代价;
[0018] 将所述第二决策动作对应的障碍物的位置确定为所述障碍物的当前位置;
[0019] 重复执行上述步骤,直至得到执行时需要付出的代价小于预设代价的决策动作;
[0020] 将所述执行时需要付出的代价小于预设代价的决策动作作为所述目标决策动作。
[0021] 可选地,所述避撞控制模块用于获取驾驶员的决策动作;
[0022] 所述环境感知模块用于获取执行所述驾驶员的决策动作之后所述障碍物的第一 位置;
[0023] 所述避撞控制模块用于从所述经验存储库中确定与所述障碍物的第一位置对应 的目标可执行动作,所述经验存储库中记录了预先通过自适应学习算法确定的障碍物的位 置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动 作包括决策动作和与所述决策动作一一对应的增强信号,所述增强信号用于指示与所述增 强信号 对应的决策动作在执行时的立即回报;
[0024] 计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;
[0025] 确定所述未来无穷回报累加和最大的第一决策动作;
[0026] 根据所述障碍物的当前位置和所述第一决策动作,确定所述第一决策动作在执行 时需要付出的第一代价;
[0027] 根据所述第一代价和最大的未来回报累加和确定评价误差;
[0028] 根据所述第一代价和预设的效用期望确定动作误差;
[0029] 根据所述评价误差和所述动作误差对所述第一决策动作进行调节得到第二决策 动作,所述第二决策动作在执行时需要付出的代价为第二代价,所述第二代价小于所述第 一代价;
[0030] 将所述第二决策动作对应的障碍物的位置确定为所述障碍物的第一位置;
[0031] 重复执行所述从所述经验存储库中确定与所述障碍物的第一位置对应的目标可 执行动作至所述将所述第二决策动作对应的障碍物的位置确定为所述障碍物的第一位置 的步骤,直至得到执行时需要付出的代价小于预设代价的决策动作;
[0032] 将所述执行时需要付出的代价小于预设代价的决策动作作为所述目标决策动作。
[0033] 可选地,所述环境感知模块用于:
[0034] 采用汽车动力学方程计算执行所述驾驶员的决策动作后所述车辆的行驶轨迹;
[0035] 判断所述车辆的行驶轨迹是否为符合预设条件的行驶轨迹;
[0036] 在所述车辆的行驶轨迹为符合预设条件的行驶轨迹时,触发所述环境感知模块获 取执行所述驾驶员的决策动作之后所述障碍物的第一位置;
[0037] 其中,所述车辆在按照所述符合预设条件的行驶轨迹行驶时,所述车辆与所述车 辆的行驶环境中的障碍物会发生碰撞。
[0038] 可选地,所述环境感知模块用于:
[0039] 判断所述车辆的行驶环境中是否存在障碍物;
[0040] 在所述车辆的行驶环境中存在障碍物时,判断所述障碍物是否处于预设范围内;
[0041] 在所述障碍物处于所述预设范围内时,确定所述车辆的行驶环境中会发生由所述 障碍物引发的突发事件。
[0042] 第二方面,提供一种驾驶方法,所述方法包括:
[0043] 在车辆行驶过程中监测所述车辆的行驶环境;
[0044] 预测所述车辆的行驶环境中是否会发生由障碍物引发的突发事件;
[0045] 若所述车辆的行驶环境中会发生由障碍物引发的突发事件,则获取所述障碍物的 当前位置;
[0046] 根据所述障碍物的当前位置,采用自适应学习算法确定目标决策动作;
[0047] 根据所述目标决策动作控制所述车辆行驶。
[0048] 可选地,所述根据所述障碍物的当前位置,采用自适应学习算法确定目标决策动 作,包括:
[0049] 从经验存储库中确定与所述障碍物的当前位置对应的目标可执行动作,所述经验 存储库中记录了预先通过自适应学习算法确定的障碍物的位置与可执行动作的对应关系, 每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所述决策 动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策动作在 执行时的立即回报;
[0050] 计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;
[0051] 确定所述未来无穷回报累加和最大的第一决策动作;
[0052] 根据所述障碍物的当前位置和所述第一决策动作,确定所述第一决策动作在执行 时需要付出的第一代价;
[0053] 根据所述第一代价和最大的未来回报累加和确定评价误差;
[0054] 根据所述第一代价和预设的效用期望确定动作误差;
[0055] 根据所述评价误差和所述动作误差对所述第一决策动作进行调节得到第二决策 动作,所述第二决策动作在执行时需要付出的代价为第二代价,所述第二代价小于所述第 一代价;
[0056] 将所述第二决策动作对应的障碍物的位置确定为所述障碍物的当前位置;
[0057] 重复执行上述步骤,直至得到执行时需要付出的代价小于预设代价的决策动作;
[0058] 将所述执行时需要付出的代价小于预设代价的决策动作作为所述目标决策动作。
[0059] 可选地,所述根据所述障碍物的当前位置,采用自适应学习算法确定目标决策动 作,包括:
[0060] 获取驾驶员的决策动作;
[0061] 获取执行所述驾驶员的决策动作之后所述障碍物的第一位置;
[0062] 从所述经验存储库中确定与所述障碍物的第一位置对应的目标可执行动作,所述 经验存储库中记录了预先通过自适应学习算法确定的障碍物的位置与可执行动作的对应 关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所 述决策动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策 动作在执行时的立即回报;
[0063] 计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;
[0064] 确定所述未来无穷回报累加和最大的第一决策动作;
[0065] 根据所述障碍物的当前位置和所述第一决策动作,确定所述第一决策动作在执行 时需要付出的第一代价;
[0066] 根据所述第一代价和最大的未来回报累加和确定评价误差;
[0067] 根据所述第一代价和预设的效用期望确定动作误差;
[0068] 根据所述评价误差和所述动作误差对所述第一决策动作进行调节得到第二决策 动作,所述第二决策动作在执行时需要付出的代价为第二代价,所述第二代价小于所述第 一代价;
[0069] 将所述第二决策动作对应的障碍物的位置确定为所述障碍物的第一位置;
[0070] 重复执行所述从所述经验存储库中确定与所述障碍物的第一位置对应的目标可 执行动作至所述将所述第二决策动作对应的障碍物的位置确定为所述障碍物的第一位置 的步骤,直至得到执行时需要付出的代价小于
当前第1页1 2 3 4 5 6 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1