本发明涉及一种基于军事仿真器的作战方案优化方法,属于军事运筹学领域。
背景技术:
美军于20世纪60年代开始研制“联合作战计划系统”,作战司令部通过该系统确定完成任务的最佳途径,并指导为完成任务所需要采取的行动。美军典型的联合作战模拟系统主要有jsims(联合仿真系统)、jwars(联合战区级作战模拟系统)、jmass(联合建模和仿真系统)等。jsims是美军为提高军种间的互操作能力和支持联合训练而由国防部负责开发的,目的是通过在各类使命任务的各阶段提供逼真的联合训练来支持部队的训练和教育。jwars是为支持国防部制定关于军队现代化、军队改革和作战方面的决策而研制的联合战区作战模拟系统,可用来制定、检验作战计划、预测作战进程和结果、确定部队的最佳编成、发展新的作战概念、条令等。jmass是国防部建模与仿真支持环境,可用来制定、运行和分析包括电子战在内的作战方案,可在一对一和多对多情况下模拟和评估作战系统的运行和功能,从而也便于武器系统结构的确立、设计和研制。
从对美军这3个典型作战模拟系统的分析中可见:这些系统中都含有方案或计划的制定、生成及对方案的模拟验证、使用等问题;其突出特点是方案的生成和生成后的模拟验证与方案的使用紧密相连,方案的生成、模拟运行、检验、运用一体化。通过方案的模拟运行检验方案的不足,促进决策者思考,开发新的作战概念和条令。
我国从20世纪80年代就开始了军事战略模拟的研究。国防系统分析专业组和军事运筹学会很早就组织过有关军事战略模拟相关问题的研究和讨论。随着科学技术的进步和军事需求的增大,很多单位研制出了战役战术训练模拟系统。但这些系统主要是为受训者的组织指挥能力或操作手的操作技能的提高提供一个训练平台。对战役特别是联合战役级的方案智能优化的研究还处在起步阶段。研究较多的是对方案的评估、优选,且一般都是先建立评价指标体系,确定各指标的权重,利用优选模型对预先存在的若干方案进行评估。其注重的是从人工制定的、预先存在的若干方案中选较好的,未能实现方案的自动生成和智能优化功能。
通过对以上国外国内研究进展的分析,发现目前的研究存在以下不足:方案只能从给定的人工制定的方案中进行选择,而人工制定的方案也许均未能达到既定的作战目标,仿真器无法根据已有的方案进行进一步的智能优化。
技术实现要素:
发明目的:为了克服现有技术中存在的不足,本发明提供一种基于军事仿真器的作战方案优化方法,该方法能够实现对作战方案的自动生成以及优化的功能,从而更好地为军事决策人员提供军事方案的辅助决策功能。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种基于军事仿真器的作战方案优化方法,包括以下步骤:
步骤1,初始方案的生成;基于战场信息,选取基于向量的方案编码方式生成初始方案,并将生成的初始方案放入到第一方案集合a中,第一方案集合a用于存储保留下来的方案;
基于向量的方案编码方式如下所示:
其中,第一行向量表示出动的兵力,第二行向量表示装载的弹药型号,第三行向量表示兵力出动的顺序,x表示编码矩阵,xi表示兵力
步骤2,初始方案的推演;将第一方案集合a中的方案依次放到仿真器上进行仿真推演,得到第一方案集合a中的各方案的仿真评估结果,然后根据第一方案集合a中的各方案的仿真评估结果采用以下打分公式对第一方案集合a中的各方案进行打分;
打分公式:
scorem=λ1*znm+λ2*shnm+λ3*rnm+λ4*bnm+λ5*sjnm
其中,scorem表示方案m的得分值,zn表示战果数量,shn表示损耗数量,rn表示任务完成度,bn表示兵力占用,sjn表示射击效率,λ1,λ2,λ3,λ4,λ5分别表示战果数量、损耗数量、任务完成度、兵力占用、射击效率的权重,且满足λ1+λ2+λ3+λ4+λ5=1;
步骤3,方案的采样;基于第一方案集合a的方案,运用采样方法生成新的方案;其中的采样方法如下:
步骤31,生成1到10之间的一个随机整数,该随机整数为采样操作的次数,记为q;
步骤32,生成1到3之间的一个随机整数,记为p;
若p=1,表示修改兵力装载的弹药型号;随机选择方案中一个xi≠0的位置,将其所对应的兵力的弹药型号进行随机的修改;
若p=2,表示修改兵力出动的顺序;将方案中兵力出动的顺序进行重新随机排列;
若p=3,表示修改发射导弹的距离;随机选择一个方案中xi≠0的位置,将其所对应的兵力的导弹发射距离修改为1,2,3其中的任意一个值;
步骤33,判断当前采样操作的次数是否大于q,若大于q,则结束采样操作;否则继续执行采样操作;
步骤4,获取历史方案及其仿真评估结果,将历史方案及其仿真评估结果构造成初始训练样本,采用机器学习算法对训练样本进行训练学习,构建方案预选模型;
步骤5,将步骤3中采样生成的新方案放到方案预选模型中进行方案的预选,预选通过的方案将会放入到第二方案集合b中;
步骤6,方案的推演:将第二方案集合b中的方案依次放到仿真器上进行仿真推演,得到第二方案集合b中各方案的仿真评估结果,根据第二方案集合b中各方案的仿真评估结果采用步骤2中打分公式对第二方案集合b中各方案进行打分;
步骤7,将步骤5得到的第二方案集合b中的方案及步骤6中得到的其对应仿真评估结果作为训练样本,将此训练样本加入到已有的训练样本中,基于这些训练样本实现方案预选模型的更新,更新后的方案预选模型作为下一个方案的方案预选模型;
步骤8,方案的替换:对比第二方案集合b和第一方案集合a,基于方案打分值,将第二方案集合b中打分值高的方案替换第一方案集合a中相对打分值低的方案;
步骤9,迭代执行;重复步骤3到步骤8,直到生成的方案达到了作战的需求或者到达预先设定的运行时间。
优选的:所述发射导弹的距离共有四种取值:xi=1表示兵力在近距离处发射了导弹;xi=2表示兵力在中距离处发射了导弹;xi=3表示兵力在远距离处发射了导弹;若xi=0则表示没有此项分配。
所述步骤2中方案推演方法,包括以下步骤:
步骤21,想定编辑;
在想定编辑界面根据方案部署我方兵力,敌方兵力是事先就部署好的且是固定不变的;在想定编辑界面设计我方初始活动路线及任务,敌方的初始活动路线及任务均为事先设定好的;
步骤22,运行推演程序;
步骤23,仿真推演结束,仿真器对作战结果进行自动判决,并计算战果数量、损耗数量、任务完成度、兵力占用、射击效率这些指标的值,将这些指标的值根据打分公式进行加权得到方案的得分。
优选的:所述机器学习算法为人工神经网络算法、决策树算法、支持向量机等。
优选的:所述机器学习算法为决策树算法,提取方案中的出动的兵力、兵力装载的弹药型号、兵力出动的顺序、发射导弹的距离作为特征;若方案的打分值大于等于设置的基值,则方案的分类结果为1,即方案可行;若方案的打分值低于设置的基值,则方案的分类结果为0,即方案不可行;利用决策树算法对训练样本进行训练,构建方案预选模型。
优选的:对于新加入的训练样本,利用增量学习算法更新方案预选模型。
优选的:提取采样生成的新方案的特征,通过方案预选模型进行预选,如果分类结果为1,则说明该方案可行,预选通过的方案将会放入到第二方案集合b中进行下一步的方案仿真;如果分类结果为0,则说明该方案不可行,该方案将不会在仿真器上进行仿真推演。
本发明相比现有技术,具有以下有益效果:
本方法通过根据作战意图和战场态势,从其可出动的部队中选择兵力出击。首先进行初始化生成初始方案集合,同时将生成的初始方案在仿真器上进行仿真推演评估,然后对初始方案集合进行采样操作生成新的方案。采样生成的新方案将经过方案预选模型的预选,预选通过的方案将加入到新方案集合中。新方案集合中的方案在仿真器上进行仿真推演评估,根据评估的结果实现作战方案的优化。重复以上步骤,直到生成的方案达到了作战的需求或者到达预先设定的运行时间。本方法能够实现对作战方案的自动生成以及优化的功能,从而更好地为军事决策人员提供军事方案的辅助决策功能。本方法可直接用于军事仿真器中,有效解决作战方案制定主观经验干扰过大同时方案无法实现优化的问题,实现对作战方案的自动生成以及优化的功能,从而更好地为军事决策人员提供军事方案的辅助决策功能。
附图说明
图1为本发明实施例的流程图。
图2为本发明所述的作战场景实例。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
一种基于军事仿真器的作战方案优化方法,如图1所示,包括以下步骤:
步骤1,初始方案的生成。基于战场信息,选取基于向量的方案编码方式生成初始方案,并将生成的初始方案放入到第一方案集合a中,第一方案集合a用于存储保留下来的方案。
其基于向量的方案编码方式:第一维(行)向量表示出动的兵力。第二维(行)向量表示装载的弹药型号。第三维(行)向量表示兵力出动的顺序。其具体编码方式如下所示:
其中,x表示编码矩阵,xi表示兵力
发射导弹的距离共有四种取值:xi=1表示兵力在近距离处发射了导弹。xi=2表示兵力在中距离处发射了导弹。xi=3表示兵力在远距离处发射了导弹。若xi=0则表示没有此项分配。
因此,对于每一个兵力具有多种的弹药型号分配可能,同时还具有多种的出动顺序可能,同时还具有多种的发射导弹距离可能,从而形成不同的作战方案。
步骤2,初始方案的推演。将第一方案集合a中的方案依次放到仿真器上进行仿真推演,根据推演结果采用以下打分公式对方案进行打分。
方案推演方法包括以下步骤:
步骤21,想定编辑。
在想定编辑界面根据方案部署我方兵力,敌方兵力是事先就部署好的且是固定不变的。在想定编辑界面设计我方初始活动路线及任务,敌方的初始活动路线及任务均为事先设定好的。
步骤22,运行推演程序。
步骤23,仿真推演结束,仿真器对作战结果进行自动判决,并计算战果数量、损耗数量、任务完成度、兵力占用、射击效率这些指标的值,将这些指标的值根据打分公式进行加权得到方案的得分。
战果数量:作战摧毁敌方兵力的数量。记为zn;
损耗数量:作战过程中我方被摧毁的兵力数量。记为shn;
任务完成度:作战实际完成的任务数占计划任务数的比例。记为rn;
兵力占用:作战出动的兵力在所有可用兵力中的占比,即各兵力实际出动了多少。记为bn;
射击效率:发射的弹药中击中或者毁伤目标的弹药所占的比重。记为sjn;
打分公式如下:
scorem=λ1*znm+λ2*shnm+λ3*rnm+λ4*bnm+λ5*sjnm
scorem表示方案m的得分值,zn表示战果数量,shn表示损耗数量,rn表示任务完成度,bn表示兵力占用,sjn表示射击效率,λ1,λ2,λ3,λ4,λ5分别表示战果数量、损耗数量、任务完成度、兵力占用、射击效率的权重,且满足λ1+λ2+λ3+λ4+λ5=1。
步骤3,方案的采样。基于第一方案集合a的方案,运用采样方法生成新的方案,并将新方案放入到第二方案集合b中,第二方案集合b用于存储新产生的方案。其中的采样方法包括以下步骤:
步骤31,生成1到10之间的一个随机整数,该整数为采样操作的次数,记为q。
步骤32,生成1到3之间的一个随机整数,记为p。
若p=1,表示修改兵力装载的弹药型号。随机选择方案中一个xi≠0的位置,将其所对应的兵力的弹药型号进行随机的修改。
若p=2,表示修改兵力出动的顺序。将方案中兵力出动的顺序进行重新随机排列。
若p=3,表示修改发射导弹的距离。随机选择一个方案中xi≠0的位置,将其所对应的兵力的导弹发射距离修改为1,2,3其中的任意一个值。
步骤33,判断当前采样操作的次数是否大于q,若大于q,则结束采样操作。否则继续执行采样操作。
步骤4,方案的预选。将采样生成的新方案放到方案预选模型中进行方案的预选,预选通过的方案将会放入到第二方案集合b中,第二方案集合b用于存储新产生的方案。方案的预选方法包括以下步骤:
步骤41,基于大量历史方案及其仿真评估的结果构造初始训练样本,采用机器学习算法,如人工神经网络算法、决策树算法对训练样本进行训练学习,构建方案预选模型;
步骤42,将迭代执行过程中加入到第二方案集合b中的方案及其仿真评估结果作为训练样本,将此训练样本加入到已有的训练样本中,基于这些训练样本实现方案预选模型的更新,更新后的方案预选模型作为下一个方案的方案预选模型;
步骤43,提取采样生成的新方案的特征,通过方案预选模型进行分类预选,如果分类结果为1,则说明该方案可行,可进行下一步的方案仿真;如果分类结果为0,则说明该方案不可行,该方案将不会在仿真器上进行仿真推演。
步骤5,方案的推演。将第二方案集合b中的方案依次放到仿真器上进行仿真推演,根据推演结果对方案进行打分。
步骤6,方案的替换。对比第二方案集合b和第一方案集合a,基于方案打分值,将第二方案集合b中打分值高的方案替换第一方案集合a中相对打分值低的方案。
步骤7,迭代执行。重复步骤3到步骤6,直到生成的方案达到了作战的需求或者到达预先设定的运行时间。
实例
一、总体实现方案
本发明提出了一种基于军事仿真器的作战方案优化方法,能够实现对作战方案的自动生成以及优化的功能,从而更好地为军事决策人员提供军事方案的辅助决策功能。
图1为本发明一实施例的流程图。
如图1所示,上述过程主要由初始方案的生成、初始方案的推演、方案的采样、方案的预选、方案的推演、方案的替换组成。
二、具体实现步骤
(1)初始方案的生成
作战方案是使用作战兵力达成一定战役或战斗目的的计划,是组织指挥部队作战行动的依据性文件,是作战意图和决心的集中体现。从作战态势角度来看,作战方案就是要创造一种理想的目标态势。这种态势利于实现己方目标,却使敌方意图尽可能无法实现。最终是要解决在何时、何地、何种条件下,为何目标,让哪一(或哪些)部队去执行什么任务,对参战兵力、各兵力要完成的任务、采取的行动、方法等在时间、空间内进行合理安排,形成理想的态势。
本专利中的作战方案包含的因素主要有出动的兵力、兵力装载的弹药型号、兵力出动的顺序、发射导弹的距离。
我军可出动兵力,即出动的飞机数量和舰船数量,兵力数量视各部队可出动的状态变化,兵力数量的不同影响作战的规模的大小。
兵力装载的弹药型号,即弹药的种类,弹药的种类不同,其开火范围也会不同;因此,弹药型号的选择要根据具体的作战场景来选择。
兵力出动的顺序,即我军作战兵力出动的先后顺序。
作战方案的编码主要解决的问题是如何对作战方案进行表示的问题。
图2为本发明所述的作战场景实例。
现举例说明作战方案编码过程:
大致场景是设想在一片冲突海域,如图2所示,红方(图中左边)因某种原因,决定对蓝方(图中右边)一支海上力量进行打击。双方力量均为大型舰船1艘,飞机2架。双方配载的弹药型号均为一样,分别为小型导弹和大型导弹;导弹发射的距离有三种,即近距离发射导弹、中距离发射导弹、远距离发射导弹;红方作为进攻方,红方指挥员根据海战经验制定出作战方案,具体如下:
1)作战兵力2首先装载大型导弹,于远距离处发射导弹。
2)作战兵力1接着装载大型导弹,于近距离处发射导弹。
3)作战兵力3最后装载小型导弹,于中距离处发射导弹。
相对应的蓝方的作战方案在此不再赘述。
基于上面红方的作战方案,其相对应的编码如下:
基于上面红方的作战方案,其相对应的编码如下:
通过该方案的编码,可以非常清晰的看出我军的作战方案:
作战兵力1装载了大型导弹第二个出动同时会在近距离处发射导弹,作战兵力2装载了大型导弹第一个出动同时会在远距离处发射导弹,作战兵力3装载了小型导弹第三个出动同时会在中距离处发射导弹。
生成的初始方案会加入到方案集合a中。
(2)初始方案的推演
在信息技术的支撑下,方案推演是结合具体的战场环境、战场态势,在军事仿真器软件环境下对指挥员制定的作战方案进行的更加具象的展现,以便于对筹划的作战方案、任务计划等进行预先的验证,从而可以及时的做出调整和优化。
方案的推演通常包括以下几个步骤:
1)想定编辑
想定编辑是军事仿真器的重要组成部分,其主要功能就是基本属性配置编辑、方案中涉及的实体属性配置编辑、环境配置编辑、运行规则配置编辑等。在想定编辑界面可以根据方案部署我方的兵力,由于敌方的作战方案是事先就已知的且是固定不变的,因此其兵力事先就已经部署好了。在想定编辑界面还可以设计我方初始活动路线及任务,敌方的初始活动路线及任务均为事先设定好的。
2)运行推演程序
推演程序主要基于推演规则建立的软件环境,为方案的推演执行提供了便利,有利于对作战方案进行有效的验证。
推演规则是指推演实施过程中必须遵循的依据和规范,包括约束规则和作战规则两大类。约束规则主要是指推演过程中对各种作战行动进行约束限制的规则,如兵力运用约束规则、装备使用约束规则、环境约束规则、交战关系约束规则等。作战规则主要是指各种作战行动执行中所遵循的规范或依据,如态势判断、目标选择及分配、兵力与火力分配、武器使用、指挥协同、效果评估等方面的规则。
3)仿真评估
仿真推演结束后,仿真器对作战结果进行自动判决,并计算战果数量、损耗数量、任务完成度、兵力占用、射击效率这些指标的值,并将这些指标的进行加权得到方案的得分。
现举例说明方案得分的计算过程:
假设我方摧毁敌方兵力数量为10,即战果数量zn=10。我方被摧毁的兵力数量为3,即损耗数量shn=3。我方制定的作战任务总数为5,实际完成的任务数为3,即rn=3/5*100%=60%。我方总兵力为20,作战出动的兵力数量为15,即兵力占用bn=15/20*100%=75%。我方作战过程中共发射了20枚导弹,击中或毁伤目标的导弹数量为10,即射击效率sjn=10/20*100=50%。
其中,战果数量、损耗数量、任务完成度、兵力占用、射击效率的权重分别为0.3,0.1,0.3,0.2,0.1。
方案的得分值为0.3*10+0.1*3+0.3*0.6+0.2*0.75+0.1*0.5=3.68。
(3)方案的采样
基于已有的方案,随机的选择方案涉及的因素进行随机的改变,从而生成与已有方案不同的方案的过程就是方案的采样。该方法基于已有的方案,可使新生成的方案在一定概率上继承先前方案的优点,一定概率上去除先前方案的缺点,是种效率较高且较为新颖的方案生成方式。
现举例说明方案采样的过程:
假设已有作战方案如下:
作战兵力2首先装载大型导弹,于远距离处发射导弹。
作战兵力1接着装载大型导弹,于近距离处发射导弹。
作战兵力3最后装载小型导弹,于中距离处发射导弹。
其对应的作战编码如下:
已知我军共有3个作战兵力,装载的导弹类型有小型导弹和大型导弹两种,发射导弹的距离有三种,近距离发射导弹、中距离发射导弹、远距离发射导弹。
第一步,生成1到10之间的一个随机整数,即采样操作的次数,假设产生的随机数为2,即要进行两次采样操作。
第二步,生成1到3之间的一个随机整数,假设生成的随机整数为3,当生成的随机整数为3时表明要修改发射导弹的距离。此时随机选择方案中一个xi≠0的位置,假设选择的是值为3的这个位置,对应的是作战兵力2,此时随机从导弹发射距离的取值中选择一个替换先前的导弹发射距离值,假设选择的是2,即作战兵力2的导弹发射距离由先前的远距离发射修改为了中距离发射。
该步执行后对应的方案编码如下:
第三步,由于要进行两次采样操作,先前已执行了一次,下面执行第二次。生成1到3之间的一个随机整数,假设生成的随机整数为1。当生成的随机整数为1时表明要修改兵力装载的弹药型号。此时随机选择方案中一个xi≠0的位置,假设选择的是值为1的这个位置,对应的是作战兵力1,此时随机从弹药型号取值中选择一个替换先前的弹药型号,假设选择的是小型导弹,即作战兵力1的弹药型号由先前的大型导弹修改为了小型导弹。
该步执行后对应的方案编码如下:
至此,两次采样操作已经结束,最终的生成的新方案如下:
作战兵力2首先装载大型导弹,于中距离处发射导弹。
作战兵力1接着装载小型导弹,于近距离处发射导弹。
作战兵力3最后装载小型导弹,于中距离处发射导弹。
采样生成的新方案会加入到方案集合b中。
(4)方案的预选
基于采样生成的新方案中存在部分方案是不可行的或者方案的效果较差,对于这些方案如果在方案推演之前能够通过某种技术对之进行预选,使得不可行的方案或者明显较差的方案可以预先删除掉,这样不仅可以节省仿真推演的时间,而且将会节省大量的系统资源,同时会提高方案优化的效率。
机器学习是一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能。机器学习是对能通过经验自动改进的计算机算法的研究。人工神经网络算法、决策树算法、支持向量机算法等等都是机器学习算法中常用的算法,下面以决策树算法为例说明方案预选模型的构建过程。
决策树是机器学习中一种常用的分类技术,它代表的是对象属性与对象值之间的一种映射关系。树中每个节点表示某个对象,而每个分叉路径则代表的某个可能的属性值,而每个叶结点则对应从根节点到该叶节点所经历的路径所表示的对象的值。机器学习中决策树是一种经常要用到的技术,可以用于分析数据,同样也可以用来作预测。
方案的预选过程如下:
第一步,方案预选模型的构建;基于历史方案及其仿真评估的结果构建训练样本;提取方案中包含的出动的兵力、兵力装载的弹药型号、兵力出动的顺序、发射导弹的距离等因素作为特征;若方案的打分值大于等于设置的某一基值,则方案的分类结果为1,即方案可行;若方案的打分值低于设置的某一基值,则方案的分类结果为0,即方案不可行;基于训练样本,利用决策树算法对训练样本进行训练,构建方案预选模型。
第二步,方案预选模型的更新;基于迭代执行过程加入到第二方案集合b中的方案及其仿真评估结果构建新的训练样本,将新的训练样本加入到已有的训练样本中;提取这些方案中包含的出动的兵力、兵力装载的弹药型号、兵力出动的顺序、发射导弹的距离等因素作为特征;若方案的打分值大于等于设置的某一基值,则方案的分类结果为1,即方案可行;若方案的打分值低于设置的某一基值,则方案的分类结果为0,即方案不可行;对于新加入的训练样本,利用增量学习算法更新方案预选模型。
第三步,提取新方案的特征,即出动的兵力、兵力装载的弹药型号、兵力出动的顺序、发射导弹的距离,构造预测样本,将待预选的样本在方案预选模型上进行分类预测,若分类结果为1,则说明该方案可行,将进行下一步的方案仿真;若分类结果为0,则说明该方案不可行,该方案将不会在仿真器上进行仿真推演。
(5)方案的推演
预选通过的新方案需要在仿真器上进行仿真评估,由于其与初始方案的推演步骤是一致的,因此在此不再赘述。
(6)方案的替换
方案的替换是基于方案的打分值对比已有的方案集合中的方案和新产生的方案集合中的方案,用新产生的方案替换已有方案集合中存在的那些打分值低于新方案的方案。方案的替换可以淘汰较差的方案,保留较好的方案,同时可以引进新的较好的方案,对方案起到改进优化的作用。
现举例说明方案的替换过程:
方案集合a用于存储保留下来的方案,方案集合b用于存储新产生的方案。假设方案集合a中已有方案a1,a2,a3,其打分值分别为3.2,4.5,3.9;方案集合b中已有方案b1,b2,b3,其打分值分别为3.1,4.0,3.8。
对比方案b和方案集合a,b1的打分值比a1,a2,a3都要低,因此b1无法替换集合a中的任何方案;b2的打分值高于a1,a3,但低于a2,因此b2可以替换掉a1,a3,b2加入到集合a中,a1,a3从集合a中去除;因此,此时集合a中的方案的打分值为4.5,4.0;b3的打分值均比集合a中的打分值低,因此b3无法替换集合a中的任何方案。
因此,经过方案替换后的方案集合a中的方案打分值分别为4.5,4.0。
本发明通过分析战场态势,快速制定初始方案,同时在初始方案的基础上进行采样操作,将采样生成的新方案经过方案预选模型预选,预选通过的方案将会在军事仿真器上进行仿真评估,基于评估的结果实现作战方案的优化。本方法能够实现对作战方案的自动生成以及优化的功能,从而更好地为军事决策人员提供军事方案的辅助决策功能。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。