首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 109 毫秒
1.
针对当前营区应对复杂突发事件情景下的应急指挥管理能力薄弱、应急方案效能难以量化评估决策的问题, 提出了基于兵棋的营区突发事件应急保障方案的仿真推演评估方法。结合营区应急作战特点和兵棋要素技术, 建立基于“情景-应对”应急模式的营区突发事件机理形式化描述, 采用案例推理方法将当前突发事件情景与历史案例库进行相似度对比分析, 构建一套适合突发事件快速响应生成应急方案的方法。以H营区油料库及核燃料库遭敌特偷袭引发的突发事件为想定背景, 采用兵棋方法开展对营区应急保障行动方案的仿真推演与效能评估, 验证了突发事件应急方案快速评估方法的可行性, 可为营区非常规突发事件应急决策提供重要的支持。  相似文献   

2.
针对从“人在回路”兵棋推演的复盘数据中提取推演者战术经验高价值知识的问题,提出一种基于深度神经网络从复盘数据中学习战术机动策略模型的方法。将战术机动策略建模为在当前态势特征影响下对目标候选位置进行优选的分类问题:梳理总结影响推演者决策的关键认知因素,定义了由机动范围和观察范围等7个属性构成的基础态势特征,建立了带有正负样本标注的态势特征数据集;设计了基于卷积神经网络的分类器,以分类概率实现了单个棋子战术机动终点位置的预测。实验结果表明:该模型的预测准确率可达到78.96%,相比其他模型提高至少4.59%。  相似文献   

3.
近年来,基于人工智能技术的自动化作战推演越发受到重视,但是由于有效地采集作战推演数据难度较大,许多依赖数据学习的人工智能技术效果不佳。在结合专家知识和作战推演数据的基础上研究作战推演中的人工智能技术,是一种可行的替代方案。为此,立足兵棋推演设计了关键点推理遗传模糊系统(genetic fuzzy system, GFS)框架,有效整合了对兵棋专家知识的建模和对兵棋复盘数据的学习,从而提高了关键点的推理质量。进一步以安全点为例,构建了安全点推理GFS,在初始化模糊系统规则库的基础上,通过合理设计遗传算法中的参数编码、适应度函数、遗传算子等,实现了安全点推理模糊系统的遗传调优算法。最后,通过实验仿真展示了所提方法的可行性和实用性。  相似文献   

4.
实现战术态势估计的一种多agent计划识别方法   总被引:1,自引:0,他引:1  
利用目标编群思想描述多agent行动之间的协作关系,建立了一种基于多agent计划识别的战术态势估计模型。分析了计划库的构成及结构层次,给出了一种基于多agent假设的计划识别算法。以一阶谓词逻辑为形式语言,扩展了战术智能规划的一个实例,引入了描述多agent完成同一任务的谓词和算子。对实例的分析说明了基于多agent计划识别的态势估计过程,表明了使用该方法求解态势估计问题的可行性。  相似文献   

5.
近年来,基于人工智能技术的自动化作战推演越发受到重视,但是由于有效地采集作战推演数据难度较大,许多依赖数据学习的人工智能技术效果不佳。在结合专家知识和作战推演数据的基础上研究作战推演中的人工智能技术,是一种可行的替代方案。为此,立足兵棋推演设计了关键点推理遗传模糊系统(genetic fuzzy system, GFS)框架,有效整合了对兵棋专家知识的建模和对兵棋复盘数据的学习,从而提高了关键点的推理质量。进一步以安全点为例,构建了安全点推理GFS,在初始化模糊系统规则库的基础上,通过合理设计遗传算法中的参数编码、适应度函数、遗传算子等,实现了安全点推理模糊系统的遗传调优算法。最后,通过实验仿真展示了所提方法的可行性和实用性。  相似文献   

6.
基于GERTS网络的非常规突发事件情景推演共力耦合模型   总被引:2,自引:1,他引:1  
针对非常规突发事件情景推演GERTS网络中灾害衍生耦合问题,分析了突发事件耦合作用的方式,提出了共力耦合概念; 设计了基于GERTS网络的共力耦合节点的逻辑结构,并定义共力耦合算子,给出了共力耦合算子参数的求解方法. 该研究为分析非常规突发事件情景推演中共力耦合问题提供了工具,为非常规突发事件"情景-应对"决策研究提供了新的研究思路.  相似文献   

7.
基于粗糙集理论与贝叶斯网络的超视距空战战术决策   总被引:1,自引:0,他引:1  
基于智能互补融合的思想,将粗糙集理论与贝叶斯网络有机结合在一起,提出了一种超视距空战战术决策的新方法.利用粗糙集理论实现对专家知识的约简和空战态势信息集的压缩,提取了超视距空战战术的最小决策信息集,基于最小决策信息集的贝叶斯网络模型可以降低网络结构的复杂性;同时利用贝叶斯网络实现了超视距空战战术的概率决策推理.最后,进行了实例分析,决策推理结果表明该方法的正确性以及在不确定环境下的有效性.  相似文献   

8.
徐旺明 《系统仿真学报》2012,24(8):1702-1706
火力分配是有效发挥兵棋中参战单位整体作战效能的决定性问题,依照兵棋的规则和进攻战斗的特点,结合经验数据规则和运筹分析方法,建立了兵棋中进攻战斗的火力分配模型。针对进攻战斗火力分配优化问题,给出了基于遗传算法的全局最优解模型求解方法和步骤。实例分析证实该方法能解决模型假设条件下兵棋中进攻战斗的火力分配问题并取得良好的战斗效果,可为兵棋推演和计算机生成兵力(CGF)仿真提供参考,对演习和实战中指挥员的决策具有重要意义。  相似文献   

9.
兵棋推演是预演战争、模拟作战的科学方法,全球化趋势对兵棋推演的推演范围和灵活程度提出了更高要求。采用六边形全球离散格网系统建立广域多尺度兵棋地图,并在推演案例中检验了其作用。首先,提出栅格及矢量数据六角格量化方法;其次,建立环境要素与作战要素联合作用的部队机动时间效能模型,设计了最优路径规划算法;最后,构建兵棋地图,并以部队海陆两栖机动推演为例加以验证。实验结果表明,六边形全球离散格网系统兼具数据建模和分析计算功能,既可被用于构建海陆广域多尺度兵棋地图,又可作为作战推演的统一计算框架,弥补了传统兵棋地图空间范围受限、尺度变换不灵活的缺陷,具有较好的应用前景。  相似文献   

10.
针对作战体系结构动态演化、受人主导和涉及多域交互等特点,建立了体系协同多层时序网络模型。在多层时序网络模型基础上对传统网络指标进行了重新定义,分析了体系协同中的指控行为模式,挖掘了体系协同指标,提出了采用对比和相关性分析体系域内协同和跨域协同的方法。基于兵棋推演数据对模型和分析方法进行了实证分析,验证了所提方法的有效性。  相似文献   

11.
计算机兵棋能够对敌对双方或多方的军事行动进行模拟, 为军事智能决策的研究提供贴近真实战争的决策背景和试验环境。随着被控制棋子类型和数量增加, 这些作战实体的行为决策控制将面临巨大的挑战。本文提出了知识与数据互补的兵棋行为决策算法, 针对较多作战实体(50个左右)的群队级兵棋, 提出了按实体类型分组决策、作战目标指引、位置评估指标并行计算等方法, 设计了群队级兵棋人工智能(artificial intelligence, AI)技术框架, 并实现了一个群队级兵棋AI。该兵棋AI将知识、数据和学习融为一体, 具有设计简单、迁移能力强、决策灵活等优点。  相似文献   

12.
研究了一种基于智能体动作预测的多智能体强化学习算法. 在多智能体系统中,学习智能体选择动作不可避免地要受到其他智能体执行动作的影响,因此强化学习系统需要考虑多智能体的联合状态和联合动作.基于此,提出使用概率神经网络来预测其他智能体动作的方法,从而构成多智能体联合动作,实现了多智能体强化学习算法. 此外,研究了该方法在足球机器人协作策略学习中的应用,使多机器人系统能够通过与环境的交互学习来掌握行为策略,从而实现多机器人的分工和协作.  相似文献   

13.
认知无线电和动态频谱分配技术是解决频谱资源短缺问题的有效手段。随着近年来深度学习和强化学习等机器学习技术迅速发展, 以多智能体强化学习为代表的群体智能技术不断取得突破, 使得分布式智能动态频谱分配成为可能。本文详细梳理了强化学习和多智能体强化学习领域关键研究成果, 以及基于多智能体强化学习的动态频谱分配过程建模方法与算法研究。并将现有算法归结为独立Q-学习、合作Q-学习、联合Q-学习和多智能体行动器-评判器算法4种, 分析了这些方法的优点与不足, 总结并给出了基于多智能体强化学习的动态频谱分配方法的关键问题与解决思路。  相似文献   

14.
多机空战仿真分布式智能决策支持系统设计   总被引:7,自引:0,他引:7  
在对现代空战领域存在的非结构决策问题分析的基础上,按照飞行员空战的决策机理,将多Agent概念引入多机空战决策领域.运用分布式人工智能的建模方法,按决策的内容初步设计了情报决策Agent、单机自主战术决策Agent和协同决策Agent,并对多机空战仿真分布式智能决策支持系统的分布结构、运行过程以及通讯方式进行了概念性探讨.  相似文献   

15.
在分析知识推理型与数据学习型兵棋人工智能(artifical intelligence, AI)优缺点的基础上, 提出了基于知识牵引与数据驱动的AI设计框架。针对框架中涉及的基于数据补全的战场态势感知,基于遗传模糊系统的关键点推理,基于层次任务网的任务规划、计划修复与重规划,基于深度强化学习的算子动作策略优化等关键技术进行深入探讨。结果表明,所提框架具有较强的适应性, 不仅能够满足分队、群队、人机混合等兵棋推演的应用需求, 而且适用于解决一般回合制或即时策略性的博弈对抗问题。  相似文献   

16.
真实-虚拟-构造为近距空战对抗训练提供了有力支撑。针对课题对蓝方虚拟实体的实际决策建模需求, 在对比分析深度强化学习与经典智能优化方法的基础上, 从优化理论的角度对神经网络的权值空间和结构空间进行定义, 提出基于智能优化的进化神经网络决策模型及其求解方法。首先,分析近距空战战术特点, 战机飞行运动模型, 实际决策建模需求。其次,分别设计战机关键飞行状态、动作空间、适应度函数, 实现蓝方端到端感知与决策。最后, 给出基于经典遗传神经网络的决策模型及求解示例。结果表明, 所提方法可实现蓝方战机通过对抗数据来学习对手作战特点的功能, 验证了模型及方法的有效性; 同时所提方法对目前智能优化及其改进算法, 以及不同结构神经网络具有通用性。  相似文献   

17.
多智能体深度确定性策略梯度(multi-agent deep deterministic policy gradient,MADDPG)算法是深度强化学习方法在多智能体系统(multi-agent system,MAS)领域的重要运用,为提升算法性能,提出基于并行优先经验回放机制的MADDPG算法.分析算法框架及训练方...  相似文献   

18.
针对深度强化学习方法对驾驶仪控制参数训练速度慢、奖励函数收敛性不好等问题,以三回路驾驶仪极点配置算法为核心,提出一种将三维控制参数转换为一维设计参量的智能训练方法,构建离线深度强化学习训练叠加在线多层感知器神经网络实时计算的智能控制架构,在提高深度强化学习算法的效率和奖励函数收敛性同时,确保在大范围飞行状态变化条件下控制参数的快速在线自整定。以典型再入飞行器为例,完成深度强化学习训练和神经网络部署。仿真结果表明,强化学习动作空间简化后的训练效率更高,训练得到的驾驶仪对控制指令的跟踪误差在1.2%以内。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号