排序方式: 共有18条查询结果,搜索用时 15 毫秒
11.
战前制定合理的火力分配方案,可以优化资源配置,用最小的代价获取最大的战场收益。综合考虑攻击、资源和毁伤概率等约束条件,建立了火力分配多目标优化数学模型。提出了一种求解火力分配模型的分解进化多目标优化算法,并设计了不可行解修复方法。仿真实验得出两个结论,一是不可行解修复方法可以显著提高算法的收敛性;二是在解决火力分配优化问题上,所提算法具有较好的收敛性和分散性,采用合适的分解方法可以有效提高算法的性能。 相似文献
12.
为更好地提升功能,现实生活中的各类网络变得更加相互依赖,然而安全风险一旦爆发并在各子网之间不断地传播,将造成严重的损失。为降低风险在耦合网络中的传播,构建双层耦合的网络拓扑结构,对基于元胞自动机的风险传播模型进行改进,提出风险评估通用指标,以及两种保护策略降低风险传播,然后在3种演化网络模型和2种真实网络模型上进行仿真分析。仿真结果表明,耦合网络中的风险传播主要受子网拓扑结构的影响。WS-WS耦合网络具有最好的抗风险传播的能力,SF-SF耦合网络最差。在传播的初始阶段对部分节点进行保护可以提高网络抗风险能力。目标保护策略在作用速度上稍逊于随机保护策略,但在对感染规模的抑制方面优于随机保护策略。 相似文献
13.
航空发动机精确的剩余使用寿命预测是确保发动机安全服役必须开展的环节。针对复杂工况环境下涡扇发动机的剩余使用寿命预测问题,提出了一种基于极端梯度提升和卡尔曼滤波的寿命预测模型。首先,采用高斯分布对原始振动数据进行分析,提取具有时间序列和退化趋势的特征数据,并为其设置剩余使用寿命(RUL)标签;其次,利用随机搜索算法对融合参数范围进行寻优,在极端梯度提升(XGBoost)中加入卡尔曼滤波器解决预测值不平滑和噪声干扰的问题;最后在商用模块化航空推进系统仿真数据集(C-MAPSSC)上进行了验证和分析,实验结果证明:与其他模型相比,文中采用的寿命预测方法准确度更高。 相似文献
14.
研究了普通线性群系统在存在时延和不确定参数条件下的鲁棒一致性问题。首先结合分布式PID控制和静态输出反馈提出一种新的一致性协议;然后引入描述符方法将闭环系统的微分方程转化为描述符模型,通过变量转换将一致性问题转化为渐近稳定问题;构造Lyapunov-Krasovskii泛函,基于线性矩阵不等式(LMI)给出了鲁棒控制器的设计方法。仿真结果表明:系统的结构拓扑图在存在全局可达节点的条件下,通过选择合适的PID参数,系统可实现一致性,且不确定参数会对系统的运动轨迹产生影响,通过与基于PD控制的一致性协议对比结果可知本文提出的一致性协议使得群系统收敛速度更快,鲁棒性更强。 相似文献
15.
针对历史数据少、信息贫乏的软件估算问题,提出了一种基于灰色关联分析的工作量估算方法。首先结合灰色关联理论分析了项目特征与工作量的关联度,然后利用回归技术选取最优特征集;在此基础上,计算新项目和历史项目的关联度,并根据关联度大的项目估算软件工作量;最后通过4个典型的软件数据集对估算方法的性能进行分析。实验结果表明,该方法能够在历史数据少的情况下准确估算出软件工作量,其性能优于基于回归分析、BP神经网络和类比估算等方法;而选取最优特征后的灰色关联方法,由于剔除了与工作量相关程度低的特征因子,进一步减小了工作量估算的平均误差率。 相似文献
16.
针对超视距空战机动决策问题,提出基于战术机动组合的超视距空战决策模型。首先,利用参数化语言将超视距空战机动描述为两种典型形式,作为超视距空战战术的基本战术动作。其次,引入层次任务规划网络(HTN)模型,利用空空导弹攻击区描述空战态势,构建带参数的空战HTN模型。最后,将机动时间、可发射距离、可发射时间作为目标函数,构建多目标优化模型,采用飞蛾扑火算法对HTN网络参数进行优化求解。仿真实验表明,飞蛾扑火算法能够快速解算当前态势下的最优参数,所得到的空战战术机动序列能够达到战术目的。该算法模型可以为飞行员提供辅助决策,也为研究智能超视距空战提供了新的思路。 相似文献
17.
针对传统航迹预测方法考虑因素少、预测时间长的问题,提出基于实时反馈长短期记忆神经网络(FF-LSTM)的航迹预测模型。该模型在长短期记忆(LSTM)神经网络的基础上,引入实时反馈,并采用随机梯度下降法和批处理方法训练网络权值和阈值,构建FF-LSTM神经网络。根据目标航迹特点,选取敌机位置、姿态信息和两机之间互信息特征作为输入数据,将航迹预测视为序列到序列的映射问题。实验结果表明,与BP神经网络和递归神经网络相比,FF-LSTM模型有更好的预测能力,可以快速准确地完成航迹预测。 相似文献
18.
考虑到空空导弹对空战胜负的重要影响,针对空战态势状态特征连续、多维的情况以及传统方法缺乏对空战对抗中敌方策略的考虑,将强化学习应用到1vs1超视距空战机动决策。首先,建立了同时为对抗双方进行机动决策的强化学习框架,提出ε-纳什均衡策略来选取机动动作,并通过导弹攻击区优势函数来修正奖赏函数;其次,基于记忆库和目标网络训练Q-network,形成超视距空战机动决策的"价值网络";最后,设计了Q-network强化学习决策模型,并将机动决策过程分为了学习阶段与实战阶段。仿真结果表明:智能体可以感知空战的态势并作出合理的超视距空战机动决策。 相似文献