共查询到19条相似文献,搜索用时 62 毫秒
1.
基于Monte-Carlo实验的NRC参数整定规律研究 总被引:2,自引:0,他引:2
基于Monte-Carlo实验研究了非线性鲁棒控制器(NRC)参数整定的规律。介绍了针对单变量非线性对象的NRC控制器设计方法,提出了一种以Monte-Carlo实验原理为基础的NRC参数整定规律研究方法。该方法以ITAE值和系统超调量为控制器性能指标,主要分析NRC参数取值变化对控制系统鲁棒性的影响。以若干典型单变量非线性对象为例进行仿真研究,并在大量仿真试验结果的基础上,总结出NRC控制器参数整定的规律。 相似文献
2.
电站仿真器PID控制参数的模糊整定 总被引:1,自引:0,他引:1
在归纳总结目前使用较广泛的一些控制系统参数整定方法的基础上,通过对热工过程对象特性的研究,提出一种基于模式识别的模糊整定方法,以此在电站控制系统中的汽温控制等回路上进行了仿真整定试验,并将其应用于东北电力局600MW电站仿真器的控制系统参数整定,效果良好,证明了本文提出的整定方法的可行性 相似文献
3.
4.
介绍一种用组合控制器控制的交流传动系统,该系统综合利用模糊控制和PID控制的优点,来提高系统的动态和稳态性能。利用状态观测器修正因系统参数变化及系统的非线性赞成的控制误差,引入正交试验法进行参数整定,采用平滑方式实现两种控制的切换,仿真结果表明系统性能优良,并具有实时性强,便于实现等特点。 相似文献
5.
6.
7.
控制系统PID参数整定软件包CSLab 总被引:3,自引:0,他引:3
介绍了控制系统PID参数整定软件包CSLab。该软件包是以Matlab5.3为平台开发的,针对于单变量控制系统,采用了多种PID参数整定方法。具有丰富的控制系统仿真、分析计算和设计功能,并且建立了开放性的结构,具有高度的可扩展性,可以把新的参数整定方法扩充进来,同时还为用户提供了其它复杂控制结构,使得用户可以根据需要进行控制系统的设计。 相似文献
8.
基于BP神经网络PID参数自整定的研究 总被引:32,自引:4,他引:32
PID控制是迄今为止在过程控制中应用最为广泛的控制方法。但在实际应用中,其参数整定仍未得到较好的解决。本文把神经网络技术应用在PID控制中,充分利用神经网络具有非线性函数逼近能力,构造神经网络PID自整定控制器,并通过仿真试验,取得较好的结果。 相似文献
9.
10.
针对同一网络拓扑下不同网络负载的路由优化问题, 在深度强化学习方法的基础上, 提出了两种依据当前网络流量状态进行路由分配的优化方法。通过网络仿真系统与深度强化学习模型的迭代交互, 实现了对于流量关系分布的网络路由持续训练与优化。在利用深度确定性策略梯度(deep deterministec policy gradient, DDPG)算法解决路由优化问题上进行了提升和改进, 使得该优化方法更适合解决网络路由优化的问题。同时, 设计了一种全新的链路权重构造策略, 利用网络流量构造出用于神经网络输入状态元素, 通过对原始数据的预处理加强了神经网络的学习效率, 大大提升了训练模型的稳定性。并针对高纬度大规模网络的连续动作空间进行了动作空间离散化处理, 有效降低了其动作空间的复杂度, 加快了模型收敛速度。实验结果表明, 所提优化方法可以适应不断变化的流量和链路状态, 增强模型训练的稳定性并提升网络性能。 相似文献
11.
针对应急通信网络规划传统算法对先验知识要求高、时效性不强等问题,提出一种基于深度强化学习的应急通信网络拓扑规划方法。研究了基于蒙特卡罗树搜索与自博弈相结合的网络规划样本数据生成方法,设计了基于残差网络的策略网和价值网,在此基础上使用Tensorflow库对模型进行构建和训练。仿真结果表明,提出的规划方法能够有效实现网络拓扑的智能规划,且具有较高的时效性和可行性。 相似文献
12.
针对应急通信网络规划传统算法对先验知识要求高、时效性不强等问题,提出一种基于深度强化学习的应急通信网络拓扑规划方法。研究了基于蒙特卡罗树搜索与自博弈相结合的网络规划样本数据生成方法,设计了基于残差网络的策略网和价值网,在此基础上使用Tensorflow库对模型进行构建和训练。仿真结果表明,提出的规划方法能够有效实现网络拓扑的智能规划,且具有较高的时效性和可行性。 相似文献
13.
认知无线电和动态频谱分配技术是解决频谱资源短缺问题的有效手段。随着近年来深度学习和强化学习等机器学习技术迅速发展, 以多智能体强化学习为代表的群体智能技术不断取得突破, 使得分布式智能动态频谱分配成为可能。本文详细梳理了强化学习和多智能体强化学习领域关键研究成果, 以及基于多智能体强化学习的动态频谱分配过程建模方法与算法研究。并将现有算法归结为独立Q-学习、合作Q-学习、联合Q-学习和多智能体行动器-评判器算法4种, 分析了这些方法的优点与不足, 总结并给出了基于多智能体强化学习的动态频谱分配方法的关键问题与解决思路。 相似文献
14.
基于强化学习的倒立摆起摆与平衡全过程控制 总被引:4,自引:0,他引:4
倒立摆的控制是一种典型的非线性控制问题。本文的目标是在假设不知道任何倒立摆模型的前提下,采用强化学习控制器实现倒立摆的起摆和平衡的全过程控制。为提高学习效率,采用了任务分解的方法,将整个控制任务分解为起摆和平衡两个子任务,对于不同的子任务根据其特点采用不同的强化学习算法。在Matlab/Simulink上进行仿真实验,结果证明,该方法在合理的时间内可以学习到成功的控制方法。 相似文献
15.
针对单轨双轮机器人在静止情况下存在的固有静态不稳定问题,提出一种基于模糊强化学习(简称为Fuzzy-Q)的控制方法.首先,运用拉格朗日法建立带控制力矩陀螺的系统动力学模型.然后,在此基础上设计表格型强化学习算法,实现机器人的稳定平衡控制.最后,针对算法存在的控制精度不高和控制器输出离散等问题,采用模糊理论泛化动作空间,... 相似文献
16.
网络化战争中,机载雷达在实现对目标信息持续获取的同时保证载机安全生存是亟待解决的问题。对此,以多机协同作战安全转场任务为背景,提出基于深度强化学习算法的智能传感器管理方法。首先,综合考虑信号辐射量与目标威胁因素,计算目标运动过程中的实时威胁隶属度。其次,在强化学习框架下对雷达-目标分派问题建模,利用神经网络逼近动作-值函数,并根据时序差分算法进行参数更新。仿真结果表明,相比于传统调度方法,所提算法有效提升了任务成功率,缩短了任务完成用时。 相似文献
17.
海战场是未来大国冲突的主阵地之一, 强大的海战场目标搜寻能力是执行海上训练和作战的最后一道屏障, 同时也因其复杂多变的环境和重要战略地位成为战场联合搜救中最艰难最核心的部分。面向海战场目标搜寻的存活时间短、实时性要求高等特点, 提出一种基于深度强化学习的海战场目标搜寻规划方法。首先, 构建了海战场目标搜寻场景数学规划模型, 并将其映射为一种强化学习模型; 然后, 基于Rainbow深度强化学习算法, 设计了海战场目标搜寻规划的状态向量、神经网络结构以及算法框架与流程。最后, 用一个案例, 验证了所提方法的可行性与有效性, 与常规应用的平行搜寻模式相比大大提高了搜寻成功率。 相似文献
18.
针对学习未知动态的干扰图样问题,提出一种基于核函数强化学习的雷达与通信抗干扰频点协作算法.与需要获得干扰模式、参数等先验知识的研究相反,所提算法能够利用过去时隙中频点的使用情况来优化抗干扰频点分配策略.首先,通过核函数的强化学习来应对维度诅咒问题.其次,基于近似线性相关性的在线内核稀疏化方法,确保了抗干扰频点分配算法的... 相似文献
19.
1 .INTRODUCTIONBecause an agent’s rewardis a function of all agents’joint action, when applying RL[1]to multi-agent do-mains ,some fundamental change should be made .Byadopting single agentQlearning[2]to Markovgames,several algorithms have been proposed,suchas Littman’s mini maxQ-learning( mini max-Q)[3],Hu et al’s NashQ-learning(Nash-Q)[4 ,5], Claus etal’s cooperative multi-agentQ-learning[6], Bowlinget al’s multi-agent learningQ-learning using a vari-able learning rate[7 ~9],… 相似文献