首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 187 毫秒
1.
为了克服单个agent知识的局限性,提高系统决策的可靠性,提出了一种基于D-S理论的多agent合作决策机制,并对多agent合作决策进行了定义和形式化描述.多agent合作决策划分为学习和决策两个阶段,学习阶段反馈信息的引入,使各agent根据正确的训练案例和修正公式实现了冲突消解,降低了合成计算的复杂度,改进了Dragoni等人的工作,较投票机制和加权多数算法具有更高的可靠性,实验结果验证了这一结论.  相似文献   

2.
机器人足球(RoboCup)是研究多agent系统的体系结构、多agent团队合作理论以及机器学习方法的理想测试平台。介绍了开发的仿真球队NDSocTeam系统的设计原理和实现技术。系统设计了以机器学习技术为核心的球员agent结构,并建立了一种分层学习以及多种学习技术相结合的机器学习系统.重点描述了NDSocTeam系统的总体结构、球员agent的结构以及机器学习的实现技术。  相似文献   

3.
人工情感在Agent行为选择策略中的应用   总被引:3,自引:0,他引:3  
研究了人工情感在智能系统中是否可以发挥重要作用.以一生活在虚拟环境中的agent作为研究对象,提出一种基于模糊逻辑的情感模型,并将情感的评估作用与基于CMAC神经网络的联想学习机制相结合,将情感对环境和agent自身状态的评估的变化作为再励信号,用于引导agent的行为选择策略的学习.计算机仿真研究的结果表明,运用该方法可以取得良好的效果.  相似文献   

4.
对多agent系统协调控制的计算机仿真方法进行了总结,并通过一个例子,对如何利用Matlab的Simulink仿真工具对多agent系统进行建模和计算机仿真作了一下尝试.仿真实例说明了该方法的有效性,但明显的不足在于:当agent数量较多时该方法不太适用.  相似文献   

5.
现代故障诊断已是一个动态的、分布的、柔性的、实时的和不确定的复杂系统,将多agent技术引入复杂故障诊断领域,是求解复杂过程的故障诊断问题的一种新的尝试.讨论了基于MAS的分布式智能故障诊断方法和过程,设计了一种agent诊断系统结构及其原型系统,对诊断问题任务辨识、分解、各agent的内部诊断机制、多agent间的交互、协作、关联模型以及诊断决策问题等进行了深入研究.并重点描述了诊断agent的领域知识表示及多agent诊断系统的组织模型和各任务agent的功能定义,具体分析了诊断问题的故障分解与控制策略.在一电力企业安全监控系统的应用中,该模型能快速、准确地进行故障成因分析,给出合理的、建设性的决策意见,取得了与专家相似的诊断结果.克服了以往监控诊断系统的很多不足,提高了企业的安全运行效率.同时,与传统的诊断方法相比.体现了auent技术的特有优势.  相似文献   

6.
RoboCup中基于效果操作的动态行为规划模型   总被引:2,自引:1,他引:2  
如何提高agent的学习能力、对手建模能力以及多agent团队运作能力是目前RoboCup研究所面临的3项挑战,在上述的挑战中,行为规划起了非常重要的作用。agent如何能够在动态实时的复杂环境中根据场景变化来动态规划自己的行为是RoboCup目前急需解决的问题。提出一种面向效果操作方法的动态行为规划模型,使队员能够在场景分析的基础上,根据经验动态选择和执行行为策略,且具有持续学习的能力,采用贝叶斯信念网络和基于示例推理相结合的方法来实现。实验结果表明,该方法有效提高了队员适应环境的能力。  相似文献   

7.
研究多agent系统的学习行为对于智能系统的适应性是至关重要的.针对一类追求系统得益最大化的协作团队的学习问题,基于马尔可夫博弈的思想,提出了一种新的多agent协同强化学习算法.协作团队中的每个agent通过观察协作相识者的历史行为,依照马尔可夫博弈模型预测其行为策略,采用适合的行为探索策略,进而得出最优的联合行为策略.实验对该算法进行了验证,结果表明该算法是有效的.  相似文献   

8.
稳定的有领航者的多移动agent群集运动控制   总被引:6,自引:1,他引:5  
对具有二次积分动态的多移动agent跟随领航者(Leader)取得群集(Flocking)运动编队进行了研究.提出了一个分散控制方法对多移动agent进行分散控制,并通过理论证明得到以下主要结论:a.所有agent速度方向收敛到同一方向并与领航者保持一致;b.所有agent速度大小收敛并与领航者相同;c.互连的agent之间没有碰撞发生;d.所有agent的人工势场函数被最小化.用图论模型表示agent之间的相互作用及通信关系,对固定的网络拓扑,控制互连拓扑是固定的、时不变的,运用传统的李亚普诺夫理论进行了稳定性分析.最后,给出了一个计算机仿真例子对所得结论进行了验证.仿真结果表明,控制策略可以保证所有agent的速度大小和方向收敛到与Leader保持一致,同时避免碰撞,并保持一个紧凑的编队.  相似文献   

9.
针对多agent团队中各成员之间是协作关系且自主决策的学习模型,在此对Q学习算法进行了适当扩充,提出了适合于多agent团队的一种共享经验元组的多agent协同强化学习算法。其中采用新的状态行为的知识表示方法,采用相似性变换和经验元组的共享,能够提高多agent团队协同工作的效率。最后将该算法应用于猎人捕物问题域,实验结果表明该算法能够明显加快多个猎人合作抓捕猎物的进程。  相似文献   

10.
一种基于意图跟踪和强化学习的agent模型   总被引:1,自引:0,他引:1  
针对动态对抗的多agent系统(MAS)环境中agent行为前摄性较差的问题,提出了一种将意图跟踪和强化学习相结合的agent模型.该模型将对手信息和环境信息分开处理,在agent的BDI心智模型中引入了Q-学习机制应对环境变化;在强化学习的基础上注重对对手和对手团队的意图跟踪,改进Tambe的意图跟踪理论,针对特定对抗环境中的对手行为建立对手模型,跟踪对手和对手团队的意图,预测对手目标,以调整自身行为.实验证明,所提出的agent模型具有更强的自主性和适应性,在动态对抗系统中具有更强的生存能力.  相似文献   

11.
从认知的和社会的角度分析了协同设计活动,提出了一种面向协同设计的多Agent系统结构和设计Agent的感知模型,以及多Agent协同强化学习的方法.该方法采用动态小生境技术对设计Agent进行分组,并选出每组中的最优设计Agent,使其通过与设计人员交互进行强化学习,然后和其他组选出的Agent协同学习,并把学到的知识在组内进行传播.以齿轮减速器设计为例,介绍了多Agent协同设计系统的协同设计及学习过程.  相似文献   

12.
设计是一个复杂的问题求解和逐步求精的过程,学习可以有效地利用经验知识改进设计者及计算系统的能力,提出了一种面向对象的设计模型,并介绍了基于该模型的设计知识表示方法及用决策树进行分类的方法,然后,介绍了多Agent设计概念学习系统DCLS(Design Concept Leaming System)的结构及学习过程。  相似文献   

13.
Agent在与其他Agent合作工作时,可以相互学习,以增强解决问题的能力。本文提出一种互助学习模型MSLM,在该模型中,每个Agent均可作为其伙伴的教师,通过互帮互学,可以减少Agent在解决相似问题时的重复协商时间,从而提高系统效率。  相似文献   

14.
关于Agent个体的机器学习一直是Agent研究的一个重要方面,本文对再励学习中的Q学习算法做了简单介绍,然后在一个基于Agent的机器人足球赛平台上将Q学习算法引入,并进行了对比实验。  相似文献   

15.
智能化远程学习模型   总被引:11,自引:0,他引:11  
利用智能化技术实现有效的个性化学习是远程教育中的重要问题。该文对现有远程学习系统中智能化所需要解决的问题进行了分析。针对目前远程学习模型可实现性差的问题 ,从两个层次上加以解决 :在课件学习模型问题上 ,提出一个反映知识模块间关系的知识混合结构模型 ,及相应的智能指导和智能答疑算法 ;在软件实现层次上 ,利用软件代理和多代理技术实现智能课件、智能学习指导和智能答疑3个功能。该模型通过一个实验系统加以验证。结果表明 :基于知识混合结构和软件代理技术的智能化学习模型是一个实用的远程学习智能化方案  相似文献   

16.
 分析了项目式教学的主要内容及其存在的问题,提出了基于模型的复杂机电系统创新设计方法,建立了基于项目过程模型和设计对象模型的复杂机电系统设计过程模型,并以摩擦磨损试验机创新设计为例对所提出的方法进行应用验证。  相似文献   

17.
提出了一种基于Agent技术的开放教育教学管理系统模型.在远程开放教育教学环境下,利用远程教学平台资源,以Agent技术为基础,将教学资源、学生、教师及管理人员进行有机整合,实现学生个性化学习和智能化沟通学习.对系统模型的部分功能进行了详细论述,构建了个性化、智能化的现代远程教育学习环境.  相似文献   

18.
In multiagent reinforcement learning, with different assumptions of the opponents' policies, an agent adopts quite different learning rules, and gets different learning performances. We prove that, in multiagent domains, convergence of the Q values is guaranteed only when an agent behaves optimally and its opponents' strategies satisfy certain conditions, and an agent can get best learning performances when it adopts the same learning algorithm as that of its opponents.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号