排序方式: 共有35条查询结果,搜索用时 134 毫秒
31.
32.
影响图是贝叶斯网络的扩展,利用影响图可以有效解决智能Agent利用经验学习和行为选择2个基本问题。RoboCup是一个典型的多Agent系统,其中的球和球员都可以看成是Agent。文章给出一种基于影响图的决策方法,并将其应用到RoboCup中,从而实现了球员截球过程中行为的动态调整。 相似文献
33.
周燕艳 《四川理工学院学报(自然科学版)》2011,24(4):417-421
传统的Q学习已被有效地应用于处理RoboCup中传球策略问题,但是它仅能简单地离散化连续的状态、动作空间。文章提出一种改进的Q学习算法,提出将神经网络应用于Q学习,系统只需学习部分状态—动作的Q值,即可进行Q学习,有效的提高收敛的速度。最后在RoboCup环境中验证这个算法,对传球成功率有所提高。 相似文献
34.
基于CMAC(cerebella model articulation controller)提出一种动态强化学习方法(dynamic cerebellamodel articulation controller-advantage learning,DCMAC-AL)。该方法利用advantage(λ)learning计算状态-动作函数,强化不同动作的值函数差异,以避免动作抖动;然后在CMAC函数拟合基础上,利用Bellman误差动态添加特征值,提高CMAC函数拟合的自适应性。同时,在RoboCup仿真平台上对多智能体防守任务(takeaway)进行建模,利用新提出的算法进行学习实验。实验结果表明,DCMAC-AL比采用CMAC的advantage(λ)learning方法有更好的学习效果。 相似文献
35.
文章从进攻和防守的角度描述了RoboCup仿真机器人足球队球员Agent决策策略的设计;提出了基于Advisor-Evaluator进攻决策模型,详述其各个组成部分,并进行性能分析;设计基于防守对象-绑定-防守动作的防守模型来进行防守方案设计,实战结果表明,以此为基础的HfutEngine2005具有较强的比赛能力。 相似文献