共查询到20条相似文献,搜索用时 140 毫秒
1.
基于径向基函数网络的强化学习在机器人足球中的研究 总被引:2,自引:1,他引:1
与监督学习从范例中学习的方式不同,强化学习不需要先验知识,而是具有从经验中学习的能力,将强化学习应用在大状态空间中,必须应用函数逼近的方法,如使用径向基函数网络建立输入和输出的映射关系。本文对基于径向基函数网络的强化学习在机器人足球这样的动态的多智能体环境中的应用进行了研究。实验结果证明了研究方法的可行性。 相似文献
2.
现有学习软件或虚拟教具存在交互方式不自然、抽象性差、不智能的缺点,应用基于自然的人机交互技术,以物理教学中的平抛运动教具作为实例,设计实现一种3D虚拟教具用以模拟教学过程中的真实教具。这种虚拟教具主要采用手势识别技术实现人和计算机的自然地交互,同时采用虚拟现实技术构建教具实体。应用人机自然交互技术支持的3D虚拟教具,具有交互方式自然、空间感强和抽象表现力强的特点,体现了和谐自然地人机交互方式在教育中的广泛应用前景。 相似文献
3.
非参数数据包络分析方法在能源与环境效率评估、污染物影子价格估计、排放权分配等领域获得了广泛应用,其建模的一个重要理论基础是环境生产技术的表征.本文对非参数环境生产技术的理论、模型及应用做了较为系统的回顾与展望.首先,从非期望产出处置方式的角度对常见的非参数环境生产技术进行总结分类,指出各类环境生产技术的关键特征和内在局限.其次,从可处置性、应用领域、污染物种类等方面,系统总结了环境生产技术的最新研究进展,对以环境生产技术为基础的应用研究的特征做了归纳.最后,指出环境生产技术未来可能的研究方向,以期推动环境生产技术相关理论研究和实践应用. 相似文献
4.
5.
6.
基于强化学习的指挥控制Agent适应性仿真研究 总被引:1,自引:1,他引:1
应用人工智能中的学习技术来赋予战争模拟系统中的智能Agent适应能力,是基于CAS理论的战争复杂性研究的基础内容之一。面对战争系统中复杂动态的环境,传统的监督学习方法不能很好满足智能Agent实时学习的要求。而强化学习却可以很好的适应这种动态未知的环境。文章引入强化学习技术对战争系统中指挥控制Agent的适应性进行建模仿真研究。实验结果表明强化学习技术能很好的满足指挥控制Agent无师在线实时学习的要求,从而为战争模拟系统中的智能Agent的适应性机制提供良好的建模手段。 相似文献
7.
在介绍基于范例推理方法基本原理的基础之上,分析了基于范例推理的后勤仿真作业系统的框架结构和工作原理;探索了应用范例推理方法实现后勤仿真作业系统的技术框架,仿真作业系统中对范例检索采用最相邻近策略,将范例属性采用对称二维表结构方式存储,对范例特征的影响程度依次检索。说明了仿真作业系统的学习机制,范例库学习中采用的多范例集成机制。 相似文献
8.
9.
基于虚拟现实技术新一代电子商务模式研究 总被引:6,自引:1,他引:5
目前电子商务的应用正在不断普及和发展,因HTML语言局限性,在Internet上商务信息都是以二维方式来表现,缺少真实感,随着计算机网络技术发展和带宽的提高,以虚拟现实技术为基础的三维空间信息将成为现实,本文是研究将虚拟现实应用于电子商务的一种新模式,同时给出开发一个网上虚拟书店的应用实例。 相似文献
10.
11.
12.
在雷达探测领域,数据样本无论在完备性还是多样性上,均不能满足深度学习模型有效训练的要求,模型极易出现过拟合现象,从而限制了相关技术在雷达探测领域的广泛应用。面向雷达探测领域的智能化应用需求,针对雷达数据样本不足问题,提出基于生成对抗神经网络的微波成像体制雷达数据增广方法。针对雷达数据样本特征不显著问题,结合标签平滑正则化方法,实现增广数据样本的自动标注,通过构建增广样本与真实样本协同的深度学习模型训练框架,实现模型在小规模雷达数据样本集上的鲁棒训练。基于公开雷达探测数据集,验证了该方法的有效性。 相似文献
13.
基于智能Agent的复合学习方法 总被引:2,自引:0,他引:2
从实例学习和事例推理的关系出发,分析了专家经验累积的过程,指出传统知识获取瓶颈的根源.在此基础上,借助agent理论,提出了一种从专家分析实例学习和事例推理的有机结合模型,给出了专家知识获取的基本框架.构成此框架的各归纳学习agent在专家的协助下,可通过加强学习机制相互促进. 相似文献
14.
针对领域本体构建过程中获取概念间语义关系的困难, 提出了一种新的本体关系学习方法——概念特征词法, 支持自动化地构建领域概念间的关系集合. 该方法首先基于语境将领域概念表示为特征词向量模型, 然后通过计算向量的相似度来确定两个概念之间是否存在语义关系. 依据领域专家定义的金标准, 对概念特征词法的学习结果做了详细的性能分析. 结果表明: 相较于已有方法, 本文方法的准确率和召回率更令人满意. 概念特征词法可广泛应用于本体构建、文本挖掘和语义检索等领域. 相似文献
15.
预测支持系统中的人机界面Agent及其机器学习 总被引:7,自引:0,他引:7
人机界面 agent是一种具有一定智能性 ,并能增强应用系统与用户间交互的计算机程序 .通过机器学习机制 ,这种 agent能够适应用户的习惯 ,使系统更有效的服务于用户 .本文将界面 agent( Interface agent)技术应用于预测支持系统 ( FSS:Forecasting Support System)中 ,并采用适当的学习方法 ,可以很好地解决其中的复杂人机交互问题 相似文献
16.
Intelligent Information Management and Knowledge Discovery in Large Numeric and Scientific Databases
《系统工程与电子技术(英文版)》1996,(2)
IntelligentInformationManagementandKnowledgeDiscoveryinLargeNumericandScientificDatabasesPatrickPerrin;FrederickE.Petry&Willi... 相似文献
17.
This article explores the ways in which the process of systems learning can be nurtured in organizational contexts. I posit that in order to mobilize systems learning at the individual, group, and organizational levels, an integrated, holistic approach must be pursued. It is suggested that the challenge of not only teaching the systems thinking concepts but also using their actual applications in practice is more than just an issue of pedagogical improvement. The cultural and material issues integral to the use of systems thinking must be taken into consideration as well. I argue that our efforts to improve our pedagogical practices to foster systems learning in organizational contexts can benefit from the social constructivist perspective, which represents a system of ideas about learning. The qualities of systems pedagogy resided in social constructivism are proposed as a framework to think with in designing the meaningful systems learning activities. This article also discusses how to create the cultural and material environments in which the process of systems learning can be nurtured. 相似文献
18.
认知无线电和动态频谱分配技术是解决频谱资源短缺问题的有效手段。随着近年来深度学习和强化学习等机器学习技术迅速发展, 以多智能体强化学习为代表的群体智能技术不断取得突破, 使得分布式智能动态频谱分配成为可能。本文详细梳理了强化学习和多智能体强化学习领域关键研究成果, 以及基于多智能体强化学习的动态频谱分配过程建模方法与算法研究。并将现有算法归结为独立Q-学习、合作Q-学习、联合Q-学习和多智能体行动器-评判器算法4种, 分析了这些方法的优点与不足, 总结并给出了基于多智能体强化学习的动态频谱分配方法的关键问题与解决思路。 相似文献
19.
20.
针对深度强化学习方法对驾驶仪控制参数训练速度慢、奖励函数收敛性不好等问题,以三回路驾驶仪极点配置算法为核心,提出一种将三维控制参数转换为一维设计参量的智能训练方法,构建离线深度强化学习训练叠加在线多层感知器神经网络实时计算的智能控制架构,在提高深度强化学习算法的效率和奖励函数收敛性同时,确保在大范围飞行状态变化条件下控制参数的快速在线自整定。以典型再入飞行器为例,完成深度强化学习训练和神经网络部署。仿真结果表明,强化学习动作空间简化后的训练效率更高,训练得到的驾驶仪对控制指令的跟踪误差在1.2%以内。 相似文献