共查询到20条相似文献,搜索用时 15 毫秒
1.
2.
3.
4.
5.
动物的节律运动具有规则的运动形式和良好的稳定性、适应性,因此这种运动方式适合用于腿式机器人的运动控制.针对四足机器人难以协调控制的问题,通过对高等动物神经学理论和节律运动的研究、改进与仿真,设计了一种基于中枢模式发生器(CPG)的运动控制方法,并借助Matsuoka振荡神经元模型建立了完整的四足机器人坊生运动控制网络模型.以自激行为产生不同相位的节律运动信号并控制执行器进行相应的动作,实现了一系列典型的四足机器人运动步态和足端轨迹的生成与转化,有效地解决了机器人四足协调运动控制的难题,提高了机器人在复杂环境中的运动和适应能力. 相似文献
6.
为了将视觉信息融入到机器人导航过程中,提高机器人对各类障碍物的识别率,减少危险事件的发生,设计了基于二维CNN及LSTM的局部路径规划网络。提出了基于深度学习的局部路径规划方案。利用机器人视觉信息及全局路径信息推理产生机器人在当前时刻完成避障导航任务所需转向角度;搭建了用于对规划器核心神经网络进行训练和验证的室内场景;提出了以路径总长度、平均曲率变化率及机器人与障碍物之间的距离为性能指标的路径评估方案。实验表明:该方案在仿真环境及真实场景中均体现了较优秀的局部路径生成能力。 相似文献
7.
提出增强学习(RL)解决机器人动态操作任务运动规划的方法。对动态操作任务,分析了如何确定输入输出变量以及强化函数的设计问题;给出用于连续输入输出问题的自适应启发评价(AHC)算法。增强学习解决动态操作任务的运动规划问题,只需要机器人正解进行反复尝试即可学会动作,从而避免了常规运动规划方法中涉及的复杂逆解运算;最后以平面3连杆机器人接取自由飞行的球为例进行仿真研究,结果表明了方法的有效性和可行性。 相似文献
8.
征对多移动机器人协同问题,将角色变换与强化学习相结合,采用集中式控制结构,并提出了距离最近原则,将距离障碍物最近的机器人作为主机器人并指挥其它从机器人运动,同时采用了基于行为的多机器人协同方式,在提出的基于强化学习的行为权重基础上,通过与环境交互使机器人行为权重趋向最佳,并利用基于最大行为值的协调策略来规划机器人避碰行为.通过在动态环境下多机器人协同搬运仿真实验,表明在使用了角色变换和强化学习后,有效减少了多机器人与障碍物发生碰撞的次数,成功的实现了协同搬运,具有良好的学习效果. 相似文献
9.
基于拟牛顿算法的自由下落猫的非完整运动规划 总被引:1,自引:0,他引:1
研究猫在自由下落时四肢着地的姿态运动规划问题。自由落体的猫在空中转体运动由于角动量守恒,姿态运动方程呈现为非完整形式。系统的控制问题可转化为无漂移系统的非完整运动规划问题。首先导出由两个对称刚体组成的力学模型的非完整姿态运动方程。利用最优控制理论和最优化技术,采用输入参数化的方法将连续的最优控制问题转化为离散的最优控制问题。基于拟牛顿方法,给出自由落体猫在空中姿态非完整运动规划算法。最后对自由落体猫作了数值仿真试验,仿真结果验证了该算法的有效性。 相似文献
10.
基于径向基函数网络的强化学习在机器人足球中的研究 总被引:2,自引:1,他引:1
与监督学习从范例中学习的方式不同,强化学习不需要先验知识,而是具有从经验中学习的能力,将强化学习应用在大状态空间中,必须应用函数逼近的方法,如使用径向基函数网络建立输入和输出的映射关系。本文对基于径向基函数网络的强化学习在机器人足球这样的动态的多智能体环境中的应用进行了研究。实验结果证明了研究方法的可行性。 相似文献
11.
自由漂浮双臂空间机器人基于RBF神经元网络的关节运动自适应控制 总被引:1,自引:0,他引:1
讨论了自由漂浮双臂空间机器人关节运动的控制问题.由拉格朗日第二类方法及系统动量、动量矩守恒关系,建立了自由漂浮双臂空间机器人完全能控形式的系统动力学方程.以此为基础,借助于RBF神经网络技术、Ge-Lee(GL)矩阵及其乘积算子定义,对自由漂浮双臂空间机器人进行了神经网络系统建模;之后针对双臂空间机器人系统所有惯性参数均未知的情况,设计了自由漂浮双臂空间机器人基于RBF神经元网络的关节运动自适应控制方案.提出的控制方案不要求系统动力学方程具有惯常的关于惯性参数的线性性质,且无需预知系统惯性参数的任何信息,也无需对神经网络进行离线训练、学习,所以更适于实时、在线应用.系统数值仿真证实了该控制方案的有效性. 相似文献
12.
13.
14.
摆臂式履带机器人具有一定的地形适应能力,实现摆臂的自主控制对提升机器人在复杂环境中的智能化作业水平具有重要意义。结合专家越障知识和技术指标对机器人的摆臂控制问题进行马尔可夫决策过程(Markov decision process,MDP)建模,基于物理仿真引擎Pymunk搭建了越障训练的仿真环境;提出一种基于D3QN(dueling double DQN)网络模型的深度强化学习摆臂控制算法,以地形信息与机器人状态为输入,以机器人前后四摆臂转角为输出,能够实现挑战性地形下履带机器人摆臂的自学习控制。在Gazebo三维仿真环境中将算法学得的控制策略与人工操纵进行了对比实验,结果表明:所提算法相对人工操纵具有更加高效的复杂地形通行能力。 相似文献
15.
针对传统无能耗约束的多无人机路径规划方法难以适应复杂山地作业环境的应急救援要求,提出了一种基于LSTM-DPPO(long short-term memory-distributed proximal policy optimization)框架的多无人机三维路径规划算法。利用LSTM长短期记忆神经网络提取出多无人机在各自飞行过程中的重要特征状态信息序列,经过多次迭代更新后得到一个最优网络参数模型,结合能耗生成最优的三维探测路径。实验结果表明:该方法相对于传统路径规划方法效果显著,能在能耗最小的前提下规划出最优探测路径。 相似文献
16.
针对随机环境中以觅食为任务的多机器人系统,在建立其整体数学模型基础之上,利用随机规划中的相关机会规划对影响整体系统性能的两个重要参数进行了优化分析,并采用基于随机模拟的遗传算法得到了优化结果.仿真结果表明,利用该方法可以实现随机环境下的系统优化控制,从而可为多机器人系统的行为规则优化提供理论依据. 相似文献
17.
研究了一种基于智能体动作预测的多智能体强化学习算法. 在多智能体系统中,学习智能体选择动作不可避免地要受到其他智能体执行动作的影响,因此强化学习系统需要考虑多智能体的联合状态和联合动作.基于此,提出使用概率神经网络来预测其他智能体动作的方法,从而构成多智能体联合动作,实现了多智能体强化学习算法. 此外,研究了该方法在足球机器人协作策略学习中的应用,使多机器人系统能够通过与环境的交互学习来掌握行为策略,从而实现多机器人的分工和协作. 相似文献
18.
19.
20.
仿人机器人在线规划方法对于其走向实际应用具有重要作用.通过对仿人机器人运动规划方法的调研以及实时性需求分析,提出了一种基于基本变量集的仿人机器人在线规划方法.该方法将运动规划问题转化为反映机器人运动状态的基本变量集的规划问题,通过对基本变量的规划和计算,得到基于关节空间的运动状态序列.该基本变量集包含零力矩点、仿人机器人重心(CoG)、髋部中心(CoC)、脚掌位置及相关关键姿态关系,所提方法结合仿人机器人动力学约束和物理约束,给出了关键变量集的规划和计算方法.最后,通过仿真实验,对规划结果的可行性进行了验证,实现了仿人机器人的稳定行走. 相似文献