首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   26篇
  免费   0篇
系统科学   11篇
现状及发展   1篇
综合类   14篇
  2023年   1篇
  2017年   1篇
  2015年   1篇
  2014年   3篇
  2013年   1篇
  2011年   1篇
  2010年   2篇
  2008年   4篇
  2007年   2篇
  2006年   2篇
  2005年   4篇
  2004年   1篇
  2003年   2篇
  1983年   1篇
排序方式: 共有26条查询结果,搜索用时 15 毫秒
21.
基于3维模型的月球表面软着陆燃耗最优制导方法   总被引:1,自引:0,他引:1  
为了解决月球探测器软着陆燃耗最优制导问题,基于变分法设计了最优制导律.首先,基于变分法,将问题转换为终端时间自由且带有条件约束的两点边值问题;其次,引入了时间尺度变换方法,将终端时间自由的两点边值转换成终点时间固定的两点边值问题;最后,为了确保两点边值的求解迭代算法收敛,提出了一种终端时间和共轭变量初始值猜测方法,并通过数值方法取得终端时间和共轭变量精确的初始值以及着陆过程中最优制导律和3维最优轨迹.仿真实验结果表明,所提方法有效,算法可收敛,并且实现了燃耗最优制导.  相似文献   
22.
提出了一种用语音转换技术改善电话语音识别性能的方法。通过模拟真实电话信道条件下影响语音质量的各种因素,实现由纯净语音到电话语音的转换。识别试验利用模拟电话语音评估了HMM识别器做MLLR自适应前后的性能.实验数据显示,自适应前由转换语音训练的模型识别率比由纯净语音训练的模型识别率增加了18.9%,而自适应试验表明,由转换语音训练而成的模型在MLLR自适应后,系统识别性能进一步得到改善,识别率增加了5.8%。识别实验表明所提语音转换方法可以减小由于真实电话语料缺乏而造成训练语音和测试语音声学性质的不匹配,从而有效地改善电话语音识别系统的性能。  相似文献   
23.
为了模拟动物大脑皮层结构连接与功能连接间的关系,为机器学习提供新的思路,本文用图论测度表示网络的结构,用信息论测度表示功能整合和功能分离间的相互作用,采用图选择的方法对随机图进行变异和选择,确定与特定的功能动力学模式相对应的网络结构,并研究在外界刺激信号作用下,系统连接与感觉层间的匹配关系。仿真结果表明:由图选择获得的网络结构,呈现若干密集的顶点区,区域间松散连接,具有功能分离与功能整合的特点。在外界信号刺激下,特定的结构模式可以使系统与感觉层信号的统计结构间达到最大程度的匹配。  相似文献   
24.
分析了目前青霉素发酵过程中存在的问题.基于RBF神经网络的辨识方法,建立了青霉素发酵过程模型.以动力学模型为基础产生教师数据,采用遗传算法对网络进行训练,建立了基于RBF神经网络的发酵过程模型,并进行了仿真实验验证.实验结果表明,该辨识模型对青霉素补料分批培养过程具有实用价值.  相似文献   
25.
以概率自动机(probabilistic automata, PA)为平台,结合遗传算法(genetic algorithm, GA)的进化思想,设计了反映Skinner操作条件反射(operant conditioning, OC)思想的仿生学习模型,称为基于遗传算法的操作条件反射概率自动机(genetic algorithm-operant conditioning probabilistic automata,GA-OCPA)学习系统。每一次学习尝试之后,首先,学习系统把通过OC学习算法学习得到的信息熵值作为个体适应度;然后,执行遗传算法,搜索最优的个体;最后,再执行OC学习算法学习最优个体内的最优操作行为,以得到新的信息熵值。理论上分析了GA-OCPA学习系统学习算法的收敛性,通过对两轮机器人运动平衡控制的仿真分析,表明设计的GA-OCPA学习系统的学习是一个自动获取知识和提炼的过程,具有高度的自适应能力。  相似文献   
26.
复现高等生物的学习过程是机器人研究的一个重要研究方向,研究人员已探索出一些常用的基于行动者评价器(actor critic,AC)网络的强化学习算法可以完成此任务,但是还存在一些不足.针对深度确定性策略梯度(deep deterministic policy gradient,DDPG)存在着Q值过估计导致恶化学习效果的问题,受到大脑前额叶皮质层仲裁机制的启发,提出了一种深度仲裁行动者评价器(deep arbitration actor critic,DAAC)算法,其中包含两套评价网络,通过仲裁机制进行择优选取评价网络去更新策略参数,有效解决了Q值过估计的问题,该算法使得四足机器人成功复现了仿生的步态学习过程.通过仿真实验,将DAAC算法与DDPG、软行动者评价器(soft actor critic,SAC)、近端策略优化(proximal policy optimization,PPO)三种算法进行了对比实验,实验证明经DAAC训练的四足机器人步态在奖励值、机体稳定性和速度三个方面都有更好的表现,有效验证了算法的优越性.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号