首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   850篇
  免费   27篇
  国内免费   58篇
系统科学   167篇
丛书文集   16篇
教育与普及   4篇
理论与方法论   5篇
现状及发展   3篇
综合类   740篇
  2024年   13篇
  2023年   13篇
  2022年   34篇
  2021年   29篇
  2020年   22篇
  2019年   13篇
  2018年   10篇
  2017年   13篇
  2016年   15篇
  2015年   22篇
  2014年   46篇
  2013年   37篇
  2012年   48篇
  2011年   80篇
  2010年   42篇
  2009年   66篇
  2008年   83篇
  2007年   72篇
  2006年   54篇
  2005年   55篇
  2004年   45篇
  2003年   23篇
  2002年   23篇
  2001年   16篇
  2000年   9篇
  1999年   16篇
  1998年   10篇
  1997年   3篇
  1996年   6篇
  1995年   2篇
  1994年   2篇
  1993年   6篇
  1990年   1篇
  1989年   2篇
  1988年   1篇
  1986年   1篇
  1981年   2篇
排序方式: 共有935条查询结果,搜索用时 31 毫秒
1.
为了构建共享自动驾驶汽车(shared autonomous vehicles,SAV) 的使用意愿模型并分析其影响因素,通过使用时机和使用频率来体现公众对SAV的使用意愿;采用验证性因子分析将态度潜变量转化为潜变量得分,以此将态度潜变量引入传统的有序Logit模型;提出SAV使用意愿的有序Logit模型构建方法,并建立基于个人属性、通勤特征、态度潜变量的SAV使用意愿模型.研究发现:是否使用过滴滴拼车、工作单位停车费、自动驾驶态度对使用时机和3种价格(1,2,3元/km) 下的使用频率有显著影响;使用过滴滴拼车、工作单位收取停车费、支持自动驾驶的群体倾向于频繁地、更早地使用SAV出行;公众期望以1元/km或 2元/km即不超过目前滴滴拼车的价格使用SAV.  相似文献   
2.
为获取变化海流环境下自主水下航行器(autonomous underwater vehicle, AUV)的能量最优路径, 基于最优控制理论提出一种用于AUV的三维能量最优路径规划算法。首先, 为了有效抑制海流对路径规划的影响, 将海流向量加入到AUV运动学模型中。其次, 在已知俯仰角及AUV位置的情况下, 利用庞特里亚金极小值原理, 获得能量最优控制律。最后, 利用线性定常系统的状态空间理论, 计算得到初始艏向角、航速以及能量消耗。在仿真环节, 通过与负反馈控制策略相比较, 说明所提算法能够规划出三维能量最优路径, 而且可以有效降低AUV的能量消耗。  相似文献   
3.
自主机器人人工进化方法研究   总被引:1,自引:0,他引:1  
在介绍人工进化研究状况的基础上 ,着重阐述了进化机器人学的关键问题 :基本概念、进化技术、进化计算和实验研究方法等 ,探索了进化机器人学未来的研究趋势及所面临的挑战 .  相似文献   
4.
文章论述了培养大学生外语自主学习意识的必要性,并探讨了在我国当前教育环境下培养大学生外语自主学习意识的实现途径。  相似文献   
5.
新兴产业保护中的两产品关税谈判模型   总被引:3,自引:1,他引:2  
用多目标规划与博弈论方法研究两国与两国产业(或缔约方双方与双方产业)的决策与竞争,建立了6个参与人的规划与博弈混合的多层次的两产品关税谈判模型,该模型包含3层次.上层是一个多目标规划模型,中层包含一个博弈模型,下层包含两个博弈模型.在给定满足模型假设条件的参数下对模型进行了求解与分析,并求出了模型的关税谈判均衡解.模型可用于政府制定关税决策,预测关税上限对国家与产业的影响。  相似文献   
6.
遗传算法在网上谈判支持系统中的应用研究   总被引:12,自引:0,他引:12  
从 8 0年代后期首次出现谈判支持系统至今 ,国外许多学者从不的角度对其进行了大量的研究 ,而国内在这方面的研究尚处于起步阶段 .网上谈判支持系统不仅要为谈判人提供方便的交流媒介 ,更要为其提供合理的协调解 ,以减少冲突 ,提高谈判的成功率 .目前 ,对于网上谈判支持系统中谈判解支持的研究 ,尚未取得重大突破 ,采用的方法仅仅局限于效用函数法、对策分析法以及国内近期研究出的基于兴趣点的选择方案搜索算法等等 .但是 ,这些方法在实际应用中很难方便、及时地为谈判人提供有效的建议解或方案支持 ,无法满足网上谈判的实际需求 .本文针对遗传算法的全局收敛性快速寻优、可并行性寻优以及模拟自然进化过程解决最优问题等特点 ,尝试着将遗传算法用于网上谈判支持系统中 ,为谈判人提供对于双方而言满意的协调解 ,对此 ,文中进行了一系列的理论分析及实践检验 ,证明了这种方法的可行性及特殊的优越性 .  相似文献   
7.
谈判是妥协的艺术,没有让步就不会成功.无论买方还是卖方,让步都是其达成有效协议所必须采取的策略.因此,让步技巧在商务谈判中的运用显得尤为重要,它影响着谈判发展的方向,关系到谈判的最终结果.  相似文献   
8.
To deal with emergencies and disasters without rescue workers being exposed to dangerous environments, this paper presents a mobile rescue robot, Earthshaker. As a combination of a tracked chassis and a six-degree-of-freedom robotic arm, as well as miscellaneous sensors and controllers, Earthshaker is capable of traversing diverse terrains and fulfilling dexterous manipulation. Specifically, Earthshaker has a unique swing arm—dozer blade structure that can help clear up cumbersome obstacles and stabilize the robot on stairs, a multimodal teleoperation system that can adapt to different transmission conditions, a depth camera-aided robotic arm and gripper that can realize semiautonomous manipulation and a LiDAR aided base that can achieve autonomous navigation in unknown areas. It was these special systems that supported Earthshaker to win the first Advanced Technology & Engineering Challenge (A-TEC) championships, standing out of 40 robots from the world and showing the efficacy of system integration and the advanced control philosophy behind it.  相似文献   
9.
自主式交通系统(autonomous transportation system, ATS)是为应对主动式智慧交通发展趋势而提出的新一代交通系统。为科学合理地构建ATS功能架构,提出了一种面向多属性文本的优化密度峰值聚类算法(density peaks clustering, DPC)。该算法结合交通系统功能架构的基本特征,通过改进的词频-逆向文档频率算法与文本向量空间模型,将多属性文本转化成空间维度坐标。再利用高斯函数和决策值优化DPC算法进行聚类,并结合轮廓系数对聚类结果进行评价。为了检验算法的合理性,在ATS道路自动驾驶场景下,基于道路载运工具运行服务域、交通基础设施管理服务域和交通安全管理服务域的功能数据集进行了算例分析,依据聚类结果绘制功能架构图。架构图由自主感知-自主学习-自主决策-自主响应4层构成,验证了ATS应用场景中功能架构优化算法的可行性和合理性。算例结果表明:该算法的构建具有鲁棒性,算例轮廓系数整体均值为0.84,与原算法相比解决了聚类过程中聚类中心难以划定的问题;与原智能交通系统中的各架构设计相比,该功能架构更具有层次性和逻辑性。该优化算法能够促进新一代交通系统...  相似文献   
10.
深度确定性策略梯度(deep deterministic policy gradient,DDPG)算法在自动驾驶领域中应用广泛,但DDPG算法因采用均匀采样而导致低效率策略比例较高、训练效率低、收敛速度慢等.提出了基于优先级的深度确定性策略梯度(priority-based DDPD,P-DDPG)算法,通过优先级采样代替均匀采样来提升采样利用率、改善探索策略和提高神经网络训练效率,并且提出新的奖励函数作为评价标准.最后,在开源赛车模拟(The Open Racing Car Simulator,TORCS)平台上对P-DDPG算法的性能进行了测试,结果表明相对于DDPG算法,P-DDPG算法的累积奖励在25回合之后就有明显提升而DDPG在100回合之后训练效果才逐渐显现,提升约4倍.P-DDPG算法不仅训练效率提升且收敛速度加快.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号