首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3篇
  免费   0篇
  国内免费   3篇
综合类   6篇
  2024年   1篇
  2021年   3篇
  2018年   1篇
  2004年   1篇
排序方式: 共有6条查询结果,搜索用时 187 毫秒
1
1.
从基础教育改革的重要性和目前发展的十大趋势,论述了对中学教师素质的高新要求.论述了高师人才培养存在培养目标有偏差,人科学与社会科学教育太薄弱,相关专业壁垒未打通,教师专业理论与技能训练严重不足四方面的问题.在高师院校的教学改革中,不仅要强化师范性,还要加强通识教育;重在更新人才培养目标与模式,研制出新的本科教学计划,以求培养出适应素质教育需求的新一代智慧型综合型教师.  相似文献   
2.
可见光图像和红外图像成像原理不同,面向可见光和红外光的跨模态行人重识别面临较大的跨模态差异,行人异质信息对齐和挖掘异常困难。为此,提出基于异质信息对齐和重排序的跨模态行人重识别方法。在异质信息对齐方面,提出一种新的异质局部信息对齐算法,通过求取行人异质局部信息距离矩阵的最短路径,实现同一行人异质局部信息的动态匹配,解决行人异质信息对齐问题;在重排序方面,提出拓展k近邻重排序算法,通过动态地拓展查询图像k近邻异质信息,实现同一行人异质信息的融合,解决行人异质信息挖掘困难问题。实验结果表明,在SYSU数据集全场景查询模式上,所提方法与AGW模型结合k近邻重排序算法相比,在评价指标mAP和Rank-1上分别提升了10.12%和8.6%。  相似文献   
3.
针对交通拥堵检测,提出一种利用深度学习中卷积神经网络(convolutional neural network, CNN)对交通拥堵图像进行检测的方法。首先,使用基于TensorFlow框架设计了含有三层卷积层的神经网络分类模型。其次,利用道路拥堵与非拥堵图片对分类模型进行训练,并进行评估。最后,利用训练完成的模型进行道路拥堵检测,与多种深度学习分类模型分类方法进行对比实验,表明该卷积神经网络模型能够更有效地进行拥堵检测,检测准确率达到了98.1%。  相似文献   
4.
强边水小砂体油藏的油水边界和砂体边界较难刻画,通常是利用地震均方根振幅属性来判断。小砂体油藏存在地质数据少、油水界面判断不准确的缺陷,为了准确判断油水界面,本文利用渗流力学原理和油藏生产动态资料来计算渗流速度,进而反向推算油水运移距离,从而判断油水边界,并与地震均方根振幅属性确定的油水边界进行对比分析。通过实例验证,油藏动态方法计算过程简便,计算结果与传统方法判断的油水边界差距不大。该方法可用来快速判断小砂体油藏的油水边界。  相似文献   
5.
在极端自然条件下,容易造成海岛微电网全面崩溃,此时需要进行黑启动使整个系统恢复,但是海岛微电网中含有大量感性负荷会影响黑启动过程.为了提升海岛微电网黑启动的效率,提出一种基于虚拟有功负荷的海岛微电网黑启动优化策略.首先提出黑启动电源启动顺序优化模型,利用熵权法对不同DG的黑启动能力进行评价;然后,提出负荷恢复优化模型,以负荷恢复量最大和负荷恢复重要程度最大作为目标并利用PSO算法进行求解;接着,提出DG与负荷的路径恢复优化模型并利用最小生成树的Prim算法进行求解.另外,还提出虚拟有功负荷构造方法,在黑启动过程中考虑将感性负荷与并联补偿电容一起等效为有功负荷,从而提高黑启动成功率.最后,采用简化的19节点微电网结构进行仿真验证,结果表明,与传统优化的黑启动策略相比,本文方法在黑启动过程中负荷恢复量提高了46.8%,同时考虑了负荷的重要程度,并且,路径恢复总时间减少了8.8%.此外,根据本文中提出的虚拟有功负荷构造方法,仿真结果表明当并联电容提供的无功足够时,在黑启动过程中可以明显减小感性负荷对系统电压造成的影响.  相似文献   
6.
为了更准确地检测高速公路隧道内停车行为,将传统的图像处理技术与深度学习相结合.首先,通过基于混合高斯模型(Gaussian mixture model,GMM)的背景差分法提取出运动目标.接着通过meanshift算法跟踪这些运动目标,计算运动目标的速度以及在相邻视频帧中运动目标的相关性,通过与速度阈值和相似度阈值的比较得到静止目标.最后,结合卷积神经网络(convolutional neural network,CNN)分类模型识别静止目标是否为车辆.文中方法在高速公路隧道视频上进行测试,达到至少84%的准确率.另外,与没有结合卷积神经网络的传统图像处理方法相比,文中方法至少提高了63%的准确率.  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号