首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   4篇
  免费   0篇
综合类   4篇
  2013年   1篇
  2010年   2篇
  2009年   1篇
排序方式: 共有4条查询结果,搜索用时 15 毫秒
1
1.
最小学习机     
针对极端学习机(ELM)不能用于多层前向神经网络学习的问题,通过揭示单层前向神经网络(SLFN)的ELM与岭回归以及中心化的岭回归之间的关系,提出了SLFN的最小学习机。通过证明核化的中心化岭回归与核化的PCA之间的关系,提出以无限可微的核函数为激励函数的多层前向神经网络(MLFN)的最小学习机LLM.SLFN/MLFN的最小学习机能够保持ELM的上述优势。  相似文献   
2.
提出一种基于力的类同传播聚类方法AFAPC.依据万有引力定律,根据数据间的相互引力,并在数据组成的网络中交替传递类同信息,计算出数据的聚类和对应的聚类中心.实验结果表明,AFAPC能在更短的时间内,取得与类同传播聚类算法APC相媲美的聚类效果.  相似文献   
3.
最小学习机     
针对极端学习机(ELM)不能用于多层前向神经网络学习的问题,通过揭示单层前向神经网络(SLFN)的ELM与岭回归以及中心化的岭回归之间的关系,提出了SLFN的最小学习机.通过证明核化的中心化岭回归与核化的PCA之间的关系.提出以无限可微的核函数为激励函数的多层前向神经网络(MLFN)的最小学习机LLM.SLFN/MLFN的最小学习机能够保持ELM的上述优势.  相似文献   
4.
定义了前馈核神经网络的体系结构。从实际应用的需求出发。所定义的网络涵盖了目前多数前馈神经网络。从理论上证明了该网络的批量学习过程实际上所表达的是一种核学习机,进而证明了网络的学习仅需在最后一层实施即可,而在隐含层的参数可任意赋值。因此,该结论事实上是现有LLM及ELM的拓广。同时,发现在逼近精度要求不是太高的情况下,目前的前馈神经网络学习技术因过于繁琐而没有必要,仅需对网络最后一层进行学习即可。而前馈神经网络技术目前最前沿的应用是解决大样本及深度知识表达问题。针对这两个热点问题,分别提出了大样本下的廉价学习策略和深度知识挖掘下的灵巧学习策略。在此,作者希望该文能引起广泛讨论甚至争论。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号