首页 | 本学科首页   官方微博 | 高级检索  
     检索      

学习理论的一个关键算法的稀疏逼近
引用本文:杨辉华,王行愚.学习理论的一个关键算法的稀疏逼近[J].华东理工大学学报(自然科学版),2004,30(6):688-693.
作者姓名:杨辉华  王行愚
作者单位:华东理工大学信息科学与工程学院,上海,200237;桂林电子工业学院计算机系,桂林,541004;华东理工大学信息科学与工程学院,上海,200237
基金项目:国家重点基础研究发展规划项目(2002CB312200),国家自然科学基金项目(69974014)
摘    要:Poggio和Smale最近提出的学习理论的一个关键算法(A key algorithm,KA)可用于非线性分类和回归,并避免求解二次规划,但几乎所有的样本是“支持向量”。为此提出了一种稀疏KA算法(SKA),通过设计特定的优化函数,SKA能有效减少“支持向量”,并具备良好的推广能力。将SKA应用于两个实际的模式识别问题,并与支持向量机(SVM)进行比较,验证了SKA的有效性。

关 键 词:一个关键算法  稀疏逼近  支持向量机  正则化  二次损失函数
文章编号:1006-3080(2004)06-0688-06
修稿时间:2004年2月24日

Sparse Approximation to a Key Algorithm of Learning Theory
YANG Hui-hua.Sparse Approximation to a Key Algorithm of Learning Theory[J].Journal of East China University of Science and Technology,2004,30(6):688-693.
Authors:YANG Hui-hua
Institution:YANG Hui-hua~
Abstract:A key algorithm (KA) of learning theory presented recently by Poggio and Smale is claimed to be capable of both nonlinear classification and regression. It avoids the hard quadratic programming, but suffers from the fact that nearly all the training samples are "support vectors". To impose sparsity to KA, a sparse KA algorithm(SKA) is put forward, which can effectively cut off "support vectors"and meanwhile keep good generalization capacity. With comparison to SVM, the superiority of SKA is demonstrated on two UCI datasets.
Keywords:a key algorithm  sparse approximation  support vector machines  regularization  squared loss function
本文献已被 CNKI 维普 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号