首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   4篇
  免费   0篇
综合类   4篇
  2023年   3篇
  2009年   1篇
排序方式: 共有4条查询结果,搜索用时 15 毫秒
1
1.
为提高XGBoost算法预测精度,采用布谷鸟搜索算法全局优化XGBoost的超参数包括学习率、输出结点分裂的最小损失、树模型的最大深度和弱学习器的数量,构建CS-XGBoost模型训练数据集。实验结果表明,基于CS-XGBoost的收入分类模型的准确率、精确率、F1分数和AUC等指标分别为95.67%、97.17%、95.56%和97.96%,均优于Logistic回归、支持向量机、随机森林、XGBoost算法和基于网格搜索的XGBoost算法;基于CS-XGBoost的房价预测模型的决定系数、均方根误差及平均绝对误差分别为0.905 5、2.943 5及2.165 4,预测精度较XGBoost算法得到显著提升。  相似文献   
2.
周楷 《奇闻怪事》2009,(11):99-99,64
“味”是中国古典美学的核心范畴之一,对中国美学具有深远的影响。“味”本属中国古代饮食文化的范畴。“味”进入中国美学领域是一个渐进的过程,先秦诸子第一次将味概念引进精神领域,而孟子和庄子首先把味与审美联系起来,形成了“味诗”的审美传统。“味诗”既指诗本体,又指对诗的审美体验和审美判断,体现了中国特色的审美观。  相似文献   
3.
针对大数据中高维变量多重共线性问题,结合Logistic模型提出两种基于主成分分析法的两步子抽样算法,分别为基于A-最优准则的最小均方误差(minimum Mean Square Error, mMSE)抽样和基于L-最优准则的最小方差协方差(minimum Variance covariance, mVc)抽样。实证结果表明,相较于随机抽样,mMSE抽样和mVc抽样能大幅降低模型参数估计的均方误差,提升模型的查准率、召回率、F1分数、特异度等分类评价指标。  相似文献   
4.
现有大数据的不等概率抽样方法大多基于数据分布,泛化能力较差。为此,利用多层感知机、XGBoost和Kriging模型估计总体单元间的相对距离,提出针对海量数据的不等概率抽样算法。此类算法既不需要考虑总体的分布,又能够保证样本的代表性。实证分析结果表明,基于此算法抽取样本构建的模型与简单随机抽样方法相比,模型参数估计的均方误差更低,效果更稳定。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号