首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 54 毫秒
1.
有效的软件缺陷预测能够显著提高软件安全测试的效率,确保软件质量,支持向量机(support vector machine,SVM)具有非线性运算能力,是建立软件缺陷预测模型的较好方法,但其缺少统一有效的参数寻优方法。本文针对该问题提出一种基于遗传优化支持向量机的软件缺陷预测模型,将支持向量机作为软件缺陷预测的分类器,利用遗传算法进行最优度量属性的选择和支持向量机最优参数的计算。实验结果表明,基于遗传优化支持向量机的软件缺陷预测模型具有较高的预测准确度。  相似文献   

2.
针对当前软件缺陷序列预测算法准确度不高的问题,提出了基于非线性加权的集成学习软件缺陷序列预测算法(NLWEPrediction)。该算法在常见线性集成预测算法的基础上增加了非线性回归项,回归项代表了集成预测算法中基预测算法之间的相互关系,修正了线性集成预测的偏差,并通过梯度下降法求解了模型中的参数。实验表明:NLWEPrediction在14个软件缺陷数据集上的均方误差均小于250,并且平均绝对误差均小于13。通过与基预测算法、集成预测Bagging、Stacking算法和只考虑两个分类器关系的非线性加权集成学习算法进行对比,可以看出,NLWEPrediction预测算法的均方误差和平均绝对误差显著减小,预测精度显著提高,说明在线性集成预测算法基础上增加非线性回归项,能够有效提高集成学习算法的分类效果。  相似文献   

3.
集成学习是分类多变量时间序列的有效方法.然而集成学习对基分类器性能要求较高,基分类器组合算法优劣对分类效果影响较大.为此,提出一种基于Shapelets的多变量D-S(Dempster/Shafer)证据加权集成分类方法.首先,在单变量时间序列上学习得到基分类器Shapelets,基分类器的分类准确率确定为其在多分类器...  相似文献   

4.
研究了基于聚类技术提高分类器差异性的方法.通过Bootstrap技术与分类器学习算法训练分类器模型,利用分类器在验证集上的分类结果作为聚类的数据对象;然后应用聚类算法对这些数据聚类,并在每个簇中选择分类器代表模型,以此构成集成学习的成员;最后应用融合方法实验研究了基于聚类技术提高差异性的集成学习性能,并与集成学习方法bagging,adaboost进行了实验比较.  相似文献   

5.
针对传统帕金森患者冻结步态识别方法自适应性不佳的问题,提出一种基于变分模态分解的冻结步态识别方法.首先采用变分模态分解代替传统时频分析方法对冻结步态信号进行充分的自适应分解.其次为提高算法识别精度和识别速度,选用CART模型作为集成分类器的基分类器并进行特征降维处理.最后针对不平衡数据集和单分类器性能有限的问题,进行了数据采样-集成分类器的设计并通过贝叶斯优化对识别算法进行超参数寻优.实验结果表明,相对于AdaBoost、Tomeklinks-AdaBoost和ROS-AdaBoost集成算法,RUSBoost集成算法可以更高效地完成冻结步态识别任务.  相似文献   

6.
米文博  李勇  陈囿任 《科学技术与工程》2022,22(32):14275-14281
通过软件缺陷预测可以有效地提高软件测试效率,保证软件产品的质量。针对新开发的项目面临训练数据不足,标注代价高以及源项目与目标项目的缺陷模式难以匹配的问题,提出了基于主动学习的跨项目软件缺陷预测方法。首先使用主动学习方法对目标项目进行筛选标注,其次将得到的标签集与跨项目数据进行数据融合和模式匹配,最后构建跨项目软件缺陷预测模型。采用真实的软件缺陷数据进行实验,在保证预测率的前提下,曲线下面积(area under curve, AUC)能够达到0.692,与传统方法相比综合性能均有显著提升。结果表明:所提方法可以通过模式匹配有效提高跨项目软件缺陷预测模型的性能。  相似文献   

7.
提出一种基于聚类的启发式选择性集成学习算法.集成学习通过组合多个弱分类器获得比单一分类器更好的学习效果,把多个弱分类器提升为一个强分类器.理论上来说弱分类器的个数越多,组合的模型效果越好,但是随着弱分类器的增多,模型的训练时间和复杂度也随之递增.通过聚类的方法去除相似的弱分类器,一方面有效降低模型的复杂度,另一方面选出差异性较大的弱分类器作为候选集合.之后采用启发式的选择性集成算法,对弱分类器进行有效的组合,从而提升模型的分类性能.同时采用并行的集成策略,提高集成学习选取最优分类器子集效率,可以有效地减少模型的训练时间.实验结果表明,该算法较传统方法在多项指标上都有着一定的提升.  相似文献   

8.
针对传统随机向量函数链接网络集成模型时多样性不足和泛化性能差的问题,提出一种改进的随机向量函数链接集成模型.首先,通过6种简单回归模型替代传统随机向量函数链接网络中的直接链接;其次,采用高斯过程回归(Gaussian process regression, GPR)方法初始化隐含层参数,增强各基分类器的多样性;最后,使用不同的结合策略,集成具有差异性的基分类器得到预测模型.结果表明,改进的随机向量函数链接集成模型的预测精度明显高于其他传统集成模型,较传统随机向量函数链接网络具有更好的泛化性能.  相似文献   

9.
软件缺陷预测是软件开发过程中的一项重要技术,针对软件缺陷数据集的高维、小采样造成预测精度下降的问题,采用线性局部切空间排列算法对数据集降维处理,选用支持向量机作为基础分类器进行二值分类,建立软件缺陷预测模型,采用二维混淆矩阵评价模型的预测精度.实验结果表明,与其他模型相比,该模型可用较少的邻域点约简至更低的维度,不需要重新学习样本空间的流行几何结构,直接映射新的样本点,且预测时间耗费成本由13. 726 9 s降低至6. 217 s,给定参数区间寻优时间耗费由267. 442 1 s降低至165. 98 s,有效提高了软件缺陷预测的效率.  相似文献   

10.
在入侵检测中使用单个的支持向量机容易因"单点失效"而危害系统安全.提出一种基于支持向量机集成的方法来进行入侵检测.它采用负相关学习技术,在误差项中使用相关性惩罚因子使得生成的分类器有更好的多样性和精度;算法采用进化策略来自动地确定个体支持向量机的超参数,避免了需要了解问题的先验知识;最后,采用集成技术来组合个体支持向量机的检测结果.仿真实验表明这一方法有更好的检测性能,并且这种分布式并行检测方法有利于增加入侵检测系统的鲁棒性.  相似文献   

11.
网页分类需要使用标记网页对分类算法进行训练,然而,对网页进行标记的过程既费时又费力.随着web的快速发展,获得未标记网页已经变得相对容易.为了有效地利用未标记网页来提高网页分类的性能,提出了一种基于集成学习的网页分类算法,迭代运行支持向量机、中心分类器和朴素贝叶斯分类器,并对各分类器的预测进行集成,不断地从未标记集中对网页进行标记后用于训练.实验结果表明.提出的算法有效地提高了网页分类的性能.  相似文献   

12.
蔡铁  伍星  李烨 《科学技术与工程》2008,8(12):3167-3170
提出一种新的基于离散化方法的支持向量机集成算法,该算法采用粗糙集和布尔推理离散化方法构造有差异的基分类器,进一步提高了集成学习机的分类性能.实验结果表明,所提算法具有明显优于单一支持向量机的分类性能,并能取得比传统的集成学习算法Bagging和Adaboost更高的分类正确率.  相似文献   

13.
《河南科学》2016,(1):55-61
针对铁路货运量预测中预测方法单一、准确度不高、泛化能力弱问题,基于参数化模糊逻辑理论,结合前序法选择策略,提出了一种新的基于Yager三角范数的选择性集成学习模型,并应用于铁路货运量预测.采用5种常用的单预测模型作为候选基学习机模型,以误差率作为评价指标,采用前序选择策略选定2种基学习机进行集成预测;以遗传算法和最小二乘法确定集成模型的参数,实现铁路货运量预测基学习机的最优组合.试验结果显示,对比单预测模型、最优组合预测模型和均方误差导数预测模型,新提出的选择集成模型取得了最低的误差率,表明其在铁路货运量预测中能够有效提高预测精度.  相似文献   

14.
针对基于决策树和神经网络的增量学习算法的过量匹配和分类精度有限的缺点,提出了一种基于贝叶斯分类器集成的增量学习方法.综合朴素贝叶斯的增量分类和集成的增量学习方法,采用随机属性选择训练初始SBC(simple Bayesian classifiers),通过判断是否带有类别标签,将增量样本自动分组,并利用遗传算法对结果进行优化.实验结果表明,贝叶斯分类器集成的增量学习方法有效.  相似文献   

15.
为了平衡集成学习中多样性与准确性之间的关系,并提高决策分类器的泛化能力,提出一种基于负相关学习和AdaBoost算法的支持向量机(SVM)集成学习方法.将负相关学习理论融合到AdaBoost-SVM的训练过程中,利用负相关学习理论计算基分类器间的相关性,并根据相关性的值自适应调整基分类器的权重,进而得到加权后的决策分类器.在UCI数据集中进行仿真,结果表明:相较于传统的负相关集成学习算法和AdaBoost-SVM算法,所提出的方法分类准确率更高,泛化能力更好.  相似文献   

16.
为了解决传统说话人识别系统在集成学习后识别速度变慢且容易过学习的问题,构造了一种基于最大后验矢量量化(VQMAP)模型和自适应提升(AdaBoost)学习算法的说话人识别系统.首先,分析了说话人识别系统中基分类器性能对集成分类器泛化误差的影响.然后,针对说话人的类别数,构造适当精度的VQMAP模型.最后,利用包含提前终止策略的AdaBoost学习算法将该模型提升为强分类器.实验结果表明:该算法的识别速度较高,是最大后验高斯混合模型(GMMMAP)的9倍;该算法可有效控制AdaBoost学习算法在说话人识别中的过学习问题,其性能优于VQMAP模型,且在训练数据较少或者类别数可预计的情况下,其性能可接近甚至超过GMMMAP模型.  相似文献   

17.
基于Boosting的支持向量机组合分类器   总被引:3,自引:0,他引:3  
Boosting是一种有效的分类器组合的方法,文章提出用一个改进的Boosting方法对支持向量机分类器进行集成学习,得到Boosting-MultiSVM分类器;试验结果表明,基于Boosting的支持向量机训练是一个收敛过程,相比标准的支持向量机分类器,Boosting-MultiSVM分类器的泛化性能有不同程度的提高。  相似文献   

18.
针对软件缺陷预测过程中未充分使用源代码语义特征以及训练数据集中的类重叠问题, 提出一种面向类重叠的跨版本软件缺陷深度特征学习方法. 该方法采用混合式最近邻清理策略缓解深度学习语义特征中存在的类重叠问题. 在PROMISE公开数据集上进行测试的结果表明, 该策略能提升基于深度语义学习的软件缺陷预测性能, 分类性能最多在中值上提升14.8%. 实验结果表明, 在跨版本深度缺陷预测问题中可采用混合式最近邻清理策略缓解类重叠问题.  相似文献   

19.
AdaBoost作为一种有效的集成学习方法,能够明显提高不稳定学习算法的分类正确率,但对稳定的Naive Bayesian分类算法的提升效果却不明显.为此,利用多种特征评估函数建立不同的特征视图,生成多个有差异的加权朴素贝叶斯(WNB)基分类器;尝试使用几种不同的方式将样本权重嵌入WNB基分类器的参数中,对WNB产生扰动,进一步增加基分类器的不稳定性.实验结果表明,对比AdaBoost所提算法,BoostMV-WNB能够明显提升WNB文本分类器的性能.  相似文献   

20.
孙坚  杨宇兵 《科学技术与工程》2024,24(11):4501-4509
针对风机叶片结冰检测中现有集成方法不能充分发挥不同个体分类器优势的问题,提出了一种基于特征提取和最优加权集成学习的叶片结冰检测模型。首先,用堆叠降噪自动编码器提取结冰关联特征后,考虑不同单一分类器在二分类应用中的表现及其差异,选择随机森林、极限梯度提升树、轻量梯度提升机、K-近邻算法作为个体学习器,并用贝叶斯算法对其进行超参数优化。然后提出基于序列二次规划的最优加权集成策略对叶片状态进行判别。最后利用金风科技提供的15号和21号风机的历史数据进行了仿真实验,结果表明:所提出的检测模型与个体学习器及其他集成模型相比多项指标均有所提升,准确度达到了99.2%,在结冰检测方面具有一定的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号