首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 953 毫秒
1.
基于SVM-RFE的钓鱼网页检测方法研究   总被引:1,自引:0,他引:1  
针对现有钓鱼网页检测方法存在的不足,基于后向选择算法,在信息获取、特征提取、分类器训练及检测疑似网络钓鱼网页等过程进行了优化.根据特征之间的相互关系划分等级空间,借助支持向量机回归特征消除的思想,提出了基于支持向量机的回归特征消除(SVM-RFE)对钓鱼网页进行检测的思路,设计出一种改进的钓鱼网页检测方法.最后对比不同特征维度在漏报率、误报率、识别率方面的差异,分析检测的有效性.实验结果表明:实际应用中可通过该方法准确有效地选定最优特征.  相似文献   

2.
目的为了准确、快速地对混凝土电镜图像进行自动识别分类,选取合理的特征提取方法以及分类算法,解决预判混凝土耐久性问题.方法利用一种基于局部二值模式(Local Binary Pattern,LBP)的特征提取方法和支持向量机(Support Vector Machine,SVM)分类器的组合模式,对混凝土在电镜下的图像进行特征提取和类别判定,并对SVM分类器选取合理的核函数以及核函数参数.结果采用笔者方法最终图像识别准确率可达79.7%,LBP基本特征算子较好地满足了纹理特征图像的特征提取要求;通过SVM分类器对图像进行分类可以将含有纹理特征的图像成功分类.结论该方法成功有效地识别混凝土的内部多层次结构辅助辨别混凝土的耐久性问题;LBP基本算子和SVM分类算法的组合算法在特征提取与识别分类具有很好的实用性及高效性.  相似文献   

3.
为了解决现有的钓鱼网页分析方法,往往基于页面的文本特征,而忽略了页面的结构特征的问题,提出基于文档对象模型(document object model,DOM)结构聚类的钓鱼检测方法,其关键在于如何快速有效地计算网页的相似度。首先对获取的页面进行DOM结构解析,构建DOM树层次标签向量以刻画网页的结构特征;然后重新定义DOM树距离的概念,通过不同DOM树之间的距离来度量网页间的相似度;最后采用划分聚类思想实现网页的聚类。一系列的仿真实验表明,方法具有较高的召回率与精确率,运行时间也较短。  相似文献   

4.
文本图像页面分割算法研究   总被引:1,自引:0,他引:1  
提出了一种基于改进纹理谱的文本页面分割算法,该算法首先采用改进的递归投影轮廓切割算法对文本图像页面进行粗分割,并提取文本图像的纹理谱特征;然后采用最小距离法将相邻纹理单元进行分类;最后实现文本图像页面文字区与非文字区的精确分割.实验表明,提出的方法在含有文字、图、表格的文本图像页面分割中效果很好,对其他复杂文本图像页面分割也具有适应性.  相似文献   

5.
针对TOFD D扫描图像缺陷提出一种新的缺陷识别方法.该方法首先采用KPCA(核主元分析算法)进行特征提取,并采用微粒群算法(PSO)自动优化核参数δ,最后用SVM分类器完成特征识别.在134幅TOFD缺陷图像中,分别采用(PCA+SVM)、(KPCA+SVM)和(PSO-KPCA+SVM)三种方法进行试验,试验结果表明,所提出的方法识别正确率更高.  相似文献   

6.
提出一种基于稀疏、稠密特征转换的仿射不变特征匹配算法,其中稀疏特征包括坐标,尺度,仿射模拟参数等,稠密特征指基于图像局部区域内光学属性的局部描述符.本文算法在Affine-SIFT算法基础之上,针对在特征提取阶段仅使用稀疏特征提取的缺陷做出了改进.由于稠密信息只有在稀疏参数满一定足检测条件时才能提取到特征,导致本可以匹配到的特征(包括稀疏、稠密参数)无法提取,将通过使用稀疏特征构造新的模拟图像,通过将稀疏特征重新稠密化,并在模拟图像基础上进一步提取稀疏特征,同时可检测到原始图像中检测不到的可匹配特征,最终达到增大特征建立匹配的概率,提升正确匹配数量的目标.经实验验证,本文提出的稀密特征转换算法相比于ASIFT算法能大量增加特征匹配的数量.除针对ASIFT方法提供扩展外,该方法也可用于扩展具有充分稀疏特征参数的其它特征提取和匹配方法,并适用于目标识别、目标分类和三维重建等问题.  相似文献   

7.
针对眼底图像训练数据集少的问题,该文采用了无监督的主成分分析网络(principal components analysis networks, PCANet)和有监督的支持向量机(support vector mochine, SVM)相结合的算法,通过对彩色眼底图像视网膜渗出物特征的提取,检测出含渗出的糖尿病性视网膜病变眼底图像和正常眼底图像.在对眼底图像进行渗出物特征提取之前,为了减少对渗出物特征提取的干扰,首先对眼底图像进行图像预处理,包括去除冗余背景、通道分离、直方图均衡化、血管去除和视盘去除.无监督的PCANet不需要进行标签训练,与SVM结合,既节约了训练时间,又在训练数据集较小的情况下实现眼底图像的准确分类.实验结果表明:PCANet和SVM相结合的模型在准确性、灵敏度和特异值3个方面与相关方法比较都具有一定的提升.  相似文献   

8.
针对序列联配应用于攻击特征提取时的碎片和噪声干扰问题,采用SVM分类器将多攻击样本转换成单一攻击样本,以减少联配过程中的噪声序列;在两序列联配Smith-Waterman算法的基础上,改变空位罚分方式,引入连续匹配字符奖励,提出一种改进的Smith-Waterman(ISW)算法.结合SVM分类器与ISW算法构建攻击特征提取模型.研究结果表明:该模型的联配结果能准确地表达攻击特征,降低检测系统的误报率.  相似文献   

9.
针对中文网页文本分类中特征降维方法和传统信息增益方法的缺陷和不足做出优化改进,旨在有效提高文本分类效率和精度.首先,采取词性过滤和同义词归并处理对特征项进行初次特征降维,然后提出改进的信息增益方法对特征项进行特征加权运算,最后采用支持向量机(SVM)分类算法对中文网页进行文本分类.理论分析和实验结果都表明本方法比传统方法具有更好的性能和分类效果.  相似文献   

10.
为了有效检测恶意Web网页,提出一种基于JavaScript代码基本词特征的轻量级分析方法.首先利用抓捕器获取页面中的全部源代码并从中分离出JavaScript代码,再将全部JavaScript代码用自定义的基本词表示,然后利用最近邻(K-NN)、主成分分析(PCA)和支持向量机(One-class SVM)等三种机器学习算法通过异常检测模式检测恶意网页.实验结果表明:每种算法的检测时间开销都较小,当选用PCA算法时,检测系统在1%误报率的情况下能达到90%的检测率,同时检测系统对网页的平均有效检测速率达250s-1.  相似文献   

11.
针对传统的网络安全研究如入侵检测、流量分析以及主动防御等方法需要较强的网络安全相关知识以及大量的网络训练数据,以及较高的研究门槛的问题,该研究提出一种基于Deep Residual Auto-Encoder(DRAE)与支持向量机(SVM)相结合的网页防篡改检测模型,该模型用DRAE提取网页图像特征,并输入SVM分类器判别网页是否被篡改。经过在东北农业大学范围内实验验证,结果表明,使用该模型进行网页检测的准确率高达95%,高于现有检测方法。  相似文献   

12.
为了提高支撑向量机(Support Vector Machine,SVM)的性能,降低时间开销;提出一种基于特征提取的SVM算法,并将其用于汽轮发电机组的故障诊断;使用KFDA(Kernel Fisher Discriminant Analyst)算法提取汽轮发电机组数据的关键特征,并使用SVM分类器对特征数据集合进行分类检测;实验结果表明:算法是可行和有效的,在分类性能和训练时间上都得到了提高。  相似文献   

13.
基于特征的图像匹配算法被广泛应用于图像处理和模式识别领域中,图像特征提取以及采用的匹配算法并直接决定图像匹配的效果。为了尽可能准确的实现图像匹配,提出了一种基于链码向量的边缘特征匹配算法。首先通过改进的Laplace边缘检测算子提取图像中的边缘信息,提高了边缘检测的可靠性;然后,将提取到的边缘信息由边界链码描述,并将边界链码构造成向量,利用数学向量相似度原则进行图像匹配。实验结果表明,该匹配算法简单快速,匹配准确率高,具有较高的实用价值。  相似文献   

14.
针对传统算法图像匹配准方法提取特征点不精确、鲁棒性低、低纹理下很难识别到特征点等问题。本文提出一种新的局部图像特征匹配方法,替代传统的顺序执行图像特征检测,描述和匹配的步骤。首先在原图像提取分辨率为1/8的粗略特征,然后平铺为一维向量,并为其添加位置编码,将组合结果输入到Transformers模块中的自注意力层和交叉注意力层,最后输入可微分匹配层后得到置信矩阵,为该矩阵设置阈值和相互最近标准,从而得到粗略的匹配预测。其次是在精细层次上细化良好的匹配,在建立精匹配之后,通过变换矩阵到统一的坐标下,实现图像重叠区域对齐,最后通过加权平局融合算法对图像进行融合,实现对图像的无缝拼接。本文使用Transformers中的自注意力层和交叉注意力层来获取图像的特征描述符。实验结果表明,在特征点提取方面,LoFTR算法比传统的SIFT算法,无论在低纹理区域还是纹理比较丰富的区域提取的都更精确,同时使用此方法得到的拼接效果比传统经典算法拼接的效果更好。  相似文献   

15.
针对自然场景文本检测在复杂背景下虚警高的问题,提出利用小波变换(wavelet transform,WT)和方块编码算法(block truncation coding,BTC)相结合的方式(WT-BTC)表征文本纹理,并结合支持向量机(support vector machine,SVM)完成对候选文本区域的分类确认。算法首先利用边缘检测和启发式规则快速确定候选文本区域;然后对候选文本区域进行小波分解和BTC编码,提取水平、垂直、对角方向的WT-BTC纹理特征;使用三个SVM分类器分别对不同方向纹理特征学习训练,组合SVM模型实现候选文本区域的二次检测,确认文本区域。实验结果表明算法提高了文本区域检测鲁棒性,在复杂背景条件下对场景文本有较好的检测效果。  相似文献   

16.
为解决中文网页主题特征项抽取不精确的问题, 对中文网页的主题特征项抽取算法进行了研究。网页的主题特征项抽取是主题网络爬虫进行网页相关度计算的基础, 结合主题网页的二分类情况对目前常用的文本特征项加权方法TF-IDF(Term Frequency-Inverse Document Frequency)进行了改进, 在此基础上结合网页的半结构化特征, 综合考虑特征项的位置信息及其包含的信息量, 提出了一种线性特征项加权计算方法。经实验验证, 该方法可有效提高主题网页的召回率和准确率。  相似文献   

17.
胡婧  刘伟  马凯 《科学技术与工程》2019,19(33):296-301
为了探讨中文病历文本预处理后高维稀疏性的特点,导致文本分类精度低、算法模型收敛速度慢等性能问题,提出一种基于粗糙集的词袋(BOW)模型结合支持向量机(SVM)的文本分类算法(BOW+SVM)。该算法首先采用BOW模型对特征词提取构建高维度文本空间向量,然后利用粗糙集的属性约简算法对文本特征处理,把模糊的、冗余的属性从决策规则中清除,降低空间向量维数,最后利用所提纯的特征与SVM分类器交叉结合进行文本分类。在Python+TensorFlow环境中设计六种交叉结合的算法仿真对比实验,结果表明:基于BOW+SVM高血压病历文本分类模型精准度可达97%。可见改进后的模型,能够解决样本分部不均,克服高维度稀疏特征空间的问题,有效改善病案管理工作流程。  相似文献   

18.
当前图像伪造检测算法大多采用最近邻与次近邻比值法进行特征匹配来完成图像伪造检测,存在较多的错误检测以及漏检测现象,基于此提出了一种基于FAST算子与多特征匹配的图像伪造检测算法.首先,基于FAST算法与Bresenham方法,构造以像素点为中心的圆形区域,提取图像特征;然后,通过梯度直方图统计法判定特征点的主方向,以特征点为中心建立两级同心圆,并通过求取同心圆在指定方向上的梯度特征,生成特征向量和特征描述子;最后,提取特征点的HSI颜色分量,将HSI颜色分量以及特征点的特征向量作为双重特征,设计了双重特征匹配法则,实现特征匹配.引入Hough变换,对匹配特征点进行聚类,定位伪造内容.实验结果显示,与当前图像匹配算法相比,所提算法具有更高的检测正确度与鲁棒性能.  相似文献   

19.
基于图像颜色、纹理和形状单一特征的特征提取和匹配的方法很多,各有优缺点,因此,本文提出了将图像中心区域的uniform模式的LBP纹理与环形分块彩色边缘相结合的图像检索算法。常用的形状检索算法只能对连续封闭曲线才有好的检索效果,而对自然彩色图像检索效果较差,而本文将图像分成几个环形分块,对每一环形分块内的图像提取彩色边缘并形成颜色直方图用于图像形状描述。纹理采用uniform模式的LBP描述,最后采用加权法融合形状特征和纹理特征。根据实验比较,该算法能较大提高大多数类别图像检索的查准率。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号