共查询到10条相似文献,搜索用时 15 毫秒
1.
随着互联网技术的快速发展,web网站的应用越来越广泛,而DNS是目前大部分网络应用的基础,基于DNS欺骗的网页克隆攻击越来越严重.本文在基于DNS欺骗的原理上,提出了一种在客户端Java Script中增加合法网络IP地址验证的解决方案.实验结果显示,这种方案能够抵抗基于DNS欺骗的网页克隆攻击. 相似文献
2.
3.
现有的垃圾网站检测方法主要针对自建的垃圾网站,对于通过入侵正常网站注入垃圾网络链接的检测效率不高.本文提出一种基于网页结构与文本多维特征的检测框架,该框架将网页进行分块处理.通过计算优势率的方法提取内容特征,根据标签数、属性键和属性值利用独热率的方法提取结构特征.使用机器学习算法进行训练并得到检测模型,进而有效地检测垃圾网站链接.同时,将本文的检测方法与基于内容分析的检测算法和黑名单匹配算法进行对比,本文提出的方法检测准确率最高有13%的提高. 相似文献
4.
5.
蒲策 《成都大学学报(自然科学版)》2015,(4):371-373
从目前互联网及企事业内部网站现状出发,讨论了网站改版过程中存在的问题,提出了一套基于XML的网页自定义布局的实现方案,使非专业用户也能完成网页布局的调整和改版工作,并以JSP网站开发为例,详细阐述了其工作机制及实现过程. 相似文献
6.
时下盛行网页视频点播(VOD),视频内容良莠不齐.为保证未成年人的健康上网、安全上网,本文提出并设计了一个网络不良视频信息的过滤系统.该系统通过检测网页视频数据以及监控网页页面来过滤网络不良信息.仿真结果表明这个过滤系统可以较好地对网络不良视频信息进行过滤. 相似文献
7.
杨勇 《上海交通大学学报》2003,(Z1)
近年来 ,网络技术有了划时代的发展 ,为更好地实现信息服务 ,图书馆应加强互联网上的站点建设 .讨论了在建设与维护网站的过程中 ,须考虑 4个基本原则 ,即 :主页设计的简洁性原则、网页风格的统一性原则、网站定位的特色化原则与网站维护的经常化原则 相似文献
8.
为快速有效地过滤不良网页以保障校园网信息安全,创造性地提出了一个基于字频统计和数据挖掘技术的不良网页过滤模式,通过自适应样本库构建不良类类别特征字库,并以此为基础构建智能化的不良类类别模式,用以实现不良网页的过滤.实验表明,该模式能以较快的速度和较高的准确率过滤测试文档集中的不良网页. 相似文献
9.
黄山青 《长春师范学院学报》2014,(1):119-122
影响因子在一定程度上能够衡量出网站的网络影响力,本文选取安徽省师范类高校的网站为样本,使用多种搜索引擎获取网络影响因子的网页总数和链接总数的指标数值,从而得出安徽省师范类高校网站的网络影响力,对这一结果进行解释和对比分析. 相似文献
10.
基于ASP开发的网站安全浅析 总被引:1,自引:0,他引:1
随着计算机技术和网络技术的发展,ASP(Active Server Pages)为一种典型的服务器端网页设计技术,被广泛地应用在各种互联网应用中。所以互联网上基于它的免费源码非常之多,许多企事业单位将其下载直接用作自己的网站,也就出现了一个源码有漏洞,成百上千个网站被波及的现象,也有一些程序员缺乏对于ASP网站后台入侵原理及其手段的了解,设计的网站存在重大的安全隐患。 相似文献