首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 156 毫秒
1.
针对网页篡改问题,设计了一种基于机器学习的批量网页篡改检测方法.以一所综合性大学所有注册网站为研究对象,通过抓取网站首页面的所有信息,对抓取数据进行分类建立对应的检测规则,综合判断网页是否存在篡改.该方法分为学习阶段和检测阶段,学习阶段根据网页历史信息获取各个检测器的标准值,检测阶段对待检测网页的各个参数进行检测,综合多个检测器的输出,反馈检测结果,若结果为误报,则系统进行重新训练修正参数.以实际发生的网页篡改案例为依据,进行网页篡改模拟,并对误报率和漏报率进行了分析,结果表明:当检测数据集窗口大小为11,报警阈值为2时,误报率为1.183%,漏报率为0.878%,获得了最优的效果.  相似文献   

2.
基于ISAPI过滤器的网页防篡改系统   总被引:1,自引:0,他引:1  
首先分析了几种常用网页防篡改技术的特点,然后提出并实现了一种基于ISAPI过滤器的网页防篡改系统.该网页防篡改系统可以高效地监控网页内容的变化,对于被篡改的网页文件能在其被用户访问之前自动加以恢复,使用该系统能方便网站的管理,并能帮助网站管理员及时地了解网站信息.  相似文献   

3.
据国家计算机网络应急技术处理协调中心统计,网页篡改2005年在大陆发生13000多次,其中六分之一攻击对象是政府网站,对电子政务构成严重威胁.由于Internet是个开放的网络,网站发布的信息一天二十四小时都在被查询、阅读、下载或转载.网站内容复制容易,转载速度快,后果难以预料,网页如果被篡改,将直接危害该网站的利益,尤其是政府部门的网站,网上发布的重要新闻、重大方针政策以及法规等具有权威性,一旦被黑客篡改,将严重损害政府的形象,破坏群众对政府部门的信任.如果没有坚固的安全体系和有效的事件响应能力,无异于将重要信息暴露于外.由此看来,网络安全问题已成为政府部门网站建设的一项重要内容.  相似文献   

4.
利用文件过滤与数字水印技术,提出了一种新型网页防篡改系统的架构策略.该策略变传统事后补救的被动防御为主动发现恶意篡改意图,并即时阻拦;更安全、更高效的保护网站信息系统,使非法篡改者无法修改被保护的合法网页文件.  相似文献   

5.
提出了一种网页篡改检测定位的方法,该方法首次实现对目标HTML网页被篡改位置的定位。此方法将原始HTML网页源代码的每一列和每一行分别进行PCA数字水印和ULC嵌入处理,通过对网页源代码行与列的计算结果和抽取出的认证信息进行比较,实现对目标HTML网页篡改范围的定位。实验结果表明,该方法能检测网页篡改并较好地定位出篡改范围。  相似文献   

6.
本文首先分析了校园网络的建设意义,介绍了校园网络监控服务的现状,比较了主流的网页防篡改技术.在此基础上提出了网页比对属性的概念,给出选取比对属性的原则,并提出了以比对属性为核心的文本检测方法.最后设计并实现了基于快照轮询及文本检测的批量网站网页防篡改系统,阐述主要技术要点细节,给出总体设计框架,分析了系统优缺点,并指明...  相似文献   

7.
随着眄络信息技术的不断发展和广泛运用,网站安全受到了很大威胁,尤其以同页篡改置为严重。试文介绍了网站被恶意基改的主要原因,目前广泛使用的防篡改技术以及这些技术的优缺点。并且重点解析了网页防篡改技术的安全功能。  相似文献   

8.
通过计算和比较网站登录口令、网页web文件的数字指纹,将数字指纹技术应用到对网页的保护中,起到对Web内容的监控和双重保护,防止黑客的非法闯入和对Web内容的删除、篡改等恶意攻击。  相似文献   

9.
网页会对站内文件进行保护,并有效的对网页篡改进行描述,提出了网页保护的有效方式方法。  相似文献   

10.
为了更为精确和全面地对网页篡改攻击进行远程检测,基于语料库建设和深度学习方法改进了检测过程。大规模获取了可能被篡改攻击的网页,并基于语料库建设方法,人工建立了网页篡改数据库。基于深度神经网络,提出了融合文本特征、结构特征和网络特征的自动检测算法。该文提出的方法可以判断网页是否被篡改和被篡改的类型。经过实验,该文提出的方法在测试数据集上的精确率、召回率和F值分别为为95.6%、96.7%和96.1%,显著超过基准方法。  相似文献   

11.
网页是网站构成的基本要素之一,其能够对各种网站应用进行有效承载。网页设计归属于网站技术的范畴,精美的网页能够吸引更多的受众群体。为了达到这一目标,可将Flash动画有机融入到网页设计当中。基于此,该文从Flash动画的主要功能及其应用优势分析入手,论述了Flash动画制作技术与网页设计的融合途径。期望通过该文的研究能够对网页设计水平的提升有所帮助。  相似文献   

12.
利用Apriori算法对Deep Web网站中最大频繁关联关系网页进行识别,并对非最大频繁项网页进行剪枝,再遍历Deep Web网站网页,从而获取所有最大频繁关联关系网页。对某房地产Deep Web网站的实验结果验证了该算法的可行性和有效性。  相似文献   

13.
2月24日下午5点45分,日本科技厅的官员突然发现:自己的网页首页上用英文写着“日本是一条咬败了的狗。” “日本网站被黑了!”几乎在一夜间,这一消息传遍了互联网。 其实这次对日本网站的攻击可以追溯到2001年2月19日,那一天,日本精工(SII)宣布其一家子公司的Web网站受到黑客的攻击,在将近一天的时间里该公司的首页内容被篡改。该公司的首页所显示的画面为9个人头并排的照片,在照片上面显示着“30万”这一数字,估计这很可能是谴责南京大屠杀的内容。 据报道,在这次攻击过程中,日本70多家企业的网页表示被中国黑客侵入。受攻击企业遍及日本全国,包括著  相似文献   

14.
针对互联网中出现的大量不良内容,分析出其主要特征,首次提出将不良网页的文本特征与搜索引擎中网络爬虫相结合的技术来主动寻找互联网中的不良网页及不良网站,并将结果分级别反馈到用户层以便对不良网页和网站进行处理,以达到净化网络环境的目的.实验结果表明,所提出的算法能够有效检测不良网页,并且能够很好地应对不良网站的反关键字过滤策略.  相似文献   

15.
影响因子在一定程度上能够衡量出网站的网络影响力,本文选取安徽省师范类高校的网站为样本,使用多种搜索引擎获取网络影响因子的网页总数和链接总数的指标数值,从而得出安徽省师范类高校网站的网络影响力,对这一结果进行解释和对比分析.  相似文献   

16.
ASP是一种开发简单、功能强大的动态Web技术,通过Windows系统IIS提供WEB服务,许多政府、事业单位的网站都使用该语言进行开发.由于ASP自身及IIS存在安全隐患,网页挂马就是利用其漏洞进行攻击.网页挂马不仅对网站的安全运行造成威胁,而且对于用户来说,有可能造成个人信息泄露、各种账户及密码被窃取等严重影响.本文就网页挂马的运行原理、危害进行了详细地论述,并结合实践提出网页挂马的检测方法及预防对策.  相似文献   

17.
本文对<网页设计与制作>课程体系的建立思路、课程体系结构、教学中的问题等方面进行了分析讨论,将<网页设计与制作>课程内容定位在"网站规划与网页设计"、"网页制作与网站维护"、"图像处理、动画技术与脚本语言"三个层次上,并给出了详细的课程内容体系结构.  相似文献   

18.
戈春 《太原科技》2009,(8):36-36,38
项目概况 随着计算机和通信技术的迅速发展,网络成为当今社会发展的一个主题,网络的开放性、互联性、共享性程度的扩大,也使得黑客针对网站的攻击和篡改事件时有发生.因此,严格地说,所有的Web网站都需要进行文件系统保护,防止非授权人员随意篡改内容.对于更新快、容量大、受众多、权威性强的政府电子政务网站尤显重要.  相似文献   

19.
网页版式设计是网站建设过程中重要的一个环节.本文介绍了使用Photoshop CS进行网页版式设计的思路和步骤,希望能给网页设计初学者了解网页版式设计有一定的启示.  相似文献   

20.
互联网是由成千上万的网站组成,而每个网站都是由诸多网页构成,故网页是构成互联网的基本元素。我国这两年的网络发展非常快,网站数量也以倍率增长,然而网页的设计却不容乐观。其实谈到网页设计就不能不说到网络视觉信息的编排及归类,这是网页设计的特点,也是身处于信息化、数字化的当今设计者所必须具备的基本素质。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号