全文获取类型
收费全文 | 1513篇 |
免费 | 21篇 |
国内免费 | 26篇 |
专业分类
系统科学 | 13篇 |
丛书文集 | 48篇 |
教育与普及 | 26篇 |
理论与方法论 | 5篇 |
现状及发展 | 4篇 |
综合类 | 1464篇 |
出版年
2024年 | 1篇 |
2023年 | 5篇 |
2022年 | 2篇 |
2021年 | 5篇 |
2020年 | 2篇 |
2019年 | 5篇 |
2018年 | 3篇 |
2017年 | 2篇 |
2016年 | 8篇 |
2015年 | 21篇 |
2014年 | 65篇 |
2013年 | 57篇 |
2012年 | 94篇 |
2011年 | 92篇 |
2010年 | 124篇 |
2009年 | 140篇 |
2008年 | 139篇 |
2007年 | 153篇 |
2006年 | 103篇 |
2005年 | 80篇 |
2004年 | 93篇 |
2003年 | 105篇 |
2002年 | 91篇 |
2001年 | 90篇 |
2000年 | 62篇 |
1999年 | 13篇 |
1998年 | 5篇 |
排序方式: 共有1560条查询结果,搜索用时 985 毫秒
211.
用样式表制作蒙文网页 总被引:4,自引:2,他引:2
蒙古文信息网络化中最难解决的问题之一是蒙古文网页的制作.蒙古文字的结构和书写方式与其它文种相比有自己的特点,再加上蒙古文字库编码的不统一等原因,一直影响蒙古文网页制作.针对蒙古文的书写特性提出了利用样式表的文本特性制作蒙古文网页的方法,使制作出的蒙古文网页中的蒙古文字按字符方式显示,并能实现蒙、汉、英文混排显示. 相似文献
212.
XML与数据库的通信问题是XML研究领域中的一个重要问题。在总结多种映射方法的基础上,提出了一种方法将多个相似的XML文档进行解析。根据映射关系,生成统一模式,并分析归纳出一个集成的模式,然后创建一个数据库,提取并存储XML文档数据到数据库。它主要解决了XML文档与数据库通信问题,并通过实例论述了实现步骤及相关的关键技术,其最大的特点就是不用考虑文档的模式信息(DTD,XML Schema)。 相似文献
213.
214.
政府网站是政府特色的体现,它是政府机关与社会公众进行交流与沟通的重要平台,同时也是政府实现政务信息公开的载体。因此,政府网站的网页一定要规划合理,体现各级政府的特色。本文主要分析了政府网站网页规划中的几个要点。 相似文献
215.
海量数据下的Web分页呈现研究 总被引:5,自引:1,他引:4
在Internet上经常遇到海量数据库分页呈现问题,针对ADO(AxtiveX Data Object)记录集分页、转储记录集分页和基于SQL(Structured Query Language)分页等算法在海量数据下存在响应速度慢、响应能力弱、资源占用多等缺陷,在分析这些方法的基础上,提出了一种改进的方法.该方法在传统的C/S(Client/Server)结构中将Server端的海量数据以分页的方式在Client端Web呈现给用户,然后,对所有的方法进行测试和分析,通过对比表明,新算法的响应速度最大可提高21.4%,响应能力比其他算法提高1.3~4倍,在大数据量下尤其明显. 相似文献
216.
文中提出一种基于图像感知哈希技术的钓鱼检测方法,简称Phash———将网页以图像格式保存,提取图像的主要可视信息的像素点,由这些像素点组成感知哈希序列,再进行哈希序列的相似度匹配。该方法既克服了钓鱼网页存活时间短的问题,又能快速地与特征库进行匹配。实验表明,该方法是有效的,在保证一定误判率和召回率的情况下大大提高了匹配速度。 相似文献
217.
218.
蹇红梅 《四川理工学院学报(自然科学版)》2012,25(5):41-44
HTML5是由W3C发布的新一代HTML标准,不仅强化了Web网页的表现性能,还拥有很多API接口,开发者利用这些接口,可以便捷地创建更加丰富、引人入目的应用程序。在分析研究HT-ML5标准基础上,利用其技术实现了一个离线便签管理程序系统,既直观展示了HTML5的内容描述标签、直接支持表单验证、视频音频标签、网页元素的拖拽、工作线程等新特性,又介绍了利用DOM Storage和Web SQL Database两种存储机制进行离线应用开发的方法。文章对基于HTML5的应用开发具有一定的参考价值。 相似文献
219.
廖文军 《新乡学院学报(自然科学版)》2010,27(2):62-63
分析了新乡学院网站运行过程中遇到的负载问题,并通过静态化处理网站以及在Windows2003下搭建服务器动态负载均衡的方法解决了问题,保障了用户访问网站的效率。 相似文献
220.
针对互联网中出现的大量不良内容,分析出其主要特征,首次提出将不良网页的文本特征与搜索引擎中网络爬虫相结合的技术来主动寻找互联网中的不良网页及不良网站,并将结果分级别反馈到用户层以便对不良网页和网站进行处理,以达到净化网络环境的目的.实验结果表明,所提出的算法能够有效检测不良网页,并且能够很好地应对不良网站的反关键字过滤策略. 相似文献