首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 218 毫秒
1.
文件传输协议(FTP)是功能完备而繁杂的网络文件传输协议,在普通应用程序开发中使用此协议开发难度大。为降低文件传输协议的使用难度,分析了FTP协议的基本功能要求;提出了文件发送和文件接收的2项基本功能;设计了一种仅实现文件发送与文件接收功能的简化FTP协议的组件化封装方案,通过对文件传输库的抽象与简化,定义了文件发送接口和文件接收接口。根据应用环境特点和集成开发环境特点,确定了封装采用的开发语言和开发环境为C++Builder;实现了基于FTP协议的文件传输组件sftp.dll;测试了基于FTP协议的文件传输组件的可移植性能、文件传输可靠性、文件传输性能等指标。总结了基于FTP协议的文件传输组件具有可移植性、文件传输安全可靠、网络资源占用率低的应用特点。  相似文献   

2.
众所周知FTP与TFTP都是常用的文件传输协议,它们分别适用于点对点任意文件和点对多点小文件传输。如果需要传输的文件有近4G的大小并且面对的是数量庞大的电信刀片式服务器,使用多线程FTP传输的方式一定会占满近乎所有CPU及网络资源,显然不是一种好的方法。结合FTP与TFTP协议各自的特点,采用TCP链路进行传输控制,UDP组播进行数据传送的方式,设计出一种新的文件传输协议RTFTP,在实现了可靠组播文件传输的同时有效地提升了文件传输的效率。  相似文献   

3.
从GOS网格社区中的文件传输服务出发,设计了新的文件传输协议并且实现了文件传输客户端CFTP.相对于网格社区中原有的HPCG文件传输和Applet文件传输,该协议采用了分块传输、条状传输、传输线程迁移以及小文件的连接复用等技术,克服了原有文件传输协议对文件大小支持不完善以及效率低下的缺点.测试结果表明:CFTP对于大文件和大量小文件的上传、下载以及第三方传输都取得很高的传输效率;针对普通文件,上传时CFTP的传输时间较HPCG文件传输方式提高14.83%,较基于Applet的传输方式提高21.7%;下载时CFTP相对于HPCG文件传输方式效率提升了20.2%,相对于基于Applet的文件传输方式效率提升了4.9%.  相似文献   

4.
为提升二进制大对象(BLOB)存储系统的可靠性和存储效率,设计了一种新的BLOB存取算法.通过建立分布式BLOB存储模型,设计了基于多列等候队列的存储结构,证明了适当增加等候队列数量,可改善存储系统性能.系统采用混合型数据放置策略,分布地存储BLOB数据于FTP群集中各个结点,并将其属性存储于元数据服务器.结果表明,随着系统容量的不断增长,各结点存储性能稳定,数据完整性良好.  相似文献   

5.
随着Internet的发展,用户对网络存储系统的价格和性能提出了新的要求.本文分析了各种网络存储技术和Internet传输技术,在虚拟主机基础上,建立文库系统,用户上传文件到服务器中,服务器接收用户文件.服务器动态增加虚拟主机,扩展文库系统的存储容量,并利用Flash和Webservice技术,实现网络存储分布式传输和存储.系统具有良好的可扩展性和数据传输性能.  相似文献   

6.
文件传输时间的长短是评判一种传输机制传输效率的直接因素。本文针对如何提高大数据量文件的传输效率提出了一种新的传输方式。目的是为了缓解文件传输时网络发生拥塞或因带宽利用率不高时而出现无法传输的现象。本文主要研究了使用并行路径传精大数据量文件,以及在传输过程中若遇到未知的网络状况导致文件无法传输时动态管理副本传输的可行性。这种文件传输方式在加快文件传输速率,减少文件传输时间,提高传输稳定性等方面有明显效果。既完成了该传输模型的仿真效果,又针对仿真程序的结果完成了具体实现。本文对此分析了传统的单一副本数据传输方法以及多副本数据传输方法的区别,最后通过仿真程序和实现程序对三种传输方法做了比较。实验证明,基于网格环境下自适应动态路径文件传输模型具有较好的传输性能。  相似文献   

7.
针对文件传输存在的安全性问题,设计与实现了基于转发隔离的文件安全传输系统。首先,采用转发隔离技术,对客户端和文件接收服务器进行隔离,保证文件接收服务器的安全。再者,利用密钥服务器来生成、颁发、管理文件加密、解密时所需的密钥,保证密钥存储和传输的安全。最后,利用改进的数字信封来实现文件完整性的验证,提高文件传输的速度和效率。实验结果表明基于转发隔离的文件传输系统在保证文件安全传输的同时,提高了系统整体的性能。  相似文献   

8.
文件传输协议(File Ttranfer Protocol,FTP)是一个被广泛应用的协议,它能够在网络上方便地传输文件.早期FTP并没有涉及安全问题,随着互连网应用的快速增长,人们对安全的要求也不断提高.在介绍了FTP协议的基本特征后,从两个方面探讨了FTP安全问题的解决方案,协议在安全功能方面扩展;协议自身的安全问题以及用户如何防范.  相似文献   

9.
研究了一种分两层构建分布式文件系统的方法,即首先在设备管理层提供一个块一级的分布式存储系统,然后在其上的文件系统层构建分布式文件系统.底层的分布式存储系统提供了块一级的分布界面,并且通过存储虚拟化技术将用户视图下的存储设备与真正的物理存储资源分离开来,从而为上层的文件系统屏蔽了底层存储系统的分布式特性.这种分层实现分布式文件系统的方法使得整个系统更加容易设计、实现以及优化,且在性能、缩放性和灵活性等方面与传统的在文件层中实现分布界面的方法相比具有很大的优势.  相似文献   

10.
文件传输协议 (FileTtranferProtocol,FTP)是一个被广泛应用的协议 ,它能够在网络上方便地传输文件 .早期FTP并没有涉及安全问题 ,随着互连网应用的快速增长 ,人们对安全的要求也不断提高 .在介绍了FTP协议的基本特征后 ,从两个方面探讨了FTP安全问题的解决方案 ,协议在安全功能方面扩展 ;协议自身的安全问题以及用户如何防范  相似文献   

11.
Hadoop分布式文件系统(hadoop distributed file system,HDFS)因其稳定高效、低成本等优势,已被很多大型企业广泛使用.针对HDFS海量小文件存储时元数据服务器节点内存开销过大,合并文件中小文件访问效率不高的问题,提出一种改进的基于混合索引的小文件存储策略,应用分类器分类标记小文件,并在元数据服务器建立H-B+树索引,在存储节点根据小文件大小建立不同的块内索引,达到提高小文件访问效率的目标.实现中采用缓存结构,以提高客户端访问的响应速度,同时也有利于元数据服务器节点的内存负载.实验结果表明,基于混合索引的小文件存储策略能有效提高小文件访问效率,并显著降低元数据节点内存开销.  相似文献   

12.
作者把网络上的传输时间作为网络评价手段加以研究,利用文件传输方法(FTP)构筑了一个测量工具,在LAN上,当由多个用户机同时与服务器连接,实行资源共享而发生网络阻塞时,运用这个工具来测量服务器与用户机之间的数据传输时间,同时还把数据传输模式化,从理论上推导出数据传输时间的公式。实验结果表明,由测量工具测出的时间与由理论公式计算的时间吻合得很好。  相似文献   

13.
提出了一种新的基于XML Web Service的FTP文件搜索技术,通过在FTP服务器和检索服务器分别部署Web服务,可以实现跨越防火墙的FTP搜索,实时的文件更新登记保证了检索结果的有效性,Web服务的系统架构为实现更大范围的分布式搜索建立了良好的基础。利用FTP服务器端的Web服务可以加强对文件服务的管理功能,为进一步提高网络文件服务的质量和功能创建了条件。并探讨了主要的技术功能和实现方法。为FTP搜索系统的设计提供了一个新的设计思路。  相似文献   

14.
When examining the file transfer performance in a peer-to-peer file sharing system, a fundamental problem is how to describe the service rate for a file transfer. In this paper, the problem is examined by analyzing the distribution of server-like nodes' upstream-bandwidth among their concurrent transfers. A sufficient condition for the service rate, what a receiver obtains for downloading a file, to asymptotically be uniform is presented. On the aggregate service rate for transferring a file in a system, a sufficient condition for it to asymptotically follow a Zipf distribution is presented. These asymptotic equalities are both in the mean square sense. These analyses and the sufficient conditions provide a mathematic base for modeling file transfer processes in peer-to-peer file sharing systems.  相似文献   

15.
FastDu is a file system service that tracks file system changes by intercepting file system calls to maintain directory summaries, which play important roles in both storage administration and improvement of user experiences for some applications. In most circumstances, directory summaries are independently harvested by applications via traversing the file system hierarchy and calling stat () on every file in each directory. For large file systems, this brute-force traverse-based approach can take many hours to complete, even if only a small percentage of the files have changed. This paper describes FastDu, which uses a pre-built database to store harvested directory summaries, and tracks the file system changes by intercepting file system calls, so that new harvesting is restricted to the small subset of directories that contain modified files. Tests using FastDu show that this approach reduces the time needed to get a directory summary by one or two orders of magnitude with almost negligible penalty to application-aware file system performance.  相似文献   

16.
提出了一种在网络带宽充足的条件下,能够匹配嵌入式终端接收能力的大型多媒体文件传输协议EMFTP(embedded multimedia file transfer protocol,嵌入式媒体文件传输协议)。该协议是基于UDP的应用层传输协议,采用统一重传的差错恢复策略,并引入了基于带宽探测的递减式加增乘减速率控制算法,在尽可能的降低嵌入式接收端的资源占用前提下,提高数据传输速率。实验表明,与传统的UDT和FTP传输协议相比,EMFTP的数据传输速度分别提高了3%和17%,接收方终端的CPU占用率分别降低50.3%和42.3%,内存占用率降低15%和4%。  相似文献   

17.
异种计算机互连是现代计算机网络发展的主要方向,实现网络互连的目标之一是数据文件的共享。本文拟在讨论异种计算机之间实现互连之后,如何快速传送各种文件,并详细论述文件转换传输的实现原理。  相似文献   

18.
The large scale and distribution of cloud computing storage have become the major challenges in cloud forensics for file extraction. Current disk forensic methods do not adapt to cloud computing well and the forensic research on distributed file system is inadequate. To address the forensic problems, this paper uses the Hadoop distributed file system (HDFS) as a case study and proposes a forensic method for efficient file extraction based on three-level (3L) mapping. First, HDFS is analyzed from overall architecture to local file system. Second, the 3L mapping of an HDFS file from HDFS namespace to data blocks on local file system is established and a recovery method for deleted files based on 3L mapping is presented. Third, a multi-node Hadoop framework via Xen virtualization platform is set up to test the performance of the method. The results indicate that the proposed method could succeed in efficient location of large files stored across data nodes, make selective image of disk data and get high recovery rate of deleted files.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号