结合P2P软件使用Ansible分发大文件】的更多相关文章

一 应用场景描述 现在我需要向50+数量的服务器分发Logstash新版本的rpm包,大概220MB左右,直接使用Ansible的copy命令进行传输,命令如下: 1 ansible all  -m copy -a "src=/opt/software/logstash/logstash-agent-2.3.3-fb.centos6.x86_64.rpm dest=/opt/software/logstash" 在执行的过程中,很快就收到Zabbix网络监控的报警,报警项目就是瞬间流量…
P2P分发大文件思路 1.将软件包生成种子文件 2.通过saltstack将种子文件分发至每台服务器 3.每台服务器进行种子下载 推荐使用Twitter开源的murder.Twitter用它来分发大文件完成代码更新. 下载地址: https://github.com/lg/murder 本文介绍murder的dist,它是基于python开发的. murder dist murder_tracker.py  可以理解它为调度中心 murder_make_torrent.py  生成种子,并且注册…
http://blog.chinaunix.net/uid-22326462-id-1775108.html 首先先介绍一些基本概念: NAT(Network Address Translators),网络地址转换:网络地址转换是在IP地址日益缺乏的情况下产生的,它的主要目的就是为了能够地址重用.NAT分为两大类,基本的NAT和NAPT(Network Address/Port Translator). 最开始NAT是运行在路由器上的一个功能模块.最先提出的是基本的NAT,它的产生基于如下事实:…
DB备份.dump.电影等文件多了以后,经常遇到磁盘空间不够用的情况,日积月累本来清晰的目录结构找起来也很费劲,尤其是要查找删除无用的大文件.windows本身那差劲的搜索功能就不提了,从搜索引擎上查找工具,总是提示**零软件可以,比较反感. WizTree 是一个可以用来查找占用大量分区的无用文件和文件夹的查找大文件工具,界面中还会将搜索出来的文件夹从大到小排列,并且还会显示占用百分比.占用空间.文件数量.子文件夹数量等信息,可以直接进行删除等操作,非常方便.下载…
现在U盘的容量越来越大了,8G闪存满天飞,几乎已成“标配”,市面上再见难觅64M.128M等U盘的踪迹,可是细心的你也许已经发现,即使是8G或更大体积的U盘,仍然不能拷贝存储体积超过4G的大文件,这是什么原因造成的,又该如何解决呢? 一.“U盘无法拷贝超过4G大文件”的原因分析 正常情况下,“U盘无法拷贝超过4G的大文件”无外乎两种原因,一是受U盘文件系统格式的限制,二是买到了被JS刷过的扩容盘.下面 Storm Eyes 就简单介绍一下这两种情况. 1. U盘文件系统格式的限制 Windows…
http://www.cnblogs.com/gansc23/archive/2010/10/20/1857066.html 首先先介绍一些基本概念:NAT(Network Address Translators),网络地址转换:网络地址转换是在IP地址日益缺乏的情况下产生的,它的主要目的就是为了能够地址重用.NAT分为两大类,基本的NAT和NAPT(Network Address/Port Translator). 最开始NAT是运行在路由器上的一个功能模块. 最先提出的是基本的NAT,它的产…
用JAVA实现大文件上传及显示进度信息 ---解析HTTP MultiPart协议 (本文提供全部源码下载,请访问 https://github.com/grayprince/UploadBigFile) 一. 大文件上传基础描述: 各种WEB框架中,对于浏览器上传文件的请求,都有自己的处理对象负责对Http MultiPart协议内容进行解析,并供开发人员调用请求的表单内容. 比如: Spring 框架中使用类似CommonsMultipartFile对象处理表二进制文件信息. 而.NET 中…
IE的自带下载功能中没有断点续传功能,要实现断点续传功能,需要用到HTTP协议中鲜为人知的几个响应头和请求头. 一. 两个必要响应头Accept-Ranges.ETag         客户端每次提交下载请求时,服务端都要添加这两个响应头,以保证客户端和服务端将此下载识别为可以断点续传的下载: Accept-Ranges:告知下载客户端这是一个可以恢复续传的下载,存放本次下载的开始字节位置.文件的字节大小: ETag:保存文件的唯一标识(我在用的文件名+文件最后修改时间,以便续传请求时对文件进行…
今天和同事在群里讨论“QQ上传大文件/QQ群发送大文件时,可以在极短的时间内完成”是如何做到的. 有时候我们通过QQ上传一个几百M的文件,竟然只用了几秒钟,从带宽上限制可以得出,实际上传文件是不可能的. 实现的思路肯定是根据文件内容生成一个“唯一的标识符”,根据这个标识符去判断服务器上是否已经存在这个文件,如果存在,则不需要再次上传. 但是根据文件内容生成“唯一的标识符”,效率会不会有问题呢. 于是用PHP做个最简单的测试: 以下是代码片段: <?php include("./Timer.…
大文件分块   一般常用的web服务器都有对向服务器端提交数据有大小限制.超过一定大小文件服务器端将返回拒绝信息.当然,web服务器都提供了配置文件可能修改限制的大小.针对iis实现大文件的上传网上也有一些通过修改web服务器限制文件大小来实现.不过这样对web服务器的安全带了问题.攻击者很容易发一个大数据包,将你的web服务器直接给拖死.   现在针对大文件上传主流的实现方式,通过将大文件分块.比如针对一个100M文件,按2M拆分为50块.然后再将每块文件依次上传到服务器上,上传完成后再在服务…