1.背景 Hadoop在设计时考虑到数据的安全与高效,数据文件默认在HDFS上存放三份,存储策略为本地一份,同机架内其它某一节点上一份,不同机架的某一节点上一份.这样如果本地数据损坏,节点可以从同一机架内的相邻节点拿到数据,速度肯定比从跨机架节点上拿数据要快:同时,如果整个机架的网络出现异常,也能保证在其它机架的节点上找到数据.为了降低整体的带宽消耗和读取延时,HDFS会尽量让读取程序读取离它最近的副本.如果在读取程序的同一个机架上有一个副本,那么就读取该副本.如果一个HDFS集群跨越多个数据中