当数据集超过一个单独的物理计算机的存储能力时,便有必要将它分不到多个独立的计算机上.管理着跨计算机网络存储的文件系统称为分布式文件系统.Hadoop 的分布式文件系统称为 HDFS,它 是为 以流式数据访问模式存储超大文件而设计的文件系统. “超大文件”是指几百 TB 大小甚至 PB 级的数据: 流式数据访问:HDFS 建立在这样一个思想上 - 一次写入.多次读取的模式是最高效的.一个数据集通常由数据源生成或者复制,接着在此基础上进行各种各样的分析.HDFS 是为了达到高数据吞吐量而优化的,这有…