前言 在Hadoop中,全部的元数据的保存都是在namenode节点之中,每次又一次启动整个集群,Hadoop都须要从这些持久化了的文件里恢复数据到内存中,然后通过镜像和编辑日志文件进行定期的扫描与合并.ok.这些略微了解Hadoop的人应该都知道.这不就是SecondNameNode干的事情嘛.可是非常多人仅仅是了解此机制的表象,内部的一些实现机理预计不是每一个人都又去深究过.你能想象在写入编辑日志的过程中,用到了双缓冲区来加大并发量的写吗,你能想象为了避免操作的一致性性,作者在写入的时候做过…