前段时间公司hadoop集群宕机,发现是namenode磁盘满了, 清理出部分空间后,重启集群时,重启失败. 又发现集群Secondary namenode 服务也恰恰坏掉,导致所有的操作log持续写入edits.new 文件,等集群宕机的时候文件大小已经达到了丧心病狂的70G+..重启集群报错 加载edits文件失败.分析加载文件报错原因是磁盘不足导致最后写入的log只写入一半就宕机了.由于log不完整,hadoop再次启动加载edits文件时读取文件报错.由于edits.new 文件过大,存