目前来说,kafka的日志中记录的内容比较多,具体的存储内容见这篇博客,写的比较好.可以看到,存储的内容还是比较多的,当存储文件比较大的时候,我们应该如何处理这些日志?下面我们通过kafka启动过程的源码,分析下kafka的日志处理过程. 一.入口方法 在kafkaServer.scala中的start方法中,有一个这样的调用: /* start log manager */ logManager = createLogManager(zkUtils.zkClient, brokerState)…