我们的web服务器等等每天会产生大量的日志,我们要把这些日志收集起来,移动到hadoop平台上进行分析. 那么如何移动这些数据呢?一种方法是通过shell cp到hadoop集群上,然后通过hdfs dfs -put,这种方法毫无疑问是可行的,但是有一个问题.如果在移动数据的时候一台机器宕掉了,该怎么办?这种方法没办法进行监控,以及做负载均衡什么的,这个时候就需要flume了. webserver(源端) ==>flume ==>hdfs(目的地) flume是一个分布式.高可靠.高可用的服务…