/** * 单词计数 */ public class LocalTridentCount { public static class MyBatchSpout implements IBatchSpout { Fields fields; HashMap<Long, List<List<Object>>> batches = new HashMap<Long, List<List<Object>>>(); public MyBatch
在 文章 <python实现指定目录下批量文件的单词计数:串行版本>中, 总体思路是: A. 一次性获取指定目录下的所有符合条件的文件 -> B. 一次性获取所有文件的所有文件行 -> C. 解析所有文件行的单词计数 -> D. 按单词出现次数排序并输出TOPN. A,B,C,D 是完全串行的 本文实现 并发版本. 并发版本的主要思路是: A. 每次获取一个符合条件的文件 -> B. 获取单个文件的所有文件行 -> C. 解析单个文件的所有单词计数 ->
例子需求: spout:向后端发送{"sentence":"my dog has fleas"}.一般要连数据源,此处简化写死了. 语句分割bolt(SplitSentenceBolt):订阅spout发送的tuple.每收到一个tuple,bolt会获取"sentence"对应值域的值,然后分割为一个个的单词.最后,每个单词向后发送1个tuple: {"word":"my"} {"word&qu