前言:圣诞节来了,我怎么能虚度光阴呢?!依稀记得,那一年,大家互赠贺卡,短短几行字,字字融化在心里;那一年,大家在水果市场,寻找那些最能代表自己心意的苹果香蕉梨,摸着冰冷的水果外皮,内心早已滚烫。这一年……我在博客园-_-#,希望用dt的代码燃烧脑细胞,温暖小心窝。

上篇《Hadoop阅读笔记(一)——强大的MapReduce》主要介绍了MapReduce的在大数据集上处理的优势以及运行机制,通过专利数据编写Demo加深了对于MapReduce中输入输出数据结构的细节理解。有了理论上的指导,仍需手捧我的hadoop圣经——Hadoop实战2,继续走完未走过的路(有种怪怪的感觉,我一直在原地踏步)。

正文:实践是检验真理的唯一标准,不知道这是谁说的,但是作为码农,倒也是实用受用的座右铭。除却大牛们能够在阅读高深理论时new一个并发线程,眼睛所到之处,已然可以理清program的精髓所在,好似一台计算机扫描了所看到的代码一般(有点夸张^_^)。作为普罗大众的搬砖者来说,还是通过一些实例来加深对于理论的认识。

今天主要是通过以下两个例子:求平均成绩、去重来加深对MapReduce的理解。

  1.如何用MapReduce求平均成绩——WordCount的加强版

  在谈平均成绩之前我们回顾下属性的Hadoop HelloWorld程序——WordCount,其主要是统计数据集中各个单词出现的次数。因为次数没有多少之分,如果将这里的次数换成分数就将字数统计问题转化成了求每个个体的总成绩的问题,再加上一步(总成绩/学科数)运算就是这里要讨论的求平均数的问题了。在笔者看来,MapReduce是一种编程思维,它引导码农们如何将一个亟待解决的问题转换为一个MapReduce过程:map阶段输入什么、map过程执行什么、map阶段输出什么、reduce阶段输入什么、执行什么、输出什么。能够将以上几个点弄清楚整明白,一个MapReduce程序就会跃然纸上。这里:

  Map:      指定格式的数据集(如"张三  60")——输入数据

         执行每条记录的分割操作以key-value写入上下文context中——执行功能

             得到指定键值对类型的输出(如"(new Text(张三),new IntWritable(60))")——输出结果

  Reduce:   map的输出——输入数据

       求出单个个体的总成绩后再除以该个体课程数目——执行功能

         得到指定键值对类型的输入——输出结果

  鉴于上面的map和reduce过程,我们可以得到如下的代码:

  1. public class Test1214 {
  2.  
  3. public static class MapperClass extends Mapper<LongWritable, Text, Text, IntWritable> {
  4. public void map(LongWritable key, Text value, Context context){
  5. String line = value.toString();
  6. System.out.println("该行数据为:" + line);
  7. StringTokenizer token = new StringTokenizer(line,"\t");
  8. String nameT = token.nextToken();
  9. int score = Integer.parseInt(token.nextToken());
  10. Text name = new Text(nameT);
  11. try {
  12. context.write(name, new IntWritable(score));
  13. } catch (IOException e) {
  14. e.printStackTrace();
  15. } catch (InterruptedException e) {
  16. e.printStackTrace();
  17. }
  18. }
  19. }
  20.  
  21. public static class ReducerClass extends Reducer<Text, IntWritable, Text, IntWritable>{
  22. public void reduce(Text key, Iterable<IntWritable> value, Context context){
  23. int sum = 0;
  24. int count =0;
  25. for(IntWritable score : value){
  26. sum += score.get();
  27. count++;
  28. System.out.println("第" + count + "个数值为:" + score.get());
  29. }
  30. IntWritable avg = new IntWritable(sum/count);
  31. try {
  32. context.write(key, avg);
  33. } catch (IOException e) {
  34. e.printStackTrace();
  35. } catch (InterruptedException e) {
  36. e.printStackTrace();
  37. }
  38. }
  39. }
  40. /**
  41. * @param args
  42. * @throws IOException
  43. * @throws ClassNotFoundException
  44. * @throws InterruptedException
  45. */
  46. public static void main(String[] args) throws IOException, InterruptedException, ClassNotFoundException {
  47.  
  48. Configuration conf = new Configuration();
  49. String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
  50. if (otherArgs.length != 2) {
  51. System.err.println("Usage: wordcount <in> <out>");
  52. System.exit(2);
  53. }
  54. Job job = new Job(conf, "Test1214");
  55.  
  56. job.setJarByClass(Test1214.class);
  57. job.setMapperClass(MapperClass.class);
  58. job.setCombinerClass(ReducerClass.class);
  59. job.setReducerClass(ReducerClass.class);
  60. job.setOutputKeyClass(Text.class);
  61. job.setOutputValueClass(IntWritable.class);
  62.  
  63. org.apache.hadoop.mapreduce.lib.input.FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
  64. org.apache.hadoop.mapreduce.lib.output.FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
  65. System.exit(job.waitForCompletion(true) ? 0 : 1);
  66. System.out.println("end");
  67. }
  68.  
  69. }

  数据集:这里的数据是码农我自己手工创建的,主要是想看看mapreduce的运行过程,所以就创建了两个文件,当然这里面的成绩也就没有什么是否符合正态分布的考虑了……

数据中设定有A-K共11个学生,共16门课程,具体数据如下:

  NameScore1.txt:

  1. A 55
  2. B 65
  3. C 44
  4. D 87
  5. E 66
  6. F 90
  7. G 70
  8. H 59
  9. I 61
  10. J 58
  11. K 40
  12. A 45
  13. B 62
  14. C 64
  15. D 77
  16. E 36
  17. F 50
  18. G 80
  19. H 69
  20. I 71
  21. J 70
  22. K 49
  23. A 51
  24. B 64
  25. C 74
  26. D 37
  27. E 76
  28. F 80
  29. G 50
  30. H 51
  31. I 81
  32. J 68
  33. K 80
  34. A 85
  35. B 55
  36. C 49
  37. D 67
  38. E 69
  39. F 50
  40. G 80
  41. H 79
  42. I 81
  43. J 68
  44. K 80
  45. A 35
  46. B 55
  47. C 40
  48. D 47
  49. E 60
  50. F 72
  51. G 76
  52. H 79
  53. I 68
  54. J 78
  55. K 50
  56. A 65
  57. B 45
  58. C 74
  59. D 57
  60. E 56
  61. F 50
  62. G 60
  63. H 59
  64. I 61
  65. J 58
  66. K 60
  67. A 85
  68. B 45
  69. C 74
  70. D 67
  71. E 86
  72. F 70
  73. G 50
  74. H 79
  75. I 81
  76. J 78
  77. K 60
  78. A 50
  79. B 69
  80. C 40
  81. D 89
  82. E 69
  83. F 95
  84. G 75
  85. H 59
  86. I 60
  87. J 59
  88. K 45

  NameScore2.txt:

  1. A 65
  2. B 75
  3. C 64
  4. D 67
  5. E 86
  6. F 70
  7. G 90
  8. H 79
  9. I 81
  10. J 78
  11. K 60
  12. A 65
  13. B 82
  14. C 84
  15. D 97
  16. E 66
  17. F 70
  18. G 80
  19. H 89
  20. I 91
  21. J 90
  22. K 69
  23. A 71
  24. B 84
  25. C 94
  26. D 67
  27. E 96
  28. F 80
  29. G 70
  30. H 71
  31. I 81
  32. J 98
  33. K 80
  34. A 85
  35. B 75
  36. C 69
  37. D 87
  38. E 89
  39. F 80
  40. G 70
  41. H 99
  42. I 81
  43. J 88
  44. K 60
  45. A 65
  46. B 75
  47. C 60
  48. D 67
  49. E 80
  50. F 92
  51. G 76
  52. H 79
  53. I 68
  54. J 78
  55. K 70
  56. A 85
  57. B 85
  58. C 74
  59. D 87
  60. E 76
  61. F 60
  62. G 60
  63. H 79
  64. I 81
  65. J 78
  66. K 80
  67. A 85
  68. B 65
  69. C 74
  70. D 67
  71. E 86
  72. F 70
  73. G 70
  74. H 79
  75. I 81
  76. J 78
  77. K 60
  78. A 70
  79. B 69
  80. C 60
  81. D 89
  82. E 69
  83. F 95
  84. G 75
  85. H 59
  86. I 60
  87. J 79
  88. K 65

  其执行过程中控制台打印的信息为:

  1. 14/12/14 17:05:27 INFO jvm.JvmMetrics: Initializing JVM Metrics with processName=JobTracker, sessionId=
  2. 14/12/14 17:05:27 WARN mapred.JobClient: No job jar file set. User classes may not be found. See JobConf(Class) or JobConf#setJar(String).
  3. 14/12/14 17:05:27 INFO input.FileInputFormat: Total input paths to process : 2
  4. 14/12/14 17:05:27 INFO mapred.JobClient: Running job: job_local_0001
  5. 14/12/14 17:05:27 INFO input.FileInputFormat: Total input paths to process : 2
  6. 14/12/14 17:05:27 INFO mapred.MapTask: io.sort.mb = 100
  7. 14/12/14 17:05:28 INFO mapred.MapTask: data buffer = 79691776/99614720
  8. 14/12/14 17:05:28 INFO mapred.MapTask: record buffer = 262144/327680
  9. 该行数据为:A 55
  10. 该行数据为:B 65
  11. 该行数据为:C 44
  12. 该行数据为:D 87
  13. 该行数据为:E 66
  14. 该行数据为:F 90
  15. 该行数据为:G 70
  16. 该行数据为:H 59
  17. 该行数据为:I 61
  18. 该行数据为:J 58
  19. 该行数据为:K 40
  20. 该行数据为:A 45
  21. 该行数据为:B 62
  22. 该行数据为:C 64
  23. 该行数据为:D 77
  24. 该行数据为:E 36
  25. 该行数据为:F 50
  26. 该行数据为:G 80
  27. 该行数据为:H 69
  28. 该行数据为:I 71
  29. 该行数据为:J 70
  30. 该行数据为:K 49
  31. 该行数据为:A 51
  32. 该行数据为:B 64
  33. 该行数据为:C 74
  34. 该行数据为:D 37
  35. 该行数据为:E 76
  36. 该行数据为:F 80
  37. 该行数据为:G 50
  38. 该行数据为:H 51
  39. 该行数据为:I 81
  40. 该行数据为:J 68
  41. 该行数据为:K 80
  42. 该行数据为:A 85
  43. 该行数据为:B 55
  44. 该行数据为:C 49
  45. 该行数据为:D 67
  46. 该行数据为:E 69
  47. 该行数据为:F 50
  48. 该行数据为:G 80
  49. 该行数据为:H 79
  50. 该行数据为:I 81
  51. 该行数据为:J 68
  52. 该行数据为:K 80
  53. 该行数据为:A 35
  54. 该行数据为:B 55
  55. 该行数据为:C 40
  56. 该行数据为:D 47
  57. 该行数据为:E 60
  58. 该行数据为:F 72
  59. 该行数据为:G 76
  60. 该行数据为:H 79
  61. 该行数据为:I 68
  62. 该行数据为:J 78
  63. 该行数据为:K 50
  64. 该行数据为:A 65
  65. 该行数据为:B 45
  66. 该行数据为:C 74
  67. 该行数据为:D 57
  68. 该行数据为:E 56
  69. 该行数据为:F 50
  70. 该行数据为:G 60
  71. 该行数据为:H 59
  72. 该行数据为:I 61
  73. 该行数据为:J 58
  74. 该行数据为:K 60
  75. 该行数据为:A 85
  76. 该行数据为:B 45
  77. 该行数据为:C 74
  78. 该行数据为:D 67
  79. 该行数据为:E 86
  80. 该行数据为:F 70
  81. 该行数据为:G 50
  82. 该行数据为:H 79
  83. 该行数据为:I 81
  84. 该行数据为:J 78
  85. 该行数据为:K 60
  86. 该行数据为:A 50
  87. 该行数据为:B 69
  88. 该行数据为:C 40
  89. 该行数据为:D 89
  90. 该行数据为:E 69
  91. 该行数据为:F 95
  92. 该行数据为:G 75
  93. 该行数据为:H 59
  94. 该行数据为:I 60
  95. 该行数据为:J 59
  96. 该行数据为:K 45
  97. 14/12/14 17:05:28 INFO mapred.MapTask: Starting flush of map output
  98. 1个数值为:55
  99. 2个数值为:45
  100. 3个数值为:51
  101. 4个数值为:85
  102. 5个数值为:35
  103. 6个数值为:65
  104. 7个数值为:85
  105. 8个数值为:50
  106. 1个数值为:45
  107. 2个数值为:64
  108. 3个数值为:65
  109. 4个数值为:45
  110. 5个数值为:55
  111. 6个数值为:69
  112. 7个数值为:62
  113. 8个数值为:55
  114. 1个数值为:64
  115. 2个数值为:49
  116. 3个数值为:44
  117. 4个数值为:74
  118. 5个数值为:74
  119. 6个数值为:40
  120. 7个数值为:40
  121. 8个数值为:74
  122. 1个数值为:67
  123. 2个数值为:67
  124. 3个数值为:77
  125. 4个数值为:37
  126. 5个数值为:87
  127. 6个数值为:57
  128. 7个数值为:89
  129. 8个数值为:47
  130. 1个数值为:36
  131. 2个数值为:66
  132. 3个数值为:76
  133. 4个数值为:86
  134. 5个数值为:69
  135. 6个数值为:69
  136. 7个数值为:60
  137. 8个数值为:56
  138. 1个数值为:90
  139. 2个数值为:95
  140. 3个数值为:70
  141. 4个数值为:50
  142. 5个数值为:80
  143. 6个数值为:50
  144. 7个数值为:50
  145. 8个数值为:72
  146. 1个数值为:60
  147. 2个数值为:76
  148. 3个数值为:50
  149. 4个数值为:50
  150. 5个数值为:80
  151. 6个数值为:70
  152. 7个数值为:75
  153. 8个数值为:80
  154. 1个数值为:59
  155. 2个数值为:69
  156. 3个数值为:51
  157. 4个数值为:79
  158. 5个数值为:59
  159. 6个数值为:79
  160. 7个数值为:59
  161. 8个数值为:79
  162. 1个数值为:60
  163. 2个数值为:61
  164. 3个数值为:81
  165. 4个数值为:81
  166. 5个数值为:61
  167. 6个数值为:71
  168. 7个数值为:68
  169. 8个数值为:81
  170. 1个数值为:58
  171. 2个数值为:59
  172. 3个数值为:78
  173. 4个数值为:68
  174. 5个数值为:78
  175. 6个数值为:68
  176. 7个数值为:70
  177. 8个数值为:58
  178. 1个数值为:40
  179. 2个数值为:50
  180. 3个数值为:49
  181. 4个数值为:60
  182. 5个数值为:60
  183. 6个数值为:45
  184. 7个数值为:80
  185. 8个数值为:80
  186. 14/12/14 17:05:28 INFO mapred.MapTask: Finished spill 0
  187. 14/12/14 17:05:28 INFO mapred.TaskRunner: Task:attempt_local_0001_m_000000_0 is done. And is in the process of commiting
  188. 14/12/14 17:05:28 INFO mapred.LocalJobRunner:
  189. 14/12/14 17:05:28 INFO mapred.TaskRunner: Task 'attempt_local_0001_m_000000_0' done.
  190. 14/12/14 17:05:28 INFO mapred.MapTask: io.sort.mb = 100
  191. 14/12/14 17:05:28 INFO mapred.MapTask: data buffer = 79691776/99614720
  192. 14/12/14 17:05:28 INFO mapred.MapTask: record buffer = 262144/327680
  193. 该行数据为:A 65
  194. 该行数据为:B 75
  195. 该行数据为:C 64
  196. 该行数据为:D 67
  197. 该行数据为:E 86
  198. 该行数据为:F 70
  199. 该行数据为:G 90
  200. 该行数据为:H 79
  201. 该行数据为:I 81
  202. 该行数据为:J 78
  203. 该行数据为:K 60
  204. 该行数据为:A 65
  205. 该行数据为:B 82
  206. 该行数据为:C 84
  207. 该行数据为:D 97
  208. 该行数据为:E 66
  209. 该行数据为:F 70
  210. 该行数据为:G 80
  211. 该行数据为:H 89
  212. 该行数据为:I 91
  213. 该行数据为:J 90
  214. 该行数据为:K 69
  215. 该行数据为:A 71
  216. 该行数据为:B 84
  217. 该行数据为:C 94
  218. 该行数据为:D 67
  219. 该行数据为:E 96
  220. 该行数据为:F 80
  221. 该行数据为:G 70
  222. 该行数据为:H 71
  223. 该行数据为:I 81
  224. 该行数据为:J 98
  225. 该行数据为:K 80
  226. 该行数据为:A 85
  227. 该行数据为:B 75
  228. 该行数据为:C 69
  229. 该行数据为:D 87
  230. 该行数据为:E 89
  231. 该行数据为:F 80
  232. 该行数据为:G 70
  233. 该行数据为:H 99
  234. 该行数据为:I 81
  235. 该行数据为:J 88
  236. 该行数据为:K 60
  237. 该行数据为:A 65
  238. 该行数据为:B 75
  239. 该行数据为:C 60
  240. 该行数据为:D 67
  241. 该行数据为:E 80
  242. 该行数据为:F 92
  243. 该行数据为:G 76
  244. 该行数据为:H 79
  245. 该行数据为:I 68
  246. 该行数据为:J 78
  247. 该行数据为:K 70
  248. 该行数据为:A 85
  249. 该行数据为:B 85
  250. 该行数据为:C 74
  251. 该行数据为:D 87
  252. 该行数据为:E 76
  253. 该行数据为:F 60
  254. 该行数据为:G 60
  255. 该行数据为:H 79
  256. 该行数据为:I 81
  257. 该行数据为:J 78
  258. 该行数据为:K 80
  259. 该行数据为:A 85
  260. 该行数据为:B 65
  261. 该行数据为:C 74
  262. 该行数据为:D 67
  263. 该行数据为:E 86
  264. 该行数据为:F 70
  265. 该行数据为:G 70
  266. 该行数据为:H 79
  267. 该行数据为:I 81
  268. 该行数据为:J 78
  269. 该行数据为:K 60
  270. 该行数据为:A 70
  271. 该行数据为:B 69
  272. 该行数据为:C 60
  273. 该行数据为:D 89
  274. 该行数据为:E 69
  275. 该行数据为:F 95
  276. 该行数据为:G 75
  277. 该行数据为:H 59
  278. 该行数据为:I 60
  279. 该行数据为:J 79
  280. 该行数据为:K 65
  281. 14/12/14 17:05:28 INFO mapred.MapTask: Starting flush of map output
  282. 1个数值为:65
  283. 2个数值为:65
  284. 3个数值为:71
  285. 4个数值为:85
  286. 5个数值为:65
  287. 6个数值为:85
  288. 7个数值为:85
  289. 8个数值为:70
  290. 1个数值为:65
  291. 2个数值为:84
  292. 3个数值为:75
  293. 4个数值为:85
  294. 5个数值为:75
  295. 6个数值为:69
  296. 7个数值为:82
  297. 8个数值为:75
  298. 1个数值为:84
  299. 2个数值为:69
  300. 3个数值为:64
  301. 4个数值为:74
  302. 5个数值为:94
  303. 6个数值为:60
  304. 7个数值为:60
  305. 8个数值为:74
  306. 1个数值为:67
  307. 2个数值为:87
  308. 3个数值为:97
  309. 4个数值为:67
  310. 5个数值为:67
  311. 6个数值为:87
  312. 7个数值为:89
  313. 8个数值为:67
  314. 1个数值为:66
  315. 2个数值为:86
  316. 3个数值为:96
  317. 4个数值为:86
  318. 5个数值为:89
  319. 6个数值为:69
  320. 7个数值为:80
  321. 8个数值为:76
  322. 1个数值为:70
  323. 2个数值为:95
  324. 3个数值为:70
  325. 4个数值为:70
  326. 5个数值为:80
  327. 6个数值为:60
  328. 7个数值为:80
  329. 8个数值为:92
  330. 1个数值为:60
  331. 2个数值为:76
  332. 3个数值为:70
  333. 4个数值为:70
  334. 5个数值为:80
  335. 6个数值为:90
  336. 7个数值为:75
  337. 8个数值为:70
  338. 1个数值为:79
  339. 2个数值为:89
  340. 3个数值为:71
  341. 4个数值为:99
  342. 5个数值为:59
  343. 6个数值为:79
  344. 7个数值为:79
  345. 8个数值为:79
  346. 1个数值为:60
  347. 2个数值为:81
  348. 3个数值为:81
  349. 4个数值为:81
  350. 5个数值为:81
  351. 6个数值为:91
  352. 7个数值为:68
  353. 8个数值为:81
  354. 1个数值为:78
  355. 2个数值为:79
  356. 3个数值为:78
  357. 4个数值为:88
  358. 5个数值为:78
  359. 6个数值为:98
  360. 7个数值为:90
  361. 8个数值为:78
  362. 1个数值为:60
  363. 2个数值为:70
  364. 3个数值为:69
  365. 4个数值为:60
  366. 5个数值为:80
  367. 6个数值为:65
  368. 7个数值为:60
  369. 8个数值为:80
  370. 14/12/14 17:05:28 INFO mapred.MapTask: Finished spill 0
  371. 14/12/14 17:05:28 INFO mapred.TaskRunner: Task:attempt_local_0001_m_000001_0 is done. And is in the process of commiting
  372. 14/12/14 17:05:28 INFO mapred.LocalJobRunner:
  373. 14/12/14 17:05:28 INFO mapred.TaskRunner: Task 'attempt_local_0001_m_000001_0' done.
  374. 14/12/14 17:05:28 INFO mapred.LocalJobRunner:
  375. 14/12/14 17:05:28 INFO mapred.Merger: Merging 2 sorted segments
  376. 14/12/14 17:05:28 INFO mapred.Merger: Down to the last merge-pass, with 2 segments left of total size: 180 bytes
  377. 14/12/14 17:05:28 INFO mapred.LocalJobRunner:
  378. 1个数值为:58
  379. 2个数值为:73
  380. 1个数值为:76
  381. 2个数值为:57
  382. 1个数值为:57
  383. 2个数值为:72
  384. 1个数值为:78
  385. 2个数值为:66
  386. 1个数值为:64
  387. 2个数值为:81
  388. 1个数值为:77
  389. 2个数值为:69
  390. 1个数值为:67
  391. 2个数值为:73
  392. 1个数值为:79
  393. 2个数值为:66
  394. 1个数值为:70
  395. 2个数值为:78
  396. 1个数值为:83
  397. 2个数值为:67
  398. 1个数值为:58
  399. 2个数值为:68
  400. 14/12/14 17:05:28 INFO mapred.TaskRunner: Task:attempt_local_0001_r_000000_0 is done. And is in the process of commiting
  401. 14/12/14 17:05:28 INFO mapred.LocalJobRunner:
  402. 14/12/14 17:05:28 INFO mapred.TaskRunner: Task attempt_local_0001_r_000000_0 is allowed to commit now
  403. 14/12/14 17:05:28 INFO output.FileOutputCommitter: Saved output of task 'attempt_local_0001_r_000000_0' to hdfs://hadoop:9000/user/hadoop/output4
  404. 14/12/14 17:05:28 INFO mapred.LocalJobRunner: reduce > reduce
  405. 14/12/14 17:05:28 INFO mapred.TaskRunner: Task 'attempt_local_0001_r_000000_0' done.
  406. 14/12/14 17:05:28 INFO mapred.JobClient: map 100% reduce 100%
  407. 14/12/14 17:05:28 INFO mapred.JobClient: Job complete: job_local_0001
  408. 14/12/14 17:05:28 INFO mapred.JobClient: Counters: 14
  409. 14/12/14 17:05:28 INFO mapred.JobClient: FileSystemCounters
  410. 14/12/14 17:05:28 INFO mapred.JobClient: FILE_BYTES_READ=50573
  411. 14/12/14 17:05:28 INFO mapred.JobClient: HDFS_BYTES_READ=2630
  412. 14/12/14 17:05:28 INFO mapred.JobClient: FILE_BYTES_WRITTEN=103046
  413. 14/12/14 17:05:28 INFO mapred.JobClient: HDFS_BYTES_WRITTEN=55
  414. 14/12/14 17:05:28 INFO mapred.JobClient: Map-Reduce Framework
  415. 14/12/14 17:05:28 INFO mapred.JobClient: Reduce input groups=11
  416. 14/12/14 17:05:28 INFO mapred.JobClient: Combine output records=22
  417. 14/12/14 17:05:28 INFO mapred.JobClient: Map input records=176
  418. 14/12/14 17:05:28 INFO mapred.JobClient: Reduce shuffle bytes=0
  419. 14/12/14 17:05:28 INFO mapred.JobClient: Reduce output records=11
  420. 14/12/14 17:05:28 INFO mapred.JobClient: Spilled Records=44
  421. 14/12/14 17:05:28 INFO mapred.JobClient: Map output bytes=1056
  422. 14/12/14 17:05:28 INFO mapred.JobClient: Combine input records=176
  423. 14/12/14 17:05:28 INFO mapred.JobClient: Map output records=176
  424. 14/12/14 17:05:28 INFO mapred.JobClient: Reduce input records=22
  425.  
  426. 最终结果为:
  427. A 65
  428. B 66
  429. C 64
  430. D 72
  431. E 72
  432. F 73
  433. G 70
  434. H 72
  435. I 74
  436. J 75
  437. K 63

  

  为了更清晰从将要执行的控制台中看到map和reduce过程的执行都进行了那些操作,我们在其中打印了相关信息,这里有自己的两点疑惑需要拿出来闹闹:

  (1).这里我写的程序和书中不一样,没有增加StringTokenizer token = new StringTokenizer(line,"line")这行,事实上我加上去后会出现错误,我的理解是,因为默认格式是TextInputFormat即已经将文件中的文本按照行标示进行分割,即输入给map方法的已经是以一行为单位的记录,所以这里不需要以“\n”进行分割了。书中的做法应该是假定将整个文件拿过来,统一处理,但事实上这里默认的TextInputFormat已经完成了前期工作。(如果执迷不悟这样处理的话,距离来说NameScore1.txt中第一行是“A     55”整个以“\n”分割后就是一个整体了,再以“\t”就无法分割了。)

  (2).从执行过程打印的信息,起初让我有些疑惑,因为从信息来看,似乎是:NameScore1.txt被分割并以每行记录进入map过程,当执行到该文件的最后一行记录时,从打印信息我们似乎看到的是紧接着就去执行reduce过程了,后面的NameScore2.txt也是如此,当两个文件都分别执行了map和reduce时似乎又执行了一次reduce操作。那么事实是不是如此,如果真是这样,这与先前所看到的理论中提到当map执行完后再执行reduce是否有冲突。

  通过查看代码我们发现

  job.setMapperClass(MapperClass.class);
  job.setCombinerClass(ReducerClass.class);
  job.setReducerClass(ReducerClass.class);

  是的,没错,在这里我们发现了端倪,其真正执行过程是:先执行map,这就是过程信息中打印了每条成绩记录,后面执行的reduce其实是介于map和reduce之间的combiner操作,那么这个Combiner类又为何物,通过神奇的API我们可以发现Combine其实就是一次reduce过程,而且这里明确写了combiner和reduce过程都是使用ReducerClass类,从而就出现了这里为什么对于单个文件都会先执行map然后在reduce,再后来是两个map执行后,才执行的真正的reduce。

  2.去重——阉割版的WordCount

  相比于前面的求平均值例子需要添加一些逻辑代码来说,这里的去重更像是阉割版的WordCount。

  如果你还是用传统的思维在考量一个去重的程序需要多少次的判断,如果你还不了解什么是真正的map和reduce。Hadoop中的去重问题被你整复杂了。要知道,当一个map执行完后会对执行的数据进行一个排序,比如按照字母先后顺序;后面会进入combine阶段,这阶段主要是针对key-value中有相同的key就合并;再到reduce阶段,通过迭代器遍历前一阶段合并的各个元素,得到最终的输出结果。

  对于去重来说,我们不在乎一个元素到底出现了几次,只要知道这个元素确实出现了,并能够再最后显示出来就行了,通过map和combiner,我们最终得到的key-value对中的key都是不一样的,也就是说在完成合并的同时就是我们所需要的去重操作(是不是有点绕)。最终reduce输出的就是具有唯一性的去重的元素集合。我们还是按照理清map和reduce的思路来看待这个去重问题:

  map:  数据中的一行记录如"(安徽  jack)"——输入数据

       直接以key-value的方式写入上下文对象context(这里的value并不是我们关心的对象,可以为空)——执行功能

               得到指定键值对类型的输出如"(new Text(安徽),new Text(""))"——输出结果

  reduce: map的输出——输入数据

                直接以key-value的方式写入上下文对象context(同样,value并不是我们关心的对象)——执行功能

           得到指定键值对类型的输入——输出结果 

  鉴于以上对于map和reduce的理解,代码如下:

  1. package org.apache.mapreduce;
  2.  
  3. import java.io.IOException;
  4. import java.util.Collection;
  5. import java.util.Iterator;
  6. import java.util.StringTokenizer;
  7.  
  8. import org.apache.hadoop.conf.Configuration;
  9. import org.apache.hadoop.fs.Path;
  10. import org.apache.hadoop.io.IntWritable;
  11. import org.apache.hadoop.io.LongWritable;
  12. import org.apache.hadoop.io.Text;
  13. import org.apache.hadoop.mapred.TextInputFormat;
  14. import org.apache.hadoop.mapreduce.Job;
  15. import org.apache.hadoop.mapreduce.Mapper;
  16. import org.apache.hadoop.mapreduce.Reducer;
  17. import org.apache.hadoop.util.GenericOptionsParser;
  18. import org.apache.mapreduce.Test1123.MapperClass;
  19. import org.apache.mapreduce.Test1123.ReducerClass;
  20.  
  21. public class Test1215 {
  22.  
  23. public static class MapperClass extends Mapper<LongWritable, Text, Text, Text> {
  24. public void map(LongWritable key, Text value, Context context){
  25.  
  26. try {
  27. context.write(value, new Text(""));
  28. System.out.println("value:" + value);
  29. } catch (IOException e) {
  30. e.printStackTrace();
  31. } catch (InterruptedException e) {
  32. e.printStackTrace();
  33. }
  34. }
  35. }
  36.  
  37. public static class ReducerClass extends Reducer<Text, Text, Text, Text>{
  38. public void reduce(Text key, Iterable<Text> value, Context context){
  39.  
  40. try {
  41. context.write(key, new Text(""));
  42. System.out.println("key:"+key);
  43. } catch (IOException e) {
  44. e.printStackTrace();
  45. } catch (InterruptedException e) {
  46. e.printStackTrace();
  47. }
  48. }
  49. }
  50. /**
  51. * @param args
  52. * @throws IOException
  53. * @throws ClassNotFoundException
  54. * @throws InterruptedException
  55. */
  56. public static void main(String[] args) throws IOException, InterruptedException, ClassNotFoundException {
  57.  
  58. Configuration conf = new Configuration();
  59. String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
  60. if (otherArgs.length != 2) {
  61. System.err.println("Usage: wordcount <in> <out>");
  62. System.exit(2);
  63. }
  64. Job job = new Job(conf, "Test1214");
  65.  
  66. job.setJarByClass(Test1215.class);
  67. job.setMapperClass(MapperClass.class);
  68. job.setCombinerClass(ReducerClass.class);
  69. job.setReducerClass(ReducerClass.class);
  70. job.setOutputKeyClass(Text.class);
  71. job.setOutputValueClass(Text.class);
  72.  
  73. org.apache.hadoop.mapreduce.lib.input.FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
  74. org.apache.hadoop.mapreduce.lib.output.FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
  75. System.exit(job.waitForCompletion(true) ? 0 : 1);
  76. System.out.println("end");
  77. }
  78.  
  79. }

  数据集:手动创建两个文件,每个文件内都有重复元素,两个文件内也有重复元素,具体如下:

  repeat1.txt:

  1. 安徽 jack
  2. 江苏 jim
  3. 江西 lucy
  4. 广东 david
  5. 上海 smith
  6. 安徽 jack
  7. 江苏 jim
  8. 北京 yemener

  repeat2.txt

  1. 江西 lucy
  2. 安徽 jack
  3. 上海 hanmei
  4. 北京 yemener
  5. 新疆 afanti
  6. 黑龙江 lily
  7. 福建 tom
  8. 安徽 jack

  通过运行,我们发现控制台打印的信息如下:

  1. 14/12/15 21:57:07 INFO jvm.JvmMetrics: Initializing JVM Metrics with processName=JobTracker, sessionId=
  2. 14/12/15 21:57:07 WARN mapred.JobClient: No job jar file set. User classes may not be found. See JobConf(Class) or JobConf#setJar(String).
  3. 14/12/15 21:57:07 INFO input.FileInputFormat: Total input paths to process : 2
  4. 14/12/15 21:57:07 INFO mapred.JobClient: Running job: job_local_0001
  5. 14/12/15 21:57:07 INFO input.FileInputFormat: Total input paths to process : 2
  6. 14/12/15 21:57:07 INFO mapred.MapTask: io.sort.mb = 100
  7. 14/12/15 21:57:07 INFO mapred.MapTask: data buffer = 79691776/99614720
  8. 14/12/15 21:57:07 INFO mapred.MapTask: record buffer = 262144/327680
  9. value:安徽 jack
  10. value:江苏 jim
  11. value:江西 lucy
  12. value:广东 david
  13. value:上海 smith
  14. value:安徽 jack
  15. value:江苏 jim
  16. value:北京 yemener
  17. 14/12/15 21:57:08 INFO mapred.MapTask: Starting flush of map output
  18. key:上海 smith
  19. key:北京 yemener
  20. key:安徽 jack
  21. key:广东 david
  22. key:江苏 jim
  23. key:江西 lucy
  24. 14/12/15 21:57:08 INFO mapred.MapTask: Finished spill 0
  25. 14/12/15 21:57:08 INFO mapred.TaskRunner: Task:attempt_local_0001_m_000000_0 is done. And is in the process of commiting
  26. 14/12/15 21:57:08 INFO mapred.LocalJobRunner:
  27. 14/12/15 21:57:08 INFO mapred.TaskRunner: Task 'attempt_local_0001_m_000000_0' done.
  28. 14/12/15 21:57:08 INFO mapred.MapTask: io.sort.mb = 100
  29. 14/12/15 21:57:08 INFO mapred.MapTask: data buffer = 79691776/99614720
  30. 14/12/15 21:57:08 INFO mapred.MapTask: record buffer = 262144/327680
  31. value:江西 lucy
  32. value:安徽 jack
  33. value:上海 hanmei
  34. value:北京 yemener
  35. value:新疆 afanti
  36. value:黑龙江 lily
  37. value:福建 tom
  38. value:安徽 jack
  39. 14/12/15 21:57:08 INFO mapred.MapTask: Starting flush of map output
  40. key:上海 hanmei
  41. key:北京 yemener
  42. key:安徽 jack
  43. key:新疆 afanti
  44. key:江西 lucy
  45. key:福建 tom
  46. key:黑龙江 lily
  47. 14/12/15 21:57:08 INFO mapred.MapTask: Finished spill 0
  48. 14/12/15 21:57:08 INFO mapred.TaskRunner: Task:attempt_local_0001_m_000001_0 is done. And is in the process of commiting
  49. 14/12/15 21:57:08 INFO mapred.LocalJobRunner:
  50. 14/12/15 21:57:08 INFO mapred.TaskRunner: Task 'attempt_local_0001_m_000001_0' done.
  51. 14/12/15 21:57:08 INFO mapred.LocalJobRunner:
  52. 14/12/15 21:57:08 INFO mapred.Merger: Merging 2 sorted segments
  53. 14/12/15 21:57:08 INFO mapred.Merger: Down to the last merge-pass, with 2 segments left of total size: 212 bytes
  54. 14/12/15 21:57:08 INFO mapred.LocalJobRunner:
  55. key:上海 hanmei
  56. key:上海 smith
  57. key:北京 yemener
  58. key:安徽 jack
  59. key:广东 david
  60. key:新疆 afanti
  61. key:江苏 jim
  62. key:江西 lucy
  63. key:福建 tom
  64. key:黑龙江 lily
  65. 14/12/15 21:57:08 INFO mapred.TaskRunner: Task:attempt_local_0001_r_000000_0 is done. And is in the process of commiting
  66. 14/12/15 21:57:08 INFO mapred.LocalJobRunner:
  67. 14/12/15 21:57:08 INFO mapred.TaskRunner: Task attempt_local_0001_r_000000_0 is allowed to commit now
  68. 14/12/15 21:57:08 INFO output.FileOutputCommitter: Saved output of task 'attempt_local_0001_r_000000_0' to hdfs://hadoop:9000/user/hadoop/output5
  69. 14/12/15 21:57:08 INFO mapred.LocalJobRunner: reduce > reduce
  70. 14/12/15 21:57:08 INFO mapred.TaskRunner: Task 'attempt_local_0001_r_000000_0' done.
  71. 14/12/15 21:57:08 INFO mapred.JobClient: map 100% reduce 100%
  72. 14/12/15 21:57:08 INFO mapred.JobClient: Job complete: job_local_0001
  73. 14/12/15 21:57:08 INFO mapred.JobClient: Counters: 14
  74. 14/12/15 21:57:08 INFO mapred.JobClient: FileSystemCounters
  75. 14/12/15 21:57:08 INFO mapred.JobClient: FILE_BYTES_READ=50584
  76. 14/12/15 21:57:08 INFO mapred.JobClient: HDFS_BYTES_READ=507
  77. 14/12/15 21:57:08 INFO mapred.JobClient: FILE_BYTES_WRITTEN=102997
  78. 14/12/15 21:57:08 INFO mapred.JobClient: HDFS_BYTES_WRITTEN=140
  79. 14/12/15 21:57:08 INFO mapred.JobClient: Map-Reduce Framework
  80. 14/12/15 21:57:08 INFO mapred.JobClient: Reduce input groups=10
  81. 14/12/15 21:57:08 INFO mapred.JobClient: Combine output records=13
  82. 14/12/15 21:57:08 INFO mapred.JobClient: Map input records=16
  83. 14/12/15 21:57:08 INFO mapred.JobClient: Reduce shuffle bytes=0
  84. 14/12/15 21:57:08 INFO mapred.JobClient: Reduce output records=10
  85. 14/12/15 21:57:08 INFO mapred.JobClient: Spilled Records=26
  86. 14/12/15 21:57:08 INFO mapred.JobClient: Map output bytes=220
  87. 14/12/15 21:57:08 INFO mapred.JobClient: Combine input records=16
  88. 14/12/15 21:57:08 INFO mapred.JobClient: Map output records=16
  89. 14/12/15 21:57:08 INFO mapred.JobClient: Reduce input records=13

 

  基于以上两个例子的分析,让我们了解map是怎么一回事,reduce又做了什么,在map和reduce之间还有那些猫腻,整个mapreduce是如何一次次的帮助我们完成我们想要的逻辑,当然这里为了方便用的是小数据集,事实上在大数据集上解决这样的问题更能凸显mapreduce高大上和救世主的形象。

  真心觉得Doug Cutting很牛,如何写出这样的框架,低头一想,前面的路还很长。今天就到这,觉得有用,记得点赞哦,你的到来是对我最大的鼓舞^_^

本文链接:《Hadoop阅读笔记(二)——利用MapReduce求平均数和去重》http://www.cnblogs.com/bigdataZJ/p/hadoopreading2.html

友情赞助

如果你觉得博主的文章对你那么一点小帮助,恰巧你又有想打赏博主的小冲动,那么事不宜迟,赶紧扫一扫,小额地赞助下,攒个奶粉钱,也是让博主有动力继续努力,写出更好的文章^^。

    1. 支付宝                          2. 微信

                      

Hadoop阅读笔记(二)——利用MapReduce求平均数和去重的更多相关文章

  1. Hadoop阅读笔记(三)——深入MapReduce排序和单表连接

    继上篇了解了使用MapReduce计算平均数以及去重后,我们再来一探MapReduce在排序以及单表关联上的处理方法.在MapReduce系列的第一篇就有说过,MapReduce不仅是一种分布式的计算 ...

  2. Hadoop阅读笔记(一)——强大的MapReduce

    前言:来园子已经有8个月了,当初入园凭着满腔热血和一脑门子冲动,给自己起了个响亮的旗号“大数据 小世界”,顿时有了种世界都是我的,世界都在我手中的赶脚.可是......时光飞逝,岁月如梭~~~随手一翻 ...

  3. Hadoop阅读笔记(四)——一幅图看透MapReduce机制

    时至今日,已然看到第十章,似乎越是焦躁什么时候能翻完这本圣经的时候也让自己变得更加浮躁,想想后面还有一半的行程没走,我觉得这样“有口无心”的学习方式是不奏效的,或者是收效甚微的.如果有幸能有大牛路过, ...

  4. Hadoop阅读笔记(七)——代理模式

    关于Hadoop已经小记了六篇,<Hadoop实战>也已经翻完7章.仔细想想,这么好的一个框架,不能只是流于应用层面,跑跑数据排序.单表链接等,想得其精髓,还需深入内部. 按照<Ha ...

  5. Hadoop阅读笔记(五)——重返Hadoop目录结构

    常言道:男人是视觉动物.我觉得不完全对,我的理解是范围再扩大点,不管男人女人都是视觉动物.某些场合(比如面试.初次见面等),别人没有那么多的闲暇时间听你诉说过往以塑立一个关于你的完整模型.所以,第一眼 ...

  6. 利用MapReduce计算平均数

    利用mapreduce求出股票价格的开盘和收盘平均数 下图为采集到的股票信息,共计1416支股票的信息 因为在linux系统下默认采用utf-8的编码格式,而在win下txt默认采用ANSI编码格式. ...

  7. Hadoop阅读笔记(六)——洞悉Hadoop序列化机制Writable

    酒,是个好东西,前提要适量.今天参加了公司的年会,主题就是吃.喝.吹,除了那些天生话唠外,大部分人需要加点酒来作催化剂,让一个平时沉默寡言的码农也能成为一个喷子!在大家推杯换盏之际,难免一些画面浮现脑 ...

  8. 《Java编程思想》阅读笔记二

    Java编程思想 这是一个通过对<Java编程思想>(Think in java)进行阅读同时对java内容查漏补缺的系列.一些基础的知识不会被罗列出来,这里只会列出一些程序员经常会忽略或 ...

  9. Java Jdk1.8 HashMap源代码阅读笔记二

    三.源代码阅读 3.元素包括containsKey(Object key) /** * Returns <tt>true</tt> if this map contains a ...

随机推荐

  1. 伪元素小tips

    1.伪元素的是dom看不见的,表现为行内元素.我这里说的伪元素是指::before ::after.其他的像:first-letter :visited 则属于伪类. 2.因为dom不可见,所以伪元素 ...

  2. XCAT在虚拟机上部署系统

    xcat更新到2.13了,老的manual很多都没用了.前一整子居然没搞成功,只好再来试一次. 官网也搬到了xcat.org.首先就是下core和dep包 分别是 xCAT Core Packages ...

  3. C++混合编程之idlcpp教程Python篇(9)

    上一篇在这 C++混合编程之idlcpp教程Python篇(8) 第一篇在这 C++混合编程之idlcpp教程(一) 与前面的工程相比,工程PythonTutorial7中除了四个文件PythonTu ...

  4. SQLSERVER的一个不显眼的功能 备份文件的分割

    SQLSERVER的一个不显眼的功能 备份文件的分割 当完整备份数据库的时候,我们有时候可能会遇到一种极端情况,比如服务器上C,D,E三个盘符都只剩下5G空间了 但是如果要完整备份业务库需要12G的空 ...

  5. 谈谈eclipse使用技巧一

    俗话说的好啊,“工于利启事,必先善其器”,如果说你的编程功底是一个枪法的话,那么强大的eclipse就是android战士们最好的武器. 这里,我们来总结eclipse的使用技巧,从而使我们的编程达到 ...

  6. Xamarin开发Android笔记:使用ZXing进行连续扫描

    在项目开发中需要使用到条码扫描,因为以前就测试过ZXing,感觉识别速度和功能都不错,所以直接引用.不过在实际开发的过程中,却遇到连续扫描的问题,每次扫描识别完成之后,扫描窗体自动关闭了. 在Xama ...

  7. 软件工程day4

    使用ps制作了一个icon,将在下个版本中添加,用作程序图标. 参与组例会,得知新功能“吐槽墙”将以聊天室类似的社区形式实现. 提出对现有UI的建议: 对目前的登录窗口的UI不做改动,将标题的“用户登 ...

  8. 解决IE6下png图片透明度不显示的问题

    世界上最遥远的距离,不外乎我在搞前端,你却在用旧IE,现在随着XP要退休了,IE6的市场占有率应该也会逐步下滑.不过基于天朝人民的惰性以及企鹅微软的“扎篱笆”活动,做网站的朋友依旧不能忽视IE6的存在 ...

  9. [FPGA] 1、开发板使用和引脚连接

    目录 1.注意事项 2.设备简介 3.引脚分配 注意事项: ① 插拔下载线时必须断电! ② Quartus II 软件和 NIOS 软件的版本必须一致,并安装在同一个目录下面,安装目录不要有中文和空格 ...

  10. IOS 公共类-数字处理

    1.写一个方法,调用的时候交换两个数的值 -(void) swap:(int*)a andNumber:(int*)b{ int temp = *a; *a = *b; *b = temp; } 调用 ...