利用mapreduce求出股票价格的开盘和收盘平均数

下图为采集到的股票信息,共计1416支股票的信息

因为在linux系统下默认采用utf-8的编码格式,而在win下txt默认采用ANSI编码格式。所以需要在linux下将文件转换一下格式,可以采用:

递归转换(包括子文件夹)
find default -type d -exec mkdir -p utf/{} \;
find default -type f -exec iconv -f GBK -t UTF-8 {} -o utf/{} \;
 
这两行命令将default目录下的文件由GBK编码转换为UTF-8编码,目录结构不变,转码后的文件保存在utf/default目录下。
  1. package economic;
  2. import java.io.IOException;
  3. import java.util.Iterator;
  4. import java.util.StringTokenizer;
  5. import org.apache.hadoop.conf.Configuration;
  6. import org.apache.hadoop.fs.Path;
  7. import org.apache.hadoop.io.FloatWritable;
  8. import org.apache.hadoop.io.IntWritable;
  9. import org.apache.hadoop.io.LongWritable;
  10. import org.apache.hadoop.io.Text;
  11. import org.apache.hadoop.mapreduce.Job;
  12. import org.apache.hadoop.mapreduce.Mapper;
  13. import org.apache.hadoop.mapreduce.Reducer;
  14. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
  15. import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
  16. import org.apache.hadoop.util.GenericOptionsParser;
  17. public class ScoreAvgTest {
  18. /**
  19. *
  20. * @author hadoop www.ysgj1688.com KEYIN:输入map的key值,为每行文本的开始位置子字节计算,(0,11...)
  21. *         VALUEIN:输入map的value,为每行文本值 KEYOUT :输出的key值 VALUEOUT:输出的value值
  22. */
  23. public static class MapperClass extends Mapper<Object, Text, Text, Text> {
  24. private Text companyName = new Text();
  25. private Text open = new Text();
  26. private Text data=new Text();
  27. private int n = 0;
  28. @Override
  29. protected void map(Object key, Text value, Context context)
  30. throws IOException, InterruptedException {
  31. // TODO Auto-generated method stub
  32. System.out.println(this.n);
  33. n++;
  34. String lineText = value.toString();
  35. String[] args = lineText.split("\\s+");
  36. if (args.length == 4) {
  37. this.companyName.set(args[1]);
  38. }
  39. if (args.length == 7) {
  40. try {
  41. System.out.println("Bfter Reducer:" + companyName + ","
  42. + args[1]);
  43. data.set(args[1]+" "+args[4]);
  44. context.write(this.companyName, data);
  45. } catch (IOException e) {
  46. e.printStackTrace(www.vboyl130.cn);
  47. } catch (InterruptedException e) {
  48. e.printStackTrace();
  49. }
  50. }
  51. }
  52. }
  53. /**
  54. *
  55. * @author hadoop KEYIN:输入的名字 VALUEIN:输入的分数 KEYOUT:输出的名字 VALUEOUT:统计输出的平均分
  56. */
  57. public static class ReducerClass extends Reducer<Text, Text, Text, Text> {
  58. private Text text = new Text();
  59. protected void reduce(Text companyName, Iterable<Text> kaipan,
  60. Context context) throws IOException, InterruptedException {
  61. // TODO Auto-generated method stub
  62. double sumOpen = 0.0;
  63. double sumClose = 0.0;
  64. int num = 0;
  65. Iterator<Text> $it = kaipan.iterator();
  66. while ($it.hasNext())www.vboyule.cn  {
  67. String record = $it.next(www.baohuayule.net ).toString();
  68. String[] getData=record.split(" ");
  69. System.out.println(num);
  70. System.out.println("原始数据:" + record);
  71. num++;
  72. System.out.println("第" www.qinlinyule.cn + num + "次循环");
  73. sumOpen += (Double.valueOf(getData[0])*100);
  74. sumClose+=(Double.valueOf(getData[1])*100);
  75. }
  76. double openPrise = sumOpen / (100 * num);
  77. double closePrise = sumClose / (100 * num);
  78. System.out.println("openPrice1:" + openPrise);
  79. System.out.println("www.120xh.cn  closePrice1:" + closePrise);
  80. openPrise = (double) Math.round(openPrise * 100) / 100;
  81. closePrise = (double) Math.round(closePrise * 100) / 100;
  82. System.out.println("sumOpen:" + sumOpen+"   sumClose"+sumClose);
  83. System.out.println("openPrice2:" + openPrise);
  84. System.out.println("closePrice2:" + closePrise);
  85. String result ="开盘平均价:"+Double.toString(openPrise)+",   收盘平均价:"+Double.toString(closePrise);
  86. text.set(result);
  87. try {
  88. context.write(companyName, text);
  89. } catch (IOException e) {
  90. e.printStackTrace();
  91. } catch (InterruptedException e) {
  92. e.printStackTrace();
  93. }
  94. }
  95. }
  96. public static void main(String[] args) throws IOException,
  97. InterruptedException, www.255055.cn/   ClassNotFoundException {
  98. Configuration conf = new Configuration();
  99. conf.set("fs.default.name", "hdfs://localhost:9000");
  100. String[] otherArgs = new String[] { "export", "output" };    //export为文本输入路径,output为输出路径
  101. if (otherArgs.length < 2) {
  102. System.err.println("Usage:wordcount<in>[<in>...]<out>");
  103. System.exit(2);
  104. }
  105. Job job = Job.getInstance(conf, "arg");
  106. job.setJarByClass(ScoreAvgTest.class);
  107. job.setMapperClass(MapperClass.class);
  108. //      job.setCombinerClass(ReducerClass.class);
  109. System.out.println("Mapper over");
  110. job.setReducerClass(ReducerClass.class);
  111. System.out.println("Reducer over");
  112. job.setOutputKeyClass(Text.class);
  113. job.setOutputValueClass(Text.class);
  114. FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
  115. FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
  116. System.exit(job.waitForCompletion(true) ? 0 : 1);
  117. }
  118. }

运行后生成的output文件夹中的文件

利用MapReduce计算平均数的更多相关文章

  1. Hadoop阅读笔记(二)——利用MapReduce求平均数和去重

    前言:圣诞节来了,我怎么能虚度光阴呢?!依稀记得,那一年,大家互赠贺卡,短短几行字,字字融化在心里:那一年,大家在水果市场,寻找那些最能代表自己心意的苹果香蕉梨,摸着冰冷的水果外皮,内心早已滚烫.这一 ...

  2. MapReduce计算模型的优化

    MapReduce 计算模型的优化涉及了方方面面的内容,但是主要集中在两个方面:一是计算性能方面的优化:二是I/O操作方面的优化.这其中,又包含六个方面的内容. 1.任务调度 任务调度是Hadoop中 ...

  3. (第4篇)hadoop之魂--mapreduce计算框架,让收集的数据产生价值

    摘要: 通过前面的学习,大家已经了解了HDFS文件系统.有了数据,下一步就要分析计算这些数据,产生价值.接下来我们介绍Mapreduce计算框架,学习数据是怎样被利用的. 博主福利 给大家赠送一套ha ...

  4. Hadoop 中利用 mapreduce 读写 mysql 数据

    Hadoop 中利用 mapreduce 读写 mysql 数据   有时候我们在项目中会遇到输入结果集很大,但是输出结果很小,比如一些 pv.uv 数据,然后为了实时查询的需求,或者一些 OLAP ...

  5. 使用mapreduce计算环比的实例

    最近做了一个小的mapreduce程序,主要目的是计算环比值最高的前5名,本来打算使用spark计算,可是本人目前spark还只是简单看了下,因此就先改用mapreduce计算了,今天和大家分享下这个 ...

  6. 利用sklearn计算文本相似性

    利用sklearn计算文本相似性,并将文本之间的相似度矩阵保存到文件当中.这里提取文本TF-IDF特征值进行文本的相似性计算. #!/usr/bin/python # -*- coding: utf- ...

  7. MapReduce计算模型

    MapReduce计算模型 MapReduce两个重要角色:JobTracker和TaskTracker. ​ MapReduce Job 每个任务初始化一个Job,没个Job划分为两个阶段:Map和 ...

  8. MapReduce——计算温度最大值 (基于全新2.2.0API)

    MapReduce——计算温度最大值 (基于全新2.2.0API) deprecated: Job类的所有Constructors, 新的API用静态方法getInstance(conf)来去的Job ...

  9. hadoop笔记之MapReduce的应用案例(利用MapReduce进行排序)

    MapReduce的应用案例(利用MapReduce进行排序) MapReduce的应用案例(利用MapReduce进行排序) 思路: Reduce之后直接进行结果合并 具体样例: 程序名:Sort. ...

随机推荐

  1. java后台poi根据模板导出excel

    public class ExcelUtils { private static final String INSPECTIONRECORD_SURFACE_TEMPLET_PATH = " ...

  2. BAT及各大互联网公司2014前端笔试面试题

    很多面试题是我自己面试BAT亲身经历碰到的.整理分享出来希望更多的前端er共同进步吧,不仅适用于求职者,对于巩固复习前端基础更是大有裨益. 而更多的题目是我一路以来收集的,也有往年的,答案不确保一定正 ...

  3. JQuery制作网页—— 第三章 JavaScript操作DOM对象

    1. DOM:Document Object Model(文档对象模型):          DOM操作:                   ●DOM是Document Object Model的缩 ...

  4. 两种js方法发起微信支付:WeixinJSBridge,wx.chooseWXPay区别

    原文链接:https://www.2cto.com/weixin/201507/412752.html 1.为什么会有两种JS方法可以发起微信支付? 当你登陆微信公众号之后,左边有两个菜单栏,一个是微 ...

  5. 学习Pytbon第十八篇,异常处理

    什么是异常? 异常即是一个事件,该事件会在程序执行过程中发生,影响了程序的正常执行. 一般情况下,在Python无法正常处理程序时就会发生一个异常. 异常是Python对象,表示一个错误. 当Pyth ...

  6. lan口和wan口的配置

    路由器的一排网线接口,分为 lan 和 wan .但不是谁生来就是lan口 或者 wan口 . 也没有谁规定就一个wan口 就只有一个. 网口就是网口, 决定它是 lan口 还是 wan口 ,是由我们 ...

  7. 第二章习题 C++

    1.编写一个程序,显示您的姓名和地址. #include<iostream> using namespace std; int main() { ]; cout << &quo ...

  8. [BZOJ3172 ][Tjoi2013]单词(AC自动机)

    Description 不稳定的传送门 某人读论文,一篇论文是由许多单词组成.但他发现一个单词会在论文中出现很多次,现在想知道每个单词分别在论文中出现多少次.单词个数<=200,单词总长度< ...

  9. Nginx 高级配置

    nginx官方网站:http://nginx.org/ 1.  Nginx连接后端的方式:反向代理(proxy_pass).直连fastcgi(fastcgi_pass) 例子: fastcgi_pa ...

  10. Android面试收集录8 HandlerThread详解

    1.前言 我们知道在Android系统中,我们执行完耗时操作都要另外开启子线程来执行,执行完线程以后线程会自动销毁. 想象一下如果我们在项目中经常要执行耗时操作,如果经常要开启线程,接着又销毁线程, ...