利用mapreduce求出股票价格的开盘和收盘平均数

下图为采集到的股票信息,共计1416支股票的信息

因为在linux系统下默认采用utf-8的编码格式,而在win下txt默认采用ANSI编码格式。所以需要在linux下将文件转换一下格式,可以采用:

递归转换(包括子文件夹)
find default -type d -exec mkdir -p utf/{} \;
find default -type f -exec iconv -f GBK -t UTF-8 {} -o utf/{} \;
 
这两行命令将default目录下的文件由GBK编码转换为UTF-8编码,目录结构不变,转码后的文件保存在utf/default目录下。
  1. package economic;
  2. import java.io.IOException;
  3. import java.util.Iterator;
  4. import java.util.StringTokenizer;
  5. import org.apache.hadoop.conf.Configuration;
  6. import org.apache.hadoop.fs.Path;
  7. import org.apache.hadoop.io.FloatWritable;
  8. import org.apache.hadoop.io.IntWritable;
  9. import org.apache.hadoop.io.LongWritable;
  10. import org.apache.hadoop.io.Text;
  11. import org.apache.hadoop.mapreduce.Job;
  12. import org.apache.hadoop.mapreduce.Mapper;
  13. import org.apache.hadoop.mapreduce.Reducer;
  14. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
  15. import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
  16. import org.apache.hadoop.util.GenericOptionsParser;
  17. public class ScoreAvgTest {
  18. /**
  19. *
  20. * @author hadoop www.ysgj1688.com KEYIN:输入map的key值,为每行文本的开始位置子字节计算,(0,11...)
  21. *         VALUEIN:输入map的value,为每行文本值 KEYOUT :输出的key值 VALUEOUT:输出的value值
  22. */
  23. public static class MapperClass extends Mapper<Object, Text, Text, Text> {
  24. private Text companyName = new Text();
  25. private Text open = new Text();
  26. private Text data=new Text();
  27. private int n = 0;
  28. @Override
  29. protected void map(Object key, Text value, Context context)
  30. throws IOException, InterruptedException {
  31. // TODO Auto-generated method stub
  32. System.out.println(this.n);
  33. n++;
  34. String lineText = value.toString();
  35. String[] args = lineText.split("\\s+");
  36. if (args.length == 4) {
  37. this.companyName.set(args[1]);
  38. }
  39. if (args.length == 7) {
  40. try {
  41. System.out.println("Bfter Reducer:" + companyName + ","
  42. + args[1]);
  43. data.set(args[1]+" "+args[4]);
  44. context.write(this.companyName, data);
  45. } catch (IOException e) {
  46. e.printStackTrace(www.vboyl130.cn);
  47. } catch (InterruptedException e) {
  48. e.printStackTrace();
  49. }
  50. }
  51. }
  52. }
  53. /**
  54. *
  55. * @author hadoop KEYIN:输入的名字 VALUEIN:输入的分数 KEYOUT:输出的名字 VALUEOUT:统计输出的平均分
  56. */
  57. public static class ReducerClass extends Reducer<Text, Text, Text, Text> {
  58. private Text text = new Text();
  59. protected void reduce(Text companyName, Iterable<Text> kaipan,
  60. Context context) throws IOException, InterruptedException {
  61. // TODO Auto-generated method stub
  62. double sumOpen = 0.0;
  63. double sumClose = 0.0;
  64. int num = 0;
  65. Iterator<Text> $it = kaipan.iterator();
  66. while ($it.hasNext())www.vboyule.cn  {
  67. String record = $it.next(www.baohuayule.net ).toString();
  68. String[] getData=record.split(" ");
  69. System.out.println(num);
  70. System.out.println("原始数据:" + record);
  71. num++;
  72. System.out.println("第" www.qinlinyule.cn + num + "次循环");
  73. sumOpen += (Double.valueOf(getData[0])*100);
  74. sumClose+=(Double.valueOf(getData[1])*100);
  75. }
  76. double openPrise = sumOpen / (100 * num);
  77. double closePrise = sumClose / (100 * num);
  78. System.out.println("openPrice1:" + openPrise);
  79. System.out.println("www.120xh.cn  closePrice1:" + closePrise);
  80. openPrise = (double) Math.round(openPrise * 100) / 100;
  81. closePrise = (double) Math.round(closePrise * 100) / 100;
  82. System.out.println("sumOpen:" + sumOpen+"   sumClose"+sumClose);
  83. System.out.println("openPrice2:" + openPrise);
  84. System.out.println("closePrice2:" + closePrise);
  85. String result ="开盘平均价:"+Double.toString(openPrise)+",   收盘平均价:"+Double.toString(closePrise);
  86. text.set(result);
  87. try {
  88. context.write(companyName, text);
  89. } catch (IOException e) {
  90. e.printStackTrace();
  91. } catch (InterruptedException e) {
  92. e.printStackTrace();
  93. }
  94. }
  95. }
  96. public static void main(String[] args) throws IOException,
  97. InterruptedException, www.255055.cn/   ClassNotFoundException {
  98. Configuration conf = new Configuration();
  99. conf.set("fs.default.name", "hdfs://localhost:9000");
  100. String[] otherArgs = new String[] { "export", "output" };    //export为文本输入路径,output为输出路径
  101. if (otherArgs.length < 2) {
  102. System.err.println("Usage:wordcount<in>[<in>...]<out>");
  103. System.exit(2);
  104. }
  105. Job job = Job.getInstance(conf, "arg");
  106. job.setJarByClass(ScoreAvgTest.class);
  107. job.setMapperClass(MapperClass.class);
  108. //      job.setCombinerClass(ReducerClass.class);
  109. System.out.println("Mapper over");
  110. job.setReducerClass(ReducerClass.class);
  111. System.out.println("Reducer over");
  112. job.setOutputKeyClass(Text.class);
  113. job.setOutputValueClass(Text.class);
  114. FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
  115. FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
  116. System.exit(job.waitForCompletion(true) ? 0 : 1);
  117. }
  118. }

运行后生成的output文件夹中的文件

利用MapReduce计算平均数的更多相关文章

  1. Hadoop阅读笔记(二)——利用MapReduce求平均数和去重

    前言:圣诞节来了,我怎么能虚度光阴呢?!依稀记得,那一年,大家互赠贺卡,短短几行字,字字融化在心里:那一年,大家在水果市场,寻找那些最能代表自己心意的苹果香蕉梨,摸着冰冷的水果外皮,内心早已滚烫.这一 ...

  2. MapReduce计算模型的优化

    MapReduce 计算模型的优化涉及了方方面面的内容,但是主要集中在两个方面:一是计算性能方面的优化:二是I/O操作方面的优化.这其中,又包含六个方面的内容. 1.任务调度 任务调度是Hadoop中 ...

  3. (第4篇)hadoop之魂--mapreduce计算框架,让收集的数据产生价值

    摘要: 通过前面的学习,大家已经了解了HDFS文件系统.有了数据,下一步就要分析计算这些数据,产生价值.接下来我们介绍Mapreduce计算框架,学习数据是怎样被利用的. 博主福利 给大家赠送一套ha ...

  4. Hadoop 中利用 mapreduce 读写 mysql 数据

    Hadoop 中利用 mapreduce 读写 mysql 数据   有时候我们在项目中会遇到输入结果集很大,但是输出结果很小,比如一些 pv.uv 数据,然后为了实时查询的需求,或者一些 OLAP ...

  5. 使用mapreduce计算环比的实例

    最近做了一个小的mapreduce程序,主要目的是计算环比值最高的前5名,本来打算使用spark计算,可是本人目前spark还只是简单看了下,因此就先改用mapreduce计算了,今天和大家分享下这个 ...

  6. 利用sklearn计算文本相似性

    利用sklearn计算文本相似性,并将文本之间的相似度矩阵保存到文件当中.这里提取文本TF-IDF特征值进行文本的相似性计算. #!/usr/bin/python # -*- coding: utf- ...

  7. MapReduce计算模型

    MapReduce计算模型 MapReduce两个重要角色:JobTracker和TaskTracker. ​ MapReduce Job 每个任务初始化一个Job,没个Job划分为两个阶段:Map和 ...

  8. MapReduce——计算温度最大值 (基于全新2.2.0API)

    MapReduce——计算温度最大值 (基于全新2.2.0API) deprecated: Job类的所有Constructors, 新的API用静态方法getInstance(conf)来去的Job ...

  9. hadoop笔记之MapReduce的应用案例(利用MapReduce进行排序)

    MapReduce的应用案例(利用MapReduce进行排序) MapReduce的应用案例(利用MapReduce进行排序) 思路: Reduce之后直接进行结果合并 具体样例: 程序名:Sort. ...

随机推荐

  1. 1816: [Cqoi2010]扑克牌

    Time Limit: 10 Sec  Memory Limit: 64 MBSubmit: 2737  Solved: 1082[Submit][Status][Discuss] Descripti ...

  2. 中缀表达式转后缀表达式(Python实现)

    中缀表达式转后缀表达式 中缀表达式转后缀表达式的规则: 1.遇到操作数,直接输出: 2.栈为空时,遇到运算符,入栈: 3.遇到左括号,将其入栈: 4.遇到右括号,执行出栈操作,并将出栈的元素输出,直到 ...

  3. JDK学习---深入理解java中的String

    本文参考资料: 1.<深入理解jvm虚拟机> 2.<大话数据结构>.<大话设计模式> 3.http://www.cnblogs.com/ITtangtang/p/3 ...

  4. Django自带后台管理配置

    Django自带后台管理的配置 创建项目和应用 修改配置文件 数据库配置 DATABASES = { 'default': { 'ENGINE': 'django.db.backends.mysql' ...

  5. 华为模拟器ensp代码错误2,41,40问题的解决

    win8+ensp320 ensp这是个神奇的软件,问题竟然出现的这么莫名其妙..前一秒还是好的时候,后一秒就立马出现了问题.不过不要慌...沉住气,把这篇文章看下去. 博主从昨天开始,ensp神奇的 ...

  6. POJ 1222 反转

    EXTENDED LIGHTS OUT Time Limit: 1000MS   Memory Limit: 10000K Total Submissions: 12469   Accepted: 7 ...

  7. POJ:2236-Wireless Network

    Wireless Network Time Limit: 10000MS Memory Limit: 65536K Total Submissions: 34265 Accepted: 14222 D ...

  8. 5 Django-1的路由层(URLconf)

    URL配置(URLconf)就像Django 所支撑网站的目录.它的本质是URL与要为该URL调用的视图函数之间的映射表:你就是以这种方式告诉Django,对于客户端发来的某个URL调用哪一段逻辑代码 ...

  9. Java密码学综述---密码学基本功能

    机密性 只有发送方与指定接收方才能理解报文的内容,监听者只能截取到加密后的报文信息,但不能还原报文的内容,做到了保密 鉴别 发送方与接收方都应该能证实通信过程所涉及的另一方,通信的另一方确实具有它们所 ...

  10. 调用startActivityForResult后直接调用onActivityResult

    人员都知道,可以经由过程应用 startActivityForResult() 和 onActivityResult() 办法来传递或接管参数. 然而在"轻听"项目中,还没比及被调 ...