推荐

MapReduce分析明星微博数据

http://git.oschina.net/ljc520313/codeexample/tree/master/bigdata/hadoop/mapreduce/05.%E6%98%8E%E6%98%9F%E5%BE%AE%E5%8D%9A%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90?dir=1&filepath=bigdata%2Fhadoop%2Fmapreduce%2F05.%E6%98%8E%E6%98%9F%E5%BE%AE%E5%8D%9A%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90&oid=854b4300ccc9fbae894f2f8c29df3ca06193f97b&sha=79a86bf0ff190e38a133bc2446b6b4ad9490f40f

  

自定义输入格式,将明星微博数据排序后按粉丝数 关注数 微博数 分别输出到不同文件中。

代码

  1. package zhouls.bigdata.myMapReduce.ScoreCount;
  2.  
  3. import java.io.DataInput;
  4. import java.io.DataOutput;
  5. import java.io.IOException;
  6. import org.apache.hadoop.io.WritableComparable;
  7. /**
  8. * 学习成绩读写类
  9. * 数据格式参考:19020090017 小讲 90 99 100 89 95
  10. * @author Bertron
  11. * 需要自定义一个 ScoreWritable 类实现 WritableComparable 接口,将学生各门成绩封装起来。
  12. */
  13. public class ScoreWritable implements WritableComparable< Object > {//其实这里,跟TVPlayData一样的
  14. // 注意: Hadoop通过Writable接口实现的序列化机制,不过没有提供比较功能,所以和java中的Comparable接口合并,提供一个接口WritableComparable。(自定义比较)
  15. // Writable接口提供两个方法(write和readFields)。
  16.  
  17. private float Chinese;
  18. private float Math;
  19. private float English;
  20. private float Physics;
  21. private float Chemistry;
  22.  
  23. // 问:这里我们自己编程时,是一定要创建一个带有参的构造方法,为什么还要显式的写出来一个带无参的构造方法呢?
  24. // 答:构造器其实就是构造对象实例的方法,无参数的构造方法是默认的,但是如果你创造了一个带有参数的构造方法,那么无参的构造方法必须显式的写出来,否则会编译失败。
  25.  
  26. public ScoreWritable(){}//java里的无参构造函数,是用来在创建对象时初始化对象
  27. //在hadoop的每个自定义类型代码里,好比,现在的ScoreWritable,都必须要写无参构造函数。
  28.  
  29. //问:为什么我们在编程的时候,需要创建一个带有参的构造方法?
  30. //答:就是能让赋值更灵活。构造一般就是初始化数值,你不想别人用你这个类的时候每次实例化都能用另一个构造动态初始化一些信息么(当然没有需要额外赋值就用默认的)。
  31.  
  32. public ScoreWritable(float Chinese,float Math,float English,float Physics,float Chemistry){//java里的有参构造函数,是用来在创建对象时初始化对象
  33. this.Chinese = Chinese;
  34. this.Math = Math;
  35. this.English = English;
  36. this.Physics = Physics;
  37. this.Chemistry = Chemistry;
  38. }
  39.  
  40. //问:其实set和get方法,这两个方法只是类中的setxxx和getxxx方法的总称,
  41. // 那么,为什么在编程时,有set和set***两个,只有get***一个呢?
  42.  
  43. public void set(float Chinese,float Math,float English,float Physics,float Chemistry){
  44. this.Chinese = Chinese;//即float Chinese赋值给private float Chinese;
  45. this.Math = Math;
  46. this.English = English;
  47. this.Physics = Physics;
  48. this.Chemistry = Chemistry;
  49. }
  50. // public float get(float Chinese,float Math,float English,float Physics,float Chemistry){因为这是错误的,所以对于set可以分开,get只能是get***
  51. // return Chinese;
  52. // return Math;
  53. // return English;
  54. // return Physics;
  55. // return Chemistry;
  56. // }
  57.  
  58. public float getChinese() {//拿值,得返回,所以需有返回类型float
  59. return Chinese;
  60. }
  61. public void setChinese(float Chinese){//设值,不需,所以空返回类型
  62. this.Chinese = Chinese;
  63. }
  64. public float getMath() {//拿值
  65. return Math;
  66. }
  67. public void setMath(float Math){//设值
  68. this.Math = Math;
  69. }
  70. public float getEnglish() {//拿值
  71. return English;
  72. }
  73. public void setEnglish(float English){//设值
  74. this.English = English;
  75. }
  76. public float getPhysics() {//拿值
  77. return Physics;
  78. }
  79. public void setPhysics(float Physics){//设值
  80. this.Physics = Physics;
  81. }
  82. public float getChemistry() {//拿值
  83. return Chemistry;
  84. }
  85. public void setChemistry(float Chemistry) {//拿值
  86. this.Chemistry = Chemistry;
  87. }
  88.  
  89. // 实现WritableComparable的readFields()方法
  90. // 对象不能传输的,需要转化成字节流!
  91. // 将对象转换为字节流并写入到输出流out中是序列化,write 的过程(最好记!!!)
  92. // 从输入流in中读取字节流反序列化为对象 是反序列化,readFields的过程(最好记!!!)
  93. public void readFields(DataInput in) throws IOException {//拿代码来说的话,对象就是比如Chinese、Math。。。。
  94. Chinese = in.readFloat();//因为,我们这里的对象是float类型,所以是readFloat()
  95. Math = in.readFloat();
  96. English = in.readFloat();//注意:反序列化里,需要生成对象对吧,所以,是用到的是get那边对象
  97. Physics = in.readFloat();
  98. Chemistry = in.readFloat();
  99. // in.readByte()
  100. // in.readChar()
  101. // in.readDouble()
  102. // in.readLine()
  103. // in.readFloat()
  104. // in.readLong()
  105. // in.readShort()
  106. }
  107.  
  108. // 实现WritableComparable的write()方法,以便该数据能被序列化后完成网络传输或文件输出
  109. // 将对象转换为字节流并写入到输出流out中是序列化,write 的过程(最好记!!!)
  110. // 从输入流in中读取字节流反序列化为对象 是反序列化,readFields的过程(最好记!!!)
  111. public void write(DataOutput out) throws IOException {//拿代码来说的话,对象就是比如Chinese、Math。。。。
  112. out.writeFloat(Chinese);//因为,我们这里的对象是float类型,所以是writeFloat()
  113. out.writeFloat(Math);
  114. out.writeFloat(English);//注意:序列化里,需要对象对吧,所以,用到的是set那边的对象
  115. out.writeFloat(Physics);
  116. out.writeFloat(Chemistry);
  117. // out.writeByte()
  118. // out.writeChar()
  119. // out.writeDouble()
  120. // out.writeFloat()
  121. // out.writeLong()
  122. // out.writeShort()
  123. // out.writeUTF()
  124. }
  125.  
  126. public int compareTo(Object o) {//java里的比较,Java String.compareTo()
  127. return 0;
  128. }
  129.  
  130. // Hadoop中定义了两个序列化相关的接口:Writable 接口和 Comparable 接口,这两个接口可以合并成一个接口 WritableComparable。
  131. // Writable 接口中定义了两个方法,分别为write(DataOutput out)和readFields(DataInput in)
  132. // 所有实现了Comparable接口的对象都可以和自身相同类型的对象比较大小
  133.  
  134. // Hadoop中定义了两个序列化相关的接口:Writable 接口和 Comparable 接口,这两个接口可以合并成一个接口 WritableComparable。
  135. // Writable 接口中定义了两个方法,分别为write(DataOutput out)和readFields(DataInput in)
  136. // 所有实现了Comparable接口的对象都可以和自身相同类型的对象比较大小
  137.  
  138. // 源码是
  139. // package java.lang;
  140. // import java.util.*;
  141. // public interface Comparable {
  142. // /**
  143. // * 将this对象和对象o进行比较,约定:返回负数为小于,零为大于,整数为大于
  144. // */
  145. // public int compareTo(T o);
  146. // }
  147.  
  148. }
  1. package zhouls.bigdata.myMapReduce.WeiboCount;
  2.  
  3. import java.io.IOException;
  4.  
  5. import org.apache.hadoop.conf.Configuration;
  6. import org.apache.hadoop.fs.FSDataInputStream;
  7. import org.apache.hadoop.fs.FileSystem;
  8. import org.apache.hadoop.fs.Path;
  9. import org.apache.hadoop.io.Text;
  10. import org.apache.hadoop.mapreduce.InputSplit;
  11. import org.apache.hadoop.mapreduce.JobContext;
  12. import org.apache.hadoop.mapreduce.RecordReader;
  13. import org.apache.hadoop.mapreduce.TaskAttemptContext;
  14. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
  15. import org.apache.hadoop.mapreduce.lib.input.FileSplit;
  16. import org.apache.hadoop.util.LineReader;
  17.  
  18. //其实这个程序,就是在实现InputFormat接口,TVPlayInputFormat是InputFormat接口的实现类
  19. //比如 WeiboInputFormat extends FileInputFormat implements InputFormat。
  20.  
  21. //问:自定义输入格式 WeiboInputFormat 类,首先继承 FileInputFormat,然后分别重写 isSplitable() 方法和 createRecordReader() 方法。
  22.  
  23. public class WeiboInputFormat extends FileInputFormat<Text,WeiBo>{
  24.  
  25. // 线路是: boolean isSplitable() -> RecordReader<Text,WeiBo> createRecordReader() -> WeiboRecordReader extends RecordReader<Text, WeiBo >
  26.  
  27. @Override
  28. protected boolean isSplitable(JobContext context, Path filename) {//这是InputFormat的isSplitable方法
  29. //isSplitable方法就是是否要切分文件,这个方法显示如果是压缩文件就不切分,非压缩文件就切分。
  30. // 如果不允许分割,则isSplitable==false,则将第一个block、文件目录、开始位置为0,长度为整个文件的长度封装到一个InputSplit,加入splits中
  31. // 如果文件长度不为0且支持分割,则isSplitable==true,获取block大小,默认是64MB
  32. return false; //整个文件封装到一个InputSplit
  33. //要么就是return true; //切分64MB大小的一块一块,再封装到InputSplit
  34. }
  35.  
  36. @Override
  37. public RecordReader<Text, WeiBo> createRecordReader(InputSplit arg0,TaskAttemptContext arg1) throws IOException, InterruptedException{
  38. // RecordReader<k1, v1>是返回类型,返回的RecordReader对象的封装
  39. // createRecordReader是方法,在这里是,WeiboInputFormat.createRecordReader。WeiboInputFormat是InputFormat类的实例
  40. // InputSplit input和TaskAttemptContext context是传入参数
  41.  
  42. // isSplitable(),如果是压缩文件就不切分,整个文件封装到一个InputSplit
  43. // isSplitable(),如果是非压缩文件就切,切分64MB大小的一块一块,再封装到InputSplit
  44.  
  45. //这里默认是系统实现的的RecordReader,按行读取,下面我们自定义这个类WeiboRecordReader。
  46. //类似与Excel、WeiBo、TVPlayData代码写法
  47. return new WeiboRecordReader();//新建一个ScoreRecordReader实例,所有才有了上面RecordReader<Text,ScoreWritable>,所以才如下ScoreRecordReader,写我们自己的
  48. }
  49.  
  50. public class WeiboRecordReader extends RecordReader<Text, WeiBo>{
  51. //LineReader in是1,行号。
  52. //Text line; 俞灏明 俞灏明 10591367 206 558,每行的相关记录
  53. public LineReader in;//行读取器
  54. public Text line;//每行数据类型
  55. public Text lineKey;//自定义key类型,即k1
  56. public WeiBo lineValue;//自定义value类型,即v1
  57.  
  58. @Override
  59. public void close() throws IOException {//关闭输入流
  60. if(in !=null){
  61. in.close();
  62. }
  63. }
  64. @Override
  65. public Text getCurrentKey() throws IOException, InterruptedException {//获取当前的key,即CurrentKey
  66. return lineKey;//返回类型是Text,即Text lineKey
  67. }
  68. @Override
  69. public WeiBo getCurrentValue() throws IOException,InterruptedException {//获取当前的Value,即CurrentValue
  70. return lineValue;//返回类型是WeiBo,即WeiBo lineValue
  71. }
  72. @Override
  73. public float getProgress() throws IOException, InterruptedException {//获取进程,即Progress
  74. return 0;//返回类型是float,即float 0
  75. }
  76.  
  77. @Override
  78. public void initialize(InputSplit input, TaskAttemptContext context)throws IOException, InterruptedException{//初始化,都是模板
  79. FileSplit split=(FileSplit)input;//获取split
  80. Configuration job=context.getConfiguration();
  81. Path file=split.getPath();//得到文件路径
  82. FileSystem fs=file.getFileSystem(job);
  83.  
  84. FSDataInputStream filein=fs.open(file);//打开文件
  85. in=new LineReader(filein,job); //输入流in
  86. line=new Text();//每行数据类型
  87. lineKey=new Text();//自定义key类型,即k1。//新建一个Text实例作为自定义格式输入的key
  88. lineValue = new WeiBo();//自定义value类型,即v1。//新建一个TVPlayData实例作为自定义格式输入的value
  89. }
  90.  
  91. //此方法读取每行数据,完成自定义的key和value
  92. @Override
  93. public boolean nextKeyValue() throws IOException, InterruptedException{//这里面,才是篡改的重点
  94. int linesize=in.readLine(line); //line是每行数据,我们这里用到的是in.readLine(str)这个构造函数,默认读完读到文件末尾。其实这里有三种。
  95.  
  96. // 是SplitLineReader.readLine -> SplitLineReader extends LineReader -> org.apache.hadoop.util.LineReader
  97.  
  98. // in.readLine(str)//这个构造方法执行时,会首先将value原来的值清空。默认读完读到文件末尾
  99. // in.readLine(str, maxLineLength)//只读到maxLineLength行
  100. // in.readLine(str, maxLineLength, maxBytesToConsume)//这个构造方法来实现不清空,前面读取的行的值
  101.  
  102. if(linesize==0) return false;
  103.  
  104. //通过分隔符'\t',将每行的数据解析成数组 pieces
  105. String[] pieces = line.toString().split("\t");
  106. //因为,我们这里是。默认读完读到文件末尾。line是Text类型。pieces是String[],即String数组。
  107.  
  108. if(pieces.length != 5){
  109. throw new IOException("Invalid record received");
  110. }
  111.  
  112. int a,b,c;
  113.  
  114. try{
  115. a = Integer.parseInt(pieces[2].trim());//粉丝,//将String类型,如pieces[2]转换成,float类型,给a
  116. b = Integer.parseInt(pieces[3].trim());//关注
  117. c = Integer.parseInt(pieces[4].trim());//微博数
  118. }catch(NumberFormatException nfe)
  119. {
  120. throw new IOException("Error parsing floating poing value in record");
  121. }
  122.  
  123. //自定义key和value值
  124. lineKey.set(pieces[0]); //完成自定义key数据
  125. lineValue.set(b, a, c);//完成自定义value数据
  126. // 或者写
  127. // lineValue.set(Integer.parseInt(pieces[2].trim()),Integer.parseInt(pieces[3].trim()),Integer.parseInt(pieces[4].trim()));
  128.  
  129. // pieces[0] pieces[1] pieces[2] ... pieces[4]
  130. // 俞灏明 俞灏明 10591367 206 558
  131. // 李敏镐 李敏镐 22898071 11 268
  132. // 大自然保护协会-马云 大自然保护协会-马云 15616866 0 39
  133. // 林心如 林心如 57488649 214 5940
  134. // 时尚小编Anne 时尚小编Anne 10064227 136 2103
  135. // 黄晓明 黄晓明 22616497 506 2011
  136. // 张靓颖 张靓颖 27878708 238 3846
  137. // 张成龙2012 张成龙2012 9813621 199 744
  138. // 吳君如大美女 吳君如大美女 18490338 190 412
  139. // 李娜 李娜 23309493 81 631
  140. // 徐小平 徐小平 11659926 1929 13795
  141. // 唐嫣 唐嫣 24301532 200 2391
  142. // 有斐君 有斐君 8779383 577 4251
  143.  
  144. return true;
  145. }
  146.  
  147. }
  148. }
  1. package zhouls.bigdata.myMapReduce.WeiboCount;
  2.  
  3. import java.io.IOException;
  4. import java.util.Arrays;
  5. import java.util.Comparator;
  6. import java.util.HashMap;
  7. import java.util.Set;
  8. import java.util.Map;
  9.  
  10. import org.apache.hadoop.conf.Configuration;
  11. import org.apache.hadoop.conf.Configured;
  12. import org.apache.hadoop.fs.FileSystem;
  13. import org.apache.hadoop.fs.Path;
  14.  
  15. import org.apache.hadoop.io.IntWritable;
  16. import org.apache.hadoop.io.Text;
  17. import org.apache.hadoop.mapreduce.Job;
  18. import org.apache.hadoop.mapreduce.Mapper;
  19. import org.apache.hadoop.mapreduce.Reducer;
  20. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
  21. import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
  22. import org.apache.hadoop.mapreduce.lib.output.MultipleOutputs;
  23. import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
  24. import org.apache.hadoop.util.Tool;
  25. import org.apache.hadoop.util.ToolRunner;
  26.  
  27. public class WeiboCount extends Configured implements Tool{
  28. public static class WeiBoMapper extends Mapper<Text, WeiBo, Text, Text>{
  29. @Override
  30. protected void map(Text key, WeiBo value, Context context) throws IOException, InterruptedException{
  31. context.write(new Text("follower"),new Text(key.toString() + "\t" + value.getFollowers()));
  32. context.write(new Text("friend"),new Text(key.toString() + "\t" + value.getFriends()));
  33. context.write(new Text("statuses"),new Text(key.toString() + "\t" + value.getStatuses()));
  34. }
  35. }
  36.  
  37. public static class WeiBoReducer extends Reducer<Text, Text, Text, IntWritable> {
  38. private MultipleOutputs<Text, IntWritable> mos;
  39.  
  40. protected void setup(Context context) throws IOException,InterruptedException{
  41. mos = new MultipleOutputs<Text, IntWritable>(context);
  42. }
  43.  
  44. private Text text = new Text();
  45.  
  46. protected void reduce(Text Key, Iterable<Text> Values,Context context) throws IOException, InterruptedException{
  47. int N = context.getConfiguration().getInt("reduceHasMaxLength", Integer.MAX_VALUE);
  48. Map<String,Integer> m = new HashMap<String,Integer>();
  49. for(Text value:Values){//星型for循环,意思是把Values的值传给Text value
  50. //value=名称+(粉丝数 或 关注数 或 微博数)
  51. String[] records = value.toString().split("\t");
  52. m.put(records[0],Integer.parseInt(records[1].toString()));
  53. }
  54.  
  55. //对Map内的数据进行排序
  56. Map.Entry<String, Integer>[] entries = getSortedHashtableByValue(m);
  57. for(int i = 0; i< N && i< entries.length;i++){
  58. if(Key.toString().equals("follower")){
  59. mos.write("follower",entries[i].getKey(), entries[i].getValue());
  60. }else if(Key.toString().equals("friend")){
  61. mos.write("friend", entries[i].getKey(), entries[i].getValue());
  62. }else if(Key.toString().equals("status")){
  63. mos.write("statuses", entries[i].getKey(), entries[i].getValue());
  64. }
  65. }
  66. }
  67.  
  68. protected void cleanup(Context context) throws IOException,InterruptedException {
  69. mos.close();
  70. }
  71. }
  72.  
  73. public int run(String[] args) throws Exception{
  74. Configuration conf = new Configuration();// 配置文件对象
  75. Path mypath = new Path(args[1]);
  76. FileSystem hdfs = mypath.getFileSystem(conf);// 创建输出路径
  77. if (hdfs.isDirectory(mypath)){
  78. hdfs.delete(mypath, true);
  79. }
  80.  
  81. Job job = new Job(conf, "weibo");// 构造任务
  82. job.setJarByClass(WeiboCount.class);// 主类
  83.  
  84. job.setMapperClass(WeiBoMapper.class);// Mapper
  85. job.setMapOutputKeyClass(Text.class);// Mapper key输出类型
  86. job.setMapOutputValueClass(Text.class);// Mapper value输出类型
  87.  
  88. job.setReducerClass(WeiBoReducer.class);// Reducer
  89. job.setOutputKeyClass(Text.class);
  90. job.setOutputValueClass(IntWritable.class);
  91. FileInputFormat.addInputPath(job, new Path(args[0]));// 输入路径
  92. FileOutputFormat.setOutputPath(job, new Path(args[1]));// 输出路径
  93. job.setInputFormatClass(WeiboInputFormat.class);// 自定义输入格式
  94. //自定义文件输出类别
  95. MultipleOutputs.addNamedOutput(job, "follower", TextOutputFormat.class,Text.class, IntWritable.class);
  96. MultipleOutputs.addNamedOutput(job, "friend", TextOutputFormat.class,Text.class, IntWritable.class);
  97. MultipleOutputs.addNamedOutput(job, "status", TextOutputFormat.class,Text.class, IntWritable.class);
  98. job.waitForCompletion(true);
  99. return 0;
  100. }
  101.  
  102. //对Map内的数据进行排序(只适合小数据量)
  103. public static Map.Entry[] getSortedHashtableByValue(Map h){
  104. Set set = h.entrySet();
  105. Map.Entry[] entries = (Map.Entry[]) set.toArray(new Map.Entry[set.size()]);
  106. Arrays.sort(entries, new Comparator(){
  107. public int compare(Object arg0, Object arg1){
  108. Long key1 = Long.valueOf(((Map.Entry) arg0).getValue().toString());
  109. Long key2 = Long.valueOf(((Map.Entry) arg1).getValue().toString());
  110. return key2.compareTo(key1);
  111. } });
  112. return entries;
  113. }
  114.  
  115. public static void main(String[] args) throws Exception{
  116. // String[] args0 = { "hdfs://HadoopMaster:9000/weibo/weibo.txt",
  117. // "hdfs://HadoopMaster:9000/out/weibo/" };
  118.  
  119. String[] args0 = { "./data/weibo/weibo.txt",
  120. "./out/weibo/" };
  121.  
  122. int ec = ToolRunner.run(new Configuration(), new WeiboCount(), args0);
  123. System.exit(ec);
  124. }
  125. }

Hadoop MapReduce编程 API入门系列之自定义多种输入格式数据类型和排序多种输出格式(十一)的更多相关文章

  1. Hadoop MapReduce编程 API入门系列之压缩和计数器(三十)

    不多说,直接上代码. Hadoop MapReduce编程 API入门系列之小文件合并(二十九) 生成的结果,作为输入源. 代码 package zhouls.bigdata.myMapReduce. ...

  2. Hadoop MapReduce编程 API入门系列之挖掘气象数据版本3(九)

    不多说,直接上干货! 下面,是版本1. Hadoop MapReduce编程 API入门系列之挖掘气象数据版本1(一) 下面是版本2. Hadoop MapReduce编程 API入门系列之挖掘气象数 ...

  3. Hadoop MapReduce编程 API入门系列之挖掘气象数据版本2(十)

    下面,是版本1. Hadoop MapReduce编程 API入门系列之挖掘气象数据版本1(一) 这篇博文,包括了,实际生产开发非常重要的,单元测试和调试代码.这里不多赘述,直接送上代码. MRUni ...

  4. Hadoop MapReduce编程 API入门系列之MapReduce多种输入格式(十七)

    不多说,直接上代码. 代码 package zhouls.bigdata.myMapReduce.ScoreCount; import java.io.DataInput; import java.i ...

  5. Hadoop MapReduce编程 API入门系列之join(二十六)(未完)

    不多说,直接上代码. 天气记录数据库 Station ID Timestamp Temperature 气象站数据库 Station ID Station Name 气象站和天气记录合并之后的示意图如 ...

  6. Hadoop MapReduce编程 API入门系列之Crime数据分析(二十五)(未完)

    不多说,直接上代码. 一共12列,我们只需提取有用的列:第二列(犯罪类型).第四列(一周的哪一天).第五列(具体时间)和第七列(犯罪场所). 思路分析 基于项目的需求,我们通过以下几步完成: 1.首先 ...

  7. Hadoop MapReduce编程 API入门系列之计数器(二十七)

    不多说,直接上代码. MapReduce 计数器是什么?    计数器是用来记录job的执行进度和状态的.它的作用可以理解为日志.我们可以在程序的某个位置插入计数器,记录数据或者进度的变化情况. Ma ...

  8. Hadoop MapReduce编程 API入门系列之FOF(Fund of Fund)(二十三)

    不多说,直接上代码. 代码 package zhouls.bigdata.myMapReduce.friend; import org.apache.hadoop.io.Text; public cl ...

  9. Hadoop MapReduce编程 API入门系列之网页流量版本1(二十二)

    不多说,直接上代码. 对流量原始日志进行流量统计,将不同省份的用户统计结果输出到不同文件. 代码 package zhouls.bigdata.myMapReduce.flowsum; import ...

随机推荐

  1. AI:IPPR的数学表示-CNN可视化语义分析

    前言: ANN是个语义黑箱的意思是没有通用明确的函数表示,参数化的模型并不能给出函数的形式,更进而不能表示函数的实际意义. 而CNN在图像处理方面具有天然的理论优势,而Conv层和Polling层,整 ...

  2. 【sqli-labs】 less18 POST - Header Injection - Uagent field - Error based (基于错误的用户代理,头部POST注入)

    这次username和password都进行了输入校验 但是ip和uagent没有校验 当我们用admin admin登陆成功后,就会一条插入语句 由于程序无条件的信任了浏览器的header信息,那么 ...

  3. NET MVC FileResult 导出/下载 文件/Excel

    参考http://www.cnblogs.com/ldp615/archive/2010/09/17/asp-net-mvc-file-result.html 1.引入NPOI 2.代码 using ...

  4. (转)基于Metronic的Bootstrap开发框架经验总结(9)--实现Web页面内容的打印预览和保存操作

    http://www.cnblogs.com/wuhuacong/p/5147368.html 在前面介绍了很多篇相关的<Bootstrap开发框架>的系列文章,这些内容基本上覆盖到了我这 ...

  5. C# 带Cookies发送请求

    #region --来自黄聪 void F1() { #region --创建cookies容器 添加Cookies和对应的URl(Hots主) CookieContainer cc = new Co ...

  6. 微信小程序 请求超时处理

    1.在app.json加入一句 "networkTimeout": { "request": 10000 } 设置超时时间,单位毫秒 2.请求 wx.reque ...

  7. day34-3 类和对象小知识

    目录 属性查找顺序 类与对象的绑定方法 类与数据类型 对象的高度整合 属性查找顺序 属性查找顺序:先从对象自身查找,对象没有就去类中查找,类中没有则报错 class Student: name = ' ...

  8. 58.fetch phbase

    1.fetch phbase工作流程 The coordinating node identifies which documents need to be fetched and issues a ...

  9. PHP过滤html注释

    过滤html注释: 所谓过滤,不过是字符串的匹配与替换,这里我们用到的正则匹配替换函数preg_replace(reg,replace,string);,PHPer都清楚,这个函数的关键在于reg的精 ...

  10. 轻量级本地数据库SQLite在WinRT的使用

    开发环境:Windows 8.1 开发工具:Visual Studio Express 2013 for Windows SQLite数据库介绍 1.SQLite是一款轻型的嵌入式数据库,使用C++开 ...