MapReduce-多个输出(使用MultipleOutput,不指定reduce任务个数)
多个输出
FileOutputFormat及其子类产生的文件放在输出目录下。每个reduce一个文件并且文件由分区号命名:part-r-00000,part-r-00001,等等。有时可能需要对输出的文件名进行控制或让每个reducer输出多个文件。MapReduce为此提供了MultipleOutputFormat类。
案例:数据分割
按气象站来区分气象数据。这需要运行一个作业,作业的输出时每个气象站一个文件,此文件包含该气象站的所有数据记录。
一种方法是每个气象站对应一个reducer。为此,我们需要做两件事。第一,写一个partitioner,把同一个气象站的数据放到同一个分区。第二,把作业的reducer数设为气象站的个数。
这样做有两个缺点。
第一,需要在作业运行之前知道分区数和气象站的个数。
第二,让应用程序来严格限定分区数并不好,因为可能导致分区数少或分区不均。让很多reducer做少量工作不是一个高效的作业组织方法,比较好的办法是使用更少reducer做更多的事情,因为运行任务的额外开销减少了。分区不均的情况也是很难避免的。不同气象站的数据量差异很大:有些气象站是一年前刚投入使用的,有的则已经工作了好久。如有其中一些reduce任务运行时间远远超过另一些,作业执行时间将由他们决定,从而导致作业的运行时间超过预期。
代码如下
package com.zhen.mapreduce.multipleOutput; import java.io.IOException; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Partitioner;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner; /**
* @author FengZhen
* @date 2018年8月25日
* hadoop jar MultipleOutput.jar com.zhen.mapreduce.multipleOutput.SimpleMoreReduce
*/
public class SimpleMoreReduce extends Configured implements Tool{ static class SimplePartitioner extends Partitioner<Text, Text>{ @Override
public int getPartition(Text key, Text value, int numPartitions) {
if (key.toString().equals("000001")) {
return 0;
}else if (key.toString().equals("000002")) {
return 1;
}else if (key.toString().equals("000003")) {
return 2;
}
return 0;
} } static class SimpleMapper extends Mapper<LongWritable, Text, Text, Text>{
@Override
protected void map(LongWritable key, Text value, Mapper<LongWritable, Text, Text, Text>.Context context)
throws IOException, InterruptedException {
// 000001`yiduishuju
String[] values = value.toString().split("`");
context.write(new Text(values[0]), new Text(values[1]));
}
} static class SimpleReducer extends Reducer<Text, Text, Text, Text>{
@Override
protected void reduce(Text key, Iterable<Text> value, Reducer<Text, Text, Text, Text>.Context context)
throws IOException, InterruptedException {
for (Text text : value) {
context.write(key, text);
}
}
} public int run(String[] args) throws Exception {
Configuration configuration = new Configuration(); Job job = Job.getInstance(configuration);
job.setJobName("SimpleMoreReduce");
job.setJarByClass(SimpleMoreReduce.class); job.setNumReduceTasks(3); job.setMapperClass(SimpleMapper.class);
job.setReducerClass(SimpleReducer.class);
job.setPartitionerClass(SimplePartitioner.class); job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(Text.class); job.setOutputKeyClass(Text.class);
job.setOutputValueClass(Text.class); FileInputFormat.addInputPath(job, new Path(args[0]));
FileOutputFormat.setOutputPath(job, new Path(args[1])); return job.waitForCompletion(true) ? 0 : 1;
} public static void main(String[] args) {
try {
String[] params = {"hdfs://fz/user/hdfs/MapReduce/data/multipleOutput/temperature", "hdfs://fz/user/hdfs/MapReduce/data/multipleOutput/output"};
int exitCode = ToolRunner.run(new SimpleMoreReduce(), params);
System.exit(exitCode);
} catch (Exception e) {
e.printStackTrace();
}
}
}
在以下两种特殊情况下,让应用程序来设定分区数是有好处的
0个reducer,这是一个很罕见的情况:没有分区,因为应用只需要map任务
1个reducer,可以很方便的运行若干个小作业,从而把以前作业的输出合并成单个文件。前提是数据量足够小,以便一个reducer能轻松处理。
最好让集群为作业决定分区数:集群的reducer任务槽越多,任务完后就越快。这就是默认HashPartitioner表现如此出色的原因,因为它处理的分区数不限,并且确保每个分区都有一个很好的键组合使分区更均匀。
如果使用HashPartitioner,每个分区就会包含多个气象站,因此,要实现每个气象站输出一个文件,必须安排一个reducer写多个文件,由此就有了MultipleOutput.
MultipleOutput
MultipleOutputFormat类可以将数据写到多个文件,这些文件的名称源于输出的键和值或者任意字符串。这允许每个reducer(或者只有map作业的mapper)创建多个文件。采用name-m-nnnnn形式的文件名用于map输出,name-r-nnnnn形式的文件名用于reduce输出,其中name是由程序设定的任意名字,nnnnn是一个指明块号的整数(从0开始)。块号保证从不同块写的输出在相同名字情况下不会冲突。
代码如下
package com.zhen.mapreduce.multipleOutput; import java.io.IOException; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.lib.output.MultipleOutputs;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner; /**
* @author FengZhen
* @date 2018年8月25日
*
* hadoop jar MultipleOutput.jar com.zhen.mapreduce.multipleOutput.MultipleOutputTest
*/
public class MultipleOutputTest extends Configured implements Tool{ static class MultipleOutputMapper extends Mapper<LongWritable, Text, Text, Text>{
@Override
protected void map(LongWritable key, Text value, Mapper<LongWritable, Text, Text, Text>.Context context)
throws IOException, InterruptedException {
// 000001`yiduishuju
String[] values = value.toString().split("`");
context.write(new Text(values[0]), new Text(values[1]));
}
} static class MultipleOutputReducer extends Reducer<Text, Text, NullWritable, Text>{
private MultipleOutputs<NullWritable, Text> multipleOutputs;
@Override
protected void setup(Reducer<Text, Text, NullWritable, Text>.Context context) throws IOException, InterruptedException {
multipleOutputs = new MultipleOutputs<NullWritable, Text>(context);
}
@Override
protected void reduce(Text key, Iterable<Text> value, Reducer<Text, Text, NullWritable, Text>.Context context)
throws IOException, InterruptedException {
for (Text text : value) {
multipleOutputs.write(NullWritable.get(), text, key.toString());
}
}
@Override
protected void cleanup(Reducer<Text, Text, NullWritable, Text>.Context context)
throws IOException, InterruptedException {
multipleOutputs.close();
}
} public int run(String[] args) throws Exception {
Configuration configuration = new Configuration(); Job job = Job.getInstance(configuration);
job.setJobName("MultipleOutputTest");
job.setJarByClass(MultipleOutputTest.class); job.setMapperClass(MultipleOutputMapper.class);
job.setReducerClass(MultipleOutputReducer.class); job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(Text.class); job.setOutputKeyClass(NullWritable.class);
job.setOutputValueClass(Text.class); FileInputFormat.addInputPath(job, new Path(args[0]));
FileOutputFormat.setOutputPath(job, new Path(args[1])); return job.waitForCompletion(true) ? 0 : 1;
}
public static void main(String[] args) {
try {
String[] params = {"hdfs://fz/user/hdfs/MapReduce/data/multipleOutput/temperature", "hdfs://fz/user/hdfs/MapReduce/data/multipleOutput/output"};
int exitCode = ToolRunner.run(new MultipleOutputTest(), params);
System.exit(exitCode);
} catch (Exception e) {
e.printStackTrace();
}
}
}
数据文件如下
000001`yiduishuju
000002`yiduishuju
000003`yiduishuju
000001`yiduishuju1
000002`yiduishuju1
000003`yiduishuju1
000001`yiduishuju2
000002`yiduishuju2
000003`yiduishuju2
输出文件名如下
000001-r-00000
000002-r-00000
000003-r-00000
MapReduce-多个输出(使用MultipleOutput,不指定reduce任务个数)的更多相关文章
- mapreduce多文件输出的两方法
mapreduce多文件输出的两方法 package duogemap; import java.io.IOException; import org.apache.hadoop.conf ...
- [Demo_03] MapReduce 实现多类型输出
0. 说明 MapReduce 实现将最高气温统计数据输出为文本格式和 SequenceFile 格式 在最高气温统计的基础上进行操作 1. 核心代码 // 多输出格式设置 MultipleOutpu ...
- MapReduce在Map端的Combiner和在Reduce端的Partitioner
1.Map端的Combiner. 通过单词计数WordCountApp.java的例子,如何在Map端设置Combiner... 只附录部分代码: /** * 以文本 * hello you * he ...
- 输出不大于N的素数的个数
输出不大于N的素数的个数 Sieve of Eratosthenes 方法 素数的性质: 非素数可以分解为素数乘积. 证明 (1)n = 2 成立,n = 3 成立: (2)若 n = k 时成立, ...
- my @unpacking_list = values %map_function; print "\n".@unpacking_list; 输出是3 把 @unpacking_list 当做一个数 输出了
my %map_function = ( 88 "OK_func" => "open_statement", 89 & ...
- Java查找指定文件中指定字符的个数
package lwl.youweb2.test; import java.io.BufferedReader; import java.io.FileReader; import java.io.I ...
- 将MapReduce的结果输出至Mysql数据库
package com.sun.mysql;import java.io.DataInput;import java.io.DataOutput;import java.io.IOException; ...
- log4j日志输出到web项目指定文件夹
感谢 eric2500 的这篇文章:http://www.cxyclub.cn/n/27860/ 摘要:尝试将log4j的文件日志输出到web工程制定目录,遇到了很多问题,最终在eric2500的指导 ...
- MapReduce JOB 的输出与输出笔记。
提高 MapReduce 价值,自定义输入和输出. 比如跳过存储到 HDFS 中这个耗时的布置. 而只是从原始数据源接受数据,或者直接将数据发送给某些处理程序. 这些处理程序在 MapReduce 作 ...
随机推荐
- phantom的使用
phantom页面加载 通过Phantomjs,一个网页可以被加载.分析和通过创建网页对象呈现,访问我的博客园地址:http://www.cnblogs.com/paulversion/p/83938 ...
- hdu 4419 线段树 扫描线 离散化 矩形面积
//离散化 + 扫描线 + 线段树 //这个线段树跟平常不太一样的地方在于记录了区间两个信息,len[i]表示颜色为i的被覆盖的长度为len[i], num[i]表示颜色i 『完全』覆盖了该区间几层. ...
- NoSQL-MongoDB with python
前言: MongoDB,文档存储型数据库(document store).NoSQL数据库中,它独占鳌头,碾压其他的NoSQL数据库. 使用C++开发的,性能仅次C.与redis一样,开源.高扩展.高 ...
- idea 不能编译生成class文件
问题:开发工程中将idea中编译输出目录 out 删掉.发现再次编译不能生成class文件 解决方案:settings -> compiler 勾选自动编译选项
- 母版页改变被嵌套的页面中的控件ID的解决方法
使用过模板页的朋友都会很纳闷,怎么页面的用js通过getElementById(“id”):找不到对象.查看了页面源代码才发现,原来控件的ID变了,这是母版页导致的.因为母版页怕母版页本身页面中的控件 ...
- nginx1.4.7+uwsgi+django1.9.2项目部署,liunx系统为ubuntu14.0.4。
本文基于root用户下进行部署,django项目名称为BDFS 1. 安装依赖包,终端输入命令 1) 环境依赖包 apt-get update apt-get install pyt ...
- 小程序html 显示 图片处理
let arr = [] for (const v of r.data.data ){ // v.content = v.content.replace(/<img/g ,' <image ...
- FW 配置一个私有的Docker仓库
思维 66 3月1日 发布 建分支 0 分支 收藏 0 收藏 我们在本地开发时,如果内网能部署一台Docker服务器,无疑会极大的方便镜像的分享发布,有些私有镜像就是可以直接放到内网服务器上,省去了不 ...
- MySQL中自适应哈希索引
自适应哈希索引采用之前讨论的哈希表的方式实现,不同的是,这仅是数据库自身创建并使用的,DBA本身并不能对其进行干预.自适应哈希索引近哈希函数映射到一个哈希表中,因此对于字典类型的查找非常快速,如SEL ...
- vb.net 正則表達式 取 固定格式的字符
vb.net 正則表達式 取 固定格式的字符: 原始字符串:strSqlTmp="select * from A_TEST where a_data = '@1@' and b_link = ...