package com.bank.service; import java.io.IOException;import java.text.ParseException;import java.text.SimpleDateFormat; import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.conf.Configured;import org.apache.hadoop.fs.Path;import org.a…
上一个全文搜索实现了模糊查找,这个主要实现了精确查找,就是比如你查找mapreduce is simple那么他就只查找有这个句子的文章,而不是查找有这三个单词的文章. 这个版本需要重写反向索引,因为需要查找句子,所以需要定位每个单词的在文章中的位置,所以我们的反向索引需要加上单词所在的位置,即我们希望的输出是: MapReduce file1.txt:<1,2,3>;file2.txt:<5,3,1>;这种格式的. 其实这一步比较简单.我们在map的时候输出为 “filename…
准备工作  拷贝原来的模板 mkdir oozie-apps cd oozie-apps/ cp -r ../examples/apps/mar-reduce . mv map-reduce mr-wordcount-wf 配置文件修改 workflow.xml : <!-- Licensed to the Apache Software Foundation (ASF) under one or more contributor license agreements. See the NOTI…
Hadoop 使用 YARN 运行 MapReduce 的过程如下图所示: 总共分为11步. 这里以 WordCount 为例, 我们在客户端终端提交作业: # 把本地的 /home/hadoop/test.txt 文件上传到 HDFS 的 /input 下, 之后 HDFS 会对文件分块等 hadoop-2.7.3/bin/hadoop fs -put /home/hadoop/test.txt /input/ # 我们以 hadoop 自带测试例子 wordcount 为例 hadoop-2…
1. 准备数据源 摘录了一片散文,保存格式为utf-8 2. 准备环境 2.1 搭建伪分布式环境 https://www.cnblogs.com/cjq10029/p/12336446.html 上传数据源文件到hdfs中创建的in目录下 2.2 下载相关资源 下载hadoop277 链接:https://pan.baidu.com/s/1xeZx4AVxcjU33hoMLvOojA 提取码:mxic 下载hadoop可执行程序 winutils.exe 链接:https://pan.baidu…
MapReducer运行过程 以单词统计为案例. 假如现在文件中存在如下内容: aa bb aa cc dd aa 当然,这是小文件,如果文件大小较大时会将文件进行 "切片" ,此处的切片和 HDFS 的 "分块"概念不同. "切片" 是将文件进行逻辑的划分,而 "分块" 是进行物理的划分. 即 "切片" 是将文件按照某一大小进行标记(默认为128m,即与分块大小相同),如文件为300M,那么将会标记为 0…
看了几篇博文,感觉还是云里雾里的. http://blog.csdn.net/opennaive/article/details/7514146 http://www.aboutyun.com/thread-6723-1-1.html http://blog.csdn.net/thomas0yang/article/details/8562910 这三篇看下来,大概有了个框架,但是具体的细节都不是很清楚. 下面是自问自答环节: 为什么hadoop可以处理大数据? 因为hadoop用了好多好多好多…
mr自带的例子中的源码SecondarySort,我重新写了一下,基本没变. 这个例子中定义的map和reduce如下,关键是它对输入输出类型的定义:(java泛型编程) public static class Map extends Mapper<LongWritable, Text, IntPair, IntWritable> public static class Reduce extends Reducer<IntPair, NullWritable, IntWritable,…
上一个已经实现了反向索引,那么为什么不尝试下全文搜索呢.例如有了 Hello     file3.txt:1; MapReduce     file3.txt:2;fil1.txt:1;fil2.txt:1; bye     file3.txt:1;  is     fil1.txt:1;fil2.txt:2; powerful     fil2.txt:1; simple     fil2.txt:1;fil1.txt:1; 那么我要找MapReduce is simple,那么就有file1…
本例子统计 用空格分开的单词出现数量(  这个Main.mian 启动方式是hadoop 2.0 的写法.1.0 不一样 ) 目录结构: 使用的 maven : 下面是maven 依赖. <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-client</artifactId> <version>2.8.5</version> </…