hadoop(一)
1 环境熟悉
安装jdk、hadoop
配置xml文件,启动伪分布式
运行example-jar,测试mapreduce程序
2 mapreduce编程
使用eclipse开发mapreduce程序,导出jar包
注意在eclipse下也可以运行mapreduce程序,相当于单机的hadoop
将数据放入hdfs,运行jar包,得到输出结果
3 安装使用hive和hbase
1 环境熟悉
hadoop提供binary和src两种类型的包。src可以自己定制编译
#登陆服务器
ssh username@IP
#解压、环境变量配置
java中的classpath
#配置xml、开启伪分布式
./sbin/start-hdfs.sh 开启hdfs
JPS是JDK 1.5提供的一个显示当前所有java进程pid的命令.
JPS查看是否已经启动伪分布式,查看是否有namenode等进程
#拷贝jar包到服务器,使用scp
scp myJar.jar username@IP:path
#运行jar包
hadoop jar input output
#拷贝结果到home目录,使用more查看
hdfs dfs -cat output/* > /home/result
简答的测试使用
echo "world my life" > 1.txt
echo "world my wife save me" > 2.txt
hdfs dfs -put input/* input
hdfs dfs -rm -r output
hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar wordcount input output
hdfs dfs -cat output/*
运行结果
me 1
my 2
save 1
wife 1
world 2
hdfs常用命令:
hdfs dfs -rm -r directory 删除目录 -ls directory 输出目录信息
hdfs dfs -put /yourMaterial input 移动文件到hdfs
可以使用webUI查看程序的运行情况,对应的hadoop服务器的IP,端口19888、50030、50070等,可以查看core-site.xml文件获知。
注意:每次再次运行jar,需要删除output文件夹或者更改输出文件夹的位置!
2 mapreduce编程
研读API,了解The Hadoop MapReduce framework
http://hadoop.apache.org/docs/stable/api/overview-summary.html
mapreduce的过程
输入inputformat>map>combiner>partitioner>reducer>outputformat
自定义的键、值的数据类型
实现WritableComparable接口,不需要比较,也可以只实现Writable接口
public class T implements WritableComparable <T>
重写write、readfields、compareTo方法
自定义的输入输出格式
InputFormat和RecordReader
InputFormat>InputSplit
one map task for each InputSplit generated by the InputFormat
OutputFormat和RecordWriter
job.setInputFormatClass(myInputFormat.class);
mapper
covert input key/value pairs to a set of intermediate key/value pairs.
设置自定义的mapper类
job.setMapperClass(myMapper.class);
输出使用
context.write(word, one);
可以通过context获取的参数,context是环境对象参数
combiner
定制Combiner来减少网络数据传输,combiner将mapper产生的中间对进一步合并再传给reducer,注意输入输出的键值对类型要相同。
设置自定义的combiner类(继承自reducer类)
job.setCombinerClass(myReducer.class);
partitioner
改变Map[combiner]中间结果到Reduce节点的分配方式
自定义
Job. setPartitionerClass(NewPartitioner)
reducer
输入:key iterable
由mapper或者combiner产生的键值对,按照key值分发给reducer,同一个key肯定发往同一个reducer,值存在values中,需要使用iterator读取。
设置自定义的reducer类
job.setReducerClass(myReducer.class);
编程
eclipse
其实eclipse不好用,智能提示太少,导入jar包不方便。
准备工作:
在项目lib中设置外部jar。五个文件夹内的jar common common/lib hdfs mapreduce yarn
设置运行时的输入参数
在run中设置run时的参数configuration,设置输入确定input、output,因为在程序中会获取命令行参数作为input、output路径。
导出jar包
export相应的jar包,选择main入口,以使用jar包在分布式的集群环境下运行。
使用intelliJ
在project structure中设置lib、jar导出
在run configuration中设置run时的参数
编写MapReduce程序:一个Map函数,一个Reduce函数,一个主函数
#linux 命令#
man <command> 查看linux命令
ssh username@IP 远程登陆linux服务器
more Press space to continue, 'q' to quit.最基本的指令就是按空白键(space)就往下一页显示,按 b 键就会往回(back)一页显示
tar 打包和解压缩命令,将整个 /etc 目录下的文件全部打包成为 /tmp/etc.tar
tar -cvf /tmp/etc.tar /etc <==仅打包,不压缩!
tar -zcvf /tmp/etc.tar.gz /etc <==打包后,以 gzip 压缩
tar -zxvf 解压命令
管道 使用管道输出文件echo "world my life" > 1.txt
history 罗列历史命令
使用tree命令查看文件目录结构
hadoop(一)的更多相关文章
- Hadoop 中利用 mapreduce 读写 mysql 数据
Hadoop 中利用 mapreduce 读写 mysql 数据 有时候我们在项目中会遇到输入结果集很大,但是输出结果很小,比如一些 pv.uv 数据,然后为了实时查询的需求,或者一些 OLAP ...
- 初识Hadoop、Hive
2016.10.13 20:28 很久没有写随笔了,自打小宝出生后就没有写过新的文章.数次来到博客园,想开始新的学习历程,总是被各种琐事中断.一方面确实是最近的项目工作比较忙,各个集群频繁地上线加多版 ...
- hadoop 2.7.3本地环境运行官方wordcount-基于HDFS
接上篇<hadoop 2.7.3本地环境运行官方wordcount>.继续在本地模式下测试,本次使用hdfs. 2 本地模式使用fs计数wodcount 上面是直接使用的是linux的文件 ...
- hadoop 2.7.3本地环境运行官方wordcount
hadoop 2.7.3本地环境运行官方wordcount 基本环境: 系统:win7 虚机环境:virtualBox 虚机:centos 7 hadoop版本:2.7.3 本次先以独立模式(本地模式 ...
- 【Big Data】HADOOP集群的配置(一)
Hadoop集群的配置(一) 摘要: hadoop集群配置系列文档,是笔者在实验室真机环境实验后整理而得.以便随后工作所需,做以知识整理,另则与博客园朋友分享实验成果,因为笔者在学习初期,也遇到不少问 ...
- Hadoop学习之旅二:HDFS
本文基于Hadoop1.X 概述 分布式文件系统主要用来解决如下几个问题: 读写大文件 加速运算 对于某些体积巨大的文件,比如其大小超过了计算机文件系统所能存放的最大限制或者是其大小甚至超过了计算机整 ...
- 程序员必须要知道的Hadoop的一些事实
程序员必须要知道的Hadoop的一些事实.现如今,Apache Hadoop已经无人不知无人不晓.当年雅虎搜索工程师Doug Cutting开发出这个用以创建分布式计算机环境的开源软...... 1: ...
- Hadoop 2.x 生态系统及技术架构图
一.负责收集数据的工具:Sqoop(关系型数据导入Hadoop)Flume(日志数据导入Hadoop,支持数据源广泛)Kafka(支持数据源有限,但吞吐大) 二.负责存储数据的工具:HBaseMong ...
- Hadoop的安装与设置(1)
在Ubuntu下安装与设置Hadoop的主要过程. 1. 创建Hadoop用户 创建一个用户,用户名为hadoop,在home下创建该用户的主目录,就不详细介绍了. 2. 安装Java环境 下载Lin ...
- 基于Ubuntu Hadoop的群集搭建Hive
Hive是Hadoop生态中的一个重要组成部分,主要用于数据仓库.前面的文章中我们已经搭建好了Hadoop的群集,下面我们在这个群集上再搭建Hive的群集. 1.安装MySQL 1.1安装MySQL ...
随机推荐
- 程序媛也话Android 之 自定义控件(垂直方向滑动条)
Android里已经有足够多的控件供开发者使用,但有时候我们还是会想要一些不一样的东西,比如一些UI特效,比如一些3D动画,今天就讲讲比较basic的东西:自定义控件. 1.效果图 如果项目里需要一个 ...
- JQuery的插件式开发
如果你只会JQuery的插件式开发, 那么你可以进来看看? 对于JQuery的学习,已经有3年多的时间了,直到去年与我的组长一起做项目,看到他写的JS,确实特别漂亮,有时甚至还看不太懂, 我才发现其实 ...
- 设计模式18---设计模式之策略模式(Strategy)(行为型)
1.场景模拟 简单的报价管理系统: 对于普通用户和新用户报全价 对于老客户统一折扣5% 对于大客户统一折扣10% 2.不用模式的解决方案 package demo16.strategy.example ...
- Hadoop能力测试图谱
一张图测试你的Hadoop能力-Hadoop能力测试图谱 1.引言 看到一张图,关于Hadoop技术框架的图,基本上涉及到Hadoop当前应用的主要领域,感觉可以作为测试Hadoop开发人员当前能力和 ...
- 绘制基本图形和线型(StrokeStyle)的设置详解
绘制基本图形和线型(StrokeStyle)的设置详解 目前,在博客园上,相对写得比较好的两个关于Direct2D的教程系列,分别是万一的Direct2D系列和zdd的Direct2D系列.有兴趣的网 ...
- iMac 无线键盘 无法配对
正好小编手里也有一个 Apple wireless keyboard 键盘,经测试发现确实有他所说的问题.在互联网上找了一圈儿都没找到解决方案,苹果官方也没有给出相关方案.只好自己琢磨,还好终于研究出 ...
- 自己动手用maven构建基于SSI的java EE应用
上篇跟大家聊了聊maven的简单使用,之前也写了一篇搭建基于SSI(struts2,spring,ibatis)的javaEE开发环境的文章,但是那篇只是给初学者搭建一个简单的SSI应用的框架,其实我 ...
- 一种利用异常机制基于MVC过滤器的防止重复提交的机制分享
防止重复提交验证机制 某些时候因为系统反应稍慢,急性子用户可能不耐烦会进行重复的提交,这个操作不仅可能造成系统负担,也可能产生垃圾数据. 出现这两种状况都是我们不希望的. 为此,在公司项目系统设计了以 ...
- LNMP安装与配置
Nginx与apache.lighttp性能综合对比,如下图: 注意:关闭rpm默认安装的apache和mysql 1.准备php函数的rpm包 y ...
- C#新功能--命名参数与可选参数
C#新功能--命名参数与可选参数 可能是篇幅太短了,又被打入冷宫了.先重发一篇加上可选参数.本来不想加这个呢,因为可选参数可能大家用的会多点.其实这 两个在VB中早就有了,在C#中,只有在.net4以 ...