一 安装jdk

下载相应版本的jdk安装到相应目录,我的安装目录是/usr/lib/jdk1.8.0_40

下载完成后,在/etc/profile中设置一下环境变量,在文件最后追加如下内容

  1. export JAVA_HOME=/usr/lib/jdk1..0_40
  2. export JRE_HOME=/usr/lib/jdk1..0_40/jre
  3. export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATH
  4. export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH

二 安装ssh---------sudo apt-get install ssh

主要使用其管理远端守护进程,这里是单击模式,所以,不重要.

三 下载hadoop

http://hadoop.apache.org/releases.html

建议下载稳定版本的,我下载的是hadoop2.6.4,并把它放在了/usr/local/目录下

hadoop运行在apache服务器上的,需要java环境的支持,所以,下载的hadoop需要配置java环境变量,使java认识hadoop,同时也要使hadoop放到java环境中.

1 设置 ~/.bashrc,为登录的hadoop用户设置环境变量

  1. export JAVA_HOME=/usr/lib/jdk1..0_40
  2.  
  3. export HADOOP_INSTALL=/usr/local/hadoop-2.6.
  4.  
  5. export PATH=$PATH:$HADOOP_INSTALL/bin
  6. export PATH=$PATH:$JAVA_HOME/bin
  7. export PATH=$PATH:$HADOOP_INSTALL/sbin
  8. export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
  9. export HADOOP_COMMON_HOME=$HADOOP_INSTALL
  10. export HADOOP_HDFS_HOME=$HADOOP_INSTALL
  11. export YARN_HOME=$HADOOP_INSTALL
  12. export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native
  13. export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib"

设置完成之后,要运行

  1. source ~/.bashrc

使设置的环境变量生效

2 配置hadoop

在   /usr/local/hadoop-2.6.4/etc/hadoop/下打开hadoop-env.sh

  1. export JAVA_HOME=/usr/lib/jdk1..0_40
  2. export JRE_HOME=/usr/lib/jdk1..0_40/jre
  3. export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATH
  4. export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH

到这里hadoop单击模式就配置好了

运行

./bin/hadoop version

可看到如下信息

  1. Hadoop 2.6.
  2. Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r 5082c73637530b0b7e115f9625ed7fac69f937e6
  3. Compiled by jenkins on --12T09:45Z
  4. Compiled with protoc 2.5.
  5. From source with checksum 8dee2286ecdbbbc930a6c87b65cbc010
  6. This command was run using /usr/local/hadoop-2.6./share/hadoop/common/hadoop-common-2.6..jar

说明hadoop配置好了

下面来运行一下hadoop自带的wordcount程序检验一下

1 在hadoop目录下创建input文件夹,将/etc/hadoop中的配置文件复制到里面作为待测文件

  1. mkdir input
  1. cp etc/hadoop/* input/

2 运行程序,计数

在hadoop目录下运行命令

  1. ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6..jar grep input output '[a-z.]+'

意思是,通过example那个jar包,将a-z开头的单词数统计出来

看到如下运行信息

  1. File System Counters
  2. FILE: Number of bytes read=
  3. FILE: Number of bytes written=
  4. FILE: Number of read operations=
  5. FILE: Number of large read operations=
  6. FILE: Number of write operations=
  7. Map-Reduce Framework
  8. Map input records=
  9. Map output records=
  10. Map output bytes=
  11. Map output materialized bytes=
  12. Input split bytes=
  13. Combine input records=
  14. Combine output records=
  15. Reduce input groups=
  16. Reduce shuffle bytes=
  17. Reduce input records=
  18. Reduce output records=
  19. Spilled Records=
  20. Shuffled Maps =
  21. Failed Shuffles=
  22. Merged Map outputs=
  23. GC time elapsed (ms)=
  24. CPU time spent (ms)=
  25. Physical memory (bytes) snapshot=
  26. Virtual memory (bytes) snapshot=
  27. Total committed heap usage (bytes)=
  28. Shuffle Errors
  29. BAD_ID=
  30. CONNECTION=
  31. IO_ERROR=
  32. WRONG_LENGTH=
  33. WRONG_MAP=
  34. WRONG_REDUCE=
  35. File Input Format Counters
  36. Bytes Read=
  37. File Output Format Counters
  38. Bytes Written=

说明运行成功

查看运行结果

  1. cat output/*

再次运行的话,需要 rm -r output/ 删除output文件夹才能再次运行

hadoop单击模式环境搭建的更多相关文章

  1. 初学者值得拥有Hadoop单机模式环境搭建

    单机模式Hadoop环境搭建 Hadoop环境搭建流程图 具体过程 文章目录 单机模式Hadoop环境搭建 Hadoop环境搭建流程图 具体过程 1.搭建准备工作 (1)关闭防火墙 (2)关闭seli ...

  2. 《Programming Hive》读书笔记(一)Hadoop和hive环境搭建

    <Programming Hive>读书笔记(一)Hadoop和Hive环境搭建             先把主要的技术和工具学好,才干更高效地思考和工作.   Chapter 1.Int ...

  3. Hadoop集群环境搭建步骤说明

    Hadoop集群环境搭建是很多学习hadoop学习者或者是使用者都必然要面对的一个问题,网上关于hadoop集群环境搭建的博文教程也蛮多的.对于玩hadoop的高手来说肯定没有什么问题,甚至可以说事“ ...

  4. Spark—local模式环境搭建

    Spark--local模式环境搭建 一.Spark运行模式介绍 1.本地模式(loca模式):spark单机运行,一般用户测试和开发使用 2.Standalone模式:构建一个主从结构(Master ...

  5. hadoop集群环境搭建之zookeeper集群的安装部署

    关于hadoop集群搭建有一些准备工作要做,具体请参照hadoop集群环境搭建准备工作 (我成功的按照这个步骤部署成功了,经实际验证,该方法可行) 一.安装zookeeper 1 将zookeeper ...

  6. hadoop集群环境搭建之安装配置hadoop集群

    在安装hadoop集群之前,需要先进行zookeeper的安装,请参照hadoop集群环境搭建之zookeeper集群的安装部署 1 将hadoop安装包解压到 /itcast/  (如果没有这个目录 ...

  7. hadoop集群环境搭建准备工作

    一定要注意hadoop和linux系统的位数一定要相同,就是说如果hadoop是32位的,linux系统也一定要安装32位的. 准备工作: 1 首先在VMware中建立6台虚拟机(配置默认即可).这是 ...

  8. 【转】Hadoop HDFS分布式环境搭建

    原文地址  http://blog.sina.com.cn/s/blog_7060fb5a0101cson.html Hadoop HDFS分布式环境搭建 最近选择给大家介绍Hadoop HDFS系统 ...

  9. 分享知识-快乐自己:Liunx-大数据(Hadoop)初始化环境搭建

    大数据初始化环境搭建: 一):大数据(hadoop)初始化环境搭建 二):大数据(hadoop)环境搭建 三):运行wordcount案例 四):揭秘HDFS 五):揭秘MapReduce 六):揭秘 ...

随机推荐

  1. 第二百零六节,jQuery EasyUI,Menu(菜单)组件

    jQuery EasyUI,Menu(菜单)组件 学习要点: 1.加载方式 2.菜单项属性 3.菜单属性 4.菜单事件 5.菜单方法 本节课重点了解 EasyUI 中 Menu(菜单)组件的使用方法, ...

  2. 第一百五十二节,封装库--JavaScript,表单验证--年月日注入

    封装库--JavaScript,表单验证--年月日注入 效果图 html <div id="reg"> <h2 class="tuo"> ...

  3. 数组有没有length()这个方法?String有没有length()这个方法?

    数组有没有length()这个方法?String有没有length()这个方法? 解答:数组没有length()方法 它有length属性 String有length()方法.

  4. spark(1.1) mllib 源码分析(三)-朴素贝叶斯

    原创文章,转载请注明: 转载自http://www.cnblogs.com/tovin/p/4042467.html 本文主要以mllib 1.1版本为基础,分析朴素贝叶斯的基本原理与源码 一.基本原 ...

  5. 【Ubuntu】Windows硬盘安装Ubuntu14.04

    参考:http://diybbs.zol.com.cn/1/33925_1981.html  http://www.cnblogs.com/allenjin/archive/2011/11/26/22 ...

  6. javascript基本语法和变量(转)

    转载来自 阮一峰老师的文章,地址为:http://javascript.ruanyifeng.com/grammar/basic.html#toc0 1.1语句 JavaScript 程序的执行单位是 ...

  7. 边缘检测sobel算子

    sobel算子 - sophia_hxw - 博客园http://www.cnblogs.com/sophia-hxw/p/6088035.html #1,个人理解 网上查了很多资料,都说sobel算 ...

  8. HDU 5677 ztr loves substring(回文串加多重背包)

    ztr loves substring Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 65536/65536 K (Java/Othe ...

  9. scrapy工程创建及pycharm运行

    1.通过命令行创建scrapy工程项目 scrapy startproject (工程名) scrapy startproject myxml 2.利用爬虫模板设置爬虫文件 在这个过程中我们可以先利用 ...

  10. Contos更换python版本

    1.查看版本 #python -VPython 2.6.6 2.安装前准备,安装相关库#yum install gcc gcc-c++ autoconf automake#yum install op ...