1、安装jdk,配置环境变量

root@localhost java]# vi /etc/profile

在profile中添加如下内容:

#set java environment
export  JAVA_HOME=/usr/java/jdk1.7.0_79
export  JRE_HOME=$JAVA_HOME/jre
export  CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
export  PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export JAVA_HOME JRE_HOME CLASS_PATH PATH

搭建步骤指南:

http://blog.csdn.net/ab198604/article/details/8250461

http://www.powerxing.com/install-hadoop/

https://www.cnblogs.com/DreamDriver/p/6597020.html

2、新建hadoop 用户,赋给管理员权限

$sudo useradd -m hadoop -s /bin/bash

sudo passwd hadoop

sudo adduser hadoop sudo

3、配置单机hadoop环境

  1. 进入hadoop 安装目录,输入在本地机器(192.168.211.128)上使用ssh-keygen产生公钥私钥对

    $ ssh-keygen -t rsa

  1. 用ssh-copy-id将公钥复制到远程机器中 

    ssh-copy-id hadoop@192.168.211.129 ( 复制到远程服务器 salve1 )  ## 输入远程服务器的密码,最后一次输入密码,复制成功之后,就再不用输入密码了

4、手动下载hadoop安装包,本人下载的是 hadoop-2.6.5.tar.gz 包,解压包

  hadoop@ubuntu-virtual-machine:~$ ls
  hadoop-2.6.5 hadoop-2.6.5.tar.gz
  hadoop@ubuntu-virtual-machine:~$ tar zxvf hadoop-2.6.5.tar.gz

5、修改hadoop中的配置文件:

  • hadoop 目录 etc文件夹下的 hadoop-env.sh,增加  export JAVA_HOME=/usr/java/jdk1.8.0_152)
  • etc文件夹下的core-site.xml文件用文本编辑器打开,添加如下语句
    <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
    </property>

    这是hadoop核心的配置文件,这里配置的是HDFS的地址和端口号。

  • etc文件夹下的hdfs-site.xml文件用文本编辑器打开,添加如下语句
    <property>
         <name>dfs.replication</name>
         <value>1</value>
      </property>

    这是Hadoop中的HDFS的配置,配置的备份方式默认为3,在单机版的Hadoop中,需要将其改为1.

  • etc文件夹下的mapred-site.xml文件用文本编辑器打开,添加如下语句

    <property>

          <name>mapred.job.tracker</name>
          <value>localhost:9001</value>
       </property>
    这是Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口。
  • 在 sbin目录下打开 hadoop-env.sh  yarn-env.sh中添加  export JAVA_HOME=/usr/java/jdk1.8.0_152

6、在初次安装和使用Hadoop之前,需要格式化分布式文件系统HDFS。使用如下命令:

  # bin/hadoop namenode -format

7、启动Hadoop守护进程,命令如下

# bin/start-all.sh
 
在本地浏览器,输入地址进行验证
http://192.168.211.128:50070/
http://192.168.211.128:8088/

Hadoop 搭建集群的步骤的更多相关文章

  1. redis 一二事 - 搭建集群缓存服务器

    在如今并发的环境下,对大数据量的查询采用缓存是最好不过的了,本文使用redis搭建集群 (个人喜欢redis,对memcache不感冒) redis是3.0后增加的集群功能,非常强大 集群中应该至少有 ...

  2. 基于Hadoop分布式集群YARN模式下的TensorFlowOnSpark平台搭建

    1. 介绍 在过去几年中,神经网络已经有了很壮观的进展,现在他们几乎已经是图像识别和自动翻译领域中最强者[1].为了从海量数据中获得洞察力,需要部署分布式深度学习.现有的DL框架通常需要为深度学习设置 ...

  3. Hadoop分布式集群搭建hadoop2.6+Ubuntu16.04

    前段时间搭建Hadoop分布式集群,踩了不少坑,网上很多资料都写得不够详细,对于新手来说搭建起来会遇到很多问题.以下是自己根据搭建Hadoop分布式集群的经验希望给新手一些帮助.当然,建议先把HDFS ...

  4. Hadoop分布式集群搭建

    layout: "post" title: "Hadoop分布式集群搭建" date: "2017-08-17 10:23" catalog ...

  5. hadoop分布式集群的搭建

    电脑如果是8G内存或者以下建议搭建3节点集群,如果是搭建5节点集群就要增加内存条了.当然实际开发中不会用虚拟机做,一些小公司刚刚起步的时候会采用云服务,因为开始数据量不大. 但随着数据量的增大才会考虑 ...

  6. hadoop+spark集群搭建入门

    忽略元数据末尾 回到原数据开始处 Hadoop+spark集群搭建 说明: 本文档主要讲述hadoop+spark的集群搭建,linux环境是centos,本文档集群搭建使用两个节点作为集群环境:一个 ...

  7. hadoop ha集群搭建

    集群配置: jdk1.8.0_161 hadoop-2.6.1 zookeeper-3.4.8 linux系统环境:Centos6.5 3台主机:master.slave01.slave02 Hado ...

  8. 使用docker搭建hadoop分布式集群

    使用docker搭建部署hadoop分布式集群 在网上找了非常长时间都没有找到使用docker搭建hadoop分布式集群的文档,没办法,仅仅能自己写一个了. 一:环境准备: 1:首先要有一个Cento ...

  9. hadoop+zookeeper集群高可用搭建

                                                                  hadoop+zookeeper集群高可用搭建 Senerity 发布于 2 ...

随机推荐

  1. hive小文件合并设置参数

    Hive的后端存储是HDFS,它对大文件的处理是非常高效的,如果合理配置文件系统的块大小,NameNode可以支持很大的数据量.但是在数据仓库中,越是上层的表其汇总程度就越高,数据量也就越小.而且这些 ...

  2. Springboot项目启动后访问不到Controller

    1.搭建一个简单的Springboot项目,最开始将启动类main函数与controller放到一个类里,可以正常启动和访问,但是将两个分开再启动时访问就会报错:This application ha ...

  3. libcrypto.so.1.0.0: no version information available

    openssl-1.0.1p源码安装后,依赖于openssl.so库的应用报错libcrypto.so.1.0.0: no version information available 解法:1. 创建 ...

  4. HttpUrlConnection流传输问题(正确传输包含中文的JSON字符串)

    目前在写一个功能,主要是使用 HttpURLConnection 发送http请求调用外部接口.本来一切正常的,可是在发送post请求上传数据给服务端时,服务端返回错误信息:获取的JSON请求是乱码的 ...

  5. PDO设置字符集

    <?php header("content-type:text/html;charset=GBK"); class CurlClass { protected $_pdo; ...

  6. c++ switch和case的用法

    #include "pch.h" #include<iostream> using namespace std; const float PI = 3.1415926; ...

  7. JS获取访客IP+判断归属地+自动跳转

    由于公司业务需要,需要对网站特定地区的访客进行不同跳转.比如,上海的用户跳转到“shanghai.url.cn”,南京的用户跳转到“nanjing.url.cn”.下面就是我的实现方法,分享出来,顺便 ...

  8. 【lintcode】 二分法总结 I

     二分法:通过O(1)的时间,把规模为n的问题变为n/2.T(n) = T(n/2) + O(1) = O(logn). 基本操作:把长度为n的数组,分成前区间和后区间.设置start和end下标.i ...

  9. ES6笔记(二)

    一.字符串的扩展1. 用于从码点返回到对应字符. String.fromCodePoint(xx)2. for...of可以遍历字符串3. includes():返回布尔值,表示是否找到了参数字符串. ...

  10. docfx chocolatey安装方法

    这两天在git下载的docfx.zip .在安装过程中总是闪退,而加入环境变量后,执行提示:config file  docfx.json does not exist.所以我选择chocolatey ...