1.  安装VMware Workstation Pro

2.安装Ubuntu-16.04

3.以下全程使用sudo –s 切换root权限

4.更新deb软件包列表:apt-get update

5.安装系统更新           apt-get upgrade

6.安装JDK8到/opt/java8

  改变所属组和用户

  cd /opt

  sudo chown cc:cc java8

7.设置CLASSPATH 和JAVA_HOME,这里我使用的是gedit /etc/profile的方式设置

    export JAVA_HOME=/opt/java8

    export PATH=$JAVA_HOME/bin:$PATH

     export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

8.从http://hadoop.apache.org/下载hadoop-2.7.3.tar.gz

    tar -zxvf hadoop-2.7.3.tar.gz 解压

    改变所属组和用户

    cd /opt

    chown cc:cc hadoop-2.7.3

9.更新hadoop环境变量

    gedit hadoop/conf/hadoop-env.sh

    将#export JAVA_HOME= ***   这一行改为:

    export JAVA_HOME=/opt/java8  (注:此处java_home 一定要硬编码)

10.gedit /etc/profile配置环境变量 export HADOOP_HOME=/opt/hadoop-2.7.3

11.配置ssh
  apt-get install ssh

  查看是否已经安装好ssh  –V

  检查是否生成/root/.ssh目录,没生成的话用mkdir生成一个,如图:

  生成公钥:ssh-keygen

  公钥密码可以留空

  检查/root/.ssh目录是否生成文件authorized_keys,如果没有使用touch authorized_keys
生成一个

  把公钥的内容复制到authorized_keys文件中cat
id_rsa.pub >> authorized_keys

  修改authorized_keys权限为600: chmod 600
 authorized_keys

  验证是否配置成,命令:ssh localhost

12.克隆两台虚拟机

13.建立三台虚拟机的通信

新增的两台虚拟机会在电脑的网络连接里多两个连接

  设置共享原来的本地连接

   

  设置虚拟机连接

   

  设置IP地址,DNS可以不设

   

  在第一台虚拟机里新曾一个网络连接

   

  分别再设置另两个CC02,CC03的IP分别为:192.168.100.129、192.168.100.131

  之后三个虚拟机通信使用连接wired connection1

14.使用CC01为NameNode,CC03,CC03为DataNode

15.gedit /etc/hosts

  添加数据:

    192.168.198.140 
CC01

    192.168.198.141  CC02

    192.168.198.142  CC03

16.配置SSH

在CC02\CC03上分别执行

    scp root@CC01:/root/.ssh/id_rsa.pub 
/root/.ssh/CC01_rsa.pub

    cat CC01_rsa.pub
>> authorized_keys

  在CC01上执行

    scp root@CC01:/root/.ssh/id_rsa.pub  /root/.ssh/CC01_rsa.pub

    cat  /root/.ssh/CC01_rsa.pub  >> 
/root/.ssh/authorized_keys

17.配置conf/masters , conf/slaves

  在所有节点上:

    gedit /opt/hadoop-2.7.3/etc/hadoop/加入一行:CC01

    gedit /opt/hadoop-2.7.3/etc/hadoop/slaves加入行:

      CC02

      CC03

18.配置core-site.xml

  <configuration>

  <property>

  <name>fs.default.name</name>

     <value>hdfs://CC01:9000</value>

  </property>

  </configuration>

19.配置hdfs-site.xml:

  <configuration>
      <property>
          <name>dfs.replication</name>
        <value>1</value>
      </property>
      <property>
          <name>dfs.namenode.name.dir</name>
        <value>file:///opt/hadoop-2.7.3/hdfs/name</value>
      </property>
      <property>
          <name>dfs.datanode.data.dir</name>
        <value>file:///opt/hadoop-2.7.3/hdfs/data</value>
      </property>
  </configuration>

记得:

mkdir
/opt/hadoop-2.7.3/hdfs/name

mkdir
/opt/hadoop-2.7.3/hdfs/data

20.配置mapred-site.xml:

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>CC01:9001</value>

</property>

</configuration>

21.格式化分布式文件系统

在namenode上

/opt/hadoop-2.7.3/bin/hdfs namenode
–format

22.启动HDFS,在namenode上

/opt/hadoop-2.7.3/sbin/start-dfs.sh

   

  jps命令查看

  

VM搭建hadoop分布式集群的更多相关文章

  1. 超快速使用docker在本地搭建hadoop分布式集群

    超快速使用docker在本地搭建hadoop分布式集群 超快速使用docker在本地搭建hadoop分布式集群 学习hadoop集群环境搭建是hadoop入门的必经之路.搭建分布式集群通常有两个办法: ...

  2. 使用docker搭建hadoop分布式集群

    使用docker搭建部署hadoop分布式集群 在网上找了非常长时间都没有找到使用docker搭建hadoop分布式集群的文档,没办法,仅仅能自己写一个了. 一:环境准备: 1:首先要有一个Cento ...

  3. 使用Docker在本地搭建Hadoop分布式集群

    学习Hadoop集群环境搭建是Hadoop入门必经之路.搭建分布式集群通常有两个办法: 要么找多台机器来部署(常常找不到机器) 或者在本地开多个虚拟机(开销很大,对宿主机器性能要求高,光是安装多个虚拟 ...

  4. 分布式计算(一)Ubuntu搭建Hadoop分布式集群

    最近准备接触分布式计算,学习分布式计算的技术栈和架构知识.目前的分布式计算方式大致分为两种:离线计算和实时计算.在大数据全家桶中,离线计算的优秀工具当属Hadoop和Spark,而实时计算的杰出代表非 ...

  5. 在 Ubuntu 上搭建 Hadoop 分布式集群 Eclipse 开发环境

    一直在忙Android FrameWork,终于闲了一点,利用空余时间研究了一下Hadoop,并且在自己和同事的电脑上搭建了分布式集群,现在更新一下blog,分享自己的成果. 一 .环境 1.操作系统 ...

  6. CentOS7.5搭建Hadoop分布式集群

    材料:3台虚拟主机,ip分别为: 192.168.1.201 192.168.1.202 192.168.1.203 1.配置主机名称 三个ip与主机名称分别对应关系如下: 192.168.1.201 ...

  7. hadoop分布式集群的搭建

    电脑如果是8G内存或者以下建议搭建3节点集群,如果是搭建5节点集群就要增加内存条了.当然实际开发中不会用虚拟机做,一些小公司刚刚起步的时候会采用云服务,因为开始数据量不大. 但随着数据量的增大才会考虑 ...

  8. Hadoop分布式集群搭建hadoop2.6+Ubuntu16.04

    前段时间搭建Hadoop分布式集群,踩了不少坑,网上很多资料都写得不够详细,对于新手来说搭建起来会遇到很多问题.以下是自己根据搭建Hadoop分布式集群的经验希望给新手一些帮助.当然,建议先把HDFS ...

  9. 大数据系列之Hadoop分布式集群部署

    本节目的:搭建Hadoop分布式集群环境 环境准备 LZ用OS X系统 ,安装两台Linux虚拟机,Linux系统用的是CentOS6.5:Master Ip:10.211.55.3 ,Slave ...

随机推荐

  1. bzoj 4184: shallot【线性基+时间线段树】

    学到了线段树新姿势! 先离线读入,根据时间建一棵线段树,每个节点上开一个vector存这个区间内存在的数(使用map来记录每个数出现的一段时间),然后在线段树上dfs,到叶子节点就计算答案. 注意!! ...

  2. 洛谷 P2763 试题库问题【最大流】

    s向所有类别属性连流量为当前类别属性需要的个数的边,所有题目向t连流量为1的边(表示只能选一次),所有属性向含有它的题连容量为1的边.跑一变dinic,结果小于m则无解,否则看每一个类别属性连出去的题 ...

  3. 51nod 1119 机器人走方格 V2 【组合数学】

    挺水的但是我好久没写组合数了- 用这样一个思想,在1~m列中,考虑每一列上升几格,相当于把n-1个苹果放进m个篮子里,可以为空,问有几种方案. 这个就是一个组合数学经典问题了,考虑n个苹果放进m个篮子 ...

  4. 一个 Java 对象到底有多大?

    阅读本文大概需要 2.8 分钟. 出处:http://u6.gg/swLPg 编写 Java 代码的时候,大多数情况下,我们很少关注一个 Java 对象究竟有多大(占据多少内存),更多的是关注业务与逻 ...

  5. git上拉取tag,识别最新tag在此版本上新增tag

    通过shell 脚本自动获取最新tag,并输入最新版本后,推到git上 # 拉取分支上现有的tags git fetch --tags echo -e "所有tag列表" git ...

  6. Taro 采坑日常

    组件事件传参只能在类作用域下的确切引用(this.handleXX || this.props.handleXX),或使用 bind. 组件中点击事件如下 // 组件 <AtListItem k ...

  7. Linux磁盘分区、格式化和挂载

    一.查看磁盘使用 [root@iZ88rvassw1Z ~]# df -h Filesystem Size Used Avail Use% Mounted on /dev/vda1 40G .3G 3 ...

  8. Oracle报错:“ORA-18008: 无法找到 OUTLN 方案 ”的解决方案

    Oracle报错:“ORA-18008: 无法找到 OUTLN 方案 ”的解决方案   2.修改replication_dependency_tracking参数 SQL> alter syst ...

  9. windows deintall 12c client

    1.unintall: close all oracle app C:\app\client\CICadmin\product\12.1.0\client_1\deinstall deinstall ...

  10. CF949B A Leapfrog in the Array

    思路: 最终的时候,对于位置p,若p是奇数,则该位置的元素是(p + 1) / 2:若p是偶数,需要从p开始不断地迭代寻找上一次跳跃所处的位置(p = p + n - p / 2),直到p是奇数为止. ...