title: Hadoop伪分布式模式搭建

Quitters never win and winners never quit.

运行环境:

  1. Ubuntu18.10-server版镜像:ubuntu-18.10-live-server-amd64.iso

  2. Oracle VM VirtualBox

  3. Hdoop最新版

  4. jdk1.8.0_191

开始操作:

  1. 新建虚拟机(当然是用最新版的Ubuntu了,为了提高实用性,建议使用服务器版)

  2. 设置虚拟机的网络为默认模式(网络地址转换)或者桥接模式,建议不要使用NAT模式

  3. 设置虚拟机端口转发:(主机端口可自己设置,只要不与其他进程冲突即可)

    a. 主机9000 虚拟机22 (ssh链接专用端口,建议牢记)

    b. 主机9001 虚拟机8088 (hadoop检测端口)

  4. 启动虚拟机用SSH连接并配置好:

    启动虚拟机(建议无界面启动),打开本地终端,输入命令:

    $ ssh -p 9000 username@127.0.0.1  # username是安装镜像是设置的用户名

    按提示选择yes,输入密码。

    选择本地终端的理由:我的本地终端经过美化和自定义,比界面启动的黑框体验好,还有就是为了贴近实际操作环境

    # hostname 配置
    $ hostname bigdata-senior01.chybinmy.com  # 临时修改,省去重启虚拟机
    $ vim /etc/hostname  # 永久修改,为以后着想
    $ bigdata-senior01.chybinmy.com  # 将里面的主机名改为bigdata-senior01.chybinmy.com
    
    # host 配置
    $ ifconfig  # 得到当前虚拟机网络地址(inet后面的第一个地址,假设为10.42.0.32)
    # 配置Host
    $ vim /etc/hosts
    $ 10.42.0.32 bigdata-senior01.chybinmy.com  # 在文件尾部添加
  5. 新建hadoop用户:

    $ sudo adduser hadoop  # 新建hadoop用户,根据提示输入密码
  6. 切换hadoop用户:

    $ su hadoop
  7. 新建文件夹并将文件夹拥有者改为hadoop:

    $ sudo mkdir /opt/modules
    
    $ sudo chown -R hadoop:hadoop /opt/modules
  8. 下载hadoop和JDK并将它们拷贝到/opt/modules/目录下:

    $ scp -P 9990 hadoop-2.9.2.tar.gz fofade@127.0.0.1:/opt/modules  # jdk类似

    提示:这里可以用sftp来传文件,我使用的是ubuntu18.04文件管理器自带的sftp传输。

  9. 解压文件(hadoop和jdk):

    $ tar -zxvf hadoop-2.9.2.tar.gz  # jdk解压方法类似
    # jdk 解压后如果虚拟机没有java环境的话,
    # 需要配置java环境,请自行配置!!!
  10. 配置hadoop:

    a. 环境变量:

    $ vim /etc/profile
    
    $ export HADOOP_HOME="/opt/modules/hadoop-2.9.2"
    
    $ export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
    
    执行:source /etc/profile 使得配置生效

    b. 验证参数:

    $ echo $HADOOP_HOME  # 值为:/opt/modules/hadoop-2.5.0

    c. 配置 hadoop-env.sh、mapred-env.sh、yarn-env.sh文件的JAVA_HOME参数:

    $ sudo vim  ${HADOOP_HOME}/etc/hadoop/hadoop-env.sh
    
    修改JAVA_HOME参数为:
    
    $ export JAVA_HOME="/opt/modules/jdk1.8.0_181"

    d. 配置core-site.xml:

    $ sudo vim ${HADOOP_HOME}/etc/hadoop/core-site.xml  # 输入该命令
    # 在<configuration></cinfiguration>中添加以下内容
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://bigdata-senior01.chybinmy.com:8020</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/data/tmp</value>
    </property>

    e. 创建临时目录:

    $ sudo mkdir -p /opt/data/tmp  # 创建目录
    
    $ sudo chown -R hadoop:hadoop /opt/data/tmp  # 改目录拥有者
  11. 配置HDFS:

    a. 配置hdfs-site.xml:

    $ sudo vim ${HADOOP_HOME}/etc/hadoop/hdfs-site.xml
    # 在<configuration></cinfiguration>中添加以下内容
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>

    b. 格式化HDFS:

    $ hdfs namenode -format
    # 格式化后,查看/opt/data/tmp目录下是否有dfs目录
    # 如果有,说明格式化成功

    c. 检测结果:

    # 启动NameNode
    $ ${HADOOP_HOME}/sbin/hadoop-daemon.sh start namenode
    # 启动DataNode
    $ ${HADOOP_HOME}/sbin/hadoop-daemon.sh start datanode
    # 启动SecondaryNameNode
    $ ${HADOOP_HOME}/sbin/hadoop-daemon.sh start secondarynamenode
    # 再运行:
    $ jps
    # 如果有类似下面四条结果就是成功了:
    3034 NameNode
    
    3233 Jps
    
    3193 SecondaryNameNode
    
    3110 DataNode
    
  12. 配置YARN:

    a. 配置mapred-site.xml:

    $ cp ${HADOOP_HOME}/etc/hadoop/mapred-site.xml.template ${HADOOP_HOME}/etc/hadoop/mapred-site.xml
    $ sudo vim ${HADOOP_HOME}/etc/hadoop/mapred-site.xml
    # 在<configuration></cinfiguration>中添加以下内容
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>

    b. 配置yarn-site.xml:

    $ sudo vim ${HADOOP_HOME}/etc/hadoop/yarn-site.xml
    # 在<configuration></cinfiguration>中添加以下内容
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>bigdata-senior01.chybinmy.com</value>
    </property>

    c. 启动Resourcemanager:

    $ ${HADOOP_HOME}/sbin/yarn-daemon.sh start resourcemanager

    d. 启动nodemanager:

    $ ${HADOOP_HOME}/sbin/yarn-daemon.sh start nodemanager

    e. 检测:

    # 再运行:
    $ jps
    # 如果有类似下面六条结果就是成功了:
    3034 NameNode
    
    4439 NodeManager
    
    4197 ResourceManager
    
    4543 Jps
    
    3193 SecondaryNameNode
    
    3110 DataNode
  13. 检查是否成功搭建伪分布式hadoop:

    # YARN的Web客户端端口号是8088,
    # 因为我们设置了虚拟机的端口转发,
    # 所以只需要主机访问127.0.0.1:9001就可以查看
    # 只要成功访问网站则说明搭建成功

搭建心得:

  1. 搭建当中最好不要重启虚拟机,如果重启了建议删除hadoop用户重新搭建

  2. 如果虚拟机没有配置java环境的话,会提示没有jps这条命令,所以你应当提前自己配置好虚拟机java环境

  3. 每次对环境进行修改后,最好使用source /etc/profile更新下配置

  4. 可以直接使用${HADOOP_HOME}/sbin/ 下的start_all.sh来快捷开始和stop_all.sh来快捷关闭hadoop服务

Hadoop伪分布式模式搭建的更多相关文章

  1. Hadoop伪分布式模式部署

    Hadoop的安装有三种执行模式: 单机模式(Local (Standalone) Mode):Hadoop的默认模式,0配置.Hadoop执行在一个Java进程中.使用本地文件系统.不使用HDFS, ...

  2. 【Hadoop离线基础总结】CDH版本Hadoop 伪分布式环境搭建

    CDH版本Hadoop 伪分布式环境搭建 服务规划 步骤 第一步:上传压缩包并解压 cd /export/softwares/ tar -zxvf hadoop-2.6.0-cdh5.14.0.tar ...

  3. CentOS7下Hadoop伪分布式环境搭建

    CentOS7下Hadoop伪分布式环境搭建 前期准备 1.配置hostname(可选,了解) 在CentOS中,有三种定义的主机名:静态的(static),瞬态的(transient),和灵活的(p ...

  4. hadoop伪分布式平台搭建(centos 6.3)

    最近要写一个数据量较大的程序,所以想搭建一个hbase平台试试.搭建hbase伪分布式平台,需要先搭建hadoop平台.本文主要介绍伪分布式平台搭建过程. 目录: 一.前言 二.环境搭建 三.命令测试 ...

  5. 初学者值得拥有【Hadoop伪分布式模式安装部署】

    目录 1.了解单机模式与伪分布模式有何区别 2.安装好单机模式的Hadoop 3.修改Hadoop配置文件---五个核心配置文件 (1)hadoop-env.sh 1.到hadoop目录中 ​ 2.修 ...

  6. Hadoop伪分布式环境搭建+Ubuntu:16.04+hadoop-2.6.0

    Hello,大家好 !下面就让我带大家一起来搭建hadoop伪分布式的环境吧!不足的地方请大家多交流.谢谢大家的支持 准备环境: 1, ubuntu系统,(我在16.04测试通过.其他版本请自行测试, ...

  7. Hadoop伪分布式的搭建

    主要分为三个步骤:1.安装vmware虚拟机运行软件  2.在vmware虚拟机中安装linux操作系统   3.配置hadoop伪分布式环境 Hadoop环境部署-JDK部分------------ ...

  8. VM上Hadoop3.1伪分布式模式搭建

    https://www.cnblogs.com/asker009/p/9126354.html 最近要搭建一个Hadoop做实验,因为版本的问题遇到不少的坑,本文记录VM上搭建的CentOS7.0+H ...

  9. 《OD大数据实战》Hadoop伪分布式环境搭建

    一.安装并配置Linux 8. 使用当前root用户创建文件夹,并给/opt/下的所有文件夹及文件赋予775权限,修改用户组为当前用户 mkdir -p /opt/modules mkdir -p / ...

随机推荐

  1. POJ1308/HDU1325/NYOJ129-Is It A Tree?,并查集!

    Is It A Tree? Time Limit: 1000MS   Memory Limit: 10000K Total Submissions: 28838   Accepted: 9843 -& ...

  2. HDU 1800 hash 找出现最多次数的字符串的次数

    乘法hash: 这类hash函数利用了乘法的不相关性 int Hash(char *str){    int seed = 131 , value=0;    while(*str != '\0'){ ...

  3. bzoj 2653 middle (可持久化线段树)

    middle Time Limit: 20 Sec  Memory Limit: 512 MBSubmit: 1981  Solved: 1097[Submit][Status][Discuss] D ...

  4. nyoj_758_分苹果

    分苹果 时间限制:1000 ms  |  内存限制:65535 KB 难度:2   描述 把M个同样的苹果放在N个同样的盘子里,允许有的盘子空着不放,问共有多少种不同的分法? (注意:假如有3个盘子7 ...

  5. Layui弹出层、日期和时间选择、即时通讯、分页

    Layui弹出层.日期和时间选择.即时通讯.分页 弹层组件文档 - layui.layer 对于弹出层的感觉是:layer 至今仍作为 layui 的代表作,她的受众广泛并非偶然,而是这数年来的坚持. ...

  6. [bzo1211][HNOI2004]树的计数_prufer序列

    树的计数 bzoj-1211 HNOI-2004 题目大意:题目链接. 注释:略. 想法: prufer序列有一个性质就是一个数在prufer序列中出现的次数等于这个prufer序列生成的树中它的度数 ...

  7. 搭建ELK收集PHP的日志

    架构: filebeat --> redis -->logstash --> es --> kibana 每个客户端需要安装filebeat收集PHP日志 filebeat把收 ...

  8. Elasticsearch学习系列之介绍安装

    前言 关于ELK搭建的问题,或许你还有些模糊,其实你把我视频里讲的知识点串联起来就明白了.搭建ELK环境,看下面我说的: 首先,先把ES集群搭建起来,建议用CentOS6.5 64位的linux系统, ...

  9. REST API 安全设计

    REST API 安全设计 2017年04月27日 18:34:27 阅读数:1699   Rest API 的那些事儿 作者/ asterisk 在软件行业快速发展的今天,传统的软件授权已经不能足以 ...

  10. x86CPU 实模式 保护模式 傻傻分不清楚? 基于Xv6-OS 分析CR0 寄存器

    基于Xv6-OS 分析CR0 寄存器 之前一直认为晕乎乎的...啥?什么时候切换real model,怎么切换,为什么要切换? ------------------------------------ ...