首先先不看理论,搭建起环境之后再看;

  搭建伪分布式是为了模拟环境,调试方便。

  电脑是win10,用的虚拟机VMware Workstation 12 Pro,跑的Linux系统是centos6.5 ,装的hadoop2.6.0,jdk1.8;

  1.准备工作

  准备工作:把JDK和Hadoop安装包上传到linux系统(hadoop用户的根目录)

  系统环境:IP:192.168.80.99,

  linux用户:

  root/123456,hadoop/123456

  主机名:node

  把防火墙关闭,root执行:service iptables stop

  2.jdk安装

  1.在hadoop用户的根目录,Jdk解压,(hadoop用户操作)tar -zxvf jdk-8u65-linux-x64.tar.gz 解压完成后,在hadoop用户的根目录有一个jdk1.8.0_65目录

  2.配置环境变量,需要修改/etc/profile文件(root用户操作)切到root用户,输入su命令 vi /etc/profile 进去编辑器后,输入i,进入vi编辑器的插入模式在profile文件最后添加

JAVA_HOME=/home/hadoop/jdk1.8.0_65

export PATH=$PATH:$JAVA_HOME/bin

  编辑完成后,按下esc退出插入模式输入:,这时在左下角有一个冒号的标识

  q   退出不保存

  wq  保存退出

  q!   强制退出

  3.把修改的环境变量生效(hadoop用户操作)

  执行source /etc/profile

  4.执行 java -version 查看版本,如果成功证明jdk配置成功

  

  3.Hadoop 安装

   1.在hadoop用户的根目录,解压(hadoop用户操作)

    tar -zxvf hadoop-2.6.0.tar.gz

   解压完成在hadoop用户的根目录下有一个hadoop-2.6.0目录

  2.修改配置文件hadoop-2.6.0/etc/hadoop/hadoop-env.sh(hadoop用户操作)

    export JAVA_HOME=/home/hadoop/jdk1.8.0_65

  3.修改配置文件hadoop-2.6.0/etc/hadoop/core-site.xml,添加(hadoop用户操作)

  

<property>

<name>fs.defaultFS</name>

<value>hdfs://node:9000</value>

</property>

  4.修改配置文件hadoop-2.6.0/etc/hadoop/hdfs-site.xml,添加(hadoop用户操作)

  

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

  5.修改修改配置文件hadoop-2.6.0/etc/hadoop/mapred-site.xml (hadoop用户操作),这个文件没有,需要复制一份

    cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml

    添加

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

  6.修改配置文件hadoop-2.6.0/etc/hadoop/yarn-site.xml,添加(hadoop用户操作)

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

  

  7.修改主机名称(root用户操作),重启生效

    vi /etc/sysconfig/network

  修改HOSTNAME的值为用户名

  8.修改/etc/hosts文件(root用户操作),添加: ip 主机名称

    192.168.44.199(用自己的ip,下边讲如何获得)  node

  附:查看ip地址

  编辑-->虚拟网络编辑器

  net模式,选DHCP设置,得到ip地址起始

  

net设置,得到网关

点右边小电脑,选择 VPN Connections-->Configue VPN

选中eth0,点有右边edit

选择IP Settings ,根据自己的ip按图修改,Address就是你的ip地址,在起始ip地址和结束ip地址之间选一个就行

  9.格式化HDFS,在hadoop解压目录下,执行如下命令:(hadoop用户操作)

    bin/hdfs namenode -format

  注意:格式化只能操作一次,如果因为某种原因,集群不能用, 需要再次格式化,需要把上一次格式化的信息删除,在/tmp目录里执行 rm –rf *

  10.启动集群,在hadoop解压目录下,执行如下命令:(hadoop用户操作,截图用机后来改过,主机为gp)

    启动集群:sbin/start-all.sh   需要输入四次当前用户的密码(通过配置ssh互信解决,截图用机已经配置过ssh不用输密码)

   启动后,在命令行输入jps有以下输出

关闭集群:sbin/stop-all.sh  需要输入四次当前用户的密码(通过配置ssh互信解决,我的同上)

  4.SSH互信配置(hadoop用户操作)
  rsa加密方法,公钥和私钥
  1.生成公钥和私钥
  在命令行执行ssh-keygen,然后回车,然后会提示输入内容,什么都不用写,一路回车
  在hadoop用户根目录下,有一个.ssh目录
  id_rsa 私钥
  id_rsa.pub 公钥
  known_hosts 通过SSH链接到本主机,都会在这里有记录
  2.把公钥给信任的主机(本机)
  在命令行输入ssh-copy-id 主机名称
  ssh-copy-id hadoop
  复制的过程中需要输入信任主机的密码
  3.验证,在命令行输入:ssh 信任主机名称
  ssh hadoop
  如果没有提示输入密码,则配置成功

  至此,大功告成。

Hadoop新生报到(一) hadoop2.6.0伪分布式配置详解的更多相关文章

  1. 琐碎-hadoop2.2.0伪分布式和完全分布式安装(centos6.4)

    环境是centos6.4-32,hadoop2.2.0 伪分布式文档:http://pan.baidu.com/s/1kTrAcWB 完全分布式文档:http://pan.baidu.com/s/1s ...

  2. Hadoop2.5.0伪分布式环境搭建

    本章主要介绍下在Linux系统下的Hadoop2.5.0伪分布式环境搭建步骤.首先要搭建Hadoop伪分布式环境,需要完成一些前置依赖工作,包括创建用户.安装JDK.关闭防火墙等. 一.创建hadoo ...

  3. 在Win7虚拟机下搭建Hadoop2.6.0伪分布式环境

    近几年大数据越来越火热.由于工作需要以及个人兴趣,最近开始学习大数据相关技术.学习过程中的一些经验教训希望能通过博文沉淀下来,与网友分享讨论,作为个人备忘. 第一篇,在win7虚拟机下搭建hadoop ...

  4. hadoop 0.20.2伪分布式安装详解

    adoop 0.20.2伪分布式安装详解 hadoop有三种运行模式: 伪分布式不需要安装虚拟机,在同一台机器上同时启动5个进程,模拟分布式. 完全分布式至少有3个节点,其中一个做master,运行名 ...

  5. 安装hadoop2.6.0伪分布式环境

    集群环境搭建请见:http://blog.csdn.net/jediael_lu/article/details/45145767 一.环境准备 1.安装linux.jdk 2.下载hadoop2.6 ...

  6. ubuntu14.04搭建Hadoop2.9.0伪分布式环境

    本文主要参考 给力星的博文——Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04 一些准备工作的基本步骤和步骤具体说明本文不再列出,文章中提到的“见参考”均指以上 ...

  7. 安装hadoop2.6.0伪分布式环境 分类: A1_HADOOP 2015-04-27 18:59 409人阅读 评论(0) 收藏

    集群环境搭建请见:http://blog.csdn.net/jediael_lu/article/details/45145767 一.环境准备 1.安装linux.jdk 2.下载hadoop2.6 ...

  8. Centos7.0配置Hadoop2.7.0伪分布式

    一.ssh免密登录 1.命令ssh-keygen. overwrite输入y一路回车 2.将生成的密钥发送到本机 ssh-copy-id localhost中间会询问是否继续输入“yes” 3.测试免 ...

  9. Ubuntu15.10下Hadoop2.6.0伪分布式环境安装配置及Hadoop Streaming的体验

    Ubuntu用的是Ubuntu15.10Beta2版本,正式的版本好像要到这个月的22号才发布.参考的资料主要是http://www.powerxing.com/install-hadoop-clus ...

随机推荐

  1. B. Karen and Coffee

    B. Karen and Coffee time limit per test 2.5 seconds memory limit per test 512 megabytes input standa ...

  2. kubernetes 概览

    kubernetes 核心数据 (存储于ETCD 有数据变化通知的功能(watch-dog)) kubernetes 设计综述 (中英文对照)(http://www.oschina.net/trans ...

  3. Linux网络编程客户\服务器设计范式

    1.前言 网络编程分为客户端和服务端,服务器通常分为迭代服务器和并发服务器.并发服务器可以根据多进程或多线程进行细分,给每个连接创建一个独立的进程或线程,或者预先分配好多个进程或线程等待连接的请求.今 ...

  4. linux上搭建zookeeper

    1.zookeeper介绍 ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件.它是一个为分布式应用提 ...

  5. CoolBlog开发笔记第4课:数据库模型设计

    教程目录 1.1 CoolBlog开发笔记第1课:项目分析 1.2 CoolBlog开发笔记第2课:搭建开发环境 1.3 CoolBlog开发笔记第3课:创建Django应用 前言 我新书<Py ...

  6. El表达式取map值

    map el表达取值 ${initMap['kehuList']}

  7. ASP.NET MVC Bundling and RequireJS

    关于ASP.NET MVC Bundling and RequireJS的取舍问题,最近比较困惑,我希望有一种方式可以结合两者的优点.作为.NET程序员,难道你没有过这方面的困惑吗? 因为我感觉各自都 ...

  8. springboot1.5.4 配置druid1.1.0(使用druid-spring-boot-starter)

    原文:https://github.com/x113773/testall/issues/11 ### Druid 最近发布了1.1.0 版本,并且提供了 [druid-spring-boot-sta ...

  9. template might not exist or might not be accessible by any of the configured Template Resolvers

    距离上一篇文章已经很长时间了,最近太忙碌了,今天发布spring boot遇到一个问题,找了好久才找到解决办法,今天贴出来和大家一起分享下,首先看错误信息 HTTP Status 500 - Requ ...

  10. 剑指offer 练习题目

    #include <iostream> #include<vector> #include <stack> #include<map> #include ...