集群

  • 计算机集群是一种计算机系统,他通过一组松散集成的计算机软件和硬件连接起来高度紧密地协同完成计算工作。
  • 集群系统中的单个计算机通常称为节点,通常通过局域网连接。
  • 集群技术的特点:

    1、通过多台计算机完成同一个工作。达到更高的效率

    2、两机或多机内容、工作过程等完全一样。如果一台死机,另一台可以起作用

hadoop集群的物理分布

hadoop的分布式安装大致过程(在《伪分布式安装Hadoop》基础上安装)
1.1 分布结构 主节点(1个,是hadoop0):NameNode、JobTracker、SecondaryNameNode
       从节点(2个,是hadoop1、hadoop2):DataNode、TaskTracker
1.2 各节点重新产生ssh加密文件
1.3 编辑各个节点的/etc/hosts,在该文件中含有所有节点的ip与hostname的映射信息
1.4 两两节点之间的SSH免密码登陆
    ssh-copy-id -i hadoop1
    scp /root/.ssh/authorized_keys hadoop1:/root/.ssh/
1.5 把hadoop0的hadoop目录下的logs和tmp删除
1.6 把hadoop0中的jdk、hadoop文件夹复制到hadoop1和hadoop2节点
    scp -r /usr/local/jdk hadoop1:/usr/local/
1.7 把hadoop0的/etc/profile复制到hadoop1和hadoop2节点,在目标节点中执行source /etc/profile
1.8 编辑hadoop0的配置文件slaves,改为从节点的hostname,分别是hadoop1和hadoop2
1.9 格式化,在hadoop0节点执行hadoop namenode -format
1.10 启动,在hadoop0节点执行start-all.sh
****注意:对于配置文件core-site.xml和mapred-site.xml在所有节点中都是相同的内容。

2.动态的增加一个hadoop节点(将hadoop0变成hadoop0的一个从节点)
stop-all.sh
2.1 配置新节点的环境
2.2 把新节点的hostname配置到主节点的slaves文件中
2.3 在新节点,启动进程
        hadoop-daemon.sh start datanode
        hadoop-daemon.sh start tasktracker
2.4 在主节点执行脚本 hadoop dfsadmin -refreshNodes

3.动态的下架一个hadoop节点
kill -9 DataNode进程号

*****************************************************************
*      集群搭建实际操作步骤在《伪分布式安装Hadoop》基础上安装       *
*****************************************************************

这下面是自己实际搭建过程中的详细操作步骤:
1、Hadoop集群的搭建步骤(在《伪分布式安装Hadoop》基础上):
将之前搭建的伪分布式Hadoop的虚拟机,克隆多个。
VM--->虚拟机--->管理--->克隆--->完整克隆

2、配置克隆的两个虚拟机的ip和修改三个虚拟机的主机名
配置ip:
  hadoop0 192.168.80.100
  hadoop1 192.168.80.101
  hadoop2 192.168.80.102

IP配置好了,重启网卡,看是否配置成功。service network restart

修改主机名:
  vi /etc/sysconfig/network

修改完主机名后,重启虚拟机,reboot -h now

修改之前的虚拟机hadoop0主机名:
  vi /etc/sysconfig/network ---修改主机名
  vi /etc/hosts ---修改ip和主机名的映射文件
修改配置文件里的主机名:
  cd /usr/local/hadoop/conf
  vi core-site.xml
  vi mapred-site.xml
修改完,重启reboot -h now

将克隆的虚拟机中的一些文件删除掉:
cd /root/.ssh/
ls
rm -rf *

cd /usr/local/
ls
rm -rf *

将hadoop1和hadoop2中的环境变量也删除掉:
vi /etc/profile

设置三个节点的免密码登录:

ssh-keygen -t rsa
cd /root/.ssh/
cat id_rsa.pub >> authorized_keys      ---cat  XXX  >>  YYY:向YYY文件中追加内容XXX
ssh localhost
exit
vi /etc/hosts ---先写好映射文件
ssh hadoop1 ---再免密码登录时才会成功

hadoop0的主机名修改了,所以也要重新设置免密码登录!

三个虚拟机之间也应该要互相ping通(互相能访问):所以每个虚拟机的/etc/hosts中要有三个虚拟机的ip和主机名映射!!
1、手动修改三个虚拟机中的/etc/hosts
vi /etc/hosts
192.168.80.100 hadoop0
192.168.80.101 hadoop1
192.168.80.102 hadoop2
2、然后需要将自己的公钥复制给对方,这样自己访问对方的时候才不会要密码登录(注意:要是hadoop1和hadoop2没有网络连接,需要关闭虚拟机,重新将mac地址生成一次!)
hadoop0:ssh-copy-id -i hadoop1
ssh hadoop1
hadoop1:可以查看到是否有hadoop0的公钥
more authorzied_keys
这样hadoop0访问hadoop1的时候,就可以直接访问,不需要输入hadoop1的密码了。
同理,在hadoop2中再操作一遍,也能免密码登录hadoop1。
这样在hadoop1中more authorized_keys中就会有三个主机的公钥。为了简化操作,可以将其复制给其他两个主机中:
scp /root/.ssh/authorized_keys hadoop0:/root/.ssh/
scp /root/.ssh/authorized_keys hadoop2:/root/.ssh/

将hadoop0中/usr/local/hadoop/下的logs和tmp删除掉:
cd /usr/local/hadoop/
rm -rf logs/
rm -rf tmp/

把hadoop0中的jdk、hadoop文件夹复制到其他两个节点:
scp -r /usr/local/jdk hadoop1:/usr/local/
scp -r /usr/local/jdk hadoop2:/usr/local/
scp -r /usr/local/hadoop hadoop1:/usr/local/
scp -r /usr/local/hadoop hadoop2:/usr/local/

将hadoop0中的环境变量复制到其他两个节点中:
scp /etc/profile hadoop1:/etc/
scp /etc/profile hadoop2:/etc/
复制完了以后,在hadoop1和hadoop2中分别都执行source /etc/profile

在主节点hadoop0中/usr/local/hadoop/conf/下,将slaves里面的localhost删除掉,修改为hadoop1和hadoop2这两个从节点的主机名
vi slaves
  hadoop1
  hadoop2

在hadoop0中执行格式化操作:hadoop namenode -format

再在hadoop0上执行start-all.sh就可以启动hadoop集群了

然后可以在各个节点上查看相关情况:jps

也可以通过浏览器查看:hadoop0:50070 (需要在Windows中的hosts修改ip和主机名的映射)

*可以将SecondaryNameNode改为其他的节点上,可以是一个独立的主机,这里将其改为hadoop1上:
  vi masters
    将里面的localhost改为hadoop1

安全模式

在分布式文件系统启动的时候,开始的时候会有安全模式,当分布式文件系统处于安全模式的情况下,文件系统中的内容不允许修改也不允许删除,
直到安全模式结 束。安全模式主要是为了系统启动的时候检查各个DataNode上数据块的有效性,同时根据策略必要的复制或者删除部分数据块。
运行期通过命令也可以进入 安全模式。在实践过程中,系统启动的时候去修改和删除文件也会有安全模式不允许修改的出错提示,只需要等待一会
儿即可。

NameNode在启动的时候首先进入安全模式,如果datanode丢失的block达到一定的比例(1- dfs.safemode.threshold.pct),则系统会一直处于安全
模式状态即只读状态。 dfs.safemode.threshold.pct(缺省值0.999f)表示HDFS启动的时候,如果DataNode上报的block个数达到了 元数据记录的
block个数的0.999倍才可以离开安全模式,否则一直是这种只读模式。如果设为1则HDFS永远是处于SafeMode。

hadoop dfsadmin -safemode enter ---进入安全模式
hadoop dfsadmin -safemode leave ---离开安全模式
hadoop dfsadmin -safemode get ---查看安全模式状态
hadoop dfsadmin -safemode wait

hadoop集群的搭建(分布式安装)的更多相关文章

  1. hadoop集群环境搭建之安装配置hadoop集群

    在安装hadoop集群之前,需要先进行zookeeper的安装,请参照hadoop集群环境搭建之zookeeper集群的安装部署 1 将hadoop安装包解压到 /itcast/  (如果没有这个目录 ...

  2. hadoop集群环境搭建之zookeeper集群的安装部署

    关于hadoop集群搭建有一些准备工作要做,具体请参照hadoop集群环境搭建准备工作 (我成功的按照这个步骤部署成功了,经实际验证,该方法可行) 一.安装zookeeper 1 将zookeeper ...

  3. 高可用,完全分布式Hadoop集群HDFS和MapReduce安装配置指南

    原文:http://my.oschina.net/wstone/blog/365010#OSC_h3_13 (WJW)高可用,完全分布式Hadoop集群HDFS和MapReduce安装配置指南 [X] ...

  4. 大数据系列(4)——Hadoop集群VSFTP和SecureCRT安装配置

    前言 经过前三篇文章的介绍,已经通过VMware安装了Hadoop的集群环境,当然,我相信安装的过程肯定遇到或多或少的问题,这些都需要自己解决,解决的过程就是学习的过程,本篇的来介绍几个Hadoop环 ...

  5. 大数据系列(2)——Hadoop集群坏境CentOS安装

    前言 前面我们主要分析了搭建Hadoop集群所需要准备的内容和一些提前规划好的项,本篇我们主要来分析如何安装CentOS操作系统,以及一些基础的设置,闲言少叙,我们进入本篇的正题. 技术准备 VMwa ...

  6. 大数据——Hadoop集群坏境CentOS安装

    前言 前面我们主要分析了搭建Hadoop集群所需要准备的内容和一些提前规划好的项,本篇我们主要来分析如何安装CentOS操作系统,以及一些基础的设置,闲言少叙,我们进入本篇的正题. 技术准备 VMwa ...

  7. 关于hadoop集群管理系统搭建的规划说明

    Hadoop集群管理系统搭建是每个入门级新手都非常头疼的事情,因为你可能花费了很久的时间在搭建运行环境,最终却不知道什么原因无法创建成功.但对新手来说,运行环境搭建不成功的概率还蛮高的. 在之前的分享 ...

  8. ElasticSearch 集群环境搭建,安装ElasticSearch-head插件,安装错误解决

    ElasticSearch-5.3.1集群环境搭建,安装ElasticSearch-head插件,安装错误解决 说起来甚是惭愧,博主在写这篇文章的时候,还没有系统性的学习一下ES,只知道可以拿来做全文 ...

  9. hadoop集群环境搭建准备工作

    一定要注意hadoop和linux系统的位数一定要相同,就是说如果hadoop是32位的,linux系统也一定要安装32位的. 准备工作: 1 首先在VMware中建立6台虚拟机(配置默认即可).这是 ...

随机推荐

  1. Web客户端的几种存储方式

    1.Cookie 在H5之前,cookie是主要的存储方式.cookie可以兼容到包括ie6以上的所有浏览器. Cookie数据会带到请求头的cookie字段里面,每次同主域名的请求中,都会传递数据, ...

  2. bzoj千题计划166:bzoj2179: FFT快速傅立叶

    http://www.lydsy.com/JudgeOnline/problem.php?id=2179 FFT做高精乘 #include<cmath> #include<cstdi ...

  3. 【转载】wondows下wget的使用

    原文地址:http://www.cnblogs.com/Randy0528/archive/2011/10/21/2219831.html 感觉要放弃windows了,,,哎,,,, 下载window ...

  4. 【实操笔记】MySQL主从同步功能实现

    写在前边: 这两天来了个需求,配置部署两台服务器的MySQL数据同步,折腾了两天查了很多相关资料,一直连不上,后来发现其实是数据库授权的ip有问题,我们用的服务器是机房中的虚拟机加上反向代理出来的,坑 ...

  5. 转 -- OK6410 tftp下载内核、文件系统以及nand flash地址相关整理、总结

    转载地址:http://emouse.cnblogs.com/ 飞凌官方提供了一键下载烧写linux的方式,相对来说比较方便,但是对于开发来说不够灵活,因此这篇文章把tftp相关的点介绍一下,整理下其 ...

  6. HDU 1019 Least Common Multiple GCD

    解题报告:求多个数的最小公倍数,其实还是一样,只需要一个一个求就行了,先将答案初始化为1,然后让这个数依次跟其他的每个数进行求最小公倍数,最后求出来的就是所有的数的最小公倍数.也就是多次GCD. #i ...

  7. 快速修改Matlab默认启动路径(Windows/Mac)

    如何修改Matlab启动路径/Windows or Mac 控制台内输入一下两行命令,之后重启MATLAB即可   newpath = '你所要设定的路径'; userpath(newpath)   ...

  8. dump函数

    一.函数标准格式: DUMP(expr[,return_fmt[,start_position][,length]]) 基本参数时4个,最少可以填的参数是0个.当完全没有参数时,直接返回null.另外 ...

  9. Linux中断处理驱动程序编写【转】

    转自:http://blog.163.com/baosongliang@126/blog/static/1949357020132585316912/ 本章节我们一起来探讨一下Linux中的中断 中断 ...

  10. LVS ARP广播产生的问题和处理方式【转】

    转自 LVS ARP广播产生的问题和处理方式-htckiller2010-ChinaUnix博客http://blog.chinaunix.net/uid-24960107-id-193084.htm ...