声明:作者原创,转载注明出处. 作者:帅气陈吃苹果 一.服务器环境 主机名 IP 用户名 密码 安装目录 master188 192.168.29.188 hadoop hadoop /home/hadoop/ master189 192.168.29.189 hadoop hadoop /home/hadoop/ slave190 192.168.29.190 hadoop hadoop /home/hadoop/ 二.集群规划 master188 master189 slave190 Nam…
目录 目录 1.前言 1.1.什么是 Hadoop? 1.1.1.什么是 YARN? 1.2.什么是 Zookeeper? 1.3.什么是 Hbase? 1.4.什么是 Hive 1.5.什么是 Spark? 2.环境准备 2.1.网络配置 2.2.更改 HOSTNAME 2.3.配置 SSH 免密码登录登录 2.4.关闭防火墙 2.7.安装 NTP 3. 下载应用程序及配置环境变量 3.1.创建安装目录 3.2.下载本文中用到的程序 3.3.设置环境变量 4. 安装 Oracle JDK 1.…
现在大家可以跟我一起来实现Ubuntu 12.04下Hadoop 2.2.0 集群搭建,在这里我使用了两台服务器,一台作为master即namenode主机,另一台作为slave即datanode主机,增加更多的slave只需重复slave部分的内容即可. 系统版本: master:Ubuntu 12.04 slave:Ubuntu 12.04 hadoop:hadoop 2.2.0 安装ssh服务:sudo apt-get install ssh 有时也要更新一下vim:sudo apt-ge…
1.集群规划: 主机名        IP                安装的软件                            执行的进程 drguo1  192.168.80.149 jdk.hadoop                         NameNode.DFSZKFailoverController(zkfc).ResourceManager drguo2 192.168.80.150  jdk.hadoop                         Nam…
一.首先配置集群信息 vi /etc/hosts 二.安装zookeeper 1.解压至/usr/hadoop/下 .tar.gz -C /usr/hadoop/ 2.进入/usr/hadoop/zookeeper-3.4.10/conf目录,将zoo_sample.cfg 复制为 zoo.cfg /conf/zoo_sample.cfg /usr/hadoop/zookeeper-/conf/zoo.cfg 3.编辑zoo.cfg 4.新建dataDir目录 /dataDir/ 5.向data…
一.高可就集群搭建 1.集群规划 2.集群服务器准备 (1) 修改主机名(2) 修改 IP 地址(3) 添加主机名和 IP 映射(4) 同步服务器时间(5) 关闭防火墙(6) 配置免密登录(7) 安装 JDK 3.集群安装 (1)安装zookeeper集群 (2)安装hadoop集群…
准备 系统:CentOS 6或者RedHat 6(这里用的是64位操作) 软件:JDK 1.7.hadoop-2.3.0.native64位包(可以再csdn上下载,这里不提供了) 部署规划 192.168.1.11 C6H1 NameNode.DataNode.ResourceManager.NodeManager.JournalNode 192.168.1.12 C6H2 NameNode.DataNode.JournalNode.NodeManager 192.168.1.13 C6H3…
1.概述 今天补充一篇HBase集群的搭建,这个是高可用系列遗漏的一篇博客,今天抽时间补上,今天给大家介绍的主要内容目录如下所示: 基础软件的准备 HBase介绍 HBase集群搭建 单点问题验证 截图预览 那么,接下来我们开始今天的HBase集群搭建学习. 2.基础软件的准备 由于HBase的数据是存放在HDFS上的,所以我们在使用HBase时,确保Hadoop集群已搭建完成,并运行良好.若是为搭建Hadoop集群,请参考我写的<配置高可用的Hadoop平台>来完成Hadoop平台的搭建.另…
留给我学习hadoop的时间不多了,要提高效率,用上以前学的东西.hadoop要注重实战,把概念和原理弄清楚,之前看过一些spark,感觉都是一些小细节,对于理解hadoop没什么帮助.多看看资料,把基础打扎实吧. 1.首先就是hadoop的按装,分为a单机版b伪分布式c分布式,生产环境下都是用的分布式,但是既然要学习,又没有硬件资源,那就从最简单的单机版学起(这有没有类似于游戏啊).我从最开始不知道虚拟机及其用途,后来安装了它,费了一番周折,再到最后开始用它做开发了,说明我知道的东西太少了,要…
目录 3.1 配置各节点SSH无密钥登录 1.将各节点的秘钥加入到同一个授权文件中 2.拷贝授权文件到各个节点 3.测试无秘钥登录 3.2 搭建Hadoop集群 1.上传Hadoop并解压 2.配置Hadoop环境变量 3.配置HDFS 4.配置YARN 5.拷贝Hadoop安装文件到其它主机 6.启动Hadoop 7.查看各节点启动进程 8.测试HDFS 9.测试MapReduce 3.1 配置各节点SSH无密钥登录 [操作目的] Hadoop的进程间通信使用SSH(Secure Shell)…
目录 目录 实验环境 安装 Hadoop 配置文件 在另外两台虚拟机上搭建hadoop 启动hdfs集群 启动yarn集群 本文主要是在上节CentOS集群基础上搭建Hadoop集群. 实验环境 Hadoop版本:CDH 5.3.6 *本实验项目所需软件均可在百度网盘链接:http://pan.baidu.com/s/1dFeNR6h 密码:1zx4中获取. 安装 Hadoop 上传hadoop文件到/usr/local目录下 rz 解压 tar -zxvf hadoop-2.5.0-cdh5.…
1.  常见问题 (1)hostname设置问题.vi /etc/sysconfig/network (2)集群/etc/hosts没有统一. (3)yarn slave需要单独启动../sbin/yarn-daemon.sh start resourcemanager (4)namenode格式化需要逐个先启动journalnode. (5)kerberos主从数据同步时获取不到ticket,一般和设置了多个hosts有关.建议hosts配置和hostname只配置一个. (6)jsvc通过y…
1.背景介绍 Hadoop2.0.0之前,在一个HDFS集群中,NameNode存在单节点故障(SPOF):因为集群中只有一个NameNode,所以在使用过程中,如果该NameNode出现故障或数据丢失,那么整个集群将瘫痪,故障NameNode节点故障无法恢复,将导致整个集群不能恢复,这也是Hadoop2.0.0之前版本不可靠的表现. 为了解决hadoop2.0.0之前的单点问题,在hadoop2通过在同一个集群上运行两个NameNode的主动/被动配置热备份,这样集群允许在一个NameNode…
一.环境准备 1. 机器: 3 台虚拟机 机器 角色  l-qta3.sp.beta.cn0 NameNode,ResourceManager,spark的master l-querydiff1.sp.beta.cn0 DataNode,NodeManager,Worker l-bgautotest2.sp.beta.cn0 DataNode,NodeManager,Worker 2. jdk版本 [xx@l-qta3.sp.beta.cn0 ~]$ java -versionjava vers…
此文已由作者朱笑笑授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. 本文主要参照官网的安装步骤实现了Hadoop伪分布式集群的搭建,希望能够为初识Hadoop的小伙伴带来借鉴意义. 环境: (1)系统环境:CentOS 7.3.1611 64位 (2)Java版本:OpenJDK 1.8.0 配置Hadoop单节点集群前准备 1.创建hadoop用户: 新建用户用于hadoop使用: (1)打开终端,输入命令su,回车,输入root的密码以root用户登录,并创建名为ha…
一.环境说明 1.虚拟机平台:VMware10 2.Linux版本号:ubuntu-12.04.3-desktop-i386 3.JDK:jdk1.7.0_51 4.Hadoop版本号:2.2.0 5.集群节点:3个,各自是hadoopMaster.hadoopSlave1.hadoopSlave2 注明:文中fyzwjd是虚拟机username. 二.准备工作 1.安装虚拟机平台,并新建一个Ubuntu虚拟机,记为hadoopMaster. 2.在hadoopMaster上安装JDK. Jdk…
yum install gcc yum install gcc-c++ yum install make yum install autoconfautomake libtool cmake yum install ncurses-devel yum install openssl-devel groupadd hadoop  添加一个组 useradd hadoop -g hadoop  添加用户 安装protoc(需用root用户) 1 tar -xvf protobuf-2.5.0.tar…
免密码ssh设置 现在确认能否不输入口令就用ssh登录localhost: $ ssh localhost 如果不输入口令就无法用ssh登陆localhost,执行下面的命令: . 并修改hosts映射: 添加:(配置三台机器hosts,保证可以互相访问) $ vi /etc/hosts 127.0.0.1 localhost.localdomain localhost 192.168.126.10 master.localdomain master 192.168.126.20 slave1.…
一.准备工作: 1.找3台以上的主机(因为HDFS文件系统中保存的文件的blocak在datanode中至少要有3份或3份以上的备份,备份不能放于同一个机架上,更不能放于同一台主机上),我这里使用的是4台,分别是hadoop1.hadoop2.hadoop3和hadoop4. 2.安装每台主机的基本环境:linux CentOS6.5 64x系统,启动每台主机的系统,配置好网络和主机名<====>ip的映射. 配置网络的文件在:/etc/sysconfig/network-scripts/if…
http://blog.csdn.net/u010048823/article/details/51913608…
1. 基础环境搭建 新建3个CentOS6.5操作系统的虚拟机,命名(可自定)为masternode.slavenode1和slavenode2.该过程参考上一篇博文CentOS6.5安装配置详解 2.Hadoop集群搭建(以下操作中三个节点相同的地方就只给出主节点的截图,不同的才给出所有节点的截图)   2.1 系统时间同步 使用date命令查看当前系统时间 系统时间同步 [root@masternode ~]# cd /usr/share/zoneinfo/ [root@masternode…
1.准备阶段 1.1.新建三台虚拟机 Hadoop完全分市式集群是典型的主从架构(master-slave),一般需要使用多台服务器来组建.我们准备3台服务器(关闭防火墙.静态IP.主机名称).如果没有这样的环境,可以在一台电脑上安装VMWare Workstation.在VM上安装三台Linux,分别是1个主节点,2个从节点,如下图所示. 节点类型 IP地址 主机名 NameNode 192.168.86.150 master DataNode 192.168.86.160 slave1 Da…
Hadoop-HA集群搭建 一.基础准备工作 1.准备好5台Linux系统虚拟服务器或物理服务器 我这里演示采用虚拟服务器搭建Hadoop-HA集群,各自功能分配如下: NameNode节点:vt-serv.vt-serv4 DataNode节点:vt-serv1.vt-serv2.vt-serv3 Journalnode节点:vt-serv1.vt-serv2.vt-serv3 Zookeeper服务器:vt-serv1.vt-serv2.vt-serv3 mysql数据库:vt-serv H…
HA高可用集群搭建 1.总体集群规划 在hadoop102.hadoop103和hadoop104三个节点上部署Zookeeper. hadoop102 hadoop103 hadoop104 NameNode NameNode JournalNode JournalNode JournalNode DataNode DataNode DataNode ZK ZK ZK ResourceManager NodeManager NodeManager NodeManager 2.配置zookeep…
一.HA高可用集群搭建 版本采用的是neo4j-enterprise-3.5.3-unix.tar.gz 1.1.集群ip规划 192.168.56.10 neo4j-node1 192.168.56.11 neo4j-node2 192.168.56.12 neo4j-node3 192.168.56.13 neo4j-node4 192.168.56.14 neo4j-node5 1.2.免密登录配置 $ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa #生…
1.基本环境: 操作系统: Centos 7.2.1511 三台虚机: 192.168.163.224  master 192.168.163.225  node1 192.168.163.226  node2 软件包 hadoop-2.7.2.tar.gz jdk-7u79-linux-x64.tar.gz 2.配置系统环境 配置ntp时间同步 参考http://bigtrash.blog.51cto.com/8966424/1826481 修改hostname 192.168.163.224…
IP.主机名规划 hadoop集群规划: hostname IP hadoop 备注 hadoop1 110.185.225.158 NameNode,ResourceManager,DFSZKFailoverController,JournalNode   hadoop2 110.185.225.166 NameNode,ResourceManager,DataNode,NodeManager,DFSZKFailoverController,JournalNode   hadoop3 110.…
hadoop集群搭建(namenode是单点的)  http://www.cnblogs.com/kisf/p/7456290.html HA集群需要zk, zk搭建:http://www.cnblogs.com/kisf/p/7357184.html   zk可视化管理工具:http://www.cnblogs.com/kisf/p/7365690.html hostname ip 安装软件 启动进程 master1 10.112.29.9 jdk,hadoop NameNode,Resour…
集群配置: jdk1.8.0_161 hadoop-2.6.1 zookeeper-3.4.8 linux系统环境:Centos6.5 3台主机:master.slave01.slave02 Hadoop HA集群搭建(高可用): 设置静态IP地址 为普通用户添加sudo权限 服务器网络设置:NAT模式 域名设置 主机名设置 SSH免登录配置 关闭防火墙 红色步骤主每台主机都要执行,参照上一篇伪分布式集群的搭建 环境变量(每台主机一样): 配置文件: 配置core-site.xml <confi…
hadoop2.2.0 ha集群搭建 使用的文件如下:    jdk-6u45-linux-x64.bin    hadoop-2.2.0.x86_64.tar    zookeeper-3.4.5.tar.gz    hbase-0.96.2-hadoop2-bin.tar    使用WinSCP工具将上述文件复制到linux的根目录的cloud文件夹下 文件所在路径为:    /cloud/jdk-6u45-linux-x64.bin    /cloud/hadoop-2.2.0.x86_6…