说明:我这里安装的版本是hadoop2.7.3,hbase1.2.4,spark2.0.2,zookeeper3.4.9 (安装包:链接:http://pan.baidu.com/s/1c25hI4g 密码:hbr1)

1.安装vmmare,创建3台虚拟机名字为hadoop1,hadoop2,hadoop3,都是centos6.5操作系统,网络选择桥接模式如图

2.创建完虚拟机后,启动虚拟机,然后运行ifconfig发现eth0网卡没有,这时不用急,去这个目录下找到ifcfg-eth0文件,然后修改ONBOOT=yes,如图,然后重启服务service network restart,然后再运行ifconfig发现eth0有了ip地址也有了,好ok,这时候你就可以用主机连接虚拟机操作了(个人建议用xshell工具好用)

3.安装jdk,将jdk-8u11-linux-x64.tar上传到虚拟机/home/hf(个人用户的文件夹),然后解压,然后将文件copy到/usr/java目录下,如图,接着配置环境变量在/etc/profile文件中添加如下几行,如图,可以忽略 $HADOOP_HOME/bin:$HADOOP_HOME/sbin:/usr/zookeeper/bin:/usr/hbase/bin:这个,这个是后边hadoop相关的环境变量,这里还用不到,然后运行source /etc/profile使环境变量生效,运行java -version出现java版本等信息表明jdk已经安装好了

4.配置ssh免密码登录,首先修改/etc/hosts,修改为以下内容,注意ip要根据实际ip来

然后配置免密码先在hadoop1上执行

一.ssh-keygen -t rsa

二.ssh-copy-id -i /root/.ssh/id_rsa.pub root@hadoop2和ssh-copy-id -i /root/.ssh/id_rsa.pub root@hadoop3

其余两台机器类似

5.安装hadoop,解压hadoop安装包,放到/usr/hadoop目录下,如图,然后配置hadoop相关文件。

首先配置/usr/hadoop/etc/hadoop/core.site.xml

  1. <property>
  2. <name>fs.defaultFS</name>//namenode的地址
  3. <value>hdfs://hadoop1:9000</value>
  4. </property>
  5.  
  6. <property>
  7. <name>io.file.buffer.size</name>
  8. <value>131072</value>
  9. </property>
  10. <property>
  11. <name>hadoop.tmp.dir</name>
  12. <value>file:/home/tmp</value>
  13. </property>

配置/usr/hadoop/etc/hadoop/hdfs.site.xml

  1. <property>
  2. <name>dfs.namenode.name.dir</name> //namenode数据存放地址
  3. <value>file:/home/hadoop/namenode</value>
  4. </property>
  5. <property>
  6. <name>dfs.datanode.data.dir</name> //datanode数据存放地址
  7. <value>file:/home/hadoop/datanode</value>
  8. </property>
  9. <property>
  10. <name>dfs.replication</name> //副本
  11. <value>2</value>
  12. </property>

配置/usr/hadoop/etc/hadoop/mapred-site.xml

  1. <property>
  2. <name>mapreduce.framework.name</name>
  3. <value>yarn</value>
  4. </property>

配置/usr/hadoop/etc/hadoop/yarn-site.xml

  1. <property>
  2. <name>yarn.nodemanager.aux-services</name>
  3. <value>mapreduce_shuffle</value>
  4. </property>
  5. <property>
  6. <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  7. <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  8. </property>
  9. <property>
  10. <name>yarn.resourcemanager.resource-tracker.address</name>
  11. <value>hadoop1:8031</value>
  12. </property>
  13. <property>
  14. <name>yarn.resourcemanager.scheduler.address</name>
  15. <value>hadoop1:8030</value>
  16. </property>
  17. <property>
  18. <name>yarn.resourcemanager.address</name>
  19. <value>hadoop1:8032</value>
  20. </property>
  21. <property>
  22. <name>yarn.resourcemanager.webapp.address</name> //yarn的界面
  23. <value>hadoop1:8088</value>
  24. </property>

配置/usr/hadoop/etc/hadoop/slaver,加入3台机器的hostname

  1. hadoop2
  2. hadoop3
  3. hadoop1

配置/usr/hadoop/etc/hadoop/yarn-env.sh,找到相应行修改为JAVA=$JAVA_HOME/bin/java

然后/etc/profile修改一开始已经列出,这里就不列了,hadoop已经安装好了

先运行hadoop namenode -format 格式化,然后用start-all.sh来启动hadoop集群了,主节点有namenode,从节点有datanode表明正常

6.安装zookeeper和hbase

先安装zookeeper,先解压到/usr/zookeeper下,然后配置/usr/zookeeper/conf/zoo.cfg文件,配置如下

  1. tickTime=2000
  2. dataDir=/var/log/zookeeper
  3. clientPort=2181
  4. initLimit=5
  5. syncLimit=2
  6. server.1=hadoop1:2888:3888
  7. server.2=hadoop2:2888:3888
  8. server.3=hadoop3:2888:3888

在/var/log/zookeeper下创建myid文件写入1或2或3,hadoop1机器的话写1,hadoop2机器的话写2,hadoop3机器的话写3

分别启动zk,命令./usr/zookeeper/bin/zkServer start,看下是否正常

安装hbase,解压hbase到/usr/hbase

配置/usr/hbase/conf/hbase-site.xml

  1. <name>hbase.rootdir</name>
  2. <value>hdfs://hadoop1:9000/hbase</value>
  3. </property>
  4. <property>
  5. <name>hbase.zookeeper.quorum</name>
  6. <value>hadoop1,hadoop2,hadoop3</value>
  7. </property>
  8. <property>
  9. <name>hbase.zookeeper.property.dataDir</name>
  10. <value>/var/log/zookeeper</value>
  11. </property>
  12. <property>
  13. <name>hbase.cluster.distributed</name>
  14. <value>true</value>

配置/usr/hbase/conf/hbase-env.xml,修改

export JAVA_HOME=/usr/java/jdk1.8.0_11/

export HBASE_MANAGES_ZK=false

配置/usr/hbase/conf/regionservers添加

hadoop1

hadoop2

hadoop3

就可以启动hbase了,要先启动hadoop和zk才能启动hbase,命令start-hbase.sh,看各节点的进程,jps -l,主节点有hmaster,从节点有hregionserver,这样表示正常

7.spark安装

首新解压spark到/usr/saprk,然后修改/usr/spark/conf/spark-env.sh文件,添加或覆盖

export HADOOP_CONF_DIR=/usr/hadoop/etc/hadoop

配置slaves,添加

hadoop1

hadoop2

hadoop3

好了至此环境都搭建好了,首先起hadoop再zk再hbase。

(安装包:链接:http://pan.baidu.com/s/1c25hI4g 密码:hbr1)

最新hadoop+hbase+spark+zookeeper环境安装(vmmare下)的更多相关文章

  1. Hadoop+HBase+Spark+Hive环境搭建

    杨赟快跑 简书作者 2018-09-24 10:24 打开App 摘要:大数据门槛较高,仅仅环境的搭建可能就要耗费我们大量的精力,本文总结了作者是如何搭建大数据环境的(单机版和集群版),希望能帮助学弟 ...

  2. [转]云计算之hadoop、hive、hue、oozie、sqoop、hbase、zookeeper环境搭建及配置文件

     云计算之hadoop.hive.hue.oozie.sqoop.hbase.zookeeper环境搭建及配置文件已经托管到githubhttps://github.com/sxyx2008/clou ...

  3. 修改hadoop/hbase/spark的pid文件位置

    1.说明 当不修改PID文件位置时,系统默认会把PID文件生成到/tmp目录下,但是/tmp目录在一段时间后会被删除,所以以后当我们停止HADOOP/HBASE/SPARK时,会发现无法停止相应的进程 ...

  4. Hadoop,HBase集群环境搭建的问题集锦(四)

    21.Schema.xml和solrconfig.xml配置文件里參数说明: 參考资料:http://www.hipony.com/post-610.html 22.执行时报错: 23., /comm ...

  5. Spark——Standalone 环境安装及简单使用

    Standalone 环境安装 将 spark-3.0.0-bin-hadoop3.2.tgz 文件解压缩在指定位置(/opt/module) tar -zxvf spark-3.0.0-bin-ha ...

  6. HBase、Hive、MapReduce、Hadoop、Spark 开发环境搭建后的一些步骤(export导出jar包方式 或 Ant 方式)

    步骤一 若是,不会HBase开发环境搭建的博文们,见我下面的这篇博客. HBase 开发环境搭建(Eclipse\MyEclipse + Maven) 步骤一里的,需要补充的.如下: 在项目名,右键, ...

  7. hbase和zookeeper的安装和部署

    1.概要 1.1HBase的使用场景  大数据量 (100s TB级数据) 且有快速随机访问的需求.  例如淘宝的交易历史记录.数据量巨大无容置疑,面向普通用户的请求必然要即时响应.  容量的优 ...

  8. Hadoop学习(5)-zookeeper的安装和命令行,java操作

    zookeeper是干嘛的呢 Zookeeper的作用1.可以为客户端管理少量的数据kvkey:是以路径的形式表示的,那就意味着,各key之间有父子关系,比如/ 是顶层key用户建的key只能在/ 下 ...

  9. spark的环境安装

    1.安装sbt 正常安装流程. 在cmd里运行的时候,要提前设置代理(如果上网有代理),set JAVA_OPTS=-Dhttp.proxySet=true -Dhttp.proxyHost=172. ...

随机推荐

  1. js生成验证码并检验

    <html> <head> <title>验证码</title> <style type="text/css"> #co ...

  2. oracle迁移mysql数据库注意

    oracle转mysql修改: . substr() substr( string , 0, 10) 这里测试 必须从 第一位获取 既是 substr(string , 1 , 10)2. to_ch ...

  3. 打包java项目为可执行程序(exe)

    一直都是编写了java程序后在控制台 javac --> java 命令运行,或者在eclipse中运行,今天突然想怎么可以写好了一个项目随处可以运行呢? 于是网上搜了步骤,跟着一步一步实现了, ...

  4. GCC 源码编译 mpc mprf gmp 不用make(否则会有lib/libgmp.so: could not read symbols: File in wrong format等错误)

    错误信息: lib/libgmp.so: could not read symbols: File in wrong formatcollect2: error: ld returned 1 exit ...

  5. Eclipse无法启动错误之Ensure that the org.eclipse.core.runtime bundle is resolved and started (see config.ini)

    悲剧,在安装Android Build Tools时,提醒需要关闭Eclipse进行安装,于是我在Tools安装完成后重启了Eclipse.但是Eclipse却无法启动,在log中有如下提示: Una ...

  6. Mroonga 3.0.8 发布,MySQL 存储引擎

    Mroonga 3.0.8 支持 REPAIR TABLE 支持损坏的 groonga 数据库. Mroonga 是一个 MySQL 存储引擎,基于 Groonga,提供完整的全文搜索引擎.

  7. 微软connect教程系列—EntityFramework7(三)

      随着Asp.NET5的开源,以及跨平台,ORM框架EF7也与时俱进,支持asp.net core,也支持关系型数据库和非关系型数据库,以及在linux和mac上跨平台使用. 下面演示的即通过使用E ...

  8. Java设计模式8:迭代器模式

    迭代器模式 迭代器模式又叫做游标(Cursor)模式,其作用是提供一种方法访问一个容器元素中的各个对象,而又不暴露该对象的内部细节. 迭代器模式结构 迭代器模式由以下角色组成: 1.迭代器角色 负责定 ...

  9. dojo/dom-form

    表单的处理在前端开发中一样意义非凡,dojo/dom-form模块提供了一系列方法来处理表单元素.比如: fieldToObject: 将一个表单字段转化成JavaScript原生类型,可能是stri ...

  10. silverlight中Combox绑定数据以及动态绑定默认选定项的用法

    在Sliverlight中,经常要用到下拉框Combox,然而Combox的数据绑定却是一件令初学者很头疼的事情.今天就来总结一下下拉框的使用方法: 下面写一个简单的例子吧.先写一个日期的Model, ...