1.注意hadoop和hbase的版本兼容问题

  目前测试用:hadoop 2.6.5  Hbase 1.1.2

2.创建hadoop用户

  Sudo useradd –m hadoop –s /bin/bash

  创建了可以登陆的 hadoop 用户,并使用 /bin/bash 作为 shel.

  Sudo passwd hadoop

  Sudo adduser hadoop sudo

3.更新apt

  Sudo apt-get update

  Sudo apt-get install vim

4.安装ssh,设置无密码登陆

  Sudo apt-get install openssh-server

  Ssh localhost

  Exit

  Cd  ~/.ssh/

  Ssh-keygen –t rsa

  Cat ./id_rsa.pub >> ./authorized_keys

  再使用ssh localhost就不需要密码

5.安装java环境

  Sudo apt-get install default-jre default-jdk

  vim ~/.bashrc

  在文件前面添加export JAVA_HOME=/usr/lib/jvm/default-java

  Source ~./bashrc

  echo $JAVA_HOME

  java -version

  $JAVA_HOME/bin/java -version

6.安装hadoop

  Sudo tar –zxf ~/下载/hadoop-2.6.5.tar.gz –C /usr/local

  Cd /usr/local

  Sudo mv ./hadoop-2.6.5/ ./hadoop

  Sudo chown –R hadoop ./hadoop

  Cd /usr/local/hadoop

  ./bin/hadoop version

7.Hadoop单机检测

  Cd /usr/local/hadoop

  Mkdir ./input

  Cp ./etc/hadoop/*.xml ./input

  ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep ./input ./output 'dfs[a-z.]+'

  cat ./output/*

8.Hadoop伪分布式配置

  Vim ./etc/hadoop/core-site.xml

  

    <configuration>

     <property>

          <name>hadoop.tmp.dir</name>

       <value>file:/usr/local/hadoop/tmp</value>

         <description>Abase for other temporary directories.</description>

     </property>

     <property>

        <name>fs.defaultFS</name>

          <value>hdfs://localhost:9000</value>

       </property>

    </configuration>

  

  Vim ./etc/hadoop/hdfs-site.xml

    <configuration>

     <property>

        <name>dfs.replication</name>

        <value>1</value>

        </property>

     <property>

        <name>dfs.namenode.name.dir</name>

      <value>file:/usr/local/hadoop/tmp/dfs/name</value>

     </property>

     <property>

      <name>dfs.datanode.data.dir</name>

    <value>file:/usr/local/hadoop/tmp/dfs/data</value>

     </property>

    </configuration>

配置完成后,执行namenode的格式化

./bin/hdfs namenode –format

  如果此处失败,出现JAVA_HOME is not set and could not be found.    那么需要检查.bashrc文件中是否设置了JAVA_HOME。如果设置,就需要在/usr/local/hadoop/etc/hadoop/hadoop-env.sh,在里面找           到“export JAVA_HOME=${JAVA_HOME}”这行,然后,把它修改成JAVA安装路径的具体地址,比如,“export JAVA_HOME=/usr/lib/jvm/default-java”,然后,再次启动Hadoop。

  开启:./sbin/start-dfs.sh

输入:jps 来验证是否成功开启

9.创建hdfs用户目录

  Cd /usr/local/hadoop

  ./bin/hadoop fs –mkdir –p /user/hadoop

  ./bin/hadoop fs –ls. (这个.是hdfs用户当前目录,等价于./bin/hadoop fs –ls /user/hadoop)

  ./bin/hdfs dfs –mkdir input

  (在创建个input目录时,采用了相对路径形式,实际上,这个input目录创建成功以后,它在HDFS中的完整路径是“/user/hadoop/input”。

  ./bin/hdfs dfs –mkdir /input

  是在HDFS的根目录下创建一个名称为input的目录

10.Hdfs文件操作

  本地文件系统上传到hdfs

  .

    /bin/hdfs dfs -put /home/hadoop/myLocalFile.txt  input

     ./bin/hdfs dfs –ls input 查看是否成功上传

    ./bin/hdfs dfs –cat input/myLocalFile.txt

  Hdfs下载到本地文件系统

    

    ./bin/hdfs dfs -get input/myLocalFile.txt  /home/hadoop/下载

    Hdfs的一个目录拷贝到hdfs的另一个目录

    ./bin/hdfs dfs -cp input/myLocalFile.txt  /input

11.Hbase安装

    sudo tar -zxf ~/下载/hbase-1.1.2-bin.tar.gz -C /usr/local

    sudo mv /usr/local/hbase-1.1.2 /usr/local/hbase

    vim ~/.bashrc

      export PATH=$PATH:/usr/local/hbase/bin

    source ~/.bashrc

    cd /usr/local

    sudo chown -R hadoop ./hbase

    /usr/local/hbase/bin/hbase version

12.Hbase伪分布式配置

  Vim /usr/local/hbase/conf/hbase-env.sh

    添加:export JAVA_HOME=/usr/lib/jvm/default-java

    export HBASE_CLASSPATH=/usr/local/hadoop/conf

    export HBASE_MANAGES_ZK=true

vim /usr/local/hbase/conf/hbase-site.xml

  

    设置:<configuration>

     <property>

       <name>hbase.rootdir</name>

       <value>hdfs://localhost:9000/hbase</value>

     </property>

     <property>

          <name>hbase.cluster.distributed</name>

          <value>true</value>

       </property>

      </configuration>

ssh localhost

  cd /usr/local/hadoop

  ./sbin/start-dfs.sh

  Jps

cd /usr/local/hbase

  bin/start-hbase.sh

  jps

  bin/hbase shell

  exit

  bin/stop-hbase.sh

  1. 关闭hadoop:./sbin/stop-dfs.sh
  1. 访问hbase web管理页面 http://172.19.32.118:16010/

    访问hdfs web管理页面http://172.19.32.118:50070/

  1. 解决namenode –format后,namenode正常启动但是datanode无法启动的问题。

找到namenode文件中的VERSION文件,复制文件中的clusterid 到datanode文件中的version文件的对应位置。

  1. Hdfs找hbase存储的数据和.snapshot文件。

./hadoop fs –ls /

./hadoop fs –ls /hbase

  1. Hbase数据迁移到本地

./bin/hbase org.apache.hadoop.hbase.snapshot.ExportSnapshot -snapshot tttt5 -copy-to file:///home/aa

伪分布式hbase2.6.5和hbase1.1.2的配置的更多相关文章

  1. HBase伪分布式环境下,HBase的API操作,遇到的问题

    在hadoop2.5.2伪分布式上,安装了hbase1.0.1.1的伪分布式 利用HBase的API创建个testapi的表时,提示  Exception in thread "main&q ...

  2. Hadoop的伪分布式搭建

    我们在搭建伪分布式Hadoop环境,需要将一系列的配置文件配置好. 一.配置文件 1. 配置文件hadoop-env.sh export JAVA_HOME=/opt/modules/jdk1.7.0 ...

  3. Hadoop伪分布式模式部署

    Hadoop的安装有三种执行模式: 单机模式(Local (Standalone) Mode):Hadoop的默认模式,0配置.Hadoop执行在一个Java进程中.使用本地文件系统.不使用HDFS, ...

  4. Ubuntu 14.10 下安装伪分布式hbase 0.99.0

    HBase 安装分为:单击模式,伪分布式,完全分布式,在单机模式中,HBase使用本地文件系统而不是HDFS ,所有的服务和zooKeeper都运作在一个JVM中.本文是安装的伪分布式. 安装步骤如下 ...

  5. Windows10+VMware Workstation Pro+Ubuntu 16.04+Hadoop-2.6.5+IDEA环境搭建(单机&伪分布式&集群)

    (注:下面出现的"czifan"为用户名,需替换成自己的用户名) 本篇博客是在实践该篇博客的过程中的一些补充和修改~ 0 - 安装VMware Workstation Pro 首先 ...

  6. CentOS7 hadoop3.3.1安装(单机分布式、伪分布式、分布式)

    @ 目录 前言 预先设置 修改主机名 关闭防火墙 创建hadoop用户 SSH安装免密登陆 单机免密登陆--linux配置ssh免密登录 linux环境配置Java变量 配置Java环境变量 安装Ha ...

  7. Hbase1.0伪分布式集群启动失败问题

    作者:Syn良子 出处:http://www.cnblogs.com/cssdongl/p/7340681.html 转载请注明出处 最近抽空折腾自己的虚拟机环境时启动伪分布式Hbase集群一直失败, ...

  8. 进阶3: zookeeper-3.4.9.tar.gz和hbase-1.2.4-bin.tar.gz 环境搭建(hbase 伪分布式)

    前提条件: 成功安装了  jdk1.8,  hadoop2.7.3 注意条件: zookeeper,hbase 版本必须要和hadoop 安装版本相互兼容,否则容易出问题: 本次:安装包 zookee ...

  9. Hbase的伪分布式安装

    Hbase安装模式介绍 单机模式 1> Hbase不使用HDFS,仅使用本地文件系统 2> ZooKeeper与Hbase运行在同一个JVM中 分布式模式– 伪分布式模式1> 所有进 ...

随机推荐

  1. Kubernetes重要概念理解

    Kubernetes重要概念理解 kubernetes是目前最主流的容器编排工具,是下一代分布式架构的王者.2018年的kubernetes第一个版本1.10已经发布.下面整理一下,kubernete ...

  2. linux mysql 定时备份 使用crontab

    第一步:在服务器上配置备份目录代码: mkdir /var/lib/mysqlbackup cd /var/lib/mysqlbackup 第二步:编写备份脚本代码:  vi dbbackup.sh ...

  3. SQL Server 之 内部连接

    1.内部联接 2.外部联接 外部联接扩展了内部联接的功能,会把内联接中删除表源中的一些保留下来,由于保存下来的行不同,可将外部联接分为左联接和右联接. 2.1左联接: 如果左表的某一行在右表中没有匹配 ...

  4. scp命令:远程复制粘贴文件

    文章链接:https://www.cnblogs.com/webnote/p/5877920.html scp是secure copy的简写,用于在Linux下进行远程拷贝文件的命令,和它类似的命令有 ...

  5. select+异步

    IO多路复用是指内核一旦发现进程指定的一个或者多个IO条件准备读取,它就通知该进程.IO多路复用适用如下场合: 当客户处理多个描述符时(一般是交互式输入和网络套接口),必须使用I/O复用. 当一个客户 ...

  6. SQL语句常用约束类型

    常用五类约束: not null:非空约束,指定某列不为空  unique: 唯一约束,指定某列和几列组合的数据不能重复  primary key:主键约束,指定某列的数据不能重复.唯一  forei ...

  7. 分布式全文检索引擎之ElasticSearch

    一 什么是 ElasticSearch Elasticsearch 是一个分布式可扩展的实时搜索和分析引擎,一个建立在全文搜索引擎 Apache Lucene(TM) 基础上的搜索引擎.当然 Elas ...

  8. Java jvisualvm 远程监控tomcatt

    第一步 在远程tomcat 的bin目录下的start.sh 文件中添加一些内容(添加在exec "$PRGDIR"/"$EXECUTABLE" start & ...

  9. The servlet name already exists.解决方法

    The servlet name already exists.解决方法 当我们建立过同名的servlet文件,然后又将其删掉后再用同类名字建一个servlet时就会报错.解决办法:web.xml里面 ...

  10. PHP7运行环境搭建(Windows7)

    注:本文来源于<    PHP7运行环境搭建(Windows7)   > php7号称能直追facebook的HHVM,为了体验一把传说中的高性能,我特意在本地电脑上尝试着安装了php7, ...