原文地址

环境:ubuntu13

使用的用户为普通用户。如:用户ru

jdk安装略

1、安装ssh

(1)

  1. sudo apt-get install openssh-server

(2)配置ssh面密码登录

  1. $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
  2. $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

注释:如果当前用户下没有.ssh目录,则手动创建.ssh目录。

2、下载安装hadoop

(1)下载hadoop-1.2.1-bin.tar.gz

(2)修改权限

如果拥有者不是ru:ru,使用

  1. chown ru:ru hadoop-1.2.1-bin.tar.gz

(3)解压

ru用户下

  1. -bin.tar.gz

(4)将解压后的hadoop拷贝到安装目录

3、配置hadoop

配置文件在$HADOOP_HOME/conf下

(1)配置hadoop-env.sh,指定jdk的安装路径

  1. 添加jdk路径
  2. # The java implementation to use.  Required.
  3. export JAVA_HOME=/home/ruge/soft/jdk1.7.0_45

(2)修改hadoop的核心配置文件core-site.xml,配置namenode的地址和端口

  1. <configuration>
  2. <property>
  3. <name>fs.default.name</name>
  4. <value>hdfs://localhost:9000</value>
  5. </property>
  6. </configuration>
  1. 这个还是很必要的,如果不配置临时目录,格式化hdfs是会在/tem目录下创建临时目录但是tmp目录重启系统会清楚下面文件。这样namenode就启动不起来了
  2. <property>
  3. <name>hadoop.tmp.dir</name>
  4. <value>/home/ruge/hadoop/hadooptmpdir</value>
  5. <description>A base for other temporary directories.</description>
  6. </property>

(3)修改hadoop的hdfs-site.xml,配置replication,即数据保存份数

  1. <property>
  2. <name>dfs.replication</name>
  3. </value>
  4. </property>

(4)修改hadoop的mapred-site.xml,配置jobtracker的地址和端口

  1. <property>
  2. <name>mapred.job.tracker</name>
  3. </value>
  4. </property>

注:涉及到IP的地方如果是完全分布式集群,需要改成具体的IP

4、格式化hadoop的文件系统HDFS

  1. bin/hadoop namenode -format

5、启动hadoop

  1. bin/start-all.sh

6、验证hadoop是否启动成功

7、使用wordcount计算单词数

  1. )新建hdfs目录,不是实际的系统文件目录,只能使用hadoop dfs -ls /XXX查看
  2. hadoop dfs -mkdir /input
  3. )将文件复制到新建的hdfs目录
  4. hadoop dfs -put ./*.sh /input/
  5. )使用hadoop的wordcount计算单词数
  6. .jar wordcount /input /output
  7. 注:input 和 output都是hdfs文件目录。不同的是input是需要分析的目录,outpu是存放结果的目录,且自动生成,不能手动创建

第二部分,安装hadoop集群:

1,准备2个服务器,分别为

机器名IP地址作用

hadoop.main192.168.1.102NameNode,JobTracker,DataNode,TaskTracker

hadoop.slave192.168.1.107DataNode,TaskTracker

注:2台主机必须使用相同的用户名运行hadoop

2,分别在这两个主机上,按照单机版的安装方法,安装hadoop

3,在/etc/hostname中修改主机名

在/etc/hosts中配置主机名和IP地址度对应关系

分别在2台主机中,运行以下命令:

ping hadoop.main

ping hadoop.slave

修改/etc/hosts添加master和slave的ip和主机名

4,将hadoop.main节点中的~/.ssh/id_rsa.pub文件拷贝到hadoop.slave节点的~/.ssh目录下,然后在hadoop.slave的~/.ssh/目录下运行:

cat ./id_rsa.pub >> authorized_keys

在hadoop.main节点中运行命令: ssh hadoop.slave

5, 修改2台主机的core-site.xml,配置HDFS的地址和端口号

vi conf/core-site.xml

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://hadoop.main:9000</value>

</property>

</configuration>

6,修改2台主机的MapReduce的配置文件,配置的是JobTracker的地址和端口

vi conf/mapred-site.xml

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>hadoop.main:9001</value>

</property>

</configuration>

7,修改2台主机中的hadoop配置文件masters

hadoop.main

8,修改2台主机中的hadoop配置文件slaves

hadoop.main

hadoop.slave

9,在haddop.main节点运行

bin/hadoop namenode -format

10,启动hadoop

bin/start-all.sh

ps: datanode time configuration

<property>

<name>heartbeat.recheck.interval</name>

<value>15</value>

</property>

hadoop1.2.1安装配置的更多相关文章

  1. hadoop-1.2.1安装配置

    1.准备三台节点 hnd1  hnd2  hnd3 下载 hadoop 下载地址:http://apache.fayea.com/hadoop/common/ API文档:http://hadoop. ...

  2. hadoop1.2.1+hbase0.94.11+nutch2.2.1+elasticsearch0.90.5安装配置攻略

    一.背景 最近由于项目和论文的需要,需要搭建一个垂直搜索的环境,查阅了很多资料,决定使用Apache的一套解决方案hadoop+hbase+nutch+es.这几样神器的作用就不多作介绍了,自行参考各 ...

  3. ZooKeeper学习第二期--ZooKeeper安装配置

    一.Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式. ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境:■ 伪集群模式:就是在一台物 ...

  4. Sqoop安装配置及数据导入导出

    前置条件 已经成功安装配置Hadoop和Mysql数据库服务器,如果将数据导入或从Hbase导出,还应该已经成功安装配置Hbase. 下载sqoop和Mysql的JDBC驱动 sqoop-1.2.0- ...

  5. Linux下Hadoop集群环境的安装配置

    1)安装Ubuntu或其他Linux系统: a)为减少错误,集群中的主机最好安装同一版本的Linux系统,我的是Ubuntu12.04. b)每个主机的登陆用户名也最好都一样,比如都是hadoop,不 ...

  6. 安装Hadoop系列 — eclipse plugin插件编译安装配置

    [一].环境参数 eclipse-java-kepler-SR2-linux-gtk-x86_64.tar.gz //现在改为eclipse-jee-kepler-SR2-linux-gtk-x86_ ...

  7. Hadoop集群(第5期)_Hadoop安装配置

    1.1 Hadoop简介 Hadoop是Apache软件基金会旗下的一个开源分布式计算平台.以Hadoop分布式文件系统(HDFS,Hadoop Distributed Filesystem)和Map ...

  8. hive集群安装配置

    hive 是JAVA写的的一个数据仓库,依赖hadoop.没有安装hadoop的,请参考http://blog.csdn.net/lovemelovemycode/article/details/91 ...

  9. hbase安装配置(整合到hadoop)

    hbase安装配置(整合到hadoop) 如果想详细了解hbase的安装:http://abloz.com/hbase/book.html 和官网http://hbase.apache.org/ 1. ...

随机推荐

  1. 安装jdk配置环境变量后jps command not found

    配置Java环境变量的时候一般是 vi /etc/profile 然后按两个大写的G就会跑到最后一行去,然后配置写入下文: 这个时候你jps查看Java的进程会出现: 分析原因: 一般是配置之后,没有 ...

  2. Signal Processing and Pattern Recognition in Vision_15_RANSAC:Performance Evaluation of RANSAC Family——2009

    此部分是 计算机视觉中的信号处理与模式识别 与其说是讲述,不如说是一些经典文章的罗列以及自己的简单点评.与前一个版本不同的是,这次把所有的文章按类别归了类,并且增加了很多文献.分类的时候并没有按照传统 ...

  3. Flutter——AppBar组件(顶部导航组件)

    AppBar组件的常用属性如下: 属性 描述 leading 在标题前面显示的一个控件,在首页通常显示应用的 logo:在其他界面通常显示为返回按钮 title 标题,通常显示为当前界面的标题文字,可 ...

  4. 【问题】redhat安装dig

    转自:https://blog.csdn.net/ricky_hust/article/details/8868131 最终可行的方法 在linux下没有单独的dig和nslookup的包,而是以bi ...

  5. hive中使用spark执行引擎的常用参数

    set hive.execution.engine=spark;set hive.exec.parallel=true;set hive.exec.parallel.thread.number=8;s ...

  6. 学习Hook的必备知识

    1.汇编 2.API 3.内存 4.进程 5.窗口 必须熟悉的汇编指令: PUSH  入栈 MOV   赋值 JMP(JNZ  JE)  跳转 CALL  调用函数 RET  返回 Cmp  比较 T ...

  7. Nginx中ngx_stream_core_module和ngx_stream_proxy_module

    ngx_stream_core_module模块该模块模拟基于tcp或udp的服务连接的反向代理理,即⼯工作于传输层的调度器器指令:17.1 streamSyntax: stream { ... }D ...

  8. pycharm分辨率&清晰度

    三个月前换了新电脑,安装pycharm.又换了新的大屏幕. pycharm界面拖到大屏上时,字大小和字体都没有变化,清晰度低了很多,就像打了一层薄薄的马赛克一样.拖回到原本的屏幕又清晰了. 一直以为是 ...

  9. mysql数据表结构查询

    select * from ( select '表名', '字段名', '字段类型', '默认值', '是否可空', '注释', '主键' UNION ( SELECT a.TABLE_NAME '表 ...

  10. paramiko的使用

    import paramiko import sys user = "root" pwd = " # 上传文件 def sftp_upload_file(server_p ...