1.安装Hadoop的三大步骤

答:1.Linux环境,2.JDK环境,3.配置Hadoop。

2.安装Linux

答:利用阿里云,腾讯云等公有云。选择Ubuntu进行安装,然后利用小putty进行操作。

3.安装JDK,设置环境变量

答:命令:ls,javac看是否安装有jdk,apk-get install openjdk-7-jdk进行安装。安装完毕之后设置环境变量,vim /etc/profile,添加下面四行。

export JAVA_HOME=/jdk的安装路径

export JRE_HOME=$JAVA_HOME/jre

export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CALSSPATH

export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

保存一下,vim etc/profile,source /etc/profile。到此,jdk就安装完毕了,可以在任何目录下javac。

4.下载安装配置Hadoop

答:(1)下载安装包 wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz。ls查看当前目录的文件夹,把安装包放到指定文件夹opt中,mv hadoop-1.2.1.tar.gz /opt/,cd opt,ls,解压压缩包tar -zxvf hadoop-1.2.1.tar.gz

cd hadoop1.2.1/,看到主要配置文件在conf里面,cd conf,看到里面有四个需要配置的文件map-red-site.xml,core-site.xml,hdfs-site.xml,hadoop-env.sh。

第一,我们打开 vim hadoop-env.sh,echo JAVA_HOME打印出jdk的安装路径,修改export JAVA_HOME=/jdk路径,wq保存一下。

第二,打开 vim core-site.xml,添加如图2.

第三,vim hdfs-site.xml

第四,vim map-red-site.xml

第五,告诉系统我们的Hadoop位置,vim /etc/profile,加入,export HADOOP_HOME=/opt/Hadoop1.2.1,在PATH中,增加

:$HADOOP_HOME/bin:$PATH,wq保存,再source /etc/profile生效,这时命令行输入hadoop,cd ..,cd bin/,ls

第六,hadoop namenode -format,进行格式化namenode

5.启动Hadoop

答:cd /otc/hadoop1.2.1/bin/,ls,start-all.sh,然后输入jps,查看当前Hadoop的进程,查看Hadoop下有哪些文件,hadoop fs -ls/

Hadoop入门 之 Hadoop的安装的更多相关文章

  1. 大数据初级笔记二:Hadoop入门之Hadoop集群搭建

    Hadoop集群搭建 把环境全部准备好,包括编程环境. JDK安装 版本要求: 强烈建议使用64位的JDK版本,这样的优势在于JVM的能够访问到的最大内存就不受限制,基于后期可能会学习到Spark技术 ...

  2. hadoop入门:hadoop使用shell命令总结

    第一部分:Hadoop Bin后面根据项目的实际需要Hadoop Bin  包括:Hadoop  hadoop的Shellhadoop-config.sh 它的作用是对一些变量进行赋值     HAD ...

  3. Hadoop入门——初识Hadoop

    一.hadoop是什么 Hadoop被公认是一套行业大数据标准开源软件,在分布式环境下提供了海量数据的处理能力.几乎所有主流厂商都围绕Hadoop开发工具.开源软件.商业化工具和技术服务.今年大型IT ...

  4. hadoop入门篇-hadoop下载安装教程(附图文步骤)

    在前几篇的文章中分别就虚拟系统安装.LINUX系统安装以及hadoop运行服务器的设置等内容写了详细的操作教程,本篇分享的是hadoop的下载安装步骤. 在此之前有必要做一个简单的说明:分享的所有内容 ...

  5. Hadoop入门 之 Hadoop常识

    1.Hadoop是什么? 答:Hadoop是开源的分布式存储和分布式计算平台. 2.Hadoop的组成是什么? 答:Hadoop由HDFS和MapReduce这两个核心部分组成. HDFS(Hadoo ...

  6. Hadoop入门必须知道的简单知识

    Hadoop入门知识 Hadoop构成 Hadoop由4个主要构成部分: 1) 基础核心:提供基础的通用的功能 2) HDFS:分布式存储 3) MapReduce:分布式计算 4) YARN:资源分 ...

  7. 初识Hadoop入门介绍

    初识hadoop入门介绍 Hadoop一直是我想学习的技术,正巧最近项目组要做电子商城,我就开始研究Hadoop,虽然最后鉴定Hadoop不适用我们的项目,但是我会继续研究下去,技多不压身. < ...

  8. hadoop入门(3)——hadoop2.0理论基础:安装部署方法

    一.hadoop2.0安装部署流程         1.自动安装部署:Ambari.Minos(小米).Cloudera Manager(收费)         2.使用RPM包安装部署:Apache ...

  9. Hadoop入门之安装配置(hadoop-0.20.2)

    Hadoop,简单理解为HDFS(分布式存储)+Mapreduce(分布式处理),专为离线和大规模数据分析而设计. Hadoop可以把很多linux的廉价PC组成分布式结点,然后编程人员也不需要知道分 ...

随机推荐

  1. nodejs简单抓包工具

    就是简简单单写程序的我为什么需要抓包? 其实在平时写demo的时候需要用到一些图片和文本的资源的,但是需求量比较大,这个时候就想去网站上面直接复制啊,然后图片另存为啊,什么的一系列繁琐的操作. 但是现 ...

  2. C#设计模式开启闯关之路

    前言背景 这是一条望不到尽头的编程之路,自踏入编程之路开始.就面临着各式各样的挑战,而我们也需要不断的挑战自己.不断学习充实自己.打好坚实的基础.以使我们可以走的更远.刚踏入编程的时候.根据需求编程, ...

  3. Mybatis-plus的两种分页插件的配置方式

    第一种: package com.paic.ocss.gateway.admin.config; import com.baomidou.mybatisplus.plugins.PaginationI ...

  4. Codeforces 814C

    题意略. 思路: 尺取法,依然是要利用之前的结果. 感觉时间复杂度太高了,竟然也过了. #include<bits/stdc++.h> using namespace std; ; ]; ...

  5. Codeforces 940D

    题意略. 这道题目在比赛的时候怎么想也没想明白,后来看了别人的题解才顿悟,可以说很辣鸡了. 只有b[i - 1],b[i - 2],b[i - 3],b[i - 4]相等的时候才能对答案产生限制,否则 ...

  6. Leetcode之回溯法专题-90. 子集 II(Subsets II)

    Leetcode之回溯法专题-90. 子集 II(Subsets II) 给定一个可能包含重复元素的整数数组 nums,返回该数组所有可能的子集(幂集). 说明:解集不能包含重复的子集. 示例: 输入 ...

  7. Linux下手动安装MySQL5.7

    1.下载tar包,这里使用wget从官网下载 https://dev.mysql.com/downloads/mysql/ 2.将mysql安装到/usr/local/mysql下 # 解压 tar ...

  8. POJ-1847 Tram( 最短路 )

    题目链接:http://poj.org/problem?id=1847 Description Tram network in Zagreb consists of a number of inter ...

  9. 牛客第七场 Sudoku Subrectangles

    链接:https://www.nowcoder.com/acm/contest/145/J来源:牛客网 You have a n * m grid of characters, where each ...

  10. Codeforces Round #385 (Div. 2) C - Hongcow Builds A Nation

    题目链接:http://codeforces.com/contest/745/problem/C 题意:给出n个点m条边,还有k个不能连通的点,问最多能添加几条边. 要知道如果有n个点最多的边是n*( ...