说到Hadoop不得不说云计算了,我这里大概说说云计算的概念,事实上百度百科里都有,我仅仅是copy过来,好让我的这篇hadoop博客内容不显得那么单调、骨感。云计算近期今年炒的特别火,我也是个刚開始学习的人。记下我自学hadoop的一些经历和过程。

云计算(cloud computing)是基于互联网的相关服务的添加、使用和交付模式,通常涉及通过互联网来提供动态易扩展且常常是虚拟化的资源。

云是网络、互联网的一种比喻说法。过去在图中往往用云来表示电信网,后来也用来表示互联网和底层基础设施的抽象。因此,云计算甚至能够让你体验每秒10万亿次的运算能力,拥有这么强大的计算能力能够模拟核爆炸、预測气候变化和市场发展趋势。用户通过电脑、笔记本、手机等方式接入数据中心。按自己的需求进行运算。对云计算的定义有多种说法。对于究竟什么是云计算,至少能够找到100种解释。眼下广为接受的是美国国家标准与技术研究院(NIST)定义:云计算是一种按使用量付费的模式,这样的模式提供可用的、便捷的、按需的网络訪问,
进入可配置的计算资源共享池(资源包含网络,server,存储。应用软件,服务)。这些资源可以被高速提供。仅仅需投入非常少的管理工作,或与服务供应商进行非常少的交互。

(以上是照搬百度百科的。别吐槽啊。跪谢了……)。

说完了云计算。我们来说说Hadoop的概念吧,Hadoop是一个分布式的基础架构,由Apache基金会开发。Hadoop实现了一个分布式文件系统也就是兴许文章会说到的HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的硬件上。并且它提供高传输率来訪问应用程序的数据,适合那些有着超大数据集的应用程序。

HDFS放宽了(relax)POSIX的要求。能够以流的形式訪问文件系统中的数据。Hadoop的框架最核心的设计就是:HDFS和MapReduce.HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。

好吧。太罗嗦了。写那么多概念大部分都是从百度百科里摘抄下来的。我厌烦了。以下来讲讲怎样配置部署Hadoop环境,首先要说的是,眼下Hadoop版本号已经到2的版本号了,可是非常遗憾,我作为一个刚開始学习的人,我还是比較喜欢一步一个脚印的学习,所以我们今天要讲的是Hadoop1的部署和配置,以后的篇章也是针对Hadoop1的版本号来学习。

Hadoop能够装在非常多的操作系统上,比方Windows上,Linux上。苹果的Mac OSX上。因为眼下的经常使用的生产环境都是Linux操作系统。所以我们本章之讲在Linux操作系统下怎样配置部署Hadoop。Hadoop部署方式有三种各自是单机模式伪分布式模式分布式模式

因为本人电脑配置有限,无法虚拟太多的Linux环境,所以我们今天临时仅仅讲伪分布式的部署方式。至于单机模式,本文章不讲述,后面的篇幅我会讲分布式模式的配置步骤。

准备环境:Ubuntu12jdk-6u45-linux-i586.binhadoop-1.0.4.tar.gz(作为程序猿来讲,这些大家都是能够在官网弄到手的,我就不给下载地址了……假设读者看到这里,或许会吐槽了,Hadoop不止这些啊。Hbase哪去了、Hive数据仓库哪里去了?这太扯了吧……呵呵,我想说的是,一步一步的来,会的大神么就别吐槽我了,我菜鸟一枚,以后的篇章我会一一写出来这些内容,我做好了持久战的准备……

首先进入 Ubuntu操作系统,检查一下Ubuntu是否安装了java jdk。

好吧。进入我们的Ubuntu终端,输入java -version,看看是否已经安装的sun公司的jdk,如图:

好吧。我这里是安装好的,没有安装jdk的同学。我继续说了。

将我们的jdk-6u45-linux-i586.bin文件考入到ubuntu的/home/zhaolong/下,好吧,我有一个这种用户。你们依照你们的路径来吧。在Linux安装jdk事实上就是一个文件解压的过程,安装前必须给当前这个文件进行授权。

cd命令进入我们jdk文件所在的文件夹。也就是/home/zhaolong/下,键入命令chmod
777 jdk-6u45-linux-i586.bin。

文件授权完成之后,我们開始解压,使用./jdk-6u45-linux-i586.bin命令解压jdk文件。

解压完毕之后,我们使用vi .bashrc命令进入到.bashrc文件编辑模式。

我们要配置环境变量,在.bashrc文件的最后一行以下输入:

export JAVA_HOME=/home/zhaolong/jdk1.6.0_45 和 export PATH=/bin:$JAVA_HOME/bin:/usr/bin:$PATH:. 

编辑完毕后按ESC键然后输入:wq保存退出。使用. .bashrc命令使其生效。这时候我们再来用java
-version
来验证我们是否成功安装jdk了,不出意外应该会出现上图的内容。

接下来,我们来配置SSH的无password登录,假设SSH有password的话。每次启动每一个节点都要又一次输入password。这是一件非常麻烦的事情。

首先使用命令sudo apt-get install ssh安装ssh,安装的过程须要联网,下载有点慢,要有点耐心……

成功安装后,输入ssh-keygen命令,不用理会以下的内容,一路回车就可以,结束后会在~/.ssh/文件夹下生成了两个文件:id_dsa
id_rsa.pub
。这两个文件是成对出现的类似钥匙和锁,再把id_dsa.pub文件拷贝到~/.ssh/文件夹的authorizde_keys里详细命令为:cp id_dsa.pub authorizde_keys

SSH我们安装配置好了,接着,我们安装Hadoop。将下载好的hadoop文件hadoop-1.0.4.tar.gz复制到/home/zhaolong/下。和安装JDK一样,我们要设置文件的权限,不然无法解压。设置hadoop-1.0.4.tar.gz文件的权限。命令为:chmod
777 hadoop-1.0.4.tar.gz

解压解压hadoop-1.0.4.tar.gz文件,命令为:tar
xzvf hadoop-1.0.4.tar.gz

解压完毕后。加入hadoop bin到环境变量中。

详细操作依旧是改动.bashrc文件最以下的$PATH环境变量。操作和上面的配置JDK的环境变量一样,我就不赘述了。

Hadoop环境变量配置好后,我们须要配置一些Hadoop的配置文件,我们须要进入到hadoop/conf文件夹下。

1、改动:hadoop-env.sh配置文件,文件内容添加

export JAVA_HOME=/home/zhaolong/jdk1.6.0_45

2、改动:core-site.xml配置文件。文件内容添加

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/hadoop</value>

</property>

</configuration>

3、改动:hdfs-site.xml配置文件。文件内容添加

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

</configuration>

4、改动:mapred-site.xml配置文件。文件内容添加

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>localhost:9001</value>

</property>

</configuration>

以上4步骤都配置完毕后,我们须要启动一下Hadoop来验证我们的环境是否部署成功。启动前。必须先格式化文件系统,当然这个格式化文件系统仅仅在第一次启动是进行,以后不须要又一次格式化文件系统。格式化文件系统的命令为:hadoop
namenode -format

文件系统格式化须要等待一段时间,只是不会非常长,格式化完毕之后。我们能够尝试着启动Hadoop了。为了方便我们start-all.sh命令启动全部的服务。

我们启动了所以的服务。

好吧大概说一下Hadoop启动和停止的经常使用命令,

(1)格式化文件系统,命令为:hadoop
namenode -format

(2)启动关闭全部服务:start-all.sh/stop-all.sh

(3)启动关闭HDFS:start-dfs.sh/stop-dfs.sh

(4)启动关闭MapReduce:start-mapred.sh/stop-mapred.sh

(5)使用jps命令查看进程,确保有namenode。dataNode,JobTracker

(6)Job
Tracker管理界面:http://localhost:50030

(7)HDFS管理界面:http://localhost:50070

(8)HDFS通信port:9000

(9)MapReduce通信port:9001

先写到这吧。夜深了,该睡觉了……写的比較笼统,先这样吧。晚安……

Hadoop之中的一个:Hadoop的安装部署的更多相关文章

  1. cas 单点登录(SSO)之中的一个: jasig cas-server 安装

    cas 单点登录(SSO)实验之中的一个: jasig cas-server 安装 參考文章: http://my.oschina.net/indestiny/blog/200768#comments ...

  2. hadoop 2.7.1 高可用安装部署

    hadoop集群规划 目标:创建2个NameNode,做高可用,一个NameNode挂掉,另一个能够启动:一个运行Yarn,3台DataNode,3台Zookeeper集群,做高可用. 在hadoop ...

  3. Hadoop第12周练习—HBase安装部署

    1  1.1 1.2 :安装HBase 2.1 内容 运行环境说明 1.1 硬软件环境 线程,主频2.2G,6G内存 l  虚拟软件:VMware® Workstation 9.0.0 build-8 ...

  4. mysql学习之中的一个:mysql安装

    我用的时mac系统,本来想在mac系统上装一个,可是发现mac系统始终无法用password登入到本机server,很奇怪的问题(在stackflow上看了些回复,也没有找到原因),最后仅仅好装到虚拟 ...

  5. hadoop入门(3)——hadoop2.0理论基础:安装部署方法

    一.hadoop2.0安装部署流程         1.自动安装部署:Ambari.Minos(小米).Cloudera Manager(收费)         2.使用RPM包安装部署:Apache ...

  6. Hadoop入门进阶课程13--Chukwa介绍与安装部署

    本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,博主为石山园,博客地址为 http://www.cnblogs.com/shishanyuan  ...

  7. Hadoop入门进阶课程8--Hive介绍和安装部署

    本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,博主为石山园,博客地址为 http://www.cnblogs.com/shishanyuan  ...

  8. Ganglia监控Hadoop集群的安装部署[转]

    Ganglia监控Hadoop集群的安装部署 一. 安装环境 Ubuntu server 12.04 安装gmetad的机器:192.168.52.105 安装gmond的机 器:192.168.52 ...

  9. hadoop集群环境搭建之zookeeper集群的安装部署

    关于hadoop集群搭建有一些准备工作要做,具体请参照hadoop集群环境搭建准备工作 (我成功的按照这个步骤部署成功了,经实际验证,该方法可行) 一.安装zookeeper 1 将zookeeper ...

随机推荐

  1. cf上分的失落->高兴->更失落

    cf昨日做出一个题居然div2打了1800多名直接上分了...我原以为垂直落地但是....我现在1399差一分就能蓝名了啊啊啊啊,以后不一定会有这个水平的啊,给个蓝名体验卡不行吗,多加一分会死啊... ...

  2. 从多表连接后的select count(*)看待SQL优化

    从多表连接后的select count(*)看待SQL优化 一朋友问我,以下这SQL能直接改写成select count(*) from a吗? SELECT COUNT(*) FROM a LEFT ...

  3. tomcat7使用dbcp连接池遇到的坑

    项目部署在tomcat后每隔一段时间便会报错 Cause: java.sql.SQLException: Could not retrieve transation read-only status ...

  4. 微信小程序的坑之wx.miniProgram.postMessage

    工作中有个需求是小程序的网页在关闭的时候,需要回传给小程序一个参数 查阅小程序官方文档,有这样一个接口 wx.miniProgram.postMessage ,可以用来从网页向小程序发送消息,然后通过 ...

  5. 第三讲:post-processsing with vcs+ files

    1,dump wave  by system function $vcdpluson(level_number,module_instance,....|net_or_reg) $vcdplusoff ...

  6. POJ 1383 Labyrinth (树的直径求两点间最大距离)

    Description The northern part of the Pyramid contains a very large and complicated labyrinth. The la ...

  7. Android开发——查询/杀死手机里正在运行的进程

    0. 前言 以前有同学好像做过一个叫"自习君"的App,开启后自动检测用户这一天的自习时间,在学校里宣传广告还打了不少.其实实现原理非常简单,在SQlite数据库(也可以通过文件) ...

  8. Struts2执行原理

    [原理图] [MVC] [执行过程(重要!!!!!)] 1) 客户端浏览器发出请求时,被Tomcat服务器所接收.Tomcat容器将用户的请求封装为HttpServletRequest对象 2) 请求 ...

  9. oracle中的权限管理

    connect resource权限 grant connect,resource to user; 执行上面的sql语句后用户包括的权限: CONNECT角色: --是授予最终用户的典型权利,最基本 ...

  10. 一张图表,人人都能建立自己的AARRR运营模型

    每次跟同行聊运营,聊用户,聊产品,最后都会回到AARRR模型上来,这个用户全生命周期模型概括了互联网产品运营的5个关键环节. 获客是运营的基础,促进用户活跃才能让产品有生命力,提升留存减少流失让用户规 ...