从数据爆炸开始。。。

一、 第三次工业革命

 
     第一次:18世纪60年代,手工工厂向机器大生产过渡,以蒸汽机的发明和使用为标志。
     第二次:19世纪70年代,各种新技术新发明不断被应用于工业生产,以电力的发明使用为标志。
     第三次:20世界四五十年代末,以高新技术为代表的新科学技术革命,以原子能、航天技术和电子计算机

为标志。
 
二、 信息技术发展带来的数据爆炸

  • 纽约证券所交易    每天 1TB
  • FaceBook一千亿照片  1PB
  • 腾讯 每天 300TB
  • 淘宝 每天 pv20亿 数据量 50TB
  • ......
 

三、 海量数据存储与分析

 
问题:数据量指数增加,磁盘访问速度未能与时俱进
  • 1990 年 一个磁盘 1370MB 速度4.4MB/s 用时5分钟
  • 2010 年 一个磁盘 1TB  速度 100MB/s 用时两个半
分析:读一个很慢,那么可以同时读多个
  • 如果把1TB存储到100个磁盘,每个存储1%,并行读取,用时不到两分钟。
  • 如果一个我们有100个1TB数据集,100个1TB磁盘,那么我们以磁盘共享的方式把每个数据集分布到100个磁盘中,这样边会大大提高每个数据集的读取速率。
如果实现此类文件系统需要解决哪些问题?
  • 硬盘故障:因为文件系统有多个磁盘,那么任意一个磁盘发生故障的概率就变得很高。(采取数据备份)
  • 数据分析:某些分析任务需要结合大部分数据共同完成,那么我们的文件系统就要保证对来自多个数据源的数据进行分析的准确性。

四、 Hadoop-一个可靠的分布式共享存储和分析系统

 

4.1 简要介绍

 
  Hadoop 是Apache基金会下一个开源的分布式计算平台,它以分布式文件系统HDFS和MapReduce算法为核心,为用户提供了系统底层细节透明的分布式基础架构。
 
    如上图Hadoop集群中有很多并行的机器来存储和分析数据,客户端把任务提交到集群,集群计算返回结果。
 

4.2 历史起源:Apache的子项目的子项目

 
     雄心勃勃的Doug
Cutting:他先领导创立了Apache的项目Lucene,然后Lucene又衍生出子项目Nutch,Nutch又衍生了子项目Hadoop。
Lucene是一个功能全面的文本搜索和查询库,Nutch目标就是要视图以Lucene为核心建立一个完整的搜索引擎,并且能达到提到Google商业
搜索引擎的目标。网络搜索引擎和基本文档搜索区别就在规模上,Lucene目标是索引数百万文档,而Nutch应该能处理数十亿的网页。因此Nutch就
面临了一个极大的挑战,即在Nutch中建立一个层,来负责分布式处理、冗余、故障恢复及负载均衡等等一系列问题。。。
   
 曙光的到来:2004年,Google发表了两篇论文来论述Google文件系统(GFS)和MapReduce框架,并且使用了这两项技术来拓展自己
的搜索系统,于是Doug
Cutting看到了这两篇论文的价值并带领他的团队便实现了这个框架,并将Nutch移植上去,于是Nutch的可扩展性得到极大的提高。
     Hadoop的诞生:Doug Cutting逐渐认识到急需要成立一个专门的项目来充实这两种技术,于是就诞生了Hadoop。
     2006年1月,雅虎雇佣Doug Cutting,并让他和一个专门的团队来一起改进Hadoop,并将其作为一个开源项目。
     2008年2月19日,雅虎正式宣布,其索引网页的生产系统采用的就是在10000多个核的Linux系统上运行的Hadoop。
     于是,Hadoop真正达到了互联网级。。。
     ps:关于Doug
Cutting它三个项目的名字由来,这个人很有意思,三个项目的名字都来源于他家庭,Lucene是他妻子的中间名也是她外祖母的名字,他儿子在很小的
时候总是把吃饭的词叫做Nutch,后来,他又把一个黄色大象毛绒玩具叫做Hadoop,这样大家就明白了为何好多关于Hadoop的资料中都能看到个黄
色的大象。
     
优点:Hadoop是一个开源框架,可编写和运行分布式应用来处理大规模数据,分布式计算是一个不断变化且宽泛的领域,优点如下:
     1.易用性。Hadoop运行在由一般商用机器构成的大型集群上。
     2.可靠性。Hadoop致力于一般商用机器上,其架构假设硬件会频繁出现失效,它可以从容处理大多数此类故障。
     3.可扩展。Hadoop通过增加集群节点,可以线性地拓展以处理更大数据集。
     4.简单。Hadoop允许用户快速的编写出高效地并行代码。
 
4.3 了解分布式系统和Hadoop
 
     摩尔定律:当价格不变时,集成电路上可容纳的晶体管数目,约每隔18个月便会增加一倍,性能也将提升一倍,但解决大规模数据计算问题不能单纯依赖制造越来越大型的服务器。
     分布式系统(向外拓展scale-out)与大型服务器(向上拓展scale-up),从IO性价比层面分析:
   
 一个四IO通道的高端机,每个通道的吞吐量各为100MB/sec,读取4TB数据也要接近3小时,而用Hadoop,同样的数据被划分为较小的块(通
常为64MB),通过HDFS分不到群内的多台计算机上,集群可以并行存取数据,这样,一组通用的计算机比一台高端机要便宜。
     Hadoop与其它分布式系统比较,如SETI@home,它的一台中央服务器存储了来自太空的无线电信号,并把这些信号数据发给分布在世界各地的客户端计算,再将计算返回的结果存储起来。
   
 Hadoop对待数据的理念与其不同。SETI@home需要服务器和客户端重复地传输数据,这种方式在处理密集数据时,会使得数据迁移变得十分困难。
而Hadoop则强调把代码向数据迁移,即Hadoop集群中既包含数据又包含运算环境,并且尽可能让一段数据的计算发生在同一台机器上,代码比数据更加
容易移动,Hadoop的设计理念即是把要执行的计算代码移动到数据所在的机器上去。
 

4.4 比较Hadoop和SQL数据库

 
     从总体上看,现在大多数数据应用处理的主力是关系型数据库,即SQL面向的是结构化的数据,而Hadoop则针对的是非结构化的数据,从这一角度看,Hadoop提供了对数据处理的一种更为通用的方式。
    下面,我们从特定的视角将Hadoop与SQL数据库做详细比较:
     1. 用scale-out代替scale-up
           
 拓展商用服务器的代价是非常昂贵的。要运行一个更大的数据库,就要一个更大的服务器,事实上,各服务器厂商往往会把其昂贵的高端机标称为“数据库级服务
器”,不过有时候有可能需要处理更大的数据集,但却找不到更大的机器,而更为重要的是,高端机对于许多应用并不经济。
     2.用键值对代替关系表
             
关系型数据库需要将数据按照某种模式存放到具有关系型数据结构表中,但是许多当前的数据模型并不能很好的适应这些模型,如文本、图片、xml等,此外,大
型数据集往往是非结构化或半结构化的。而Hadoop以键值对作为最基本的数据单元,能够灵活的处理较少结构化的数据类型。
     3.用函数式编程(MapReduce)代替声明式查询(SQL)
             
SQL从根本上说是一个高级声明式语言,它的手段是声明你想要的结果,并让数据库引擎判断如何获取数据。而在MapReduce程序中,实际的数据处理步
骤是由你指定的。SQL使用查询语句,而MapReduce使用程序和脚本。MapReduce还可以建立复杂的数据统计模型,或者改变图像数据的处理格
式。
     4.用离线批量处理代替在线处理
              Hadoop并不适合处理那种对几条记录读写的在线事务处理模式,而适合一次写入多次读取的数据需求。
 

五、 理解MapReduce

 
     也许你知道管道和消息队列数据处理模型,管道有助于进程原语的重用,用已有模块的简单连接就可组成一个新的模块,消息队列则有助于进程原语的同步。
     同样,MapReduce也是一种数据处理模型
。它的最大的特点就是容易拓展到多个计算机节点上处理数据。在MapReduce中,原语通常被称作Mapper和Reducer。也许讲一个数据处理应
用分解为一个Mapper和Reducer是非常繁琐的,但是一旦你写好了一个Mapreduce应用程序,仅需通过配置,就可将其拓展到集群的成百上千
个节点上运行,这种简单的可拓展性使得Mapreduce吸引了大量程序员。
 

5.1 手动拓展一个简单单词计数程序

 
     统计一个单词的出现次数,单词只有一句话:"do as i say , not as i do"。如果文档很小,一段简单的代码即可实现,下面是一段伪代码:
               define wordCount as Multiset;

for each document in documentSet {

                        T = tokenize(document);
                        for each token in T {
                              wordCount[token]++;
                         }
                   }
                  display(wordCount);
 
     但是这个程序只适合处理少了文档,我们试着重写程序,使它可以分布在多个计算机上,每台机器处理文档的不同部分,在把这些机器处理的结果放到第二阶段,由第二阶段来合并第一阶段的结果。
     第一阶段要分布到多台机器上的代码为:
 
               defi ne wordCount as Multiset;
                   for each document in documentSet {
                        T = tokenize(document);
                        for each token in T {
                              wordCount[token]++;
                         }
                   }
                sendToSecondPhase(wordCount);
     第二阶段伪代码:
               defi ne totalWordCount as Multiset;

for each wordCount received from firstPhase {
                        multisetAdd (totalWordCount, wordCount);
               }

     如果这么设计的话还有什么其他困难吗?一些细节可能会妨碍它按预期工作,
  1. 如果数据集很大,中心存储服务器性能可能会跟不上,因此我们需要把文档分不到多台机器上存储。
  2. 还有一个缺陷是wordcount被存放在内存当中,同样,如果数据集很大一个wordcount就有可能超过内存容量,因此我们不能将其放在内存中,我们需实现一个基于磁盘的散列表,其中当然涉及大量编码。
  3. 第二阶段如果只有一台计算机,显然不太合理,若按照第一阶段的设计把第二阶段的任务也分布到多台计算机上呢?答案当然是可以的,但是我们必须将第
    一阶段的结果按某种方式分区,使其每个分区可以独立运行在第二阶段的各个计算机上。比如第二阶段的A计算机只统计以a开头的wordcount,计算机B
    统计wordcount-b分区,依次类推。
     现在这个单词统计程序正在变得复杂,为了使它能够运行在一个分布式计算机集群中,我们发现需要添加以下功能:
  1. 存储文件到多台计算机上
  2. 编写一个基于磁盘的散列表,使其不受计算机内存限制
  3. 划分来自第一阶段的中间数据
  4. 洗牌第一阶段分区到第二阶段合适的计算机上
     仅仅这一个简单的小问题就需要考虑这么多细节处理,这就是我们为什么需要一个Hadoop框架,当我们用MapReduce模型编写程序时,Hadoop框架可以管理所有与可拓展性相关的底层问题。
 

5.2 相同程序在MapReduce中拓展

 
     Map和Reduce程序必须遵循以下键和值类型的约束
          1.应用的输入必须组织为一个键值对列表List<key1,value1>,输入格式不受约束,例如处理多个文件的输入格式可以使List<String filename,String fileContent>。
        
 2.含键值对的列表被拆分,进而通过调用Mapper的Map函数对每个键值对<K1,V1>进行处理,Mapper
转换每个<K1,V1>,并将其结果并入<K2,V2>。在上面例子中,Mapper转换成的是一个<String
word,Integer count>的列表。
           
3.所有Mapper的输出被聚合在一个巨大的<K2,V2>列表中,所有共享K2的对被组织在一起成为一个新的键值对列
表<K2,List(V2)>,让reducer来处理每一个聚合起来的<K2,List(V2)>,并将处理转换
成<K3,V3>,MapReduce框架自动搜索所有<K3,V3>并将其写入文件中。
 

六、 运行第一个Hadoop程序——用Hadoop框架来统计单词

 
 在linux环境下配置Hadoop运行环境
 

6.1首先安装JAVA JDK

  1. Hadoop需要1.6或更高版本
  2. 到oracle官网下载Linux版java安装包(rpm包)
  3. 查看是否已安装:java or java -version
  4. 卸载老版本 rpm -e jdk
  5. 安装jdk rpm -ivh jdk
  6. 配置环境变量
     

6.2 下载一个Hadoop稳定版本

 
# mkdir /usr/hadoop
# cd /usr/hadoop/
# wget http://apache.mesi.com.ar/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
# tar -xzf hadoop-1.2.1.tar.gz
# mv hadoop-1.2.1 hadoop
# cd /usr/hadoop/hadoop/
# bin/hadoop 

6.3 配置 Hadoop

 

 编辑 core-site.xml

# vim conf/core-site.xml
#Add the following inside the configuration tag
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000/</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>

编辑 hdfs-site.xml

# vim conf/hdfs-site.xml
# Add the following inside the configuration tag
<property>
<name>dfs.data.dir</name>
<value>/opt/hadoop/hadoop/dfs/name/data</value>
<final>true</final>
</property>
<property>
<name>dfs.name.dir</name>
<value>/opt/hadoop/hadoop/dfs/name</value>
<final>true</final>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>

编辑 mapred-site.xml

# vim conf/mapred-site.xml
# Add the following inside the configuration tag
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>

编辑 hadoop-env.sh

# vim conf/hadoop-env.sh
export JAVA_HOME=/opt/jdk1.7.0_17
export HADOOP_OPTS=-Djava.net.preferIPv4Stack=true

设置 JAVA_HOME path 

格式化 Name Node

$ cd /usr/hadoop/hadoop
$ bin/hadoop namenode -format
6.4 启动 Hadoop Services

Use the following command to start all hadoop services.

$ bin/start-all.sh    
 
输入网址查看一下效果:
 
     http://localhost:50030(MapReduce 的web页面)
     http://localhost:50070(HDFS 的web页面)

[Big Data]Hadoop详解一的更多相关文章

  1. 【转载】salesforce 零基础开发入门学习(四)多表关联下的SOQL以及表字段Data type详解

    salesforce 零基础开发入门学习(四)多表关联下的SOQL以及表字段Data type详解   建立好的数据表在数据库中查看有很多方式,本人目前采用以下两种方式查看数据表. 1.采用schem ...

  2. 51单片机的idata,xdata,pdata,data的详解(转)

    data: 固定指前面0x00-0x7f的128个RAM,可以用acc直接读写的,速度最快,生成的代码也最小. bit :是指0x20-0x2f的可位寻址区idata:固定指前面0x00-0xff的2 ...

  3. 51单片机的idata,xdata,pdata,data的详解

    data: 固定指前面0x00-0x7f的128个RAM,可以用acc直接读写的,速度最快,生成的代码也最小. bit :是指0x20-0x2f的可位寻址区idata:固定指前面0x00-0xff的2 ...

  4. iptables Data filtering详解

    内容简介防火墙的概述iptables简介iptables基础iptables语法iptables实例案例详解(一)防火墙的简介防火墙是指设置在不同网络或网络安全域之间的一系列部件的组合,它能增强机构内 ...

  5. Android vector Path Data画图详解

    SVG是一种矢量图格式,是Scalable Vector Graphics三个单词的首字母缩写.在xml文件中的标签是,画出的图形可以像一般的图片资源使用,例子如下: <vector xmlns ...

  6. Hadoop详解一:Hadoop简介

    从数据爆炸开始... 一. 第三次工业革命        第一次:18世纪60年代,手工工厂向机器大生产过渡,以蒸汽机的发明和使用为标志.      第二次:19世纪70年代,各种新技术新发明不断被应 ...

  7. salesforce 零基础开发入门学习(四)多表关联下的SOQL以及表字段Data type详解

    建立好的数据表在数据库中查看有很多方式,本人目前采用以下两种方式查看数据表. 1.采用schema Builder查看表结构以及多表之间的关联关系,可以登录后点击setup在左侧搜索框输入schema ...

  8. Spring Data Jpa 详解

    前言: JPA全称Java Persistence API,即Java持久化API,它为Java开发人员提供了一种对象/关系映射工具来管理Java应用中的关系数据,结合其他ORM的使用,能达到简化开发 ...

  9. Spring Data Jpa 详解 (配置篇)

    前言: JPA全称Java Persistence API,即Java持久化API,它为Java开发人员提供了一种对象/关系映射工具来管理Java应用中的关系数据,结合其他ORM的使用,能达到简化开发 ...

随机推荐

  1. MySQL 的实时性能监控利器【转】

    操作系统及MySQL数据库的实时性能状态数据尤为重要,特别是在有性能抖动的时候,这些实时的性能数据可以快速帮助你定位系统或MySQL数据库的性能瓶颈,就像你在Linux系统上使用「top,sar,io ...

  2. Flex4.6 DataGrid GridItemRenderer宣染器

    本文转自:http://blog.sina.com.cn/s/blog_71848dcf01012ctl.html,稍作修改 <?xml version="1.0" enco ...

  3. groupbox 下的datagridview的列标题字体修改混乱

        groupbox 下的datagridview的列标题字体修改混乱

  4. 根据XML文件生成XSD文件

    在.net开发环境中查找XSD.exe文件,比如我的在C:\Program Files\Microsoft SDKs\Windows\v6.0A\bin目录下,将该路径添加到Path中,打开控制台,到 ...

  5. win8上cmder文字重叠问题

    1.用过ubuntu上的bash,zsh后发现win自带的cmd弱爆了,在网上搜索后找到了代替品cmder,下载安装后好发现中文错位的问题, 状况如下: 修复方法:把设置里面的Monospace选项勾 ...

  6. 字符函数库 cctype

    <cctype> (ctype.h) Character handling functions This header declares a set of functions to cla ...

  7. GDT、GDTR、LDT、LDTR的理解

    GDT是全局描述附表,主要存放操作系统和各任务公用的描述符,如公用的数据和代码段描述符.各任务的TSS描述符和LDT描述符.(TSS是任务状态段,存放各个任务私有运行状态信息描述符)LDT是局部描述符 ...

  8. 【转】对于JNI方法名,数据类型和方法签名的一些认识

    [转]对于JNI方法名,数据类型和方法签名的一些认识   之前一直用jni,但是没有考虑Java重载函数,如何在jni-C++里命名,今天看到一篇文章,讲到了类型签名. 原文链接:http://www ...

  9. Loadrunner之脚本的调试和保存(六)

    一.调试脚本 脚本录制完毕后,按F5键或单击菜单上的RUN按钮,可以运行脚本.       在VIRTUAL USER GENERATOR中运行脚本的作用,主要是查看录制的脚本能否正常通过,如果有问题 ...

  10. java断点

    第一步: 用firefox运行程序,当点击保存,提示保存失败后,启动firebug 通过请求找到addNew.ezt出现错误,在eztnews.xml里通过ctrl+F查找找到请求执行的类和方法 找到 ...