1)aggregatewordcount 计算输入文件中文字个数的基于聚合的MapReduce程序 2)aggregatewordhist 生成输入文件中文字个数的统计图的基于聚合的MapReduce程序 3)grep 计算输入文件中匹配正则表达式的文字个数的MapReduce程序 4)join 合并排序的平均分割的数据集的作业 5)pentomino 解决五格拼版问题的分块分层的MapReduce程序 6)pi 使用蒙地卡罗法计算PI的MapReduce程序 7)Randomtextwrite…
本来想自己从网上搜集整理的,但是发现吴超写的刚刚好,不多不少,所以直接转载(图片失效了,用自己的图片) http://www.superwu.cn/2013/08/23/548/ 在hadoop集群的时候,集群的运行会进入到安全模式(safeMode)下.在安全模式下运行一段时间后,自动退出. 那么,系统在安全模式下干什么了? 当集群启动的时候,会首先进入到安全模式.系统在安全模式下,会检查数据块的完整性.假设我们设置的副本数(即参数dfs.replication)是5,那么在dataNode上…
在 Linux搭建集群---JDK配置 Linux搭建集群---SSH免密登陆 Linux搭建集群---集群搭建成功 的基础上实现workcount案例 注意 虚拟机三台启动集群(自己亲自搭建) 1. wordcount程序          1.1Hadoop集群测试WordCount程序               1.1.1 在hadoop目录下创建一个wordcount文件夹             1.1.2切换到wordcount文件夹,新增两个文件,并且编辑内容     文件内容如…
Hadoop入门例程简介 一个.有些指令 (1)Hadoop新与旧API差异 新API倾向于使用虚拟课堂(象类),而不是接口.由于这更easy扩展. 比如,能够无需改动类的实现而在虚类中加入一个方法(即用默认的实现). 在新的API中.mapper和reducer如今都是虚类. 新的API 放在org.apache.hadoop.mapreduce 包(和子包)中.之前版本号的API 依然放在org.apache.hadoop.mapred中. 新的API充分使用上下文对象(Context),使…
区块链自问自答 day2 区块链的自治性是如何达成的?为什么能够在去信任的环境下自由安全地交换数据? ​ 区块链中有众多的节点,包含了恶意节点.故障节点.正常节点,想要这些节点共同做出一致的决定就需要一套共识机制来解决. 1982年,著名计算机学家兰波特提出了拜占庭将军问题:拜占庭帝国派出了几只军队进攻一个城堡,如果这些带队的将军中有叛徒,在只能靠信使通讯的情况下,如何能够保证忠诚的将军同时.准确的行动?这个问题本质是说:在分布式计算机网络中,如果存在故障和恶意节点,是否能够保持正常节点的网络一…
之前Storm安装之后,也知道了Storm的一些相关概念,那么怎么样才可以运行一个例子对Storm流式计算有一个感性的认识呢,那么下面来运行一个Storm安装目录自带的测试案例,我们的Storm安装在服务器的/usr/storm/apache-storm-0.9.6中,首先进入这个目录,执行ls可以看到有一个examples目录,这个就是Storm自带的案例,里面有一个项目storm-starter,首先确保maven的正确安装,我们执行命令: cd examples/storm-starter…
python -m xxx.py 作用是:把xxx.py文件当做模块启动 但是我一直不明白当做模块启动到底有什么用.python xxx.py和python -m xxx.py有什么区别! 自问自答: python xxx.py python -m xxx.py 这是两种加载py文件的方式: 1叫做直接运行 2把模块当作脚本来启动(注意:但是__name__的值为'main' ) 不同的加载py文件的方式,主要是影响--sys.path 这个属性.sys.path 就相当于liunx中的PATH…
1.在hadoop所在目录“usr/local”下创建一个文件夹input root@ubuntu:/usr/local# mkdir input 2.在文件夹input中创建两个文本文件file1.txt和file2.txt,file1.txt中内容是“hello word”,file2.txt中内容是“hello hadoop”.“hello mapreduce”(分两行). root@ubuntu:/usr/local# cd inputroot@ubuntu:/usr/local/inp…
先让我组织一下语言,作为表达能力超弱的战五渣来讲,归纳总结什么的最要命了. 我可以给你分析个1到N条出来,但是一般来讲没什么顺序,想到什么就说什么.而且我属于线性思维,有一个引子就可以按着话头一步步发散,但是特别容易舍本逐末.就是说,我能想到一个东西的用法,如果沿着该物品的思维线联想,可以想到其生产地.原料等等.但是,我为何会想到它呢?我可能就忘了我的初衷.比如现在就跑题了~ 为何要取名叫自问自答呢?这是因为我要先有个任务,然后才有完成任务的动力及目标.如果只是自由表述,那我能扯到外太空去.当然…
Hadoop 中,并没有使用Java自带的基本类型类(Integer.Float等),而是使用自己开发的类.Hadoop 自带有很多序列化类型,大致分为以下两种: 实现了WritableComparable接口的类 基础:BooleanWritable | ByteWritable 数字:IntWritable | VIntWritable | FloatWritable | LongWritable | VLongWritable | DoubleWritable 高级:NullWritabl…