Hadoop之Storm基础
1、离线计算是什么
离线计算:批量获取数据,批量传输数据,周期性批量计算数据,数据展示
代表技术:sqoop批量导入数据,hdfs批量存储数据,mapreduce批量计算数据,hive批量计算数据,***任务调度
2、流式就算是什么
流式计算:数据实时产生,数据实时传输,数据实时计算,实时展示
代表技术:flume实时获取数据,kafka实时数据存储,storm/jstorm实时数据计算,redies实时结果缓存
----将源源不断的数据实时收集,并实时计算,尽可能得到计算结果
3、Storm是什么
Storm用来实时处理数据,特点:低延迟,高可用,分布式,可扩展,数据不丢失,提供简单容易的接口,便于开发
4、storm和hadoop的区别
1)storm用于实时计算,hadoop用于离线计算
2)storm处理的数据保存在内存中,源源不断,hadoop处理的数据保存在文件系统中,一批一批
3)storm的数据通过网络传输进来,hadoop的数据保存在磁盘中
storm hadoop
应用名称 topology job
编程接口 spout/bolt Mapper/Reducer
5、storm应用场景及行业案例
运用场景
日志分析 管道系统 消息转化器
典型案例
1、一淘-实时分析系统:实时分析用户的属性,并反馈给搜索引擎
2、携程-网站性能监控:实时分析系统监控携程网的网站性能
3、阿里妈妈-用户画像:实时计算用户的兴趣数据
6、Storm的核心组件
1、Nimbus:负责资源分配和任务调度,对任务监控
2、Superviser:当前物理机的管理者,负责接受nimbus分配的任务,启动和停止属于自己管理的worker进程
worker的数量是根据端口来的 ----通过配置文件设置当前superviser上启动多少个worker
3、worker:执行具体任务的组件,任务类型有两种,spout任务,bolt任务,一个worker
中可能同时存在 运行具体处理组件逻辑进程
4、task:worker中每一个spout/bolt的线程称为一个task ,每个线程默认叫做executor
7、Storm编程模型
1、topology:storm中运行的一个实例应用程序的名称。
2、spout:在一个topology中获取源数据流的文件
通常情况下spout会从外部数据源中读取数据,然后转换为topology内部源数据
3、bolt:接受数据然后执行处理的组件,用户可以在其中执行自己想要的逻辑
4、tuple:一次消息传递的基本单元,理解为一组消息就是一个tuple
5、stream:表示数据的流向
8、编程模型
datasource:外部数据源
spout:接收外部数据源的组件,将外部数据源转化为storm的内部数据源
以tuple为基本的传输单元下发给bolt
bolt:接收spout发送的数据,或者上游的bolt的发送数据,根据业务逻辑自行处理,发送给下一个bolt
或者是存储在某种介质上,介质可以是redis或者mysql。。
tuple:storm内部中数据传输的基本单元,里面封装了一个list对象,用来保存数据
streamgrouping:数据分组策略
7种,shufflegrouping(random函数),non grouping(random函数),fieldgrouping(hash取模)
local or shufflegrouping 本地或者随机,优先本地
9、并发度
用户指定的一个任务,可以被多个线程执行,并发度的数量等于线程的数量
一个任务的多个线程,,会被运行在多个worker(jvm)上,类似于一种平均算法的负载均衡策略
尽可能减少网络io,和hadoop中mapreduce中的本地计算道理是一样的
10、架构
nimbus;任务分配
superviser:接收任务,并启动管理worker,worker的数量是根据端口号决定的
worker:执行任务的具体组件(其实就是一个jvm),可以执行两种类型的任务,spout或者bolt任务
task:task=线程=executor ,一个task属于一个spout或者bolt并发任务
zookeeper:保存任务的信息
11、流式计算的一般架构
网站系统——Flume集群(获取数据)——kafka集群(用来临时保存数据)——storm集群(用来计算数据)——Redis集群(内存数据库,保存数据)
12、Storm常用命令
有许多简单且有用的命令可以用来管理拓扑,它们可以提交、杀死、禁用、再平衡拓扑。
1)、提交任务命令格式:storm jar 【jar路径】 【拓扑包名.拓扑类名】 【拓扑名称】
bin/storm jar examples/storm-starter/storm-starter-topologies-0.10.0.jar storm.starter.WordCountTopology wordcount
2)、杀死任务命令格式:storm kill 【拓扑名称】 -w 10(执行kill命令时可以通过-w [等待秒数]指定拓扑停用以后的等待时间)
storm kill topology-name -w 10
3)、 停用任务命令格式:storm deactivte 【拓扑名称】
storm deactivte topology-name
我们能够挂起或停用运行中的拓扑。当停用拓扑时,所有已分发的元组都会得到处理,但是spouts的nextTuple方法
不会被调用。销毁一个拓扑,可以使用kill命令。它会以一种安全的方式销毁一个拓扑,首先停用拓扑,
在等待拓扑消息的时间段内允许拓扑完成当前的数据流。
4)、启用任务命令格式:storm activate【拓扑名称】
storm activate topology-name
5)、 重新部署任务命令格式:storm rebalance 【拓扑名称】
storm rebalance topology-name
再平衡使你重分配集群任务。这是个很强大的命令。比如,你向一个运行中的集群增加了节点。再平衡命令将会
停用拓扑,然后在相应超时时间之后重分配工人,并重启拓扑。
13、查看日志信息
查看nimbus的日志信息
在nimbus的服务器上
cd /export/servers/storm/logs
tail -100f /export/servers/storm/logs/nimbus.log
查看ui运行日志信息
在ui的服务器上,一般和nimbus一个服务器
cd /export/servers/storm/logs
tail -100f /export/servers/storm/logs/ui.log
查看supervisor运行日志信息
在supervisor服务上
cd /export/servers/storm/logs
tail -100f /export/servers/storm/logs/supervisor.log
查看supervisor上worker运行日志信息
在supervisor服务上
cd /export/servers/storm/logs
tail -100f /export/servers/storm/logs/worker-6702.log
Hadoop之Storm基础的更多相关文章
- 大数据框架对比:Hadoop、Storm、Samza、Spark和Flink
转自:https://www.cnblogs.com/reed/p/7730329.html 今天看到一篇讲得比较清晰的框架对比,这几个框架的选择对于初学分布式运算的人来说确实有点迷茫,相信看完这篇文 ...
- 快速学习hadoop只有这些基础可不行
“学习hadoop需要什么基础”这已经不是一个新鲜的话题了,随便上网搜索一下就能找出成百上千篇的文章在讲学习hadoop需要掌握的基础.再直接的一点的问题就是——学Hadoop难吗?用一句特别让人无语 ...
- 大数据框架对比:Hadoop、Storm、Samza、Spark和Flink——flink支持SQL,待看
简介 大数据是收集.整理.处理大容量数据集,并从中获得见解所需的非传统战略和技术的总称.虽然处理数据所需的计算能力或存储容量早已超过一台计算机的上限,但这种计算类型的普遍性.规模,以及价值在最近几年才 ...
- 数据框架对比:Hadoop、Storm、Samza、Spark和Flink——flink支持SQL,待看
简介 大数据是收集.整理.处理大容量数据集,并从中获得见解所需的非传统战略和技术的总称.虽然处理数据所需的计算能力或存储容量早已超过一台计算机的上限,但这种计算类型的普遍性.规模,以及价值在最近几年才 ...
- Hadoop之Storm命令
Hadoop之Storm命令 1.storm核心概念 stream--->一列火车 tuple--->一节车厢 数据--->乘客 spout--->始发站 bolt---> ...
- Storm基础知识
上一篇文章我们介绍一个简单的Storm起源,今天我去学习Storm一些主要的知识,他的基本使用基本的了解.幸运的是,,不是太困难,假设我们理解Hadoop的MapReduce模型的话.看这个也是很类似 ...
- hadoop、Storm该选哪一个
如果hadoop.Storm还感觉混要,那么此篇文章将帮助你把他们完全区分 可以带着下面问题来阅读本文章: 1.hadoop.Storm各是什么运算 2.Storm为什么被称之为流式计算系统 3.ha ...
- 学hadoop需要什么基础
最近一段时间一直在接触关于hadoop方面的内容,从刚接触时的一片空白,到现在也能够说清楚一些问题.这中间到底经历过什么只怕也就是只有经过的人才会体会到吧.前几天看到有个人问“学hadoop需要什么基 ...
- 分布式处理与大数据平台(RabbitMQ&Celery&Hadoop&Spark&Storm&Elasticsearch)
热门的消息队列中间件RabbitMQ,分布式任务处理平台Celery,大数据分布式处理的三大重量级武器:Hadoop.Spark.Storm,以及新一代的数据采集和分析引擎Elasticsearch. ...
随机推荐
- CocoaPods详解之----使用篇
http://blog.csdn.net/meegomeego/article/details/24005567 作者:wangzz 原文地址:http://blog.csdn.net/wzzvict ...
- 【转】Linux Futex的设计与实现
引子在编译2.6内核的时候,你会在编译选项中看到[*] Enable futex support这一项,上网查,有的资料会告诉你"不选这个内核不一定能正确的运行使用glibc的程序" ...
- 使用Redirector插件解决googleapis公共库加载的问题
最近访问一些面向国外的网站总是会出现ajax.googleaips.com无法加载的情况.以下为加载stackoverflow时的情境: 图1 -无法加载的google公共库 问题的原因是谷歌没有在国 ...
- 【bzoj2796】 [Poi2012]Fibonacci Representation
给出一个数字,用FIB数列各项加加减减来得到. 问最少要多少个(可以重复使用) 大概试了一下,fibonacci数列的增长是很快的,大概到了90+项就超过了题目范围…… 所以每次找一个最近的fibon ...
- Ubuntu系统进程管理笔记
前言 今天对前端服务器进行迁移,本来前端服务器就一台,都是放置前端静态文件的地方,应该是比较简单的.唯一的问题是由于Nginx需要给ie8浏览器个i同https访问支持,不得不对Nginx进行重新编译 ...
- 使用@CrossOrigin实现跨域请求
1.毕设使用的是react+java开发的网上书城,大家都知道react主要是视图(表现层或页面),数据的处理还是通过java来实现的,所以我的毕设相当于是两个项目组成的,一个是前端项目,一个是后台项 ...
- html实现点击章节自动调到开头
#转载请联系 原理是用id的值结合a链接实现锚点效果.比较简单,直接放一段代码好了. <!DOCTYPE html> <html lang="en"> &l ...
- 取消SecureCRT的右击粘贴功能
默认为选中时自动复制,右键粘贴 要取消的话在: Options->Global Options ...->Terminal 里面有个Mouse的选项块. Paste on Right/Le ...
- Solidity 文档--第三章:Solidity 编程实例
Solidity 编程实例 Voting 投票 接下来的合约非常复杂,但展示了很多Solidity的特性.它实现了一个投票合约.当然,电子选举的主要问题是如何赋予投票权给准确的人,并防止操纵.我们不能 ...
- [转]python dubbo接口测试
转自:https://www.cnblogs.com/chunyanxu/p/8732734.html 会吐泡泡的鱼 博客园 首页 新闻 新随笔 联系 管理 订阅 随笔- 57 文章- 0 评论- ...