大数据(十四) - Storm
|
storm.zookeeper.servers |
ZooKeeper服务器列表 |
|
storm.zookeeper.port |
ZooKeeper连接port |
|
storm.local.dir |
storm使用的本地文件系统文件夹(必须存在而且storm进程可读写) |
|
storm.cluster.mode |
Storm集群执行模式([distributed|local]) |
|
storm.local.mode.zmq |
Local模式下是否使用ZeroMQ作消息系统。假设设置为false则使用java消息系统。默觉得false |
|
storm.zookeeper.root |
ZooKeeper中Storm的根文件夹位置 |
|
storm.zookeeper.session.timeout |
client连接ZooKeeper超时时间 |
|
storm.id |
执行中拓扑的id,由storm |
|
nimbus.host |
nimbus服务器地址 |
|
nimbus.thrift.port |
nimbus的thrift监听port |
|
nimbus.childopts |
通过storm-deploy项目部署时指定给nimbus进程的jvm选项 |
|
nimbus.task.timeout.secs |
心跳超时时间,超时后nimbus会觉得task死掉并重分配给还有一个地址。 |
|
nimbus.monitor.freq.secs |
nimbus检查心跳和重分配任务的时间间隔.注意假设是机器宕掉nimbus会马上接管并处理。 |
|
nimbus.supervisor.timeout.secs |
supervisor的心跳超时时间,一旦超过nimbus会觉得该supervisor已死并停止为它分发新任务. |
|
nimbus.task.launch.secs |
task启动时的一个特殊超时设置.在启动后第一次心跳前会使用该值来暂时替代nimbus.task.timeout.secs. |
|
nimbus.reassign |
当发现task失败时nimbus是否又一次分配执行。默觉得真。不建议改动。 |
|
nimbus.file.copy.expiration.secs |
nimbus推断上传/下载链接的超时时间。当空暇时间超过该设定时nimbus会觉得链接死掉并主动断开 |
|
ui.port |
Storm UI的服务port |
|
drpc.servers |
DRPC服务器列表,以便DRPCSpout知道和谁通讯 |
|
drpc.port |
Storm DRPC的服务port |
|
supervisor.slots.ports |
supervisor上能够执行workers的port列表.每一个worker占用一个port,且每一个port只执行一个worker.通过这项配置能够调整每台机器上执行的worker数.(调整slot数/每机) |
|
supervisor.childopts |
在storm-deploy项目中使用,用来配置supervisor守护进程的jvm选项 |
|
supervisor.worker.timeout.secs |
supervisor中的worker心跳超时时间,一旦超时supervisor会尝试重新启动worker进程. |
|
supervisor.worker.start.timeout.secs |
supervisor初始启动时。worker的心跳超时时间。当超过该时间supervisor会尝试重新启动worker。由于JVM初始启动和配置会带来的额外消耗,从而使得第一次心跳会超过supervisor.worker.timeout.secs的设定 |
|
supervisor.enable |
supervisor是否应当执行分配给他的workers.默觉得true,该选项用来进行Storm的单元測试,一般不应改动. |
|
supervisor.heartbeat.frequency.secs |
supervisor心跳发送频率(多久发送一次) |
|
supervisor.monitor.frequency.secs |
supervisor检查worker心跳的频率 |
|
worker.childopts |
supervisor启动worker时使用的jvm选项.全部的”%ID%”字串会被替换为相应worker的标识符 |
|
worker.heartbeat.frequency.secs |
worker的心跳发送时间间隔 |
|
task.heartbeat.frequency.secs |
task汇报状态心跳时间间隔 |
|
task.refresh.poll.secs |
task与其它tasks之间链接同步的频率.(假设task被重分配,其它tasks向它发送消息须要刷新连接).一般来讲。重分配发生时其它tasks会理解得到通知。该配置只为了防止未通知的情况。 |
|
topology.debug |
假设设置成true。Storm将记录发射的每条信息。 |
|
topology.optimize |
master是否在合适时机通过在单个线程内执行多个task以达到优化topologies的目的. |
|
topology.workers |
执行该topology集群中应当启动的进程数量.每一个进程内部将以线程方式执行一定数目的tasks.topology的组件结合该參数和并行度提示来优化性能 |
|
topology.ackers |
topology中启动的acker任务数.Acker保存由spout发送的tuples的记录,并探測tuple 何时被全然处理.当Acker探測到tuple被处理完成时会向spout发送确认信息.通常应当依据topology的吞吐量来确定acker的数目。 |
|
topology.message.timeout.secs |
topology中spout发送消息的最大处理超时时间.假设一条消息在该时间窗体内未被成功ack,Storm会告知spout这条消息失败。 而部分spout实现了失败消息重播功能。 |
|
topology.kryo.register |
注冊到Kryo(Storm底层的序列化框架)的序列化方案列表.序列化方案能够是一个类名,或者是com.esotericsoftware.kryo.Serializer的实现. |
|
topology.skip.missing.kryo.registrations |
Storm是否应该跳过它不能识别的kryo序列化方案.假设设置为否task可能会装载失败或者在执行时抛出错误. |
|
topology.max.task.parallelism |
在一个topology中能够同意的最大组件并行度.该项配置主要用在本地模式中測试线程数限制. |
|
topology.max.spout.pending |
一个spout task中处于pending状态的最大的tuples数量.该配置应用于单个task,而不是整个spouts或topology. |
|
topology.state.synchronization.timeout.secs |
组件同步状态源的最大超时时间(保留选项,暂未使用) |
|
topology.stats.sample.rate |
用来产生task统计信息的tuples抽样百分比 |
|
topology.fall.back.on.java.serialization |
topology中是否使用java的序列化方案 |
|
zmq.threads |
每一个worker进程内zeromq通讯用到的线程数 |
|
zmq.linger.millis |
当连接关闭时,链接尝试又一次发送消息到目标主机的持续时长.这是一个不经常使用的高级选项,基本上能够忽略. |
|
java.library.path |
JVM启动(如Nimbus,Supervisor和workers)时的java.library.path设置.该选项告诉JVM在哪些路径下定位本地库. |
命令
拓扑名
大数据(十四) - Storm的更多相关文章
- 大数据Spark与Storm技术选型
先做一个对比: 对比点 Storm Spark Streaming 实时计算模型 纯实时,来一条数据,处理一条数据 准实时,对一个时间段内的数据收集起来,作为一个RDD,再处理 实时计算延迟度 毫 ...
- 大数据【四】MapReduce(单词计数;二次排序;计数器;join;分布式缓存)
前言: 根据前面的几篇博客学习,现在可以进行MapReduce学习了.本篇博客首先阐述了MapReduce的概念及使用原理,其次直接从五个实验中实践学习(单词计数,二次排序,计数器,join,分 ...
- 大数据学习:storm流式计算
Storm是一个分布式的.高容错的实时计算系统.Storm适用的场景: 1.Storm可以用来用来处理源源不断的消息,并将处理之后的结果保存到持久化介质中. 2.由于Storm的处理组件都是分布式的, ...
- Expo大作战(十四)--expo中消息推送的实现
简要:本系列文章讲会对expo进行全面的介绍,本人从2017年6月份接触expo以来,对expo的研究断断续续,一路走来将近10个月,废话不多说,接下来你看到内容,讲全部来与官网 我猜去全部机翻+个人 ...
- 大数据学习——kafka+storm+hdfs整合
1 需求 kafka,storm,hdfs整合是流式数据常用的一套框架组合,现在 根据需求使用代码实现该需求 需求:应用所学技术实现,kafka接收随机句子,对接到storm中:使用storm集群统计 ...
- [大数据面试题]storm核心知识点
1.storm基本架构 storm的主从分别为Nimbus.Supervisor,工作进程为Worker. 2.计算模型 Storm的计算模型分为Spout和Bolt,Spout作为管口.Bolt作为 ...
- 大数据架构之:Storm
Storm是一个免费开源.分布式.高容错的实时计算系统,Twitter开发贡献给社区的.Storm令持续不断的流计算变得容易,弥补了Hadoop批处理所不能满足的实时要求. Storm经常用 ...
- 《OD大数据实战》Storm环境搭建
一.环境搭建 1. 下载 http://www.apache.org/dyn/closer.lua/storm/apache-storm-0.9.6/apache-storm-0.9.6.tar.gz ...
- 《零起点,python大数据与量化交易》
<零起点,python大数据与量化交易>,这应该是国内第一部,关于python量化交易的书籍. 有出版社约稿,写本量化交易与大数据的书籍,因为好几年没写书了,再加上近期"前海智库 ...
随机推荐
- day 5 集合
# -*- coding: utf_8 _*_# Author:Vi#集合是无序的 list_1 = [1,2,3,2,3,5,7]list_1 = set(list_1)#将列表转变成集合list_ ...
- C++中的纯虚函数
---恢复内容开始--- 在C++中的一种函数申明被称之为:纯虚函数(pure virtual function).它的申明格式如下 class CShape { public: ; }; 在什么情况 ...
- Jenkins学习总结(2)——Jenkins+Maven进行Java项目持续集成
最近配置了Jenkins服务器,记录下基本过程.(当然还遇到了若干小问题,兵来将挡水来土掩就是了) Jenkins安装 安装Tomcat 从Jenkins官网下载jenkins.war文件.官网地址: ...
- PHP类中的__get()和__set函数到底有什么用
PHP类中的__get()和__set函数到底有什么用 一.总结 一句话总结:当试图获取一个不可达变量时,类会自动调用__get.同样的,当试图设置一个不可达变量时,类会自动调用__set.在网站中, ...
- stm32与arm7比较(经典)
http://wenku.baidu.com/link?url=LIVcT1AQL0IgVF1xan5Zy9rXarCBo66hj7OXSxM1ap7FpssO4c3sd1pZd8azfBPr3PBy ...
- BZOJ1014[JSOI2008]火星人prefix(splay维护hash)
Description 火星人最近研究了一种操作:求一个字串两个后缀的公共前缀.比方说,有这样一个字符串:madamimadam,我们将这个字符串的各个字符予以标号:序号: 1 2 3 4 5 6 7 ...
- 关于Django的登录系统
首先需要明确的是登录的本质:登录就是服务器确认当前用户的身份,并将数据库中的记录提取匹配 默认的登录系统是用户名密码方式,这种方式很平常,也没什么特别的.这里主要说的是第三方验证登录 通常第三方验证登 ...
- Spring CORS
转载:Spring MVC 4.2 增加 CORS 支持 http://spring.io/blog/2015/06/08/cors-support-in-spring-framework http: ...
- 移动mm 话费支付接入过程(ane)
下面记录移动mm 话费支付接入的过程 1.强联网.弱联网差别.sdk是否有区分?用户体验部分由什么不同和差异? 差别在于强联网是网络通道(wifi/gprs/3g),弱联网是走短信通道,用户层面差异在 ...
- meld文件的脚本
今天模仿着别人的脚本,结合网上的资料,摸索着写了一个简单的脚本,用来打开meld 工具.这个脚本虽然简单,但这是第一次自己写脚本,记录下来,作为自己python学习的起点.代码如下 #/use/bin ...