02_Spark Application不同模式下的监控
监控Spark Application的运行
官方文档: http://spark.apache.org/docs/latest/monitoring.html
1.1 监控方式
Driver Programme WEB UI (Port: 4040)
* 每一个driver program (更具体的说应该是SparkContext) 都会启动1个web UI, http://<driver-node>:4040
* 通过web ui能够看到这个特定的Spark Application的如下内容,如果1台机器上运行了多个SparkContext,那么端口将从4040持续增长(4040/4041/4042...)
- stages,tasks
- summary of RDD size and memeory usage
- 环境信息
- running executor的信息
【注意】默认情况下Driver Programme WEB UI只能在Application运行期间提供服务
Spark UI (Port:8080)
集群模式下运行的Spark,Master节点(cluster manager)会启动一个Spark UI,用于监控Spark Application的各个阶段, http://<master>:8080
Standalone模式提交的Application
* Standalone模式的cluster manager(Spark Master节点上运行)会启动一个Web UI,Spark UI(8080),显示正在运行及结束的Spark Application
* Spark UI上的Applicaiton detail会跳转到Driver Program Web UI(4040), 因此Application运行结束后,application detail默认就无法查看
Yarn UI(8088)
yan client,yan clustert提交的Spark Application, 都会在Yarn UI上列出(yarn上运行的application,类型为spark)
区别:
yarn client: 提交Spark Application的终端, 打印详细信息及最终结果,Yarn UI上观测该Application的运行状态
yarn cluster: 提交Spark Application的终端,打印application的提交,运行,结束信息,Yarn UI观测该Application的运行状态,最终结果在worker的stdout日志中打印
1.2 提交方式,监控方式总结
提交模式 | 提交脚本 | 监控页面及结果查看 |
local本地模式提交 | # ./bin/run-example SparkPi 10 --master local[2] |
监控: http://本地ip:4040 (Driver program Web UI) 注意:Application运行期间Driver Program Web UI才可用 结果: 提交Application的终端(打印详细信息) |
standalone模式提交 |
# ./bin/spark-submit \ |
监控: http://master ip:8080 (Master节点上的cluster manager启动的web ui) 历史监控:页面会显示standalone模式提交的已完成的application 结果:提交Application的终端(打印详细信息) |
yarn-client模式提交 |
# ./bin/spark-submit \ |
监控: http://ResourceManager:8088 (Yarn RM启动的web ui) 历史监控:页面会显示已完成的application 结果:提交Application的终端(会打印详细信息) |
yarn-cluster模式提交 |
# ./bin/spark-submit \ |
监控: http://ResourceManager:8088 (Yarn RM启动的web ui) 历史监控:页面会显示已完成的application 结果:通过监控页面,跳转到worker node, worker node的stdout日志中打印(终端只打印Application的运行状态,accepted, running,finished) |
02_Spark Application不同模式下的监控的更多相关文章
- Apache Spark源码走读之19 -- standalone cluster模式下资源的申请与释放
欢迎转载,转载请注明出处,徽沪一郎. 概要 本文主要讲述在standalone cluster部署模式下,Spark Application在整个运行期间,资源(主要是cpu core和内存)的申请与 ...
- spark on yarn模式下内存资源管理(笔记2)
1.spark 2.2内存占用计算公式 https://blog.csdn.net/lingbo229/article/details/80914283 2.spark on yarn内存分配** 本 ...
- spark on yarn模式下内存资源管理(笔记1)
问题:1. spark中yarn集群资源管理器,container资源容器与集群各节点node,spark应用(application),spark作业(job),阶段(stage),任务(task) ...
- flink on yarn模式下两种提交job方式
yarn集群搭建,参见hadoop 完全分布式集群搭建 通过yarn进行资源管理,flink的任务直接提交到hadoop集群 1.hadoop集群启动,yarn需要运行起来.确保配置HADOOP_HO ...
- ART模式下基于Xposed Hook开发脱壳工具
本文博客地址:http://blog.csdn.net/qq1084283172/article/details/78092365 Dalvik模式下的Android加固技术已经很成熟了,Dalvik ...
- 测试Oracle 11gr2 RAC 非归档模式下,offline drop数据文件后的数据库的停止与启动测试全过程
测试Oracle 11gr2 RAC 非归档模式下,offline drop数据文件后的数据库的停止与启动测试全过程 最近系统出现问题,由于数据库产生的日志量太大无法开启归档模式,导致offline的 ...
- Apache Spark技术实战之8:Standalone部署模式下的临时文件清理
未经本人同意严禁转载,徽沪一郎. 概要 在Standalone部署模式下,Spark运行过程中会创建哪些临时性目录及文件,这些临时目录和文件又是在什么时候被清理,本文将就这些问题做深入细致的解答. 从 ...
- Azure ARM (12) ARM模式下,在负载均衡器上设置多个公网IP地址
<Windows Azure Platform 系列文章目录> 最近在帮助一个客户设置WAF (Web Application Firewall),WAF厂商要求在负载均衡器上,设置多个公 ...
- ASM:《X86汇编语言-从实模式到保护模式》第13章:保护模式下内核的加载,程序的动态加载和执行
★PART1:32位保护模式下内核简易模型 1. 内核的结构,功能和加载 每个内核的主引导程序都会有所不同,因为内核都会有不同的结构.有时候主引导程序的一些段和内核段是可以共用的(事实上加载完内核以后 ...
随机推荐
- myeclipse maven工程调试调试
1:使用了maven带的tomca插件进行启动.下面讲一下如何进行调试程序 2:在程序中打断点 3:选择>debug>debug configuration 在goals处添加启动命令 4 ...
- Hadoop集群安装-CDH5(3台服务器集群)
CDH5包下载:http://archive.cloudera.com/cdh5/ 主机规划: IP Host 部署模块 进程 192.168.107.82 Hadoop-NN-01 NameNode ...
- c++多态特性总结
将父类比喻为电脑的外设接口,子类比喻为外设,现在我有移动硬盘.U盘以及MP3,它们3个都是可以作为存储但是也各不相同.如果我在写驱动的时候,我用个父类表示外设接口,然后在子类中重写父类那个读取设备的虚 ...
- html03
快速开发指南:1.新建页面之后,编写外部样式表文件,引入到HTML页面中2.用浏览器打开页面->F12->sources->打开css文件 右边编写样式,左边查看效果3.样式编写完成 ...
- Object之wait
一.源码. 1.公共本地,且可继承但不可重写. 2.公共,且可继承但不可重写. 3.公共,且可继承但不可重写. 二.解释. 1.因为这些方法是Object类中的非静态的public方法,而任何其他类都 ...
- Python: re.compile()
compile(pattern,flags=0) 1.编译一个正则表达式模式,返回一个模式对象 2.第二个参数flags是匹配模式,可以使用按位或‘|'表示同时生效,也可以在正则表达式字符串中指定 P ...
- Siddhi初探
官方对Siddhi的介绍如下: Siddhi CEP is a lightweight, easy-to-use Open Source Complex Event Processing Engine ...
- Shell脚本实现每个工作日定时执行指定程序
我们可能会遇到这样的情景:必须在每个工作日定时执行Linux服务器上的某个程序.那么有没有办法实现这一功能呢?答案是肯定的.我们可以运用Shell脚本简单实现这一功能. 原理很简单,Shell脚本内部 ...
- linux服务器---squid缓存
Squid缓存 代理服务器会在本地硬盘设置缓存,这样可以提高网络效率 1修改squid配置文件“/etc/squid/squid.conf”,参数“cache_dir_ufs”就是设置缓存目录的 [r ...
- linux查看是否有某个运行的进程命令
linux查看是否有某个运行的进程命令:例如,查询是否包含 “my_post” 关键字的进程 ps aux | grep my_post ps aux | grep my_post | grep - ...