转载自:http://blog.csdn.net/zrc199021/article/details/54020692

关于所在节点核数怎么看?

======================================================================

# 总核数 = 物理CPU个数 X 每颗物理CPU的核数

# 总逻辑CPU数 = 物理CPU个数 X 每颗物理CPU的核数 X 超线程数

# 查看物理CPU个数

cat /proc/cpuinfo| grep "physical id"| sort| uniq| wc -l

# 查看每个物理CPU中core的个数(即核数)

cat /proc/cpuinfo| grep "cpu cores"| uniq

# 查看逻辑CPU的个数

cat /proc/cpuinfo| grep "processor"| wc -l

======================================================================

spark资源主要就是core和memery。

spark主题功能分三部分:spark RDD,sparkSQL,spark shell,如果每个部分的功能都要用,那么每块都要占用资源。

其中,spark RDD和spark shell 是动态分配占用资源的,sparkSQL是静态分配资源的(启动后即一直占着分配的资源)

spark分配的总体资源在哪里看?

  1. cat /home/mr/spark/conf/spark-env.sh
  1. JAVA_HOME=/usr/java/jdk
  2. SPARK_HOME=/home/mr/spark
  3. SPARK_PID_DIR=/home/mr/spark/pids
  4. SPARK_LOCAL_DIRS=/data2/zdh/spark/tmp,/data3/zdh/spark/tmp,/data4/zdh/spark/tmp
  5. SPARK_WORKER_DIR=/data2/zdh/spark/work
  6. SPARK_LOG_DIR=/data1/zdh/spark/logs
  7. SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18088-Dspark.history.retainedApplications=500"
  8. SPARK_MASTER_WEBUI_PORT=18080
  9. SPARK_WORKER_WEBUI_PORT=18081
  10. SPARK_WORKER_CORES=25
  11. SPARK_WORKER_MEMORY=150g
  12. SPARK_DAEMON_MEMORY=2g
  13. SPARK_LOCAL_HOSTNAME=`hostname`
  14. YARN_CONF_DIR=/home/mr/yarn/etc/hadoop​

SparkSQL的总体资源在哪看?

  1. [root@vmax47 conf]# cat sparksql-defaults.conf
  2. spark.serializer=org.apache.spark.serializer.KryoSerializer
  3. spark.driver.extraJavaOptions=-Xss32m-XX:PermSize=128M-XX:MaxPermSize=512m
  4. spark.driver.extraClassPath=/home/mr/spark/libext/*
  5. spark.executor.extraClassPath=/home/mr/spark/libext/*
  6. spark.executor.memory=10g
  7. spark.eventLog.enabled=true
  8. spark.eventLog.dir=/data1/zdh/spark/logs/eventLog
  9. spark.history.fs.logDirectory=/data1/zdh/spark/logs/eventLog
  10. spark.worker.cleanup.enabled=true
  11. spark.shuffle.consolidateFiles=true
  12. spark.ui.retainedJobs=200
  13. spark.ui.retainedStages=200
  14. spark.deploy.retainedApplications=100
  15. spark.deploy.retainedDrivers=100
  16. spark.speculation=true
  17. spark.speculation.interval=1000
  18. spark.speculation.multiplier=4
  19. spark.speculation.quantile=0.85
  20. spark.shuffle.service.enabled=false
  21. spark.dynamicAllocation.enabled=false
  22. spark.dynamicAllocation.minExecutors=0
  23. spark.dynamicAllocation.maxExecutors=2147483647
  24. spark.sql.broadcastTimeout=600
  25. spark.yarn.queue=mr
  26. spark.master=spark://vmax47:7077,SPARK49:7077
  27. spark.deploy.recoveryMode=ZOOKEEPER
  28. spark.deploy.zookeeper.url=SPARK49:2181,HADOOP50:2181,vmax47:2181
  29. spark.ui.port=4100
  30. spark.driver.memory=40G
  31. spark.cores.max=30​

查看Spark资源可从18080端口查看:

Spark资源配置(核数与内存)的更多相关文章

  1. Spark内核| 调度策略| SparkShuffle| 内存管理| 内存空间分配| 核心组件

    1. 调度策略 TaskScheduler会先把DAGScheduler给过来的TaskSet封装成TaskSetManager扔到任务队列里,然后再从任务队列里按照一定的规则把它们取出来在Sched ...

  2. Spark Tungsten揭秘 Day4 内存和CPU优化使用

    Spark Tungsten揭秘 Day4 内存和CPU优化使用 今天聚焦于内存和CPU的优化使用,这是Spark2.0提供的关于执行时的非常大的优化部分. 对过去的代码研究,我们会发现,抽象的提高, ...

  3. Spark Tungsten揭秘 Day3 内存分配和管理内幕

    Spark Tungsten揭秘 Day3 内存分配和管理内幕 恭喜Spark2.0发布,今天会看一下2.0的源码. 今天会讲下Tungsten内存分配和管理的内幕.Tungsten想要工作,要有数据 ...

  4. [Spark性能调优] 第四章 : Spark Shuffle 中 JVM 内存使用及配置内幕详情

    本课主题 JVM 內存使用架构剖析 Spark 1.6.x 和 Spark 2.x 的 JVM 剖析 Spark 1.6.x 以前 on Yarn 计算内存使用案例 Spark Unified Mem ...

  5. 【Spark调优】内存模型与参数调优

    [Spark内存模型] Spark在一个executor中的内存分为3块:storage内存.execution内存.other内存. 1. storage内存:存储broadcast,cache,p ...

  6. Spark 1.x 爆内存相关问题汇总及解

    Spark 1.x 爆内存相关问题汇总及解决 OOM # 包括GC Overhead limitjava.lang.OutOfMemoryError # on yarn org.apache.hado ...

  7. spark性能调优(四) spark shuffle中JVM内存使用及配置内幕详情

    转载:http://www.cnblogs.com/jcchoiling/p/6494652.html 引言 Spark 从1.6.x 开始对 JVM 的内存使用作出了一种全新的改变,Spark 1. ...

  8. Spark Shuffle 中 JVM 内存使用及配置内幕详情

      本课主题 JVM 內存使用架构剖析 Spark 1.6.x 和 Spark 2.x 的 JVM 剖析 Spark 1.6.x 以前 on Yarn 计算内存使用案例 Spark Unified M ...

  9. Spark 介绍(基于内存计算的大数据并行计算框架)

    Spark 介绍(基于内存计算的大数据并行计算框架)  Hadoop与Spark 行业广泛使用Hadoop来分析他们的数据集.原因是Hadoop框架基于一个简单的编程模型(MapReduce),它支持 ...

  10. 获取指定订阅下所有Azure ARM虚拟机配置(CPU核数,内存大小,磁盘信息)的使用情况

    脚本内容: <# .SYNOPSIS This script grab all ARM VM VHD file in the subscription and caculate VHD size ...

随机推荐

  1. Behavior Question - Most challenging project.

    介绍项目,challenging的地方 The most challenging project I have ever done was an online collaborative coding ...

  2. BluetoothGattCallback

    /** * 用于实现 BluetoothGatt 的回调 */public abstract class BluetoothGattCallback { /** * GATT客户端连接或断开到远程的时 ...

  3. 以太坊钱包开发系列4 - 发送Token(代币)

    以太坊去中心化网页钱包开发系列,将从零开始开发出一个可以实际使用的钱包,本系列文章是理论与实战相结合,一共有四篇:创建钱包账号.账号Keystore文件导入导出.展示钱包信息及发起签名交易.发送Tok ...

  4. vue中操作cookie的插件

    js-cookie 安装: npm i js-cookie import Cookies from 'js-cookie' 具体用法: 写入: Cookies.set('name', 'value') ...

  5. Centos 7 搭建FTP详细配置步骤方法

    vsftpd的安裝使用: ftp概述:FTP(File Transfer protocol,文件传输协议)是经典的C/S架构的应用层协议,需要有服务端软件,客户端软件两个部共同组成实现文件传输功能. ...

  6. pycharm import scrapy 报错,No module named 'scrapy'

    本地通过下载 pip install scrapy安装成功后,在pychram里面 import scrapy报错 后来在找了各种解决方法,重装wheel,twisted,都不行,最后发现是需要改Pr ...

  7. javaWeb 字体替换过滤器

    字体替换过滤器继承HttpServletRequestWrapper,重定义了: getParameter(),getParameterValues(),getParameterMap(),增强字节替 ...

  8. window service 2008 解决80端口占用

    1.进入cmd使用netstat 命令查看指定端口netstat -ano | findstr :802.如下所示:本地的80端口被进程为4的占用 TCP    0.0.0.0:80          ...

  9. SQL-46 在audit表上创建外键约束,其emp_no对应employees_test表的主键id。

    题目描述 在audit表上创建外键约束,其emp_no对应employees_test表的主键id.CREATE TABLE employees_test(ID INT PRIMARY KEY NOT ...

  10. 指导手册01:安装Hadoop

    指导手册01:安装Hadoop  Part 1:安装及配置虚拟机 1.安装Linux. (1)打开VMvirtualBox (2) 控制->新建虚拟机,输入虚拟机名称“marst+学号” 类型: ...