下面是Hadoop中CapacitySchedule配置,包含了新建队列和子队列

   <configuration>

     <property>
<name>yarn.scheduler.capacity.maximum-am-resource-percent</name>
<value>0.2</value>
</property> <property>
<name>yarn.scheduler.capacity.maximum-applications</name>
<value>10000</value>
</property> <property>
<name>yarn.scheduler.capacity.node-locality-delay</name>
<value>40</value>
</property> <property>
<name>yarn.scheduler.capacity.queue-mappings-override.enable</name>
<value>false</value>
</property> <property>
<name>yarn.scheduler.capacity.resource-calculator</name>
<value>org.apache.hadoop.yarn.util.resource.DominantResourceCalculator</value>
</property> <property>
<name>yarn.scheduler.capacity.root.accessible-node-labels</name>
<value>*</value>
<description></description>
</property> <property>
<name>yarn.scheduler.capacity.root.acl_administer_queue</name>
<value>*</value>
<description></description>
</property> <property>
<name>yarn.scheduler.capacity.root.capacity</name>
<value>100</value>
</property> <property>
<name>yarn.scheduler.capacity.root.default.acl_submit_applications</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.default.capacity</name>
<value>50</value>
</property> <property>
<name>yarn.scheduler.capacity.root.default.maximum-capacity</name>
<value>70</value>
</property> <property>
<name>yarn.scheduler.capacity.root.default.state</name>
<value>RUNNING</value>
</property> <property>
<name>yarn.scheduler.capacity.root.default.user-limit-factor</name>
<value>1</value>
</property> <property>
<name>yarn.scheduler.capacity.root.queues</name>
<value>default,spark,hadoop</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.acl_administer_queue</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.acl_submit_applications</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.capacity</name>
<value>30</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.maximum-capacity</name>
<value>70</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.minimum-user-limit-percent</name>
<value>100</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.ordering-policy</name>
<value>fifo</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.state</name>
<value>RUNNING</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.user-limit-factor</name>
<value>1</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.acl_administer_queue</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.acl_submit_applications</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.capacity</name>
<value>20</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.maximum-capacity</name>
<value>70</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.minimum-user-limit-percent</name>
<value>100</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.ordering-policy</name>
<value>fifo</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.state</name>
<value>RUNNING</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.user-limit-factor</name>
<value>1</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.queues</name>
<value>spark1,spark2</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.acl_administer_queue</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.acl_submit_applications</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.capacity</name>
<value>50</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.maximum-capacity</name>
<value>70</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.minimum-user-limit-percent</name>
<value>100</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.ordering-policy</name>
<value>fifo</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.state</name>
<value>RUNNING</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.user-limit-factor</name>
<value>1</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.acl_administer_queue</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.acl_submit_applications</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.capacity</name>
<value>50</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.maximum-capacity</name>
<value>70</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.minimum-user-limit-percent</name>
<value>100</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.ordering-policy</name>
<value>fifo</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.state</name>
<value>RUNNING</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.user-limit-factor</name>
<value>1</value>
</property>
</configuration>

Hadoop CapacitySchedule配置的更多相关文章

  1. CentOS 7 Hadoop安装配置

    前言:我使用了两台计算机进行集群的配置,如果是单机的话可能会出现部分问题.首先设置两台计算机的主机名 root 权限打开/etc/host文件 再设置hostname,root权限打开/etc/hos ...

  2. ubuntu下hadoop环境配置

    软件环境: 虚拟机:VMware Workstation 10 操作系统:ubuntu-12.04-desktop-amd64 JAVA版本:jdk-7u55-linux-x64 Hadoop版本:h ...

  3. hadoop(四):配置参数

    hadoop参数配置,主要是配置 core-site.xml,hdfs-site.xml,mapred-site.xml 三个配置文件,core-site.xml是全局配置,hdfs-site.xml ...

  4. hadoop mapred-queue-acls 配置(转)

    hadoop作业提交时可以指定相应的队列,例如:-Dmapred.job.queue.name=queue2通过对mapred-queue-acls.xml和mapred-site.xml配置可以对不 ...

  5. hadoop安装配置——伪分布模式

    1. 安装 这里以安装hadoop-0.20.2为例 先安装java,参考这个 去着下载hadoop 解压 2. 配置 修改环境变量 vim ~/.bashrc export HADOOP_HOME= ...

  6. Hadoop平台配置总结

    hadoop的配置,个人感觉是非常容易出问题.一个原因是要配置的地方多,还有个原因就是集群配置要在几台机器上都配置正确,才能保证配置好hadoop,跑起任务. 经过昨晚加今天上午的折腾,总算成功配好了 ...

  7. 有关hadoop分布式配置详解

    linux配置ssh无密码登录 配置ssh无密码登录,先要安装openssh,如下: yum install openssh-clients 准备两台linux服务器或虚拟机,设置两台linux的ho ...

  8. CentOS Hadoop安装配置详细

    总体思路,准备主从服务器,配置主服务器可以无密码SSH登录从服务器,解压安装JDK,解压安装Hadoop,配置hdfs.mapreduce等主从关系. 1.环境,3台CentOS7,64位,Hadoo ...

  9. Hadoop的配置过程(虚拟机中的伪分布模式)

    1引言 hadoop如今已经成为大数据处理中不可缺少的关键技术,在如今大数据爆炸的时代,hadoop给我们处理海量数据提供了强有力的技术支撑.因此,了解hadoop的原理与应用方法是必要的技术知识. ...

随机推荐

  1. 用pip install升级已安装的包的附加包, 以tabulate包为例

    用pip install升级已安装的附加包, 以tabulate包为例 去pypi官网查看tabulate包的介绍, 发现tabulate 0.7.6才开始支持宽字符的美化打印. 而且还需要安装它的附 ...

  2. java并发实践笔记

    底层的并发功能与并发语义不存在一一对应的关系.同步和条件等底层机制在实现应用层协议与策略须始终保持一致.(需要设计级别策略.----底层机制与设计级策略不一致问题). 简介 1.并发简史.(资源利用率 ...

  3. idea 永久注册

    1.在百度输入http://idea.lanyus.com/  2.点击这个网址http://idea.lanyus.com/jar/JetbrainsCrack-3.1-release-enc.ja ...

  4. Google推荐的15条HTML 5代码军规----来看看你知道几个,我一个都不知道。。。

    Google规范的原文链接大家可以访问:http://google-styleguide.googlecode.com/svn/trunk/htmlcssguide.xml 1.协议头: 建议在指向图 ...

  5. 面向对象__construct(构造方法)、__destruct(析构方法)

    //1.创建子类的时候构造函数会直接取创建函数时传的参数,例如下面例子中构造函数直接取了new Person("张三","男", 20);里面的3个参数. // ...

  6. Sublime遇见中文乱码问题?

    今天在写demo的时候,突然发现html页面上的中文在浏览器上显示乱码~!!!!! 这时,我根据网上的提示安装了两个插件:converttoUtf-8,support Gbk ~~~然而,好像无济于事 ...

  7. 钉钉头像大小设置 阿里cdn尺寸截取参数设置

    默认api的接口返回的avatar字段,是原始图片大小字段,尺寸和空间都是原始大小,如果想节省流量或统一尺寸,可以用阿里cdn自带的尺寸截取功能, 比如钉钉头像 avatar字段 返回值为原始大小ht ...

  8. 快速修改Matlab默认启动路径(Windows/Mac)

    如何修改Matlab启动路径/Windows or Mac 控制台内输入一下两行命令,之后重启MATLAB即可   newpath = '你所要设定的路径'; userpath(newpath)   ...

  9. 跨站请求伪造(CSRF)攻击原理解析:比你所想的更危险

    跨站请求伪造(CSRF)攻击原理解析:比你所想的更危险 跨站请求伪造(Cross-Site Request Forgery)或许是最令人难以理解的一种攻击方式了,但也正因如此,它的危险性也被人们所低估 ...

  10. 二维码扫描开源库ZXing定制化

    最近在用ZXing这个开源库做二维码的扫描模块,开发过程的一些代码修改和裁剪的经验和大家分享一下. 建议: 如果需要集成到自己的app上,而不是做一个demo,不推荐用ZXing的Android外围开 ...