Hadoop记录- Yarn scheduler队列采集
#!/bin/sh ip=10.116.100.11 port=8088 export HADOOP_HOME=/app/hadoop/bin rmstate1=$($HADOOP_HOME/yarn rmadmin -getServiceState rm1) rmstate2=$($HADOOP_HOME/yarn rmadmin -getServiceState rm2) if [ $rmstate1 == *active* ] then ip=10.116.100.10 fi echo $ip cd /home/yarn/queuecheck rm -f maxmemory.txt rm -f usedmemory.txt rm -f rate.txt rm -f qrate.txt curl http://$ip:$port/ws/v1/cluster/scheduler | jq . | sed 's/\"//g' > scheduler.json sed -i '1,5d' scheduler.json sed -n -e :a -e '1,33!{P;N;D;};N;ba' scheduler.json > nscheduler.json cat nscheduler.json | grep -i "queueName" | awk -F ": " '{print $2}' | awk -F "," '{print $1}' > qname.txt cat nscheduler.json | grep -i "memory" | awk -F ": " '{print $2}' | awk -F "," '{print $1}' > memory.txt line=$(cat memory.txt | wc -l) for((k=2;k<$line;k=k+6)) do sed -n "$k p" memory.txt | awk '{print $1}' >> maxmemory.txt done for((j=3;j<$line;j=j+6)) do sed -n "$j p" memory.txt | awk '{print $1}' >> usedmemory.txt done uarr=($(cat usedmemory.txt | awk '{print $1}')) marr=($(cat maxmemory.txt | awk '{print $1}')) for((m=0;m<${#uarr[@]};m++)) do for((n=0;n<${#marr[@]};n++)) do if [ $m -eq $n ] then if [[ ${uarr[$m]} == *e* ]] then u1=$(echo ${uarr[$m]} | grep -i "e+0" | awk -F "e" '{print $1}') u2=$(echo ${uarr[$m]} | grep -i "e+0" | awk -F "e" '{print $2}' | awk -F "+0" '{print $2}') if [ $u2 -eq 6 ] then u3=`echo "$u1*1000000/1024" | bc` elif [ $u2 -eq 7 ] then u3=`echo "$u1*10000000/1024" | bc` elif [ $u2 -eq 8 ] then u3=`echo "$u1*100000000/1024" | bc` fi else u3=`echo "sclae=2; ${uarr[$m]}/1024" | bc` fi if [[ ${marr[$n]} == *e* ]] then m1=$(echo ${marr[$n]} | grep -i "e+0" | awk -F "e" '{print $1}') m2=$(echo ${marr[$n]} | grep -i "e+0" | awk -F "e" '{print $2}' | awk -F "+0" '{print $2}') if [ $m2 -eq 6 ] then m3=`echo "$m1*1000000/1024" | bc` elif [ $m2 -eq 7 ] then m3=`echo "$m1*10000000/1024" | bc` elif [ $m2 -eq 8 ] then m3=`echo "$m1*100000000/1024" | bc` fi else m3=`echo "sclae=2; ${marr[$n]}/1024" | bc` fi rate=$(printf "%.2f" `echo "scale=2;$u3/$m3"|bc`) nrate=`echo "$rate*100" | bc` echo $nrate >> rate.txt fi done done qarr=($(cat qname.txt | awk '{print $1}')) rarr=($(cat rate.txt | awk '{print $1}')) for((a=0;a<${#qarr[@]};a++)) do for((b=0;b<${#rarr[@]};b++)) do if [ $a -eq $b ] then echo ${qarr[$a]}":"${rarr[$b]} >> qrate.txt fi done done url="http://xxx/monitor/report/sendReport" linenum=$(cat qrate.txt | wc -l) let linenum+=1 echo $linenum #上报数据 function postdata(){ for (( k = 1; k< $linenum ; k++ )) do key=$(echo $(sed -n "$k p" qrate.txt | awk -F ":" '{print "bdp.ops.queue_used##qname="$1"##cluster=bdp##env=prod"}') | awk '{gsub(/[[:blank:]]*/,"",$0);print $0;}' ) value=$(sed -n "$k p" qrate.txt | awk -F ":" '{print $2}') data="{\"key\":\"$key\",\"value\":\"$value\"}" echo $data cmd="curl -s -X POST -H 'Content-type':'application/json' -d '${data}' ${url}" sh -c "$cmd" done } postdata expression="x>90" time=5 count=1 alertMode="1,2,3" members="bdp-ops" call_users="bdp-ops" call_content="BDP离线集群Yarn队列使用率告警" add_url="http://xxx/monitor/rule/addReport" hnum=$(cat qrate.txt | wc -l) let hnum+=1 echo $hnum function queuealert(){ for(( n = 1;n<$hnum;n++)) do key=$(sed -n "$n p" qrate.txt | awk -F ":" '{print "bdp.ops.queue_used##qname="$1"##cluster=bdp##env=prod"}') str1=$(sed -n "$n p" qrate.txt | awk -F ":" '{print $1}') str2="的使用率大于90%,请检查Yarn UI作业运行情况" description="队列"${str1}${str2} add_data="{\"id\":\"$key\",\"expression\":\"$expression\",\"time\":$time,\"count\":$count,\"alertMode\":\"$alertMode\",\"members\":\"$members\",\"description\":\"$description\",\"call_users\":\"$call_users\",\"call_content\":\"$call_content\"}" echo $add_data add_cmd="curl -s -X POST -H 'Content-type':'application/json' -d '${add_data}' ${add_url}" sh -c "$add_cmd" done } queuealert
Hadoop记录- Yarn scheduler队列采集的更多相关文章
- Hadoop记录- Yarn Job MAX
#!/bin/sh #yarn job status:NEW.NEW_SAVING.SUBMITTED.ACCEPTED.RUNNING.FINISHED.FAILED.KILLED nnum=$(/ ...
- Hadoop记录-Yarn命令
概述 YARN命令是调用bin/yarn脚本文件,如果运行yarn脚本没有带任何参数,则会打印yarn所有命令的描述. 使用: yarn [--config confdir] COMMAND [--l ...
- Hadoop记录-yarn ResourceManager Active频繁易主问题排查(转载)
一.故障现象 两个节点的ResourceManger频繁在active和standby角色中切换.不断有active易主的告警发出 许多任务的状态没能成功更新,导致一些任务状态卡在NEW_SAVING ...
- 利用yarn多队列实现hadoop资源隔离
大数据处理离不开hadoop集群的部署和管理,对于本来硬件资源就不多的创业团队来说,做好资源的共享和隔离是很有必要的,毕竟不像BAT那么豪,那么怎么样能把有限的节点同时分享给多组用户使用而且互不影响呢 ...
- hadoop记录-Hadoop参数汇总
Hadoop参数汇总 linux参数 以下参数最好优化一下: 文件描述符ulimit -n 用户最大进程 nproc (hbase需要 hbse book) 关闭swap分区 设置合理的预读取缓冲区 ...
- Hadoop记录-hadoop介绍
1.hadoop是什么? Hadoop 是Apache基金会下一个开源的大数据分布式计算平台,它以分布式文件系统HDFS和MapReduce算法为核心,为用户提供了系统底层细节透明的分布式基础架构. ...
- hadoop之yarn详解(框架进阶篇)
前面在hadoop之yarn详解(基础架构篇)这篇文章提到了yarn的重要组件有ResourceManager,NodeManager,ApplicationMaster等,以及yarn调度作业的运行 ...
- hadoop之yarn(优化篇)
最近一直在学习hadoop的一些原理和优化,然后也做了一些实践,也有没有去做实践的,反正个人观点都记录下来 一.yarn的介绍 YARN的基本结构由一个ResourceManager与多个NodeMa ...
- Fair Scheduler 队列设置经验总结
Fair Scheduler 队列设置经验总结 由于公司的hadoop集群的计算资源不是很充足,需要开启yarn资源队列的资源抢占.在使用过程中,才明白资源抢占的一些特点.在这里总结一下. 只有一个队 ...
随机推荐
- C语言----int (*p)[4] ---思考总结
a+1 跳4个int (*a)+1 跳一个int
- Python基础——2函数
函数 函数定义 def a(参数): 函数的参数:必选参数.默认参数.可变参数.命名关键字参数和关键字参数 a(x,y,z=11,*l,**b): a(x,y,z=11,*liat,city,job, ...
- github使用个人总结
1.获取github上面的源码时候,不能获取最新的,因为你的开发工作不一定是最新的要下载历史版本. 2.要使用里面的文件的时候,可以在目录后面url后面添加downloads 这样可以找到封装好的版本 ...
- HBase案例:HBase 在人工智能场景的使用
近几年来,人工智能逐渐火热起来,特别是和大数据一起结合使用.人工智能的主要场景又包括图像能力.语音能力.自然语言处理能力和用户画像能力等等.这些场景我们都需要处理海量的数据,处理完的数据一般都需要存储 ...
- 移动端解决单机事件延迟fastclick
引入百度静态公共资源库 <script type='application/javascript' src='http://apps.bdimg.com/libs/fastclick/1.0.0 ...
- 浅析String类
这是对于String类的一些总结,我将会从几个方面并且结合着字符串池等相关知识进行总结 进程如下: 1.对于String类基本知识的一些总结 2.简要介绍字符串池 3.分 ...
- SQL 撤销索引、表以及数据库
通过使用 DROP 语句,可以轻松地删除索引.表和数据库. SQL DROP INDEX 语句 我们可以使用 DROP INDEX 命令删除表格中的索引. 用于 Microsoft SQLJet (以 ...
- 10分钟,AppCan帮你搞定跨平台开发APP问题!
跨平台开发APP时,开发者总会遇到一些问题,如打包失败等等,尤其对于iOS来说,由于它的限制性会导致一些状况发生(如证书上传问题等),小编总结了几个AppCan在线IOS打包失败常见的情况及排查技巧, ...
- AI AutoML
AutoML 参考链接: https://arxiv.org/pdf/1810.13306.pdf http://nooverfit.com/wp/7%E4%B8%AA%E4%BD%A0%E5%8F% ...
- Filebeat配置参考手册
Filebeat的配置参考 指定要运行的模块 前提: 在运行Filebeat模块之前,需要安装并配置Elastic堆栈: 安装Ingest Node GeoIP和User Agent插件.这些插件需要 ...