tomcat - CPU高占用问题记录】的更多相关文章

先查询进程 top 再根据进程号,查出进程的线程 ps p 3036 -L -o pcpu,pid,tid,time,tname,cmd 得到最高使用率CPU的线程TID,转换成16进制 printf "%x\n" 3251 记住这个字符码 cb3,16进制就是0xcb3 再查,使用jstack工具查询  jstack -l [pid] -- over --…
笔记: 1.top命令找出最高占用的进程(command为java) 2.查看高负载进程下的高负载线程:top -Hp [PID] (或 ps -mp PID -o THREAD,tid,time) 3.找出最高占用的线程并记录thread_id,把线程号 进行换算成16进制编号:printf "%X\n" thread_id 4.(可选)执行查看高负载的线程名称:jstack 16143[进程] | grep 3fb6[线程] 5.导出进程的堆栈日志,找到3fb6 这个线程号:jst…
1 ps -mp pid -o THREAD,tid,time 2 printf "%x\n" tid 3 jstack pid |grep tid -A 30…
故事起因 本故事根据真实故事书写,如有雷同绝非巧合.在开发过程中难免反复修改程序,面对突然起来的问题难免束手无策,有些人选择自我处理问题,也有人选择交流区域咨询,或许恰巧有人有类似的问题,刚好可以解决你的问题,但是如果你的问题恰好有些独特,最后还是需要自己谷歌百度,大海捞针似的搜寻. 一套几年前的程序,现在急需大范围使用起来,优化了一些细节,由于业务的转型,全线使用php快速解决方案,于是乎就没有测试其他问题匆忙上线了. 初入江湖下山历练 去年上线,上线肯定难以避免很多细节问题,优化优化,最大的…
第一步: 看这些CPU是不是SQL Server用的. 第二步: 确定SQL Server 有没有引发17883\17884错误 第三步: 找出使用CPU最高的语句进行优化.(sys.dm_exec_query_stats    sys.exec_sql_text  ) sys.dm_exec_query_stats.total_work_time 代表着占用CPU 的时间. sys.dm_exec_query_stats.plan_generate_num代表着重编译的次数.---编译也是要C…
1.关于MovieClip和Sprite的鼠标事件,当不需要鼠标事件的时候将mouseEnabled和mouseChildren设为false. 不断的检测鼠标交互事件会消耗CPU,尤其是大量交互对象重叠的情况. 2.对于执行时间太长的非动画内容,优先选择计时器,而不是 Event.ENTER_FRAME 事件. 3.在 enterFrame 事件或 Timer 处理函数中,尽量减少对可导致重绘屏幕的显示对象外观的更改. 4.尽量减少补间动画,以节省更多的CPU处理.把MC给stop 5.场景里…
步骤如下: 1.使用top命令定位异常进程.可以看见12836的CPU和内存占用率都非常高 2.使用top -H -p 进程号查看异常线程 3.使用printf "%x\n" 线程号将异常线程号转化为16进制 4.使用jstack 进程号|grep 16进制异常线程号 -A90来定位异常代码的位置(最后的-A90是日志行数,也可以输出为文本文件或使用其他数字).可以看到异常代码的位置.…
起因:发现docker中有两个容器的CPU持续在百分之95以上运行了一晚上 执行命令:docker stats 发现这个两个大兄弟一点没歇满负荷跑了一晚上,再这么下去怕不是要GG 容器里跑的是JAVA应用,JDK版本1.8 首先进入容器内部:docker exec -it 容器ID /bin/bash 然后下载阿里巴巴提供的开源JAVA检查工具 Arthas 发现容器内没有wget 和 yum 所以先执行 apt-get update 然后执行 apt insatll wget wget装好以后…
1.查看主进程占用cpu高: 此处主进程:27823 ~]# top top - :0: up days, :, 3 users, load average: 13.12, 13.31, 13.23 Tasks: total, running, sleeping, stopped, zombie %Cpu(s):100.0 us, 0.0 sy, 0.0 ni, 0.0 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st KiB Mem : total, free, used,…
互联网后端架构 https://mp.weixin.qq.com/s/LiqAy2DikbmZzqogb5XRdA JVM的CPU资源占用过高问题的排查 互联网后端架构  今天 上午线上某应用的一台JVM的CPU占比突然飙高到192%,并且一直下不来,导致监控一直告警,好久没处理这种问题了,现在将问题排查步骤总结记录一下.(以下的图都不是线上问题的截图,涉及到公司业务) 1.通过top命令查看当前机器的CPU使用情况 此时发现如果是Java的进程占用过高,并且一直下不来,则排查是什么线程导致占比…