java单线程100%利用率
容器内就获取个cpu利用率,怎么就占用单核100%了呢
背景:这个是在centos7 + lxcfs 和jdk11 的环境上复现的
目前这个bug已经合入到了开源社区,
链接为 https://github.com/openjdk/jdk/pull/4378
下面列一下我们是怎么排查并解这个问题的。
一、故障现象
oppo内核团队接到jvm的兄弟甘兄发来的一个案例,
现象是java的热点一直是如下函数,占比很高:
at sun.management.OperatingSystemImpl.getProcessCpuLoad(Native Method)
我们授权后登陆oppo云宿主,发现top显示如下:
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
617248 service 20 0 11.9g 8.6g 9300 R 93.8 2.3 3272:09 java
179526 service 20 0 11.9g 8.6g 9300 R 93.8 2.3 77462:17 java
二、故障现象分析
java的线程,能把cpu使用率打这么高,常见一般是gc或者跑jni的死循环,
从jvm团队反馈的热点看,这个线程应该在一直获取cpu利用率,而不是以前常见的问题。
从perf的角度看,该线程一直在触发read调用。
然后strace查看read的返回值,打印如下:
read(360, 0x7f6f9000b000, 4096) = -1 ENOTCONN (Transport endpoint is not connected)
read(360, 0x7f6f9000b000, 4096) = -1 ENOTCONN (Transport endpoint is not connected)
read(360, 0x7f6f9000b000, 4096) = -1 ENOTCONN (Transport endpoint is not connected)
read(360, 0x7f6f9000b000, 4096) = -1 ENOTCONN (Transport endpoint is not connected)
read(360, 0x7f6f9000b000, 4096) = -1 ENOTCONN (Transport endpoint is not connected)
read(360, 0x7f6f9000b000, 4096) = -1 ENOTCONN (Transport endpoint is not connected)
接着查看360这个fd到底是什么类型:
# ll /proc/22345/fd/360
lr-x------ 1 service service 64 Feb 4 11:24 /proc/22345/fd/360 -> /proc/stat
发现是在读取/proc/stat ,和上面的java热点读取cpu利用率是能吻合的。
根据/proc/stat在容器内的挂载点,
# cat /proc/mounts |grep stat
tmpfs /proc/timer_stats tmpfs rw,nosuid,size=65536k,mode=755 0 0
lxcfs /proc/stat fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other 0 0
lxcfs /proc/stat fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other 0 0
lxcfs /proc/diskstats fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other 0 0
很奇怪的是,发现有两个挂载点都是/proc/stat,
尝试手工读取一下这个文件:
# cat /proc/stat
cpu 12236554 0 0 9808893 0 0 0 0 0 0
cpu0 10915814 0 0 20934 0 0 0 0 0 0
cpu1 1320740 0 0 9787959 0 0 0 0 0 0
说明bash访问这个挂载点没有问题,难道bash访问的挂载点和出问题的java线程访问的挂载点不是同一个?
查看对应java打开的fd的super_block和mount,
crash> files 22345 |grep -w 360
360 ffff914f93efb400 ffff91541a16d440 ffff9154c7e29500 REG /rootfs/proc/stat/proc/stat
crash> inode.i_sb ffff9154c7e29500
i_sb = 0xffff9158797bf000
然后查看对应进程归属mount的namespace中的挂载点信息:
crash> mount -n 22345 |grep lxcfs
ffff91518f28b000 ffff9158797bf000 fuse lxcfs /rootfs/proc/stat
ffff911fb0209800 ffff914b3668e800 fuse lxcfs /rootfs/var/lib/baymax/var/lib/baymax/lxcfs
ffff915535becc00 ffff914b3668e800 fuse lxcfs /rootfs/proc/cpuinfo
ffff915876b45380 ffff914b3668e800 fuse lxcfs /rootfs/proc/meminfo
ffff912415b56e80 ffff914b3668e800 fuse lxcfs /rootfs/proc/uptime
ffff91558260f300 ffff914b3668e800 fuse lxcfs /rootfs/proc/stat/proc/stat
ffff911f52a6bc00 ffff914b3668e800 fuse lxcfs /rootfs/proc/diskstats
ffff914d24617180 ffff914b3668e800 fuse lxcfs /rootfs/proc/swaps
ffff911de87d0180 ffff914b3668e800 fuse lxcfs /rootfs/sys/devices/system/cpu/online
由于cat操作较短,写一个简单的demo代码,open 之后不关闭并且read 对应的/proc/stat路径,发现它
访问的挂载点的super_blcok是 ffff914b3668e800,由于代码极为简单,在此不列出。
也就是进一步地确认了,出问题的java进程访问的是一个出问题的挂载点。
那为什么访问这个挂载点会返回ENOTCONN呢?
crash> struct file.private_data ffff914f93efb400
private_data = 0xffff911e57b49b80---根据fuse模块代码,这个是一个fuse_file
crash> fuse_file.fc 0xffff911e57b49b80
fc = 0xffff9158797be000
crash> fuse_conn.connected 0xffff9158797be000
connected = 0
果然对应的fuse_conn的连接状态是0,从打点看,是在fuse_get_req返回的:
调用链如下:
sys_read-->vfs_read-->fuse_direct_read-->__fuse_direct_read-->fuse_direct_io
--->fuse_get_req--->__fuse_get_req
static struct fuse_req *__fuse_get_req(struct fuse_conn *fc, unsigned npages,
bool for_background)
{
...
err = -ENOTCONN;
if (!fc->connected)
goto out;
...
}
下面要定位的就是,为什么出问题的java线程会没有判断read的返回值,而不停重试呢?
gdb跟踪一下:
(gdb) bt
#0 0x00007fec3a56910d in read () at ../sysdeps/unix/syscall-template.S:81
#1 0x00007fec3a4f5c04 in _IO_new_file_underflow (fp=0x7fec0c01ae00) at fileops.c:593
#2 0x00007fec3a4f6dd2 in __GI__IO_default_uflow (fp=0x7fec0c01ae00) at genops.c:414
#3 0x00007fec3a4f163e in _IO_getc (fp=0x7fec0c01ae00) at getc.c:39
#4 0x00007febeacc6738 in get_totalticks.constprop.4 () from /usr/local/paas-agent/HeyTap-Linux-x86_64-11.0.7/lib/libmanagement_ext.so
#5 0x00007febeacc6e47 in Java_com_sun_management_internal_OperatingSystemImpl_getSystemCpuLoad0 ()
from /usr/local/paas-agent/HeyTap-Linux-x86_64-11.0.7/lib/libmanagement_ext.so
确认了用户态在循环进入 _IO_getc的流程,然后jvm的甘兄开始走查代码,发现有一个代码非常可疑:
UnixOperatingSystem.c:get_totalticks 函数,会有一个循环如下:
static void next_line(FILE *f) {
while (fgetc(f) != '\n');
}
从fuse模块的代码看,fc->connected = 0的地方并不是很多,基本都是abort或者fuse_put_super调用导致,通过对照java线程升高的时间点以及查看journal的日志,进一步fuse的挂载点失效有用户态文件系统lxcfs退出,而挂载点还有inode在访问导致,导致又无法及时地回收这个super_block,新的挂载使用的是:
remount_container() {
export f=/proc/stat && test -f /var/lib/baymax/lxcfs/$f && (umount $f; mount --bind /var/lib/baymax/lxcfs/$f $f)
使用了bind模式,具体bind的mount的特性可以参照网上的资料。
并且在journal日志中,查看到了关键的:
: umount: /proc/stat: target is busy
这行日志表明,当时卸载时出现失败,不是所有的访问全部关闭。
三、故障复现
1.针对以上的怀疑点,写了一个很简单的demo如下:
#include <stdio.h>
#include <unistd.h>
#include <stdlib.h>
#define SCNd64 "I64d"
#define DEC_64 "%"SCNd64
static void next_line(FILE *f) {
while (fgetc(f) != '\n');//出错的关键点
}
#define SET_VALUE_GDB 10
int main(int argc,char* argv[])
{
unsigned long i =1;
unsigned long j=0;
FILE * f=NULL;
FILE *fh;
unsigned long userTicks, niceTicks, systemTicks, idleTicks;
unsigned long iowTicks = 0, irqTicks = 0, sirqTicks= 0;
int n;
if((fh = fopen("/proc/stat", "r")) == NULL) {
return -1;
}
n = fscanf(fh, "cpu " DEC_64 " " DEC_64 " " DEC_64 " " DEC_64 " " DEC_64 " "
DEC_64 " " DEC_64,
&userTicks, &niceTicks, &systemTicks, &idleTicks,
&iowTicks, &irqTicks, &sirqTicks);
// Move to next line
while(i!=SET_VALUE_GDB)----------如果挂载点不变,则走这个大循环,单核cpu接近40%
{
next_line(fh);//挂载点一旦变化,返回 ENOTCONN,则走这个小循环,单核cpu会接近100%
j++;
}
fclose(fh);
return 0;
}
执行以上代码,获得结果如下:
#gcc -g -o caq.o caq.c
一开始单独运行./caq.o,会看到cpu占用如下:
628957 root 20 0 8468 612 484 R 32.5 0.0 18:40.92 caq.o
发现cpu占用率时32.5左右,
此时挂载点信息如下:
crash> mount -n 628957 |grep lxcfs
ffff88a5a2619800 ffff88a1ab25f800 fuse lxcfs /rootfs/proc/stat
ffff88cf53417000 ffff88a4dd622800 fuse lxcfs /rootfs/var/lib/baymax/var/lib/baymax/lxcfs
ffff88a272f8c600 ffff88a4dd622800 fuse lxcfs /rootfs/proc/cpuinfo
ffff88a257b28900 ffff88a4dd622800 fuse lxcfs /rootfs/proc/meminfo
ffff88a5aff40300 ffff88a4dd622800 fuse lxcfs /rootfs/proc/uptime
ffff88a3db2bd680 ffff88a4dd622800 fuse lxcfs /rootfs/proc/stat/proc/stat
ffff88a2836ba400 ffff88a4dd622800 fuse lxcfs /rootfs/proc/diskstats
ffff88bcb361b600 ffff88a4dd622800 fuse lxcfs /rootfs/proc/swaps
ffff88776e623480 ffff88a4dd622800 fuse lxcfs /rootfs/sys/devices/system/cpu/online
由于没有关闭/proc/stat的fd,也就是进行大循环,然后这个时候重启lxcfs挂载:
#systemctl restart lxcfs
重启之后,发现挂载点信息如下:
crash> mount -n 628957 |grep lxcfs
ffff88a5a2619800 ffff88a1ab25f800 fuse lxcfs /rootfs/proc/stat
ffff88a3db2bd680 ffff88a4dd622800 fuse lxcfs /rootfs/proc/stat/proc/stat------------这个挂载点,由于fd未关闭,所以卸载肯定失败,可以看到super_block是重启前的
ffff887795a8f600 ffff88a53b6c6800 fuse lxcfs /rootfs/var/lib/baymax/var/lib/baymax/lxcfs
ffff88a25472ae80 ffff88a53b6c6800 fuse lxcfs /rootfs/proc/cpuinfo
ffff88cf75ff1e00 ffff88a53b6c6800 fuse lxcfs /rootfs/proc/meminfo
ffff88a257b2ad00 ffff88a53b6c6800 fuse lxcfs /rootfs/proc/uptime
ffff88cf798f0d80 ffff88a53b6c6800 fuse lxcfs /rootfs/proc/stat/proc/stat/proc/stat--------bind模式挂载,会新生成一个/proc/stat
ffff88cf36ff2880 ffff88a53b6c6800 fuse lxcfs /rootfs/proc/diskstats
ffff88cf798f1f80 ffff88a53b6c6800 fuse lxcfs /rootfs/proc/swaps
ffff88a53f295980 ffff88a53b6c6800 fuse lxcfs /rootfs/sys/devices/system/cpu/online
cpu立刻打到接近100%
628957 root 20 0 8468 612 484 R 98.8 0.0 18:40.92 caq.o
四、故障规避或解决
我们的解决方案是:
1.在openjdk中的 fgetc 中增加返回值的判断,不能无脑死循环。
2.由于lxcfs在3.1.2 的版本会有段错误导致退出的bug,尽量升级到4.0.0以上版本,不过这个涉及到libfuse动态库的版本适配。
3.在lxcfs等使用fuse的用户态文件系统进行remount的时候,如果遇到umount失败,则延迟加重试,超过次数通过日志告警系统抛出告警。
java单线程100%利用率的更多相关文章
- JAVA单线程以及java多线程的实现方式
1.java单线程的实现 public class SingletonThread { @SuppressWarnings("static-access") public stat ...
- jstack命令定位java程序CPU利用率高的代码位置
高手是怎么使用jstack精确找到异常代码的(java程序CPU利用率高的情况) 请jstack神器来帮忙 本文介绍Linux环境下使用jstack定位问题的秘笈1.[top命令]找到CPU利用率持续 ...
- Java死锁排查和Java CPU 100% 排查的步骤整理
================================================= 人工智能教程.零基础!通俗易懂!风趣幽默!大家可以看看是否对自己有帮助! 点击查看高清无码教程 == ...
- JAVA单线程和多线程的实现方式
1.java单线程的实现 一个任务一个人独立完成 public class SingletonThread { @SuppressWarnings("static-acce ...
- [Java] CPU 100% 原因查找解决
CPU 100%肯定是出现死锁,这个时候观察内存还是够用的,但是CPU一直100%,以下几步解决: 1. 找到进程消耗cpu最大的 $top top - :: up days, :, user, lo ...
- 使用Java对100以内偶数求和
/** * 根据for循环的描述: for(变量初始化:循环条件:修改循环变量的值),求出100以内的所有偶数,for(int i = 0; i<=100; i+=2),把这些偶数累加到一个空的 ...
- 记一次java应用cpu利用率过高调试经历
1,现象 写的一个storm应用,主要是通过mysql的binlog来同步表到hbase.运行一段时间后发现,经常会出现cpu使用率飙升到200%以上,然后各种消息堆积报警等等出现各种问题 2,调研过 ...
- CCF201409-2 画图 java(100分)
试题编号: 201409-2 试题名称: 画图 时间限制: 1.0s 内存限制: 256.0MB 问题描述: 问题描述 在一个定义了直角坐标系的纸上,画一个(x1,y1)到(x2,y2)的矩形指将横坐 ...
- CCF201509-2 日期计算 java(100分)
试题编号: 201509-2 试题名称: 日期计算 时间限制: 1.0s 内存限制: 256.0MB 问题描述: 问题描述 给定一个年份y和一个整数d,问这一年的第d天是几月几日? 注意闰年的2月有2 ...
随机推荐
- Typecho博客转移服务器,数据备份.
目录 Typecho博客转移服务器,数据备份. 简述操作(有基础的mjj看这个简述就可以了.) 详细步骤(建议小白来看, 已经在很多详细方面进行说明了.) 备份篇 备份导入与数据库转移篇 重新部署ty ...
- 史上最全Spring Cloud Alibaba--Nacos教程(涵盖负载均衡、配置管理、多环境切换、配置共享/刷新、灰度、集群)
能够实现Nacos安装 基于Nacos能实现应用负载均衡 能基于Nacos实现配置管理 配置管理 负载均衡 多环境切换 配置共享 配置刷新 灰度发布 掌握Nacos集群部署 1 Nacos安装 Nac ...
- C#项目中常见的目录和文件
本文迁移自Panda666原博客,原发布时间:2021年4月17日. Bin 目录 bin是英文binary的缩写, 字面意思是二进制,意指用来存放编译后的结果.C#/VB编译器编译后的程序二进制文件 ...
- 【Java面试】为什么引入偏向锁、轻量级锁,介绍下升级流程
Hi,我是Mic 一个工作了7年的粉丝来找我,他说最近被各种锁搞晕了. 比如,共享锁.排它锁.偏向锁.轻量级锁.自旋锁.重量级锁. 间隙锁.临键锁.意向锁.读写锁.乐观锁.悲观锁.表锁.行锁. 然后前 ...
- 如何利用 RPA 实现自动化获客?
大家好,我是二哥.前高级技术专家 & 增长黑客,现一枚爱折腾的小小创业者,专注于 RPA & SaaS 软件这块.这次给大家带来如何利用 RPA 实现自动化获客 一.RPA 是什么?难 ...
- JS:对象调方法1
找调用者 1.如果有this,就先看this在哪个函数中,就是离this最近的function,没有就是window 2.找到函数后,辨别哪个是调用者 例1: 点击查看代码 function fn() ...
- PTA(BasicLevel)-1018 锤子剪刀布
一.问题定义 大家应该都会玩"锤子剪刀布"的游戏:两人同时给出手势,胜负规则如下: 剪刀 > 布, 锤子 > 剪刀, 布 > 锤子 现给出两人的交 ...
- CADisplayLink、NSTimer循环引用解决方案
前言:CADisplayLink.NSTimer 循环引用问题 CADisplayLink.NSTimer会对Target产生强引用,如果target又对他们产生强引用,那么就会引发循环引用. @ ...
- HashSet底层HashMap源码分析
在看HashSet源码的时候,意外发现底层HashMap保存的value居然不是null,而是保存一个Object作为Value.顿觉有悖常理,于是来分析一下: HashSet的add方法: publ ...
- Eolink 推出面向中小企业及初创企业支持计划,为企业赋能!
2022,疫情持续蔓延,Eolink 作为一家初创公司,深切地感受到疫情下中小企业和初创企业的不易. Eolink 宣布正式推出「 Eolink 微光计划」,面向中小企业和初创企业,提供免费一年的私有 ...