Linux Namespace,但是Namespace解决的问题主要是环境隔离的问题,这只是虚拟化中最最基础的一步,我们还需要解决对计算机资源使用上的隔离。也就是说,虽然你通过Namespace把我Jail到一个特定的环境中去了,但是我在其中的进程使用用CPU、内存、磁盘等这些计算资源其实还是可以随心所欲的。所以,我们希望对进程进行资源利用上的限制或控制。这就是Linux CGroup出来了的原因。

Linux CGroup全称Linux Control Group, 是Linux内核的一个功能,用来限制,控制与分离一个进程组群的资源(如CPU、内存、磁盘输入输出等)。这个项目最早是由Google的工程师在2006年发起(主要是Paul Menage和Rohit Seth),最早的名称为进程容器(process containers)。在2007年时,因为在Linux内核中,容器(container)这个名词太过广泛,为避免混乱,被重命名为cgroup,并且被合并到2.6.24版的内核中去。然后,其它开始了他的发展。

Linux CGroupCgroup 可让您为系统中所运行任务(进程)的用户定义组群分配资源 — 比如 CPU 时间、系统内存、网络带宽或者这些资源的组合。您可以监控您配置的 cgroup,拒绝 cgroup 访问某些资源,甚至在运行的系统中动态配置您的 cgroup。

主要提供了如下功能:

  • Resource limitation: 限制资源使用,比如内存使用上限以及文件系统的缓存限制。

  • Prioritization: 优先级控制,比如:CPU利用和磁盘IO吞吐。

  • Accounting: 一些审计或一些统计,主要目的是为了计费。

  • Control: 挂起进程,恢复执行进程。

使用 cgroup,系统管理员可更具体地控制对系统资源的分配、优先顺序、拒绝、管理和监控。可更好地根据任务和用户分配硬件资源,提高总体效率。

在实践中,系统管理员一般会利用CGroup做下面这些事(有点像为某个虚拟机分配资源似的):

  • 隔离一个进程集合(比如:nginx的所有进程),并限制他们所消费的资源,比如绑定CPU的核。

  • 为这组进程 分配其足够使用的内存

  • 为这组进程分配相应的网络带宽和磁盘存储限制

  • 限制访问某些设备(通过设置设备的白名单)

那么CGroup是怎么干的呢?我们先来点感性认识吧。

首先,Linux把CGroup这个事实现成了一个file system,你可以mount。在我的Ubuntu 14.04下,你输入以下命令你就可以看到cgroup已为你mount好了。

 1  hchen@ubuntu:~$ mount  -t cgroup
2 cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,relatime,cpuset)
3 cgroup on /sys/fs/cgroup/cpu type cgroup (rw,relatime,cpu)
4 cgroup on /sys/fs/cgroup/cpuacct type cgroup (rw,relatime,cpuacct)
5 cgroup on /sys/fs/cgroup/memory type cgroup (rw,relatime,memory)
6 cgroup on /sys/fs/cgroup/devices type cgroup (rw,relatime,devices)
7 cgroup on /sys/fs/cgroup/freezer type cgroup (rw,relatime,freezer)
8 cgroup on /sys/fs/cgroup/blkio type cgroup (rw,relatime,blkio)
9 cgroup on /sys/fs/cgroup/net_prio type cgroup (rw,net_prio)
10 cgroup on /sys/fs/cgroup/net_cls type cgroup (rw,net_cls)
11 cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,relatime,perf_event)
12 cgroup on /sys/fs/cgroup/hugetlb type cgroup (rw,relatime,hugetlb)

或者使用lssubsys命令:

 1  $ lssubsys  -m
2 cpuset /sys/fs/cgroup/cpuset
3 cpu /sys/fs/cgroup/cpu
4 cpuacct /sys/fs/cgroup/cpuacct
5 memory /sys/fs/cgroup/memory
6 devices /sys/fs/cgroup/devices
7 freezer /sys/fs/cgroup/freezer
8 blkio /sys/fs/cgroup/blkio
9 net_cls /sys/fs/cgroup/net_cls
10 net_prio /sys/fs/cgroup/net_prio
11 perf_event /sys/fs/cgroup/perf_event
12 hugetlb /sys/fs/cgroup/hugetlb

我们可以看到,在/sys/fs下有一个cgroup的目录,这个目录下还有很多子目录,比如: cpu,cpuset,memory,blkio……这些,这些都是cgroup的子系统。分别用于干不同的事的。

如果你没有看到上述的目录,你可以自己mount,下面给了一个示例:

1  mkdir  cgroup
2 mount -t tmpfs cgroup_root . /cgroup
3 mkdir cgroup /cpuset
4 mount -t cgroup -ocpuset cpuset . /cgroup/cpuset/
5 mkdir cgroup /cpu
6 mount -t cgroup -ocpu cpu . /cgroup/cpu/
7 mkdir cgroup /memory
8 mount -t cgroup -omemory memory . /cgroup/memory/

一旦mount成功,你就会看到这些目录下就有好文件了,比如,如下所示的cpu和cpuset的子系统:

 1  hchen@ubuntu:~$ ls  /sys/fs/cgroup/cpu  /sys/fs/cgroup/cpuset/
2 /sys/fs/cgroup/cpu :
3 cgroup.clone_children cgroup.sane_behavior cpu.shares release_agent
4 cgroup.event_control cpu.cfs_period_us cpu.stat tasks
5 cgroup.procs cpu.cfs_quota_us notify_on_release user
6
7 /sys/fs/cgroup/cpuset/ :
8 cgroup.clone_children cpuset.mem_hardwall cpuset.sched_load_balance
9 cgroup.event_control cpuset.memory_migrate cpuset.sched_relax_domain_level
10 cgroup.procs cpuset.memory_pressure notify_on_release
11 cgroup.sane_behavior cpuset.memory_pressure_enabled release_agent
12 cpuset.cpu_exclusive cpuset.memory_spread_page tasks
13 cpuset.cpus cpuset.memory_spread_slab user
14 cpuset.mem_exclusive cpuset.mems

你可以到/sys/fs/cgroup的各个子目录下去make个dir,你会发现,一旦你创建了一个子目录,这个子目录里又有很多文件了。

 hchen@ubuntu: /sys/fs/cgroup/cpu $ sudo  mkdir  haoel
[ sudo ] password for hchen:
hchen@ubuntu: /sys/fs/cgroup/cpu $ ls . /haoel
cgroup.clone_children cgroup.procs cpu.cfs_quota_us cpu.stat tasks
cgroup.event_control cpu.cfs_period_us cpu.shares notify_on_release

CPU 限制

假设,我们有一个非常吃CPU的程序,叫deadloop,其源码如下:

 int  main( void )
{
int i = 0;
for (;;) i++;
return 0;
}

用sudo执行起来后,毫无疑问,CPU被干到了100%(下面是top命令的输出)

 PID USER      PR  NI    VIRT    RES    SHR S %CPU %MEM     TIME+ COMMAND
3529 root 20 0 4196 736 656 R 99.6 0.1 0:23.13 deadloop

然后,我们这前不是在/sys/fs/cgroup/cpu下创建了一个haoel的group。我们先设置一下这个group的cpu利用的限制:

 hchen@ubuntu:~ # cat /sys/fs/cgroup/cpu/haoel/cpu.cfs_quota_us
-1
root@ubuntu:~ # echo 20000 > /sys/fs/cgroup/cpu/haoel/cpu.cfs_quota_us

我们看到,这个进程的PID是3529,我们把这个进程加到这个cgroup中:

# echo 3529 >> /sys/fs/cgroup/cpu/haoel/tasks

然后,就会在top中看到CPU的利用立马下降成20%了。(前面我们设置的20000就是20%的意思)

PID USER      PR  NI    VIRT    RES    SHR S %CPU %MEM     TIME+ COMMAND
3529 root 20 0 4196 736 656 R 19.9 0.1 8:06.11 deadloop

下面的代码是一个线程的示例:

 #define _GNU_SOURCE         /* See feature_test_macros(7) */

#include <pthread.h>
#include <stdio.h>
#include <stdlib.h>
#include <sys/stat.h>
#include <sys/types.h>
#include <unistd.h>
#include <sys/syscall.h> const int NUM_THREADS = 5; void *thread_main( void *threadid)
{
/* 把自己加入cgroup中(syscall(SYS_gettid)为得到线程的系统tid) */
char cmd[128];
sprintf (cmd, "echo %ld >> /sys/fs/cgroup/cpu/haoel/tasks" , syscall(SYS_gettid));
system (cmd);
sprintf (cmd, "echo %ld >> /sys/fs/cgroup/cpuset/haoel/tasks" , syscall(SYS_gettid));
system (cmd); long tid;
tid = ( long )threadid;
printf ( "Hello World! It's me, thread #%ld, pid #%ld!\n" , tid, syscall(SYS_gettid)); int a=0;
while (1) {
a++;
}
pthread_exit(NULL);
}
int main ( int argc, char *argv[])
{
int num_threads;
if (argc > 1){
num_threads = atoi (argv[1]);
}
if (num_threads<=0 || num_threads>=100){
num_threads = NUM_THREADS;
} /* 设置CPU利用率为50% */
mkdir( "/sys/fs/cgroup/cpu/haoel" , 755);
system ( "echo 50000 > /sys/fs/cgroup/cpu/haoel/cpu.cfs_quota_us" ); mkdir( "/sys/fs/cgroup/cpuset/haoel" , 755);
/* 限制CPU只能使用#2核和#3核 */
system ( "echo \"2,3\" > /sys/fs/cgroup/cpuset/haoel/cpuset.cpus" ); pthread_t* threads = (pthread_t*) malloc ( sizeof (pthread_t)*num_threads);
int rc;
long t;
for (t=0; t<num_threads; t++){
printf ( "In main: creating thread %ld\n" , t);
rc = pthread_create(&threads[t], NULL, thread_main, ( void *)t);
if (rc){
printf ( "ERROR; return code from pthread_create() is %d\n" , rc);
exit (-1);
}
} /* Last thing that main() should do */
pthread_exit(NULL);
free (threads);
}

内存使用限制

我们再来看一个限制内存的例子(下面的代码是个死循环,其它不断的分配内存,每次512个字节,每次休息一秒):

 #include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <sys/types.h>
#include <unistd.h> int main( void )
{
int size = 0;
int chunk_size = 512;
void *p = NULL; while (1) { if ((p = malloc (p, chunk_size)) == NULL) {
printf ( "out of memory!!\n" );
break ;
}
memset (p, 1, chunk_size);
size += chunk_size;
printf ( "[%d] - memory is allocated [%8d] bytes \n" , getpid(), size);
sleep(1);
}
return 0;
}

然后,在我们另外一边:

 # 创建memory cgroup
$ mkdir /sys/fs/cgroup/memory/haoel
$ echo 64k > /sys/fs/cgroup/memory/haoel/memory .limit_in_bytes # 把上面的进程的pid加入这个cgroup
$ echo [pid] > /sys/fs/cgroup/memory/haoel/tasks

你会看到,一会上面的进程就会因为内存问题被kill掉了。

磁盘I/O限制

我们先看一下我们的硬盘IO,我们的模拟命令如下:(从/dev/sda1上读入数据,输出到/dev/null上)

 sudo  dd  if = /dev/sda1  of= /dev/null 

我们通过iotop命令我们可以看到相关的IO速度是55MB/s(虚拟机内):

 TID  PRIO  USER     DISK READ  DISK WRITE  SWAPIN     IO>    COMMAND
8128 be /4 root 55.74 M /s 0.00 B /s 0.00 % 85.65 % dd if = /de ~= /dev/null ...

然后,我们先创建一个blkio(块设备IO)的cgroup

mkdir  /sys/fs/cgroup/blkio/haoel 

并把读IO限制到1MB/s,并把前面那个dd命令的pid放进去(注:8:0 是设备号,你可以通过ls -l /dev/sda1获得):

 root@ubuntu:~ # echo '8:0 1048576'  > /sys/fs/cgroup/blkio/haoel/blkio.throttle.read_bps_device
root@ubuntu:~ # echo 8128 > /sys/fs/cgroup/blkio/haoel/tasks

再用iotop命令,你马上就能看到读速度被限制到了1MB/s左右。

 TID  PRIO  USER     DISK READ  DISK WRITE  SWAPIN     IO>    COMMAND
8128 be /4 root 973.20 K /s 0.00 B /s 0.00 % 94.41 % dd if = /de ~= /dev/null ...

CGroup的子系统

好了,有了以上的感性认识我们来,我们来看看control group有哪些子系统:

    • blkio — 这个子系统为块设备设定输入/输出限制,比如物理设备(磁盘,固态硬盘,USB 等等)。

    • cpu — 这个子系统使用调度程序提供对 CPU 的 cgroup 任务访问。

    • cpuacct — 这个子系统自动生成 cgroup 中任务所使用的 CPU 报告。

    • cpuset — 这个子系统为 cgroup 中的任务分配独立 CPU(在多核系统)和内存节点。

    • devices — 这个子系统可允许或者拒绝 cgroup 中的任务访问设备。

    • freezer — 这个子系统挂起或者恢复 cgroup 中的任务。

    • memory — 这个子系统设定 cgroup 中任务使用的内存限制,并自动生成内存资源使用报告。

    • net_cls — 这个子系统使用等级识别符(classid)标记网络数据包,可允许 Linux 流量控制程序(tc)识别从具体 cgroup 中生成的数据包。

    • net_prio — 这个子系统用来设计网络流量的优先级

    • hugetlb — 这个子系统主要针对于HugeTLB系统进行限制,这是一个大页文件系统。

注意,你可能在Ubuntu 14.04下看不到net_cls和net_prio这两个cgroup,你需要手动mount一下:

 $ sudo  modprobe cls_cgroup
$ sudo mkdir /sys/fs/cgroup/net_cls
$ sudo mount -t cgroup -o net_cls none /sys/fs/cgroup/net_cls $ sudo modprobe netprio_cgroup
$ sudo mkdir /sys/fs/cgroup/net_prio
$ sudo mount -t cgroup -o net_prio none /sys/fs/cgroup/net_prio

关于各个子系统的参数细节,以及更多的Linux CGroup的文档,你可以看看下面的文档:

CGroup的术语

CGroup有下述术语:

  • 任务(Tasks):就是系统的一个进程。

  • 控制组(Control Group):一组按照某种标准划分的进程,比如官方文档中的Professor和Student,或是WWW和System之类的,其表示了某进程组。Cgroups中的资源控制都是以控制组为单位实现。一个进程可以加入到某个控制组。而资源的限制是定义在这个组上,就像上面示例中我用的haoel一样。简单点说,cgroup的呈现就是一个目录带一系列的可配置文件。

  • 层级(Hierarchy):控制组可以组织成hierarchical的形式,既一颗控制组的树(目录结构)。控制组树上的子节点继承父结点的属性。简单点说,hierarchy就是在一个或多个子系统上的cgroups目录树。

  • 子系统(Subsystem):一个子系统就是一个资源控制器,比如CPU子系统就是控制CPU时间分配的一个控制器。子系统必须附加到一个层级上才能起作用,一个子系统附加到某个层级以后,这个层级上的所有控制族群都受到这个子系统的控制。Cgroup的子系统可以有很多,也在不断增加中。

下一代的CGroup

上面,我们可以看到,CGroup的一些常用方法和相关的术语。一般来说,这样的设计在一般情况下还是没什么问题的,除了操作上的用户体验不是很好,但基本满足我们的一般需求了。

不过,对此,有个叫Tejun Heo的同学非常不爽,他在Linux社区里对cgroup吐了一把槽,还引发了内核组的各种讨论。

对于Tejun Heo同学来说,cgroup设计的相当糟糕。他给出了些例子,大意就是说,如果有多种层级关系,也就是说有多种对进程的分类方式,比如,我们可以按用户来分,分成Professor和Student,同时,也有按应用类似来分的,比如WWW和NFS等。那么,当一个进程即是Professor的,也是WWW的,那么就会出现多层级正交的情况,从而出现对进程上管理的混乱。另外,一个case是,如果有一个层级A绑定cpu,而层级B绑定memory,还有一个层级C绑定cputset,而有一些进程有的需要AB,有的需要AC,有的需要ABC,管理起来就相当不易。

层级操作起来比较麻烦,而且如果层级变多,更不易于操作和管理,虽然那种方式很好实现,但是在使用上有很多的复杂度。你可以想像一个图书馆的图书分类问题,你可以有各种不同的分类,分类和图书就是一种多对多的关系。

所以,在Kernel 3.16后,引入了unified hierarchy的新的设计,这个东西引入了一个叫__DEVEL__sane_behavior的特性(这个名字很明显意味目前还在开发试验阶段),它可以把所有子系统都挂载到根层级下,只有叶子节点可以存在tasks,非叶子节点只进行资源控制。

我们mount一下看看:

sudo  mount  -t cgroup -o __DEVEL__sane_behavior cgroup . /cgroup

$ ls  . /cgroup
cgroup.controllers cgroup.procs cgroup.sane_behavior cgroup.subtree_control $ cat . /cgroup/cgroup .controllers
cpuset cpu cpuacct memory devices freezer net_cls blkio perf_event net_prio hugetlb

我们可以看到有四个文件,然后,你在这里mkdir一个子目录,里面也会有这四个文件。上级的cgroup.subtree_control控制下级的cgroup.controllers。

举个例子:假设我们有以下的目录结构,b代表blkio,m代码memory,其中,A是root,包括所有的子系统()。

 # A(b,m) - B(b,m) - C (b)
# \ - D (b) - E # 下面的命令中, +表示enable, -表示disable # 在B上的enable blkio
# echo +blkio > A/cgroup.subtree_control # 在C和D上enable blkio
# echo +blkio > A/B/cgroup.subtree_control # 在B上enable memory
# echo +memory > A/cgroup.subtree_control

在上述的结构中,

  • cgroup只有上线控制下级,无法传递到下下级。所以,C和D中没有memory的限制,E中没有blkio和memory的限制。而本层的cgroup.controllers文件是个只读的,其中的内容就看上级的subtree_control里有什么了。

  • 任何被配置过subtree_control的目录都不能绑定进程,根结点除外。所以,A,C,D,E可以绑上进程,但是B不行。

我们可以看到,这种方式干净的区分开了两个事,一个是进程的分组,一个是对分组的资源控制(以前这两个事完全混在一起),在目录继承上增加了些限制,这样可以避免一些模棱两可的情况。

当然,这个事还在演化中,cgroup的这些问题这个事目前由cgroup的吐槽人Tejun Heo和华为的Li Zefan同学负责解决中。总之,这是一个系统管理上的问题,而且改变会影响很多东西,但一旦方案确定,老的cgroup方式将一去不复返。

参考

namespace之cgroup的更多相关文章

  1. [转帖]linux namespace 和cgroup lxc

    https://blog.csdn.net/xiaoliuliu2050/article/details/53443863 5.1 linux namespace 和cgroup lxc 2016年1 ...

  2. Docker底层基石namespace与cgroup

    Docker底层基石namespace与cgroup   容器本质上是把系统中为同一个业务目标服务的相关进程合成一组,放在一个叫做namespace的空间中,同一个namespace中的进程能够互相通 ...

  3. Docker学习总结(一)—— namespace,cgroup机制

    1.namespace: Linux Namespaces机制提供一种资源隔离方案.PID,IPC,Network等系统资源不再是全局性的,而是属于特定的Namespace.每个 Namespace里 ...

  4. Docker原理 -- namespace与CGroup

    命名空间 PID(Process ID) 进程隔离 NET(Network) 管理网络隔离 IPC(InterProcess Communication) 管理跨进程通信的访问 MNT(Mount) ...

  5. docker容器技术基础之linux cgroup、namespace

    一.开头 接触过docker的同学多多少少听过这样一句话"docker容器通过linux namespace.cgroup特性实现资源的隔离与限制".今天我们来尝试学习一下这两个东 ...

  6. 利用内核cgroup机制轻松实现类似docker的系统资源管控

    近几年,以docker为代表的容器技术异常火热,它的轻量.高效让人欣喜若狂,它被赋予了改变传统IT运维的使命.相信随着时间推移,以容器云为落地形式的产品将真正实现这一使命. 我们都知道docker能够 ...

  7. Docker 基础技术之 Linux namespace 详解

    Docker 是"新瓶装旧酒"的产物,依赖于 Linux 内核技术 chroot .namespace 和 cgroup.本篇先来看 namespace 技术. Docker 和虚 ...

  8. Docker的安装

    目前Docker可以在Linux系统.Windows系统,这个文档介绍3种安装方式,安装Docker版本为1.8.2 具备安装Docker的条件: 64位CPU架构的设备 Linux系统内核推荐3.1 ...

  9. docker核心原理

    容器概念. docker是一种容器,应用沙箱机制实现虚拟化.能在一台宿主机里面独立多个虚拟环境,互不影响.在这个容器里面可以运行着我饿们的业务,输入输出.可以和宿主机交互. 使用方法. 拉取镜像 do ...

随机推荐

  1. postgres 基础SQL语句 增删改

    查看已创建的数据库:select datname from pg_database; 查看所有数据库的详细信息:select * from pg_database 创建数据库:create datab ...

  2. 深入理解Python切片

    Python序列的切片很基础同时也很重要,最近看到一个[::-1]的表达,不明所以,查了一些资料并实际操作,对Python切片有了更深刻的认识,以下结合例子详细说明.先看下切片的基本语法,一般认为切片 ...

  3. 鸿蒙内核源码分析(根文件系统) | 先挂到`/`上的文件系统 | 百篇博客分析OpenHarmony源码 | v66.01

    百篇博客系列篇.本篇为: v66.xx 鸿蒙内核源码分析(根文件系统) | 先挂到/上的文件系统 | 51.c.h.o 文件系统相关篇为: v62.xx 鸿蒙内核源码分析(文件概念篇) | 为什么说一 ...

  4. CF891B-Gluttony【构造】

    正题 题目链接:https://www.luogu.com.cn/problem/CF891B 题目大意 给出\(n\)个数字互不相同的一个序列\(a\),求它的一个排列\(b\),使得选出任意一个\ ...

  5. 《HelloGitHub》第 66 期

    兴趣是最好的老师,HelloGitHub 让你对编程感兴趣! 简介 分享 GitHub 上有趣.入门级的开源项目. 这里有实战项目.入门教程.黑科技.开源书籍.大厂开源项目等,涵盖多种编程语言 Pyt ...

  6. Digital Image Processing

    20190919 Review CCD:高端天文学,敏感度高,速度慢,成本高: CMOS:普遍使用,嵌入手机,速度快,有模式噪声(Pattern Noise,现在可以解决): 空间分辨率和时间分辨率: ...

  7. PyTorch中的Batch Normalization

    Pytorch中的BatchNorm的API主要有: 1 torch.nn.BatchNorm1d(num_features, 2 3 eps=1e-05, 4 5 momentum=0.1, 6 7 ...

  8. WPF实现统计图(饼图仿LiveCharts)

    WPF开发者QQ群: 340500857  | 微信群 -> 进入公众号主页 加入组织 每日一笑 下班和实习生一起回家,公交站等车,一乞丐把碗推向实习生乞讨.这时,实习生不慌不忙的说了句:&qu ...

  9. Java编程思想 第九章 接口

    第九章 接口 抽象类和抽象方法 抽象:从具体事物抽出.概括出它们共同的方面.本质属性与关系等,而将个别的.非本质的方面.属性与关系舍弃,这种思维过程,称为抽象. 这句话概括了抽象的概念,而在Java中 ...

  10. UI BLOCK自定义枚举控件的宽度

    三步: 1.修改PresentationStyle属性为Radio Box 2.修改NumberOfColumns属性为指定的宽度(显示字符的个数) 3.将PresentationStyle属性改回O ...