背景

  • Read the fucking source code! --By 鲁迅
  • A picture is worth a thousand words. --By 高尔基

说明:

  1. Kernel版本:4.14
  2. ARM64处理器,Contex-A53,双核
  3. 使用工具:Source Insight 3.5, Visio

1. 概述

组调度(task_group)是使用Linux cgroup(control group)的cpu子系统来实现的,可以将进程进行分组,按组来分配CPU资源等。

比如,看一个实际的例子:

A和B两个用户使用同一台机器,A用户16个进程,B用户2个进程,如果按照进程的个数来分配CPU资源,显然A用户会占据大量的CPU时间,这对于B用户是不公平的。组调度就可以解决这个问题,分别将A、B用户进程划分成组,并将两组的权重设置成占比50%即可。

带宽(bandwidth)控制,是用于控制用户组(task_group)的CPU带宽,通过设置每个用户组的限额值,可以调整CPU的调度分配。在给定周期内,当用户组消耗CPU的时间超过了限额值,该用户组内的任务将会受到限制。

由于组调度和带宽控制紧密联系,因此本文将探讨这两个主题,本文的讨论都基于CFS调度器,开始吧。

2. task_group

  • 组调度,在内核中是通过struct task_group来组织的,task_group本身支持cfs组调度rt组调度,本文主要分析cfs组调度
  • CFS调度器管理的是sched_entity调度实体,task_struct(代表进程)task_group(代表进程组)中分别包含sched_entity,进而来参与调度;

关于组调度的相关数据结构,组织如下:

  • 内核维护了一个全局链表task_groups,创建的task_group会添加到这个链表中;
  • 内核定义了root_task_group全局结构,充当task_group的根节点,以它为根构建树状结构;
  • struct task_group的子节点,会加入到父节点的siblings链表中;
  • 每个struct task_group会分配运行队列数组和调度实体数组(以CFS为例,RT调度类似),其中数组的个数为系统CPU的个数,也就是为每个CPU都分配了运行队列和调度实体;

对应到实际的运行中,如下:

  • struct cfs_rq包含了红黑树结构,sched_entity调度实体参与调度时,都会挂入到红黑树中,task_structtask_group都属于被调度对象;
  • task_group会为每个CPU再维护一个cfs_rq,这个cfs_rq用于组织挂在这个任务组上的任务以及子任务组,参考图中的Group A
  • 调度器在调度的时候,比如调用pick_next_task_fair时,会从遍历队列,选择sched_entity,如果发现sched_entity对应的是task_group,则会继续往下选择;
  • 由于sched_entity结构中存在parent指针,指向它的父结构,因此,系统的运行也能从下而上的进行遍历操作,通常使用函数walk_tg_tree_from进行遍历;

2.2 task_group权重

  • 进程或进程组都有权重的概念,调度器会根据权重来分配CPU的时间。
  • 进程组的权重设置,可以通过/sys文件系统进行设置,比如操作/sys/fs/cgoup/cpu/A/shares

调用流程如下图:

  • sched_group_set_shares来完成最终的设置;
  • task_group为每个CPU都分配了一个sched_entity,针对当前sched_entity设置更新完后,往上对sched_entity->parent设置更新,直到根节点;
  • shares的值计算与load相关,因此也需要调用update_load_avg进行更新计算;

看一下实际的效果图吧:

  • 写节点操作可以通过echo XXX > /sys/fs/cgroup/cpu/A/B/cpu.shares
  • 橙色的线代表传入参数指向的对象;
  • 紫色的线代表每次更新涉及到的对象,包括三个部分;
  • 处理完sched_entity后,继续按同样的流程处理sched_entity->parent

3. cfs_bandwidth

先看一下/sys/fs/cgroup/cpu下的内容吧:

  • 有两个关键的字段:cfs_period_uscfs_quota_us,这两个与cfs_bandwidth息息相关;
  • period表示周期,quota表示限额,也就是在period期间内,用户组的CPU限额为quota值,当超过这个值的时候,用户组将会被限制运行(throttle),等到下一个周期开始被解除限制(unthrottle);

来一张图直观理解一下:

  • 在每个周期内限制在quota的配额下,超过了就throttle,下一个周期重新开始;

3.1 数据结构

内核中使用struct cfs_bandwidth来描述带宽,该结构包含在struct task_group中。

此外,struct cfs_rq中也有与带宽控制相关的字段。

还是来看一下代码吧:

  1. struct cfs_bandwidth {
  2. #ifdef CONFIG_CFS_BANDWIDTH
  3. raw_spinlock_t lock;
  4. ktime_t period;
  5. u64 quota, runtime;
  6. s64 hierarchical_quota;
  7. u64 runtime_expires;
  8. int idle, period_active;
  9. struct hrtimer period_timer, slack_timer;
  10. struct list_head throttled_cfs_rq;
  11. /* statistics */
  12. int nr_periods, nr_throttled;
  13. u64 throttled_time;
  14. #endif
  15. };
  • period:周期值;
  • quota:限额值;
  • runtime:记录限额剩余时间,会使用quota值来周期性赋值;
  • hierarchical_quota:层级管理任务组的限额比率;
  • runtime_expires:每个周期的到期时间;
  • idle:空闲状态,不需要运行时分配;
  • period_active:周期性计时已经启动;
  • period_timer:高精度周期性定时器,用于重新填充运行时间消耗;
  • slack_timer:延迟定时器,在任务出列时,将剩余的运行时间返回到全局池里;
  • throttled_cfs_rq:限流运行队列列表;
  • nr_periods/nr_throttled/throttled_time:统计值;

struct cfs_rq结构中相关字段如下:

  1. struct cfs_rq {
  2. ...
  3. #ifdef CONFIG_CFS_BANDWIDTH
  4. int runtime_enabled;
  5. u64 runtime_expires;
  6. s64 runtime_remaining;
  7. u64 throttled_clock, throttled_clock_task;
  8. u64 throttled_clock_task_time;
  9. int throttled, throttle_count;
  10. struct list_head throttled_list;
  11. #endif /* CONFIG_CFS_BANDWIDTH */
  12. ...
  13. }
  • runtime_enabled:周期计时器使能;
  • runtime_expires:周期计时器到期时间;
  • runtime_remaining:剩余的运行时间;

3.2 流程分析

3.2.1 初始化流程

先看一下初始化的操作,初始化函数init_cfs_bandwidth本身比较简单,完成的工作就是将struct cfs_bandwidth结构体进程初始化。

  • 注册两个高精度定时器:period_timerslack_timer
  • period_timer定时器,用于在时间到期时重新填充关联的任务组的限额,并在适当的时候unthrottlecfs运行队列;
  • slack_timer定时器,slack_period周期默认为5ms,在该定时器函数中也会调用distribute_cfs_runtime从全局运行时间中分配runtime;
  • start_cfs_bandwidthstart_cfs_slack_bandwidth分别用于启动定时器运行,其中可以看出在dequeue_entity的时候会去利用slack_timer,将运行队列的剩余时间返回给tg->cfs_b这个runtime pool
  • unthrottle_cfs_rq函数,会将throttled_list中的对应cfs_rq删除,并且从下往上遍历任务组,针对每个任务组调用tg_unthrottle_up处理,最后也会根据cfs_rq对应的sched_entity从下往上遍历处理,如果sched_entity不在运行队列上,那就重新enqueue_entity以便参与调度运行,这个也就完成了解除限制的操作;

do_sched_cfs_period_timer函数与do_sched_cfs_slack_timer()函数都调用了distrbute_cfs_runtime(),该函数用于分发tg->cfs_b的全局运行时间runtime,用于在该task_group中平衡各个CPU上的cfs_rq的运行时间runtime,来一张示意图:

  • 系统中两个CPU,因此task_group针对每个cpu都维护了一个cfs_rq,这些cfs_rq来共享该task_group的限额运行时间;
  • CPU0上的运行时间,浅黄色模块表示超额了,那么在下一个周期的定时器点上会进行弥补处理;

3.2.2 用户设置流程

用户可以通过操作/sys中的节点来进行设置:

  • 操作/sys/fs/cgroup/cpu/下的cfs_quota_us/cfs_period_us节点,最终会调用到tg_set_cfs_bandwidth函数;
  • tg_set_cfs_bandwidth会从root_task_group根节点开始,遍历组调度树,并逐个设置限额比率 ;
  • 更新cfs_bandwidthruntime信息;
  • 如果使能了cfs_bandwidth功能,则启动带宽定时器;
  • 遍历task_group中的每个cfs_rq队列,设置runtime_remaining值,如果cfs_rq队列限流了,则需要进行解除限流操作;

3.2.3 throttle限流操作

cfs_rq运行队列被限制,是在throttle_cfs_rq函数中实现的,其中调用关系如下图:

  • 调度实体sched_entity入列时,进行检测是否运行时间已经达到限额,达到则进行限制处理;
  • pick_next_task_fair/put_prev_task_fair在选择任务调度时,也需要进行检测判断;

3.2.4 总结

总体来说,带宽控制的原理就是通过task_group中的cfs_bandwidth来管理一个全局的时间池,分配给属于这个任务组的运行队列,当超过限额的时候则限制队列的调度。同时,cfs_bandwidth维护两个定时器,一个用于周期性的填充限额并进行时间分发处理,一个用于将未用完的时间再返回到时间池中,大抵如此。

组调度和带宽控制就先分析到此,下篇文章将分析CFS调度器了,敬请期待。

【原创】(四)Linux进程调度-组调度及带宽控制的更多相关文章

  1. 【原创】(六)Linux进程调度-实时调度器

    背景 Read the fucking source code! --By 鲁迅 A picture is worth a thousand words. --By 高尔基 说明: Kernel版本: ...

  2. Linux进程组调度机制分析【转】

    转自:http://oenhan.com/task-group-sched 又碰到一个神奇的进程调度问题,在系统重启过程中,发现系统挂住了,过了30s后才重新复位,真正系统复位的原因是硬件看门狗重启的 ...

  3. 【原创】(五)Linux进程调度-CFS调度器

    背景 Read the fucking source code! --By 鲁迅 A picture is worth a thousand words. --By 高尔基 说明: Kernel版本: ...

  4. 《Linux内核设计与实现》读书笔记 第四章 进程调度

    第四章进程调度 进程调度程序可看做在可运行太进程之间分配有限的处理器时间资源的内核子系统.调度程序是多任务操作系统的基础.通过调度程序的合理调度,系统资源才能最大限度地发挥作用,多进程才会有并发执行的 ...

  5. Linux进程调度器的设计--Linux进程的管理与调度(十七)

    1 前景回顾 1.1 进程调度 内存中保存了对每个进程的唯一描述, 并通过若干结构与其他进程连接起来. 调度器面对的情形就是这样, 其任务是在程序之间共享CPU时间, 创造并行执行的错觉, 该任务分为 ...

  6. Linux进程调度器概述--Linux进程的管理与调度(十五)

    调度器面对的情形就是这样, 其任务是在程序之间共享CPU时间, 创造并行执行的错觉, 该任务分为两个不同的部分, 其中一个涉及调度策略, 另外一个涉及上下文切换. 1 背景知识 1.1 什么是调度器 ...

  7. Linux内核分析——第四章 进程调度

    第四章 进程调度 4.1 多任务 1.多任务操作系统就是能同时并发的交互执行多个进程的操作系统. 2.多任务操作系统使多个进程处于堵塞或者睡眠状态,实际不被投入执行,这些任务尽管位于内存,但是并不处于 ...

  8. 《Linux内核设计与实现》第八周读书笔记——第四章 进程调度

    <Linux内核设计与实现>第八周读书笔记——第四章 进程调度 第4章 进程调度35 调度程序负责决定将哪个进程投入运行,何时运行以及运行多长时间,进程调度程序可看做在可运行态进程之间分配 ...

  9. 《Linux内核设计与实现》 第八周读书笔记 第四章 进程调度

    20135307 张嘉琪 第八周读书笔记 第四章 进程调度 调度程序负责决定将哪个进程投入运行,何时运行以及运行多长时间,进程调度程序可看做在可运行态进程之间分配有限的处理器时间资源的内核子系统.只有 ...

随机推荐

  1. Django学习之路由层

    Django请求生命周期 - wsgi, 他就是socket服务端,用于接收用户请求并将请求进行初次封装,然后将请求交给web框架(Flask.Django) - 中间件,帮助我们对请求进行校验或在请 ...

  2. PolarDB阿里初赛问题记录 PolarDB 阿里 中间件 比赛 性能 工程手册

    Contents 这篇纯碎是碎碎念记录. 每个value都是4KB,总共最多会写6400W个value,算下来就是64 * 1000 * 1000 * 4 * 1024 Bytes ≈ 256G. 每 ...

  3. Qt 线程池QThreadPool类、QRunnable类

    QThreadPool类 用来管理 QThreads.此类中的所有函数都是线程安全的. 主要属性: 1.activeThreadCount: 此属性表示线程池中的活动线程数,通过activeThrea ...

  4. 读写分离(AMOEBA)

    博主本人平和谦逊,热爱学习,读者阅读过程中发现错误的地方,请帮忙指出,感激不尽 1. 环境准备: 1.1新增一台虚拟机 amoeba:192.168.247.80 架构(使用图片源自其它博文): 1. ...

  5. discussion|局限性|解释|猜测|前作与同行

    讨论是整篇论文的精华和灵魂,考查作者的文献积累量和对所研究内容的理解深度,作者需要阐述为什么结果是重要的,内容包括理论.应用.在其他其他领域的作用及应用,阐述时要求直接明确. 具体而言,首先概述最重要 ...

  6. [LC] 225. Implement Stack using Queues

    Implement the following operations of a stack using queues. push(x) -- Push element x onto stack. po ...

  7. miRNA|housekeeping|RNAi|siRNA|Oncomirs|miRBase|PMRD|TargetScan|miRDeep|miRNA target|seed regions|

    生物信息学-miRNA 转录组的分类: Noncoding RNA可分为负责Regulatory和housekeeping,housekeeping就是组织日常功能miRNA便是Regulatory ...

  8. 升级本地已安装的 Node 和 npm 版本

    Mac升级本地已经安装的NodeJs和Npm到最新版,可以使用一下方式进行升级和更新. 其实windos上升级nodejs也很简单,只需在nodejs官网下载安装最新的msi即可. 值得注意的是安装时 ...

  9. python的IO

    格式化输出 格式化输出是指通过print()等函数向指定的地方(比如屏幕)输出指定格式的内容 格式: age = 18 name = "xiaohua" print("我 ...

  10. git创建/合并分支/删除分支/将修改后的内容同步到GitHub远程仓库

    1.创建分支并切换到刚创建的分支(这里创建新的分支来修改README.md的内容然后将创建的分支与master分支合并,最后删除创建的分支) $ git checkout -b 分支名 Switche ...