不同CPU体系间的中断控制器工作原理有较大差异,本文是《Linux mips64r2 PCI中断路由机制分析》的姊妹篇,主要分析Broadwell-DE X86_64 APIC中断路由原理、中断配置和处理过程,并尝试回答如下问题:

  • 为什么x86中断路由使用IO-APIC/LAPIC框架,其有什么价值?
  • pin/irq/vector的区别、作用,取值范围和分配机制?

x86_64 APIC关键概念

Pin

此处的pin特指APIC的中断输入引脚,与内外部设备的中断输入信号相连。从上图中可以看出,Pin的最大值受APIC管脚数限制,目前取值范围是[0,23]。其中[0, 15]这16个pin,基于与PIC兼容等原因考虑,有固定用途;PIRQ[A..H]这8个引脚为PCI IRQ引脚,为PCI设备提供中断路由,其中PIRQ[A..D]为纯中断引脚,PIRQ[E..H]可配置为中断引脚或GPIO引脚。

内部设备中断路由到哪个PIRQ,可以通过DxxIR(Device XX Interrupt Route Register)寄存器设置;外部设备使用哪个APIC引脚,在硬件PCB设计时即固定下来。

为什么设备中断要经过APIC再与CPU相连,而不直接与CPU相连?原因有二:1)存在大量的外部设备,但CPU的中断引脚等资源是很有限的,满足不了所有的直连需求;2)如果设备中断与CPU直接相连,连接关系随硬件固化,这样在MP系统中,中断负载均衡等需求就无法实现了。

Vector

Vector是CPU的概念,以CPU核的角度看,其以vector标识中断,详见下节中断路由原理介绍。

vector是IDT表(idt_table)的索引。

  1. gate_desc idt_table[NR_VECTORS] __page_aligned_data = { { { { , } } }, };

vector的个数由硬件决定,从上图可知,Broadwell-DE X86_64支持最多256个vector。其中前32个为系统保留使用,其他由操作系统动态分配。

vector提供优先级和亲和性绑定的支持,vector的高4位为优先级,0最低,15最高。CPU只处理优先级高于LAPIC TPR值的vector中断。

为什么在irq之外,又增加个vector概念,两者是否可以合二为一?不可以,原因主要是:vector是针对每个CPU核的,描述每个CPU核对上报中断的优先级处理和亲和性关系;而irq是全局的,它维护所有CPU核上的中断处理相关信息。

IRQ

在PIC和单核时代,irq、vector、pin这个概念的确是合三为一的,irq就是PIC控制器的pin引脚,irq也暗示着中断优先级,例如IRQ0比IRQ3有着更高的优先级。当进入MP多核时代,多核CPU下中断处理带来很多问题(如如何决定哪个中断在哪个核上处理,如何保证各核上中断负载均衡等),为了解决这些问题,vector、pin等概念都从irq中剥离出来,irq不再含有特定体系架构下中断控制器的硬件属性,只是内核中对中断的一个通用的软件抽象,与特定硬件解耦,增强其通用性。在内核中,irq号做为中断的抽象表达,其功能包括:

  • 对所有cpu核上的中断进行统一编码,确保不同cpu核上相同中断的irq号不重复;
  • 作为中断相关信息的查询码,如通过irq号可以获得中断控制器对象struct mpic,可以获得中断描述符对象irq_desc,可以获得硬件中断号等等。

irq的总数由下面的方式计算得出,nr_irqs为所有cpu核支持的中断总数,NR_IRQS为nr_irqs的初始值。

当irq很大时,静态分配irq_desc表将不是个明智的决定,这时内核会使用radix tree来组织irq_desc,即irq_desc_tree

  1. nr_irqs_gsi =
  2. nr_cpu_ids =
  3. X = The number of irq sources we can talk about = nr_irqs_gsi+*nr_cpu_ids+nr_irqs_gsi* =
  4. Y = The number of irqs we can possibly service = NR_VECTORS*nr_cpu_ids =
  5. nr_irqs = min(X, Y) = min(,) =
  6.  
  7. NR_VECTORS =
  8. NR_CPUS =
  9. CPU_VECTOR_LIMIT = * NR_CPUS = * nr_cpu_ids =
  10. MAX_IO_APICS =
  11. IO_APIC_VECTOR_LIMIT = * MAX_IO_APICS =
  12. NR_IRQS = NR_VECTORS + max(CPU_VECTOR_LIMIT,IO_APIC_VECTOR_LIMIT) =

最后,总结一下,这几个中断概念的关系和作用描述,如下图:

x86_64 PCI设备中断路由原理

如上图所示,local APIC通过 I/O APIC接受中断,I/O APIC负责把中断处理成中断消息并按一定规则转发给local APIC。

如上图所示,local APIC提供the interrupt request register (IRR) 和 in-service register (ISR) 2个寄存器,在处理一个vector的同时,缓存一个相同的vector,vector通过2个256-bit的寄存器标识,256个bit代表256个可能的vector,置1表示上报了相应的vector请求处理或者正在处理中。

local APIC以vector值作为优先级顺序来处理中断。每个vector为8-bit,高4位作为中断优先级,1最低,15最高。vector 0-31为Intel 64 and IA-32体系保留专用,所以可用的中断优先级为2-15。

另外,local APIC提供Task-Priority Register (TPR),Processor-Priority Register (PPR)来设置local APIC的task优先级和cpu优先级,但I/O APIC转发的中断vector优先级小于local APIC TPR的设置时,此中断不能打断当前CPU核上运行的task;当中断vector优先级小于local APIC PPR的设置时,此CPU核不处理此中断。操作系统通过动态设置TPR和PPR,从而实现操作系统的实时性需求和中断负载均衡需求。

中断处理过程

Broadwell-DE X86_64的中断处理过程基本和《Linux mips64r2 PCI中断路由机制分析》的类似,不同点是x86_64从ax寄存器中获取需要处理的中断vector,而不是从APIC的特定寄存器中获取。然后从vector_irq数组中根据vector查询到对于的irq号。

  1. unsigned int __irq_entry do_IRQ(struct pt_regs *regs)
  2. {
  3. struct pt_regs *old_regs = set_irq_regs(regs);
  4.  
  5. /* high bit used in ret_from_ code */
  6. unsigned vector = ~regs->orig_ax;
  7. unsigned irq;
  8.  
  9. irq_enter();
  10. exit_idle();
  11.  
  12. irq = __this_cpu_read(vector_irq[vector]);
  13.  
  14. if (!handle_irq(irq, regs)) {
  15. ack_APIC_irq();
  16.  
  17. if (printk_ratelimit())
  18. pr_emerg("%s: %d.%d No irq handler for vector (irq %d)\n",
  19. __func__, smp_processor_id(), vector, irq);
  20. }
  21.  
  22. irq_exit();
  23.  
  24. set_irq_regs(old_regs);
  25. return ;
  26. }

中断配置过程

  1. 动态分配irq,以IRQ_BITMAP_BITS (NR_IRQS + 8196) bitmap数据结构管理;
  2. 动态分配vector,为保证最大利用local APIC上vector优先级,减少具有相同vector优先级的中断,以16为间隔依次分配vector;
  3. 配置vector与irq的映射表:vector_irq表;
  4. 初始化irq_desc;
  5. 配置APIC PIRQ[A..H] pin脚属性;
  6. 配置I/O APIC pin与vector 映射表:REDIR_TBL寄存器;共有24个REDIR_TBL条目,与24个pin脚对应。除了定义相应的vector以外,还支持定义中断引脚具有如下功能:定义此引脚中断通过I/O APIC上报给指定的local APIC或local APIC组;中断触发模式;中断屏蔽等。详见下表。

附:相关数据结构:

  1. typedef struct gate_struct64 gate_desc;
  2.  
  3. /* 16byte gate */
  4. struct gate_struct64 {
  5. u16 offset_low;
  6. u16 segment;
  7. unsigned ist : , zero0 : , type : , dpl : , p : ;
  8. u16 offset_middle;
  9. u32 offset_high;
  10. u32 zero1;
  11. } __attribute__((packed));
  12.  
  13. struct irq_desc {
  14. struct irq_data irq_data;
  15. unsigned int __percpu *kstat_irqs;
  16. irq_flow_handler_t handle_irq;
  17. #ifdef CONFIG_IRQ_PREFLOW_FASTEOI
  18. irq_preflow_handler_t preflow_handler;
  19. #endif
  20. struct irqaction *action; /* IRQ action list */
  21. unsigned int status_use_accessors;
  22. unsigned int core_internal_state__do_not_mess_with_it;
  23. unsigned int depth; /* nested irq disables */
  24. unsigned int wake_depth; /* nested wake enables */
  25. unsigned int irq_count; /* For detecting broken IRQs */
  26. unsigned long last_unhandled; /* Aging timer for unhandled count */
  27. unsigned int irqs_unhandled;
  28. u64 random_ip;
  29. raw_spinlock_t lock;
  30. struct cpumask *percpu_enabled;
  31. #ifdef CONFIG_SMP
  32. const struct cpumask *affinity_hint;
  33. struct irq_affinity_notify *affinity_notify;
  34. #ifdef CONFIG_GENERIC_PENDING_IRQ
  35. cpumask_var_t pending_mask;
  36. #endif
  37. #endif
  38. unsigned long threads_oneshot;
  39. atomic_t threads_active;
  40. wait_queue_head_t wait_for_threads;
  41. #ifdef CONFIG_PROC_FS
  42. struct proc_dir_entry *dir;
  43. #endif
  44. int parent_irq;
  45. struct module *owner;
  46. const char *name;
  47. } ____cacheline_internodealigned_in_smp;
  48.  
  49. #ifndef CONFIG_SPARSE_IRQ
  50. extern struct irq_desc irq_desc[NR_IRQS];
  51. #endif
  52.  
  53. static RADIX_TREE(irq_desc_tree, GFP_KERNEL);

--EOF--

Linux x86_64 APIC中断路由机制分析的更多相关文章

  1. Linux mips64r2 PCI中断路由机制分析

    Linux mips64r2 PCI中断路由机制分析 本文主要分析mips64r2 PCI设备中断路由原理和irq号分配实现方法,并尝试回答如下问题: PCI设备驱动中断注册(request_irq) ...

  2. Linux x86_64内核中断初始化

    Linux x86_64内核中断初始化 [TOC] 中断分类 Linux系统中,中断分为: 硬中断:由外部设备或者执行异常产生的需要快速处理的中断.如缺页中断.定时器硬件中断. 根据内部产生还是外部产 ...

  3. Linux内核中的Workqueue机制分析

    1. 什么是workqueue Linux中的workqueue(工作队列)主要是为了简化在内核创建线程而设计的.通过相应的工作队列接口,可以使开发人员只关心与特定功能相关的处理流程,而不必关心内核线 ...

  4. floodlight路由机制分析

    SDN的出现可以使得各种复杂的路由协议从原本的Device OS中剥离出来,放在SDN Controller中,Controller用一种简单的协议来和所有的Router进行通信,就可以获得网络拓扑, ...

  5. Meandering Through the Maze of MFC Message and Command Routing MFC消息路由机制分析

    Meandering Through the Maze of MFC Message and Command Routing Paul DiLascia Paul DiLascia is a free ...

  6. linux的可中断sleep_on函数分析

    void interruptible_sleep_on (struct task_struct **p)// **p是个全局变量 { struct task_struct *tmp; if (!p)# ...

  7. Linux内核NAPI机制分析

    转自:http://blog.chinaunix.net/uid-17150-id-2824051.html 简介:NAPI 是 Linux 上采用的一种提高网络处理效率的技术,它的核心概念就是不采用 ...

  8. Linux信号(signal) 机制分析

    Linux信号(signal) 机制分析 [摘要]本文分析了Linux内核对于信号的实现机制和应用层的相关处理.首先介绍了软中断信号的本质及信号的两种不同分类方法尤其是不可靠信号的原理.接着分析了内核 ...

  9. Linux内核态抢占机制分析(转)

    Linux内核态抢占机制分析  http://blog.sina.com.cn/s/blog_502c8cc401012pxj.html 摘 要]本文首先介绍非抢占式内核(Non-Preemptive ...

随机推荐

  1. python练习册0005

    第 0005 题:你有一个目录,装了很多照片,把它们的尺寸变成都不大于 iPhone5 分辨率的大小. 本题用了几个os模块的命令, import os from PIL import Image p ...

  2. 泛微云桥e-Bridge安装手册

    有时候不看官方文档进行配置,可能会出现奇奇怪怪的问题,SO转载一下官方文档,顺带学习. 想超长体验此软件,请搜索本博客内容,有破解方法,仅用来学习使用,顺带进行二次开发,请勿使用在商业用途,谢谢. 泛 ...

  3. PAT Basic 1071. 小赌怡情(15)

    题目内容 常言道"小赌怡情".这是一个很简单的小游戏:首先由计算机给出第一个整数:然后玩家下注赌第二个整数将会比第一个数大还是小:玩家下注t个筹码后,计算机给出第二个数.若玩家猜对 ...

  4. python--使用队列结构来模拟共享打印机等候时间

    按书里的样例抄的. 可以看到,将打印速度由第分钟5页提高到10页之后, 每个学生提交打印任务到打印完成的时间明显缩短. =========================== 在计算机科学实验室里考虑 ...

  5. 试验IFTTT同步发微博

    没啥 测试下同步发微博    

  6. [转] css3变形属性transform

    w3c上的例子是这样子写的:· div { transform:rotate(7deg); -ms-transform:rotate(7deg); /* IE 9 */ -moz-transform: ...

  7. checkbox选中相关问题总结

    html: <input type="checkbox" name="fruit" id="apple">苹果 <inpu ...

  8. Python_shutil模块

    import shutil 高级的文件,文件夹,压缩包的处理模块,也主要用于文件的拷贝 shutil.copyfileobj(fsrc,fdst[,length]): 将文件的内容拷贝到另一个文件(可 ...

  9. kudu的读取数据流程

    当客户端从Kudu的表中读取数据时,必须首先建立需要连接的系列tablet服务器. 通过执行tablet发现过程(如上所述)来确定包含要读取的主关键字范围的tablet的位置(读取不必在领导者tabl ...

  10. Docker技术底层架构剖析

    [Docker  底层技术] docker底层的 2 个核心技术分别是 Namespaces 和 Control groups 在操作系统中,网络配置,进程,用户,IPC(进程之间的调用)等信息之间的 ...