在单片机开发中中断就是执行过程中发生了一些事件需要及时处理,所以需要停止当前正在运行的处理的事情转而去执行中断服务函数,已完成必要的事件的处理。在Linux中断一样是如此使用但是基于常见的中断控制器的特性比如不支持中断嵌套,当CPU在处理一个中断时是无法响应其他中断的,所以就会导致整个系统的实时性就比较差,所以在Linux下的思路就是尽量简短中断上下文执行的指令数量,把一些必须在中断上下文执行的代码放在中断上下文中执行,而一些儿可以适当推迟的处理延迟处理。这就是Linux的中断处理程序的机制,将中断处理分为上半段(顶半部)和下半段(低半部)。和硬件有关的实时性要求比较高的的处理过程在顶半部执行处理,而其余的放到低半部处理。低半部的实现机制由有许多种如软中断,tasklet、work queue等。这里可以参考我的另几篇博客

Linux中断编程

这里不考虑Linux中断子系统的初始化等相关的内容,只了解具体的驱动编程需要的基本内容,驱动中使用中断需要申请并指定处理接口,然后就是完成指定的处理接口函数,最重要的是实现低半部机制,而好消息是现在Linux内核已经将中断在大多数情况下线程化了,所以低半部很少使用但是不是不使用。

申请中断

int request_irq(int irq,irq_handler handler,unsigned long flags,const char * name,void *dev);

其中irq为中断号,这里是Linux中断子系统的中断号;

handler 为中断处理接口函数;

flags为中断的标志常有如下;

//指定中断触发类型:边沿和高低电平
#define IRQF_TRIGGER_NONE 0x00000000
#define IRQF_TRIGGER_RISING 0x00000001
#define IRQF_TRIGGER_FALLING 0x00000002
#define IRQF_TRIGGER_HIGH 0x00000004 高可用有效。新增加的标志
#define IRQF_TRIGGER_LOW 0x00000008
#define IRQF_TRIGGER_MASK(IRQF_TRIGGER_HIGH | IRQF_TRIGGER_LOW | \
IRQF_TRIGGER_RISING | IRQF_TRIGGER_FALLING)
#define IRQF_TRIGGER_PROBE 0x00000010
/*
*这些标志仅由内核用作irq处理例程的一部分。
*首先考虑在共享中断中注册
*性能原因)
*/
#define IRQF_DISABLED 0x00000020 // IRQF_DISABLED-调用动作处理程序时保持禁用irqs
#define IRQF_SAMPLE_RANDOM 0x00000040 // IRQF_SAMPLE_RANDOM-irq用于提供随机生成器
#define IRQF_SHARED 0x00000080 // IRQF_SHARED-允许在多个设备之间共享irq
#define IRQF_PROBE_SHARED 0x00000100 // IRQF_PROBE_SHARED-由呼叫者在期望发生共享不匹配时设置
#define IRQF_TIMER 0x00000200 // IRQF_TIMER-将该中断标记为定时器中断的标志
#define IRQF_PERCPU 0x00000400 // IRQF_PERCPU-中断是每个CPU
#define IRQF_NOBALANCING 0x00000800 // IRQF_NOBALANCING-将该中断从irq平衡中排除的标志
#define IRQF_IRQPOLL 0x00001000 // IRQF_IRQPOLL-中断用于轮询(仅中断

name 为创建文件系统/proc/irq 下的文件接口需要。dev 在共享中断时必须传入参数,因为是区别处理不同的设备中断的区分标志。这个函数执行成功返回0,其余则是失败。这种中断的申请后使用完成是需要释放的释放的接口就是free_irq():

void free_irq(unsigned int irq,void * dev_id);

irq 为Linux中断子系统的中断号。

dev_id 在共享中断时常为设备描述。

除此之外还有一个自动释放中断的接口就是linux内核常见的devm_xxx接口,第一个参数就是关联的device。

int devm_request_irq(struct device* dev,unsigned int irq ,irq_hander_t handler,unsigned long irqflags,const char* name ,void * dev_id)

使能和屏蔽中断

有时候需要临时关闭一个中断,一个CPU上的中断甚至整个系统的中断Linux提供了这些API如下:

//使能或关闭某一个中断
void disable_irq(unsigned int irq);
void disable_irq_nosync(unsigned int irq);
void enable_irq(unsigned int irq);

其中disable_irq_nosync 接口区别于disable_irq的是前者直接返回,而后者会等待当前的中断处理完成,所以也就意味着disable_irq接口会导致休眠阻塞所以不能在中断上下文中调用。除此之外内核还提供了关闭和使能指定CPU上的中断的接口这些接口的实现依赖于具体的硬件:

//关闭调用接口的当前CPU上的所有中断
local_irq_disable()
//使能调用接口的当前CPU上的所有中断
local_irq_enable()

如果需要关闭前保存中断控制寄存器的状态在开启中断时恢复寄存器的配置则可以使用如下的接口:

//关闭并保存寄存器状态
local_irq_save(flags)
//开启并恢复寄存器状态
loacl_irq_restore(flags)

实时性提高--中断底半部

  为了改善Linux内核的实时性内核将中断的相应分出了顶半部和底半部,低半部的实现机制主要有tasklet,工作队列,软中断和线程化。线程化是现在新内核默认的处理方式,在中断申请注册的过程中如果没有强制不能线程化或没有给两个中断服务接口(一个非线程化一个线程化)内核会默认将注册的非线程化的接口进行线程化具体参考 Linux内核实现透视---硬中断。其次是软中断这是一个依赖内核线程和内核数据结构的子系统,软件接口主要是完成内核软中断数据结构的组织进而使软中断内核线程可以维护处理需要处理调用的接口函数。tasklet是一种依赖软中断实现的低半部机制,他在软中断中划分了一部分线程专门用于处理tasklet数据结构中待处理的接口(通过API接口加入的),所以他和软中断的特性一样会并发的执行在不同的CPU上,且执行在软中断上下文具体参考Linux内核实现透视---软中断&Tasklet,最后是工作队列这是Linux内核为中断低半部设计的另一机制,他的特点是对资源的消耗更加的少并且work只会线性的串行执行而不会并发具体参考Linux内核实现透视---工作队列。接下来简单的学习一下内核驱动开发常用的低半部机制的API接口其中软中断很少驱动直接使用:

tasklet

使用比较简单,基本就是定义好处理函数后定义tasklet并初始化将处理函数绑定到定义的tasklet上后就需要通过接口进行调度,之后就等待内核调度软中断处理线程来执行了。

//数据类型
struct tasklet_struct
{
struct tasklet_struct *next;
unsigned long state;
atomic_t count;
void (*func)(unsigned long);
unsigned long data;
}; //tasklet 处理接口的类型
void tasklet_func(unsigned long);
//定义并且初始化
DECLARE_TASKLET(name,function,data)
//调度 实际上将tasklet 对象加入内核数据链表由内核决定执行时机
tasklet_schedule(struct tasklet_struct* )

工作队列

      工作队列的使用分两种情况一种是使用内核定义工作队列,还有一种是自己定义工作队列,两种使用方式要根据使用的具体情况决定使用哪一种。基本常用的是直接使用系统内定义的默认共享工作队列,因为通常情况下这些内建的工作队列和处理线程已经足够可以及时处理这些需求,除非是有特别多的工作会加入到工作队列时,其他一般不需要自己定义工作队列。下面就是使用默认工作队列的常用API。

//定义工作
struct work_struct xxx_work;
//定义服务接口函数
void xxx_func(struct work_struct* work);
//初始化工作队列 其实就是绑定处理函数接口
INIT_WORK(struct work_queue* wq,work_func);
//将工作加入到工作队列等待调度
schedule_work(struct work_struct * work);
//确保没有工作队列入口在系统中任何地方运行,会等待所有在处理的处理完成
void flush_scheduled_work(void);
//延时一定时间后再调度执行工作
int schedule_delayed_work(struct delayed_struct *work, unsigned long delay);
//取消加入工作队列的工作
int cancel_delayed_work(struct delayed_struct *work);

细心点会发现取消的接口只放了延时工作队列的,因为非延时的工作队列通常在执行了调度请求后很快就会执行了,此时取消常常是用处不大的。当然如果发起调度和取消调度都在中断上下文肯定就是可以的,具体的原因如果理解不了可以看前面的Linux内核实现透视---工作队列这一篇。最后再来看一下自定义工作队列的使用方法因为使用内核提供的共享列队,列队是保持顺序执行的,做完一个工作才做下一个,如果一个工作内有耗时大的处理如阻塞等待信号或锁,那么后面的工作都不会执行。如果确保工作队列及时执行,那么可以创建自己的工作者线程,所有工作可以加入自己创建的工作列队,列队中的工作运行在创建的工作者线程中。创建工作列队使用3个宏 成功后返回workqueue_struct *指针,并创建了工作者线程。三个宏主要区别在后面两个参数singlethread和freezeable,singlethread为0时会为每个cpu上创建一个工作者线程,为1时只在当前运行的cpu上创建一个工作者线程。freezeable会影响内核线程结构体thread_info的PF_NOFREEZE标记见代码片段;如果设置了PF_NOFREEZE这个flag,那么系统挂起时候这个进程不会被挂起。

if (!cwq->freezeable)
current->flags |= PF_NOFREEZE;
set_user_nice(current, -5);

接口

//多处理器时会为每个cpu创建一个工作者线程
#define create_workqueue(name) __create_workqueue((name), 0, 0)
//只创建一个工作者线程,系统挂起时线程也挂起
#define create_freezeable_workqueue(name) __create_workqueue((name), 1, 1)
//只创建一个工作者线程,系统挂起是线程线程不挂起
#define create_singlethread_workqueue(name) __create_workqueue((name), 1, 0)
以上三个宏调用__create_workqueue函数 extern struct workqueue_struct *__create_workqueue(const char *name,int singlethread, int freezeable); //释放创建的工作列队资源
void destroy_workqueue(struct workqueue_struct *wq) //延时调用指定工作列队的工作
queue_delayed_work(struct workqueue_struct *wq,struct delay_struct *work, unsigned long delay) //取消指定工作列队的延时工作
cancel_delayed_work(struct delay_struct *work) //将工作加入指定工作列队进行调度
queue_work(struct workqueue_struct *wq, struct work_struct *work) //等待列队中的任务全部执行完毕。
void flush_workqueue(struct workqueue_struct *wq);

Linux内核的中断开发使用到这里基本常用的接口函数都覆盖到了,具体的实现机制单独有时间的时候在深入学习研究。到时候放到内核实现透视章节记录。

参考:

宋宝华:Linux设备驱动开发详解

BLOG:https://blog.csdn.net/fontlose/article/details/8286445


Linux 驱动框架---驱动中的中断的更多相关文章

  1. Linux 驱动框架---驱动中的阻塞

    描述和API 阻塞IO和非阻塞IO的应用编程时的处理机制是不同的,如果是非阻塞IO在访问资源未就绪时就直接返回-EAGAIN,反之阻塞IO则会使当前用户进程睡眠直到资源可用.从应用场景来说两种方式分别 ...

  2. Linux 驱动框架---驱动中的异步

    异步IO是对阻塞和轮询IO的机制补充,所谓异步IO就是在设备数据就绪时主动通知所属进程进行处理的机制.之所以说是异步是相对与被通知进程的,因为进程不知道也无法知道什么时候会被通知:这一机制非常类似于硬 ...

  3. Linux 驱动框架---驱动中的时间相关

    内核中的时间 Linux 系统内核对于时间的管理依赖于硬件,硬件按一定的周期产生中断,周期由内核的一个配置值HZ决定在系统启动时会将定时器配置为HZ值指定的频率产生中断:同时内核和维护一个64位(X8 ...

  4. Linux 驱动框架---驱动中的并发

    并发指多个执行单元被同时.并行的执行,而并发执行的单元对共享资源的访问就容易导致竟态.并发产生的情况分为抢占和并行(多核)和硬抢占(中断).Linux为解决这一问题增加了一系列的接口来解决并发导致的竟 ...

  5. 驱动框架入门——以LED为例[【转】

    本文转载自;http://blog.csdn.net/oqqHuTu12345678/article/details/72783903 以下内容源于朱有鹏<物联网大讲堂>课程的学习,如有侵 ...

  6. I2C驱动框架(四)

    参考:I2C子系统之platform_driver初始化——I2C_adap_s3c_init() 在完成platform_device的添加之后,i2c子系统将进行platform_driver的注 ...

  7. Linux Framebuffer驱动剖析之二—驱动框架、接口实现和使用

    深入分析LinuxFramebuffer子系统的驱动框架.接口实现和使用. 一.LinuxFramebuffer的软件需求 上一篇文章详细阐述了LinuxFramebuffer的软件需求(请先理解第一 ...

  8. Linux USB驱动框架分析(2)【转】

    转自:http://blog.chinaunix.net/uid-23046336-id-3243543.html   看了http://blog.chinaunix.net/uid-11848011 ...

  9. Linux USB驱动框架分析 【转】

    转自:http://blog.chinaunix.net/uid-11848011-id-96188.html 初次接触与OS相关的设备驱动编写,感觉还挺有意思的,为了不至于忘掉看过的东西,笔记跟总结 ...

随机推荐

  1. docker 运行时常见错误

    docker 运行时常见错误 (1) Cannot connect to the Docker daemon at unix:///var/run/docker.sock. [root@localho ...

  2. 忒修斯的Mac

    我有一台Mac笔记本,用了快6年了,当初买它的时候还借了几千块. 三年前,它的屏幕坏了,修理的方式就是直接换屏,而换屏其实就是上半部分连壳带屏幕整个换掉,简单的说:另一台电脑的上半身嫁接过来. 今年, ...

  3. C++11中string与数值类型的转换

    C++中string与数值类型的相互转换记录 string转int.double.long string s = "123.456"; // string -> int co ...

  4. day03 函数基本语法及特性 2. 参数与局部变量 3. 返回值 嵌套函数 4.递归 5.匿名函数 6.函数式编程介绍 7.高阶函数 8.内置函数

    本节内容 1. 函数基本语法及特性 2. 参数与局部变量 3. 返回值 嵌套函数 4.递归 5.匿名函数 6.函数式编程介绍 7.高阶函数 8.内置函数 温故知新 1. 集合 主要作用: 去重 关系测 ...

  5. rehash (重新散列)

    rehash - Redis 设计与实现 http://redisbook.com/preview/dict/rehashing.html

  6. Any race is a bug. When there is a race, the compiler is free to do whatever it wants.

    https://mp.weixin.qq.com/s/pVJiFdDDKVx707eKL19bjA 谈谈 Golang 中的 Data Race 原创 ms2008 poslua 2019-05-13 ...

  7. 20201104gryz模拟赛解题报告

    写在前面 \(Luckyblock\) 良心出题人, 题面好评 T1还是蛮简单的,用一个栈来维护就能过(某天听说 \(Luckyblock\) 出了套题,T1是个考栈的,看来就是这道了 注:栈的清空只 ...

  8. Spring框架——事务管理方式搭建一个小的项目

    学习Spring框架,通过事务管理的方式搭建一个小的项目,该项目可以查询对数据库中的图书库存数量进行修改. 首先,使用MVC分层的设计模式思想搭建项目目录结构. 此部分代码源码之中都有相关注释,所以尽 ...

  9. CS代理+proxychains+nmap进行内网扫描

    前提:拿下边界机之后,进入内网,想用nmap怎么办? CS可以开启代理,但是是socks4的代理,只能使用tcp协议,所以nmap使用的时候要使用-sT选择使用tcp_协议,要使用-Pn不使用ICMP ...

  10. 39.NFS(网络文件系统)

    要共享文件的主机都是Linux系统时推荐在客户端部署NFS 服务来共享文件. NFS(网络文件系统)服务可以将远程Linux 系统上的文件共享资源挂载到本地主机的目录上,从而使得本地主机(Linux ...