Linux驅動技術(五) _設備阻塞/非阻塞讀寫
等待隊列是內核中實現進程調度的一個十分重要的數據結構,其任務是維護一個鏈表,鏈表中每一個節點都是一個PCB(進程控制塊),內核會將PCB掛在等待隊列中的所有進程都調度為睡眠狀態,直到某個喚醒的條件發生。應用層的阻塞IO與非阻塞IO的使用我已經在Linux I/O多路復用一文中討論過了,本文主要討論驅動中怎么實現對設備IO的阻塞與非阻塞讀寫。顯然,實現這種與阻塞相關的機制要用到等待隊列機制。本文的內核源碼使用的是3.14.0版本
設備阻塞IO的實現
當我們讀寫設備文件的IO時,最終會回調驅動中相應的接口,而這些接口也會出現在讀寫設備進程的進程(內核)空間中,如果條件不滿足,接口函數使進程進入睡眠狀態,即使讀寫設備的用戶進程進入了睡眠,也就是我們常說的發生了阻塞。In a word,讀寫設備文件阻塞的本質是驅動在驅動中實現對設備文件的阻塞,其讀寫的流程可概括如下:
1. 定義-初始化等待隊列頭
- //定義等待隊列頭
- wait_queue_head_t waitq_h;//初始化,等待隊列頭
- init_waitqueue_head(wait_queue_head_t *q); //或//定義并初始化等待隊列頭
- DECLARE_WAIT_QUEUE_HEAD(waitq_name);
上面的幾條選擇中,***一種會直接定義并初始化一個等待頭,但是如果在模塊內使用全局變量傳參,用著并不方便,具體用哪種看需求。
我們可以追一下源碼,看一下上面這幾行都干了什么:
- //include/linux/wait.h
- struct __wait_queue_head {
- spinlock_t lock;
- struct list_head task_list;
- };
- typedef struct __wait_queue_head wait_queue_head_t;
wait_queue_head_t
--36-->這個隊列用的自旋鎖
--27-->將整個隊列"串"在一起的紐帶
然后我們看一下初始化的宏:
- #define __WAIT_QUEUE_HEAD_INITIALIZER(name) {
- .lock = __SPIN_LOCK_UNLOCKED(name.lock),
- .task_list = { &(name).task_list, &(name).task_list } }
- define DECLARE_WAIT_QUEUE_HEAD(name) \
- wait_queue_head_t name = __WAIT_QUEUE_HEAD_INITIALIZER(name)
DECLARE_WAIT_QUEUE_HEAD()
--60-->根據傳入的字符串name,創建一個名為name的等待隊列頭
--57-->初始化上述task_list域,竟然沒有用內核標準的初始化宏,無語。。。
2. 將本進程添加到等待隊列
為等待隊列添加事件,即進程進入睡眠狀態直到condition為真才返回。**_interruptible的版本版本表示睡眠可中斷,_timeout**版本表示超時版本,超時就會返回,這種命名規范在內核API中隨處可見。
- void wait_event(wait_queue_head_t *waitq_h,int condition);
- void wait_event_interruptible(wait_queue_head_t *waitq_h,int condition);
- void wait_event_timeout(wait_queue_head_t *waitq_h,int condition);
- void wait_event_interruptible_timeout(wait_queue_head_t *waitq_h,int condition);
這可是等待隊列的核心,我們來看一下
wait_event
└── wait_event
└── _wait_event
├── abort_exclusive_wait
├── finish_wait
├── prepare_to_wait_event
└── ___wait_is_interruptible
- #define wait_event(wq, condition)
- do {
- if (condition)
- break;
- __wait_event(wq, condition);
- } while (0)
wait_event
--246-->如果condition為真,立即返回
--248-->否則調用__wait_event
- #define ___wait_event(wq,condition,state, exclusive, ret, cmd) \
- ({ \
- for (;;) { \
- long __int = prepare_to_wait_event(&wq, &__wait, state);\
- \
- if (condition) \
- break; \
- if (___wait_is_interruptible(state) && __int) { \
- __ret = __int; \
- if (exclusive) { \
- abort_exclusive_wait(&wq, &__wait, \
- state, NULL); \
- goto __out; \
- } \
- break; \
- } \
- cmd; \
- } \
- finish_wait(&wq, &__wait); \
- __out: __ret; \
- })
--206-->死循環的輪詢
--209-->如果條件為真,跳出循環,執行finish_wait();進程被喚醒
--212-->如果進程睡眠的方式是interruptible的,那么當中斷來的時候也會abort_exclusive_wait被喚醒
--222-->如果上面兩條都不滿足,就會回調傳入的schedule(),即繼續睡眠
模板
- struct wait_queue_head_t xj_waitq_h;
- static ssize_t demo_read(struct file *filp, char __user *buf, size_t size, loff_t *offset)
- { if(!condition) //條件可以在中斷處理函數中置位
- wait_event_interruptible(&xj_waitq_h,condition);
- }
- static file_operations fops = {
- .read = demo_read,
- };
- static __init demo_init(void){
- init_waitqueue_head(&xj_waitq_h);
- }
IO多路復用的實現
對于普通的非阻塞IO,我們只需要在驅動中注冊的read/write接口時不使用阻塞機制即可,這里我要討論的是IO多路復用,即當驅動中的read/write并沒有實現阻塞機制的時候,我們如何利用內核機制來在驅動中實現對IO多路復用的支持。下面這個就是我們要用的API
- int poll(struct file *filep, poll_table *wait);void poll_wait(struct file * filp, wait_queue_head_t * wait_address, poll_table *p)
當應用層調用select/poll/epoll機制的時候,內核其實會遍歷回調相關文件的驅動中的poll接口,通過每一個驅動的poll接口的返回值,來判斷該文件IO是否有相應的事件發生,我們知道,這三種IO多路復用的機制的核心區別在于內核中管理監視文件的方式,分別是位,數組,鏈表,但對于每一個驅動,回調的接口都是poll。
模板
- struct wait_queue_head_t waitq_h;static unsigned int demo_poll(struct file *filp, struct poll_table_struct *pts){ unsigned int mask = 0;
- poll_wait(filp, &wwaitq_h, pts); if(counter){
- mask = (POLLIN | POLLRDNORM);
- } return mask;
- }static struct file_operations fops = {
- .owner = THIS_MODULE,
- .poll = demo_poll,
- };static __init demo_init(void){
- init_waitqueue_head(&xj_waitq_h);
- }
其他API
剛才我們討論了如何使用等待隊列實現阻塞IO,非阻塞IO,其實關于等待隊列,內核還提供了很多其他API用以完成相關的操作,這里我們來認識一下
- //在等待隊列上睡眠
- sleep_on(wait_queue_head_t *wqueue_h);
- sleep_on_interruptible(wait_queue_head_t *wqueue_h);//喚醒等待的進程
- void wake_up(wait_queue_t *wqueue);
- void wake_up_interruptible(wait_queue_t *wqueue);