Linux块设备驱动详解

您所在的位置:网站首页 新增linux块设备驱动 Linux块设备驱动详解

Linux块设备驱动详解

2024-04-14 03:54| 来源: 网络整理| 查看: 265

一、机械硬盘1、磁盘结构

  传统的机械硬盘一般为3.5英寸硬盘,并由多个圆形蝶片组成,每个蝶片拥有独立的机械臂和磁头,每个堞片的圆形平面被划分了不同的同心圆,每一个同心圆称为一个磁道,位于最外面的道的周长最长称为外道,最里面的道称为内道,通常硬盘厂商会将圆形蝶片最靠里面的一些内道(速度较慢,影响性能)封装起来不用;道又被划分成不同的块单元称为扇区,每个道的周长不同,现代硬盘不同长度的道划分出来的扇区数也是不相同的,而磁头不工作的时候一般位于内道,如果追求响应时间,则数据可存储在硬盘的内道,如果追求大的吞吐量,则数据应存储在硬盘的外道;

在这里插入图片描述在这里插入图片描述

注意:一个弧道被划分成多个段,每一个段就是一个扇区

2、磁盘访问

  SATA硬盘实现的是串行ATA协议,ATA下盘命令中记录有LBA(Logic Block Address)起始地址和扇区数;LBA地址实际上是一个ATA协议逻辑地址,硬盘的固件会解析收到的ATA命令,并将要访问的LBA地址映射至某个磁道中的某个物理块即扇区。操作系统暂可认为LBA地址就是硬盘的物理地址。

3、扇区

  硬盘的基本访问单位,扇区的大小一般是512B(对于现在的有些磁盘的扇区>512B,比如光盘的一个扇区就是2048B,Linux将其看成4个扇区,无非就是需要完成4次的读写)。

4、块

扇区是硬件传输数据的基本单位,硬件一次传输一个扇区的数据到内存中。但是和扇区不同的是,块是虚拟文件系统传输数据的基本单位。在Linux中,块的大小必须是2的幂,但是不能超过一个页的大小(4k)。(在X86平台,一个页的大小是4094个字节,所以块大小可以是512,1024,2048,4096)

5、段

  主要为了做scatter/gather DMA操作使用,同一个物理页面中的在硬盘存储介质上连续的多个块组成一个段。段的大小只与块有关,必须是块的整数倍。所以块通常包括多个扇区,段通常包括多个块,物理段通常包括多个段;段在内核中由结构struct bio_vec来描述,多个段的信息存放于struct bio结构中的bio_io_vec指针数组中,段数组在后续的块设备处理流程中会被合并成物理段,段结构定义如下:

struct bio_vec { struct page *bv_page; // 段所在的物理页面结构,即bh->b_page unsigned int bv_len; // 段的字节数,即bh->b_size unsigned int bv_offset; // 段在bv_page页面中的偏移,即bh->b_data };6、文件块

  大小定义和文件系统块一样;只是相对于文件的一个偏移逻辑块,需要通过具体文件系统中的此文件对应的inode所记录的间接块信息,换算成对应的文件系统块;此做法是为了将一个文件的内容存于硬盘的不同位置,以提高访问速度;即一个文件的内容在硬盘是一般是不连续的;EXT2中,ext2_get_block()完成文件块到文件系统块的映射。

7、总结

扇区由磁盘的物理特性决定;块缓冲区由内核代码决定;块由缓冲区决定,是块缓冲区大小的整数倍(但是不能超过一个页)。三者关系如下:

在这里插入图片描述在这里插入图片描述

所以:扇区(512)≤块≤页(4096) 块=n*扇区(n为整数) 注意:段(struct bio_vec{})由多个块组成,一个段就是一个内存页(如果一个块是两个扇区大小,也就是1024B,那么一个段的大小可以是1024,2018,3072,4096,也就是说段的大小只与块有关,而且是整数倍)。Linux系统一次读取磁盘的大小是一个块,而不是一个扇区,块设备驱动由此得名。

二、块设备处理过程1、linux 内核中,块设备将数据存储与固定的大小的块中,每个块都有自己的固定地址。Linux内核中块设备和其他模块的关系如下。在这里插入图片描述在这里插入图片描述1、块设备的处理过程涉及Linux内核中的很多模块,下面简单描述之间的处理过过程。

  (1)当一个用户程序要向磁盘写入数据时,会发出write()系统调用给内核。   (2)内核会调用虚拟文件系统相应的函数,将需要写入发文件描述符和文件内容指针传递给该函数。   (3)内核需要确定写入磁盘的位置,通过映射层知道需要写入磁盘的哪一块。   (4)根据磁盘的文件系统的类型,调用不同文件格式的写入函数,将数据发送给通用块层(比如ext2和ext3文件系统的写入函数是不同的,这些函数由内核开发者实现,驱动开发者不用实现这类函数)   (5)数据到达通用块层后,就对块设备发出写请求。内核利用通用块层的启动I/O调度器,对数据进行排序。   (6)同用块层下面是"I/O调度器"。调度器作用是把物理上相邻的读写合并在一起,这样可以加快访问速度。   (7)最后快设备驱动向磁盘发送指令和数据,将数据写入磁盘。

三、基本概念1、块设备(block device)

  是一种具有一定结构的随机存取设备,对这种设备的读写是按块进行的,他使用缓冲区来存放暂时的数据,待条件成熟后,从缓存一次性写入设备或者从设备一次性读到缓冲区。

2、字符设备(Character device)

  是一个顺序的数据流设备,对这种设备的读写是按字符进行的,而且这些字符是连续地形成一个数据流。他不具备缓冲区,所以对这种设备的读写是实时的。

在这里插入图片描述在这里插入图片描述3、架构分析(1)struct bio

  当一个进程被Read时,首先读取cache 中有没有相应的文件,这个cache由一个buffer_head结构读取。如果没有,文件系统就会利用块设备驱动去读取磁盘扇区的数据。于是read()函数就会初始化一个bio结构体,并提交给通用块层。通常用一个bio结构体来对应一个I/O请求。 (1-1)内核结构如下:

struct bio { sector_t bi_sector; /* 要传输的第一个扇区 */ struct bio *bi_next; /* 下一个 bio */ struct block_device*bi_bdev; unsigned long bi_flags; /* 状态、命令等 */ unsigned long bi_rw; /* 低位表示 READ/WRITE,高位表示优先级*/ unsigned short bi_vcnt; /* bio_vec 数量 */ unsigned short bi_idx; /* 当前 bvl_vec 索引 */ /* 执行物理地址合并后 sgement 的数目 */ unsigned short bi_phys_segments; unsigned int bi_size; /* 为了明了最大的 segment 尺寸,我们考虑这个 bio 中第一个和最后一个 可合并的 segment 的尺寸 */ unsigned int bi_hw_front_size; unsigned int bi_hw_back_size; unsigned int bi_max_vecs; /* 我们能持有的最大 bvl_vecs 数 */ unsigned int bi_comp_cpu; /* completion CPU */ struct bio_vec *bi_io_vec; /* 实际的 vec 列表 */ bio_end_io_t *bi_end_io; atomic_t bi_cnt; void *bi_private; #if defined(CONFIG_BLK_DEV_INTEGRITY) struct bio_integrity_payload *bi_integrity; /* 数据完整性 */ #endif bio_destructor_t *bi_destructor; /* 析构 */ };

(1-2)bio的核心是一个被称为bi_io_vec的数组,它由bio_vec组成(也就是说bio由许多bio_vec组成)。内核定义如下:

struct bio_vec { struct page *bv_page; /* 页指针 */ unsigned int bv_len; /* 传输的字节数 */ unsigned int bv_offset; /* 偏移位置 */ };

  bio_vec描述一个特定的片段,片段所在的物理页,块在物理页中的偏移页,整个bio_io_vec结构表示一个完整的缓冲区。当一个块被调用内存时,要储存在一个缓冲区,每个缓冲区与一个块对应,所以每一个缓冲区独有一个对应的描述符,该描述符用buffer_head结构表示:

struct buffer_head { unsigned long b_state; /* buffer state bitmap (see above) */ struct buffer_head *b_this_page; /* circular list of page's buffers */ struct page *b_page; /* the page this bh is mapped to */ sector_t b_blocknr; /* start block number */ size_t b_size; /* size of mapping */ char *b_data; /* pointer to data within the page */ struct block_device *b_bdev; bh_end_io_t *b_end_io; /* I/O completion */ void *b_private; /* reserved for b_end_io */ struct list_head b_assoc_buffers; /* associated with another mapping */ struct address_space *b_assoc_map; /* mapping this buffer is associated with */ atomic_t b_count; /* users using this buffer_head */ };

(1-3)bio和buffer_head之间的使用关系 核心ll_rw_block函数:

void ll_rw_block(int rw, int nr, struct buffer_head *bhs[]) { int i; for (i = 0; i < nr; i ) { struct buffer_head *bh = bhs[i]; if (!trylock_buffer(bh)) continue; if (rw == WRITE) { if (test_clear_buffer_dirty(bh)) { bh->b_end_io = end_buffer_write_sync; get_bh(bh); submit_bh(WRITE, bh); continue; } } else { if (!buffer_uptodate(bh)) { bh->b_end_io = end_buffer_read_sync; get_bh(bh); submit_bh(rw, bh); continue; } } unlock_buffer(bh); } }

核心submit_bh()函数:

int submit_bh(int rw, struct buffer_head * bh) { struct bio *bio; int ret = 0; BUG_ON(!buffer_locked(bh)); BUG_ON(!buffer_mapped(bh)); BUG_ON(!bh->b_end_io); BUG_ON(buffer_delay(bh)); BUG_ON(buffer_unwritten(bh)); /* * Only clear out a write error when rewriting */ if (test_set_buffer_req(bh) && (rw & WRITE)) clear_buffer_write_io_error(bh); /* * from here on down, it's all bio -- do the initial mapping, * submit_bio -> generic_make_request may further map this bio around */ bio = bio_alloc(GFP_NOIO, 1); bio->bi_sector = bh->b_blocknr * (bh->b_size >> 9); bio->bi_bdev = bh->b_bdev; bio->bi_io_vec[0].bv_page = bh->b_page; bio->bi_io_vec[0].bv_len = bh->b_size; bio->bi_io_vec[0].bv_offset = bh_offset(bh); bio->bi_vcnt = 1; bio->bi_idx = 0; bio->bi_size = bh->b_size; bio->bi_end_io = end_bio_bh_io_sync; bio->bi_private = bh; bio_get(bio); submit_bio(rw, bio); if (bio_flagged(bio, BIO_EOPNOTSUPP)) ret = -EOPNOTSUPP; bio_put(bio); return ret; }

  这个函数主要是调用submit_bio,最终调用generic_make_request去完成将bio传递给驱动去处理。如下所示:

void generic_make_request(struct bio *bio) { struct bio_list bio_list_on_stack; if (!generic_make_request_checks(bio)) return; if (current->bio_list) { bio_list_add(current->bio_list, bio); return; } BUG_ON(bio->bi_next); bio_list_init(&bio_list_on_stack); current->bio_list = &bio_list_on_stack; do { struct request_queue *q = bdev_get_queue(bio->bi_bdev); q->make_request_fn(q, bio); bio = bio_list_pop(current->bio_list); } while (bio); current->bio_list = NULL; /* deactivate */ }

  这个函数主要是取出块设备相应的队列中的每个设备,在调用块设备驱动的make_request,如果没有指定make_request就调用内核默认的__make_request,这个函数主要作用就是调用I/O调度算法将bio合并,或插入到队列中合适的位置中去。

(2)struct request

------提交工作由submit_bio()去完成,通用层在调用相应的设备IO调度器,这个调度器的调度算法,将这个bio合并到已经存在的request中,或者创建一个新的request,并将创建的插入到请求队列中。最后就剩下块设备驱动层来完成后面的所有工作。(Linux系统中,对块设备的IO请求,都会向块设备驱动发出一个请求,在驱动中用request结构体描述) 内核结构如下:.

struct request { struct list_head queuelist; struct call_single_data csd; int cpu; struct request_queue *q; unsigned int cmd_flags; enum rq_cmd_type_bits cmd_type; unsigned long atomic_flags; /* 维护 I/O submission 的 BIO 遍历状态 * hard_开头的成员仅用于块层内部,驱动不应该改变它们 */ sector_t sector; /* 要提交的下一个 sector */ sector_t hard_sector; /* 要完成的下一个 sector */ unsigned long nr_sectors; /* 剩余需要提交的 sector 数 */ unsigned long hard_nr_sectors; /*剩余需要完成的 sector 数*/ /* 在当前 segment 中剩余的需提交的 sector 数 */ unsigned int current_nr_sectors; /*在当前 segment 中剩余的需完成的 sector 数 */ unsigned int hard_cur_sectors; struct bio *bio; struct bio *biotail; struct hlist_node hash; union { struct rb_node rb_node; /* sort/lookup */ void *completion_data; }; /* * I/O 调度器可获得的两个指针,如果需要更多,请动态分配*/ void *elevator_private; void *elevator_private2; struct gendisk *rq_disk; unsigned long start_time; /* scatter-gather DMA 方式下 addr+len 对的数量(执行物理地址合并后) */ unsigned short nr_phys_segments; unsigned short ioprio; void *special; char *buffer; int tag; int errors; int ref_count; unsigned short cmd_len; unsigned char __cmd[BLK_MAX_CDB]; unsigned char *cmd; unsigned int data_len; unsigned int extra_len; unsigned int sense_len; void *data; void *sense; unsigned long deadline; struct list_head timeout_list; unsigned int timeout; int retries; /* * 完成回调函数 */ rq_end_io_fn *end_io; void *end_io_data; struct request *next_rq; }; return 0; out_queue: unregister_blkdev(XXX_MAJOR, "xxx"); out: put_disk(xxx_disks); blk_cleanup_queue(xxx_queue); return -ENOMEM; }(3)请求队列初始化:

(3-1):请求队列数据结构

在这里插入图片描述在这里插入图片描述

(3-2):request_queue_t *blk_init_queue(request_fn_proc *rfn, spinlock_t *lock) 第一个参数是指向"请求处理函数"的指针,该函数直接和硬盘打交道,用来处理数据在内存和硬盘之间的传输。该函数整体的作用就是为了分配请求队列,并初始化。 (3-3):typedef void (request_fn_proc)(struct reqest_queue *q) 该函数作为上述函数(request_queue_t *blk_init_queue(request_fn_proc *rfn,spinlock_t *lock))的参数,主要作用就是处理请求队列中的bio,完成数据在内存和硬盘之间的传递。(注意:该函数参数中的bio都是经过i/o调度器的) (3-4):typedef int (make_request_fn)(struct request_queue *q,struct bio *bio) 该函数是的第一个参数是请求队列,第二个参数是bio,该函数的作用是根据bio生成一个request(所以叫制造请求函数)。 注意:在想不使用I/O调度器的时候,就应该在该函数中实现,对每一传入该函数的bio之间进行处理,完成数据在内存和硬盘的之间的传输,这样就可以不使用"request_fn_proc"函数了。(所以可以看出来,如果使用i/o调度器,make_request_fn函数是在request_fn_proc函数之前执行)

四、I/O调度器的使用与否1、背景

  I/O调度器看起来可以提高访问速度,但是这是并不是最快的,因为I/O调度过程会花费很多时间。最快的方式就是不使用I/O调度器 b:请求队列和I/O调度器   要脱离I/O调度器,就必须了解请求队列request_queue,因为I/O调度器和请求队列是绑定在一起的。其关系如下:

在这里插入图片描述在这里插入图片描述

  如上图所示,请求队列request_queue 中的elevator指针式指向I/O调度函数的。

2、通用块层函数调用关系(对bio的处理过程)

2-1:调用框图

在这里插入图片描述在这里插入图片描述

2-2:具体分析   (1)当需要读写一个数据的时候,通用块层,会根据用户空间的请求,生成一个bio结构体。   (2)准备好bio后,会调用函数generic_make_request()函数,函数原形如下: void generic_make_request(struct bio *bio)   (3)该函数会调用底层函数: static inline void _generic_make_request(struct bio *bio);   (4)到这里会分层两种情况:   第一种,调用请求队列中自己定义的make_request_fn()函数,那问题来了,系统怎么知道这个自己定义函数在哪里呢?由内核函数blk_queue_make_request()函数指定,函数原形:

void blk_queue_make_request(struct request_queue *q,make_request_fn *mfn);

  第二种,使用请求队列中系统默认__make_request()函数,函数原形“

static int __make_request(struct request_queue *q,struct bio *bio);

  该函数会启动I/O调度器,对bio进行调度处理,bio结构或被合并到请求队列的一个请求结构的request中。最后调用request_fn_proc()将数据写入或读出块块设备。

3、使用I/O调度器和不使用I/O调度器

3-1:不使用i/o调度器(blk_alloc_queue())   bio的流程完全由驱动开发人员控制,要达到这个目的,必须使用函数blk_alloc_queue()来申请请求队列,然后使用函数blk_queue_make_requset()给bio指定具有request_fn_proc()功能的函数Virtual_blkdev_make_request来完成数据在内存和硬盘之间的传输(该函数本来是用来将bio加入request中的)。

static int Virtual_blkdev_make_request(struct requset_queue *q,structb bio *bio) { //因为不使用I/O调度算法,直接在该函数中完成数据在内存和硬盘之间的数据传输,该函数 //代替了request_fn_proc()函数的功能 ............ } Virtual_blkdev_queue = blk_alloc_queue(GFP_KERNEL) if(!Virtual_blkdev_queue) { ret=-ENOMEN; goto err_alloc_queue; } blk_queue_make_request(Virtual_blkdev_queue,Virtual_blkdev_make_request);

3-2:使用i/o调度器(blk_init_queue())   bio先经过__make_request()函数,I/O调度器,和request_fn_proc()完成内存和硬盘之间的数据传输。该过程使用函数blk_init_queue()函数完成队列的初始化,并指定request_fn_proc():

struct request_queue* blk_inti_queue(request_fn_proc *rfn,spinlock_t *lock)五、在这里插入图片描述在这里插入图片描述1、块设备驱动加载过程

  (1)使用alloc_disk()函数分配通用磁盘gendisk的结构体。   (2)通过内核函数register_blkdev()函数注册设备,该过程是一个可选过程。 (也可以不用注册设备,驱动一样可以工作,该函数和字符设备的register_chrdev()函数相对应,对于大多数的块设备,第一个工作就是相内核注册自己,但是在Linux2.6以后,register_blkdev()函数的调用变得可选,内核中register_blkdev()函数的功能正在逐渐减少。基本上就只有如下作用: 1)分局major分配一个块设备号 2)在/proc/devices中新增加一行数据,表示块设备的信息)   (3)根据是否需要I/O调度,将情况分为两种情况,一种是使用请求队列进行数据传输,一种是不使用请求队列进行数据传输。   (4)初始化gendisk结构体的数据成员,包括major,fops,queue等赋初值。   (5)使用add_disk()函数激活磁盘设备(当调用该函数后就可以对磁盘进行操作(访问),所以调用该函数之前必须所有的准备工作就绪)

2、块设备驱动卸载过程在这里插入图片描述在这里插入图片描述

  (1)使用del_gendisk()函数删除gendisk设备,并使用put_disk()删除对gendisk设备的引用;   (2)使用blk_clean_queue()函数清楚请求队列,并释放请求队列所占用的资源。   (3)如果在模块加载函数中使用register_blkdev()注册设备,那么就需要调用unregister_blkdev()函数注销设备并释放对设备的引用。

六、块设备驱动代码示例(不使用I/O调度器)在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

制造请求函数(在这里完成数据的读写)

在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

卸载函数

在这里插入图片描述在这里插入图片描述


【本文地址】


今日新闻


推荐新闻


    CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3