**前言:**本篇意在记录本学期结束的 *** 作系统课程设计pintos project1实验报告和实现过程。整个实验参考了多篇文章也查阅了一些代码,其中部分内容或与其他文章相同,还请见谅。同时,也为了测试CSDN的文章发布功能,为后续的在线文档撰写提供参考。
第一部分 项目概述 一、Pintos简介Pintos是一个基于80x86架构的简单 *** 作系统框架,它支持内核级线程、能够加载和运行用户程序,也拥有文件系统,不过,这些功能均以一种简单的形式实现。
二、项目要求 1、项目一 线程管理在这一项目中,我们需要进行三部分的改进,以实现如下功能:
第一部分:重新实现timer_sleep ()函数,以避免线程在就绪和运行状态间的不停切换。第二部分:实现优先级调度第三部分:实现多级反馈调度
最终目标:使该项目的27个检测点全部通过。
三、环境搭建与配置1、在VMware Workstation中安装Ubuntu 18.04LTS虚拟机,并进行基本的配置。
2、在终端运行安装Bochs Simulator命令
sudo apt-get install bochs
3、使用VIM打开/utils/pintos-gdb,并编辑GDBMACROS变量
GDBMACROS=/home/pisces/pintos-anon-master-f685123/src/utils/gdb-macros
4、使用VIM打开Makefile并将LOADLIBES变量名编辑为LDLIBS
LDLIBS = -lm
5、在/src/utils中输入make来编译utils
6、编辑/src/threads/Make.vars:将SIMULATOR的类型更改为bochs
SIMULATOR = --bochs
7、在/src/threads并运行来编译线程目录make
8、编辑/utils/pintos
(1)$sim变量的类型为bochs
$sim = "bochs" if !defined $sim;
(2)替换kernel.bin为完整路径
my $name = find_file ('/home/pisces/pintos-anon-master-f685123/src/threads/build/kernel.bin');
(3)替换loader.bin为完整路径
$name = find_file ("/home/pisces/pintos-anon-master-f685123/src/threads/build/loader.bin")
9、打开~/.bashrc并添加如下语句至最后一行
export PATH=/home/pisces/pintos-anon-master-f685123/src/utils:$PATH
10、重新打开终端输入source ~/.bashrc并运行
11、在Pintos下打开终端输入pintos run alarm-multiple会出现如下情形
12、在/threads/build下进行make并make check将会出现如下结果
此时,我们的环境就配置好了,由于项目一还未做修改,因此出现20个failed是正常情况。
第二部分 项目一 线程管理的实现 一、线程管理概述对于 alarm 系列测试来说,需要解决的是忙等问题,因此需要引入“线程三态模型”,将暂时不用的 线程挂起(yield CPU),可以提高系统的吞吐率。
对于 priority、preempt 系列测试来说,需要实现一个线程形式的“优先队列”数据结构来支持优先级调度,因此可以使用”堆“数据结构(heap)来实现,但是使用 O(n) 的扫描算法也可以通过测试,因此 以求简单实现和保证系统的吞吐量正常,使用普通的扫描算法来实现优先级调度。基本思想是,系统在 调度时,从 ready_list 中选择优先级最高的线程获得 CPU 的执行,线程死亡或被阻塞或有新线程加入 时,重新进行调度,并进行数据结构上的维护。
priority_donation 要解决的根本问题是“优先级翻转”问题,即低优先级的线程 可以比高优先级的线程先运行,产生一种类死锁的现象。因此,需要使用“信号量”(semaphore)、“条件变量”(condition)和锁(lock)等数据结构。基本思想是,信号量的等待队列应当设计为优先队列, 获取锁要考虑优先级捐赠情况,释放锁时要考虑抢占情况。
多级反馈队列 mlfqs 在实现浮点数运算后,根据官方给出的调度公式计算出 nice 以及 recent_cpu,同时对 timer.c 中的 timer_interrupt () 函数进行修改即可实现。
二、代码文件说明在项目一中将会用到如下文件和文件夹
(1)文件夹功能说明
(2)threads/ 文件夹中文件说明
(3)devices/ 文件夹中文件说明
线程管理这一项目的入手点是timer_sleep()函数,以下展示该函数的整体结构:
void timer_sleep(int64_t ticks) { int64_t start = timer_ticks(); //获取开始的时间 ASSERT(intr_get_level() == INTR_ON); while (timer_elapsed(start) < ticks) //查看当前时间是否小于设定的睡眠时间 thread_yield(); //将当前线程放入就绪队列,并调度下一个线程 }
在第5行中,首先获得了线程休眠的开始时间,timer_ticks()函数在获取时间的过程中采用了关中断保存程序状态字,而后开中断恢复程序状态字的办法以防止在执行过程中发生中断,由于后续程序也用到了开关中断的 *** 作,因此将在接下来进行介绍。
在第7行中,断言了当前中断的状态,确保中断是打开的状态。
接下来是重点部分,首先看timer_elapsed()函数,其整体结构如下:
int64_t timer_elapsed(int64_t then) { return timer_ticks() - then; }
我们可以看到这个函数实际是计算当前线程已经休眠的时间,它将结果返回至timer_sleep()函数后,利用while循环判断休眠时间是否已经达到ticks时间(这里的ticks时间是传入的拟休眠时间的局部变量,而不是全局变量系统启动后到现在的时间),如果没有达到,就将不停的进行thread_yield()。
thread_yield()函数的整体结构如下所示:
void thread_yield(void) { struct thread *cur = thread_current(); //获取当前页面的初始位置(指针指向开始) enum intr_level old_level; ASSERT(!intr_context()); old_level = intr_disable(); //关中断 if (cur != idle_thread) //如果当前线程不是空闲线程 list_push_back(&ready_list, &cur->elem); //把当前线程放入就绪队列 cur->status = THREAD_READY; //修改程序状态为就绪 schedule(); //调度下一个线程 intr_set_level(old_level); //开中断 }
(1)页面指针的获取
在第5行,cur指针通过调用thread_current()函数来获取指向页面初始位置的指针,由于该函数也进行了多级嵌套,在此仅简要描述一下函数功能实现的流程。首先,这一函数获取了esp寄存器的值,这一寄存器是指向栈顶的寄存器,为了获取指向页首的指针,我们知道Pintos中一页的大小是2的12次方,因此其做法就是将1这个数字在二进制下左移12位并取反后,再与esp寄存器中的值相与,即可获得页首指针。
(2)原子化 *** 作
所谓原子化 *** 作即为开篇所提到的关中断和开中断 *** 作,其分别由以下两个语句实现:
old_level = intr_disable(); //关中断 其他 *** 作 intr_set_level(old_level); //开中断
其基本实现步骤是利用堆栈的push和pop语句得到程序状态字寄存器的值,并利用CLI指令关中断,恢复时,将值mov进寄存器,并STI开中断。
(3)线程的切换
这一步骤体现在11-14行代码中,如果当前线程不是空闲线程,则把它加入就绪队列,加入的方式是通过指针的改变使其与前后的线程关联起来,形成一个队列,并将这一线程修改为就绪状态。
schedule()函数的实现是获取当前线程和即将要运行的线程,其中的prev = switch_threads(cur, next);语句利用纯汇编的方式将寄存器中的值改为指向下一线程的值,thread_schedule_tail(prev)函数将即将运行的线程标记为运行状态,并判断原先线程是否已经进入消亡的状态,如果是便顺便清空页表信息。由于这些 *** 作过于底层,对其的理解较为浅显,仅在此表明大意,暂不深入。
由此可以得知thread_yield()函数的作用便是将当前线程放入就绪队列,并调度下一线程。而timer_sleep()函数便是在限定的时间内,使运行的程序不停的放入就绪队列,从而达到休眠的目的。
当然这样去做的一大缺点,就是线程不断的在运行和就绪的状态来回切换,极大的消耗资源,由此我们将进行改进。
四、线程管理实现第一部分——timer_sleep()函数的重新实现 1、实现思想由于原本的timer_sleep()函数采用运行和就绪间切换的方法过于消耗CPU的资源,考虑到Pintos提供了线程阻塞这一模式(见下方线程状态结构体),因此我打算在线程结构体中加入一个用于记录线程睡眠时间的变量,通过利用Pintos的时钟中断(见下方时间中断函数),即每个tick将会执行一次,这样每次检测时将记录线程睡眠时间的变量自减1,当该变量为0时即可代表能够唤醒该线程,从而避免资源的过多开销。
线程状态结构体:
enum thread_status { THREAD_RUNNING, THREAD_READY, THREAD_BLOCKED, THREAD_DYING };
时间中断函数:
static void timer_interrupt(struct intr_frame *args UNUSED) { ticks++; thread_tick(); }2、实现步骤
(1)改写线程结构体,在结构体中增加记录线程睡眠时间的变量ticks_blocked
struct thread { tid_t tid; enum thread_status status; char name[16]; uint8_t *stack; int priority; struct list_elem allelem; int64_t ticks_blocked; //增加的变量->记录要阻塞的时间 struct list_elem elem; #ifdef USERPROG uint32_t *pagedir; #endif unsigned magic; };
(2)改写线程创建函数,增加记录线程睡眠时间的变量的赋初值 *** 作t->ticks_blocked = 0;
tid_t thread_create (const char *name, int priority, thread_func *function, void *aux) { struct thread *t; struct kernel_thread_frame *kf; struct switch_entry_frame *ef; struct switch_threads_frame *sf; tid_t tid; ASSERT (function != NULL); t = palloc_get_page (PAL_ZERO); if (t == NULL) return TID_ERROR; init_thread (t, name, priority); tid = t->tid = allocate_tid (); t->ticks_blocked = 0; //增加的初始化 *** 作 kf = alloc_frame (t, sizeof *kf); kf->eip = NULL; kf->function = function; kf->aux = aux; ef = alloc_frame (t, sizeof *ef); ef->eip = (void (*) (void)) kernel_thread; sf = alloc_frame (t, sizeof *sf); sf->eip = switch_entry; sf->ebp = 0; thread_unblock (t); return tid; }
(3)改写timer_sleep()函数,获取当前的要阻塞的线程,为其设置阻塞时间,并调用Pintos的线程阻塞函数(要注意这一 *** 作不可被中断,因此要加入开关中断 *** 作)
void timer_sleep (int64_t ticks) { if (ticks <= 0) { return; } ASSERT (intr_get_level () == INTR_ON); enum intr_level old_level = intr_disable (); struct thread *current_thread = thread_current (); current_thread->ticks_blocked = ticks; //设置阻塞时间 thread_block (); //调用阻塞函数 intr_set_level (old_level); }
(4)在timer_interrupt()中加入thread_foreach (blocked_thread_check, NULL);以对所有被阻塞线程进行阻塞时间的计算
static void timer_interrupt (struct intr_frame *args UNUSED) { ticks++; thread_tick (); thread_foreach (blocked_thread_check, NULL); }
(5)实现blocked_thread_check()函数
在thread.h中声明:
void blocked_thread_check (struct thread *t, void *aux UNUSED);
在thread.c中实现:
实现逻辑即为如果这个线程处于阻塞态且阻塞时间还未结束,则减小其阻塞时间并判断当其不用再被阻塞,便调用Pintos函数thread_unblock()将线程放入就绪队列并更改为就绪态。
void blocked_thread_check (struct thread *t, void *aux UNUSED) { if (t->status == THREAD_BLOCKED && t->ticks_blocked > 0) { t->ticks_blocked--; if (t->ticks_blocked == 0) { thread_unblock(t); } } }
至此timer_sleep()的唤醒机制便编写完成了。
3、实现结果此时,在/threads/build重新make check的结果如下所示:
五、线程管理实现第二部分——优先级调度的实现 1、保证插入线程至就绪队列时保持优先级队列(1)实现思路:
由于Pintos预置函数list_insert_ordered()的存在,可以直接使用这个函数实现线程插入时按照优先级完成,因此只需要将涉及直接在末尾插入线程的函数中的语句进行替换即可。
(2)实现步骤:
实现一个优先级比较函数thread_cmp_priority():
bool thread_cmp_priority (const struct list_elem *a, const struct list_elem *b, void *aux UNUSED) { return list_entry(a, struct thread, elem)->priority > list_entry(b, struct thread, elem)->priority; }
调用Pintos预置函数list_insert_ordered()替换thread_unblock()、init_thread()、thread_yield()中的list_push_back()函数:
void thread_unblock (struct thread *t) { enum intr_level old_level; ASSERT (is_thread (t)); old_level = intr_disable (); ASSERT (t->status == THREAD_BLOCKED); list_insert_ordered (&ready_list, &t->elem, (list_less_func *) &thread_cmp_priority, NULL); t->status = THREAD_READY; intr_set_level (old_level); }
static void init_thread (struct thread *t, const char *name, int priority) { enum intr_level old_level; ASSERT (t != NULL); ASSERT (PRI_MIN <= priority && priority <= PRI_MAX); ASSERT (name != NULL); memset (t, 0, sizeof *t); t->status = THREAD_BLOCKED; strlcpy (t->name, name, sizeof t->name); t->stack = (uint8_t *) t + PGSIZE; t->priority = priority; t->magic = THREAD_MAGIC; old_level = intr_disable (); list_insert_ordered (&all_list, &t->allelem, (list_less_func *) &thread_cmp_priority, NULL); intr_set_level (old_level); }
void thread_yield (void) { struct thread *cur = thread_current (); enum intr_level old_level; ASSERT (!intr_context ()); old_level = intr_disable (); if (cur != idle_thread) list_insert_ordered (&ready_list, &cur->elem, (list_less_func *) &thread_cmp_priority, NULL); cur->status = THREAD_READY; schedule (); intr_set_level (old_level); }
(3)测试结果:
alarm_priority测试顺利通过!
2、优先级机制的继续改进(1)思路与实现步骤
根据Pintos给到的测试用例来看,我们可以知道,当一个线程的优先级被改变,则需要立即考虑所有线程根据优先级的排序,因此需要在设置优先级函数thread_set_priority()中加入thread_yield ()函数以确保每次修改线程优先级后立刻对就绪队列的线程进行重新排序。另外,还需要考虑创建线程时的特殊情况,如果创建的线程优先级高于正在运行的线程的优先级,则需要将正在运行的线程加入就绪队列,并且使新建线程准备运行。代码如下:
void thread_set_priority (int new_priority) { thread_current ()->priority = new_priority; thread_yield (); //加入线程按照优先级排序函数的调用 }
tid_t thread_create (const char *name, int priority, thread_func *function, void *aux) { struct thread *t; struct kernel_thread_frame *kf; struct switch_entry_frame *ef; struct switch_threads_frame *sf; tid_t tid; ASSERT (function != NULL); t = palloc_get_page (PAL_ZERO); if (t == NULL) return TID_ERROR; init_thread (t, name, priority); tid = t->tid = allocate_tid (); t->ticks_blocked = 0; kf = alloc_frame (t, sizeof *kf); kf->eip = NULL; kf->function = function; kf->aux = aux; ef = alloc_frame (t, sizeof *ef); ef->eip = (void (*) (void)) kernel_thread; sf = alloc_frame (t, sizeof *sf); sf->eip = switch_entry; sf->ebp = 0; thread_unblock (t); //不考虑当前运行的进程,新进程在就绪队列中按照优先级排序 //新加入的语句 if (thread_current ()->priority < priority) { thread_yield ();//如果当前运行进程优先级还是小于新进程,则要把当前运行进程放入就绪队列 //由于当前运行进程优先级已经是最高的了,而新创建进程优先级还高的话说明此时新进程优先级最高,则要把它进行执行 } return tid; }
(2)测试结果:
priority_change、priority_fifo和priority_preempt均已通过测试!
3、通过其他优先级测试程序的具体实现(1)实现思路:
priority-donate-one测试用例表明,如果一个线程在获取锁时发现另一个比自己优先级更低的线程已经拥有相同的锁,那么这个线程将会捐赠自己的优先级给另一个线程,即提升另一个线程的优先级与自己相同。
priority-donate-multiple与priority-donate-multiple2测试用例表明,在恢复线程捐赠后的优先级时,也要考虑其他线程对这个线程的捐赠情况,即需要提供一个数据结果来记录给这个线程捐赠优先级的所有线程。
priority-donate-nest测试用例表明,优先级捐赠可以是递归的,因而需要数据结果记录线程正在等待哪个另外线程释放锁。
priority-donate-lower测试用例表明,如果线程处于捐赠状态,在修改时线程优先级依然是被捐赠的优先级,但释放锁后线程的优先级变成了修改后的优先级。
priority-sema和priority-condvar测试用例表明,需要将信号量的等待队列实现为优先级队列,同时也要将condition的waiters队列实现为优先级队列。
priority-donate-chain测试用例表明,释放锁后如果线程没有被捐赠,则需要立即恢复原来的优先级。
(2)实现步骤:
在thread结构体中加入记录基本优先级、记录线程持有锁和记录线程等待锁的数据结构:
struct thread { ... int base_priority; struct list locks; struct lock *lock_waiting; ... }
将上述数据结构在init_thread中初始化:
static void init_thread (struct thread *t, const char *name, int priority) { ... t->base_priority = priority; list_init (&t->locks); t->lock_waiting = NULL; ... }
在lock结构体中加入记录捐赠和记录最大优先级的数据结构:
struct lock { ... struct list_elem elem; int max_priority; };
修改synch.c中的lock_acquire函数,使其能够以循环的方式实现递归捐赠,并通过修改锁的max_priority成员,再通过thread_update_priority函数更新优先级来实现优先级捐赠:
void lock_acquire (struct lock *lock) { struct thread *current_thread = thread_current (); struct lock *l; enum intr_level old_level; ASSERT (lock != NULL); ASSERT (!intr_context ()); ASSERT (!lock_held_by_current_thread (lock)); if (lock->holder != NULL && !thread_mlfqs) { current_thread->lock_waiting = lock; l = lock; while (l && current_thread->priority > l->max_priority) { l->max_priority = current_thread->priority; thread_donate_priority (l->holder); l = l->holder->lock_waiting; } }
实现thread_donate_priority和lock_cmp_priority,以达到对线程优先级的更新和在队列中位置的重新排布:
void thread_donate_priority (struct thread *t) { enum intr_level old_level = intr_disable (); thread_update_priority (t); if (t->status == THREAD_READY) { list_remove (&t->elem); list_insert_ordered (&ready_list, &t->elem, thread_cmp_priority, NULL); } intr_set_level (old_level); }
bool lock_cmp_priority (const struct list_elem *a, const struct list_elem *b, void *aux UNUSED) { return list_entry (a, struct lock, elem)->max_priority > list_entry (b, struct lock, elem)->max_priority; }
实现thread_hold_the_lock和lock_cmp_priority,以达到对线程拥有锁的记录,同时根据锁记录的线程最大优先级更新当前线程的优先级并重新调度:
void thread_hold_the_lock(struct lock *lock) { enum intr_level old_level = intr_disable (); list_insert_ordered (&thread_current ()->locks, &lock->elem, lock_cmp_priority, NULL); if (lock->max_priority > thread_current ()->priority) { thread_current ()->priority = lock->max_priority; thread_yield (); } intr_set_level (old_level); }
bool lock_cmp_priority (const struct list_elem *a, const struct list_elem *b, void *aux UNUSED) { return list_entry (a, struct lock, elem)->max_priority > list_entry (b, struct lock, elem)->max_priority; }
修改lock_release函数,改变锁的释放行为,并实现thread_remove_lock:
void lock_release (struct lock *lock) { ASSERT (lock != NULL); ASSERT (lock_held_by_current_thread (lock)); //new code if (!thread_mlfqs) thread_remove_lock (lock); lock->holder = NULL; sema_up (&lock->semaphore); }
void thread_remove_lock (struct lock *lock) { enum intr_level old_level = intr_disable (); list_remove (&lock->elem); thread_update_priority (thread_current ()); intr_set_level (old_level); }
实现thread_update_priority,该函数实现释放锁时优先级的变化,如果当前线程还有锁,则获取其拥有锁的max_priority,如果它大于base_priority则更新被捐赠的优先级:
void thread_update_priority (struct thread *t) { enum intr_level old_level = intr_disable (); int max_priority = t->base_priority; int lock_priority; if (!list_empty (&t->locks)) { list_sort (&t->locks, lock_cmp_priority, NULL); lock_priority = list_entry (list_front (&t->locks), struct lock, elem)->max_priority; if (lock_priority > max_priority) max_priority = lock_priority; } t->priority = max_priority; intr_set_level (old_level); }
修改thread_set_priority函数,完成对新优先级的变换:
void thread_set_priority (int new_priority) { if (thread_mlfqs) return; enum intr_level old_level = intr_disable (); struct thread *current_thread = thread_current (); int old_priority = current_thread->priority; current_thread->base_priority = new_priority; if (list_empty (¤t_thread->locks) || new_priority > old_priority) { current_thread->priority = new_priority; thread_yield (); } intr_set_level (old_level); }
接下来实现sema和condvar这两个优先队列,修改cond_signal函数,声明并实现比较函数cond_sema_cmp_priority:
void cond_signal (struct condition *cond, struct lock *lock UNUSED) { ASSERT (cond != NULL); ASSERT (lock != NULL); ASSERT (!intr_context ()); ASSERT (lock_held_by_current_thread (lock)); if (!list_empty (&cond->waiters)) { list_sort (&cond->waiters, cond_sema_cmp_priority, NULL); sema_up (&list_entry (list_pop_front (&cond->waiters), struct semaphore_elem, elem)->semaphore); } }
bool cond_sema_cmp_priority (const struct list_elem *a, const struct list_elem *b, void *aux UNUSED) { struct semaphore_elem *sa = list_entry (a, struct semaphore_elem, elem); struct semaphore_elem *sb = list_entry (b, struct semaphore_elem, elem); return list_entry(list_front(&sa->semaphore.waiters), struct thread, elem)->priority > list_entry(list_front(&sb->semaphore.waiters), struct thread, elem)->priority; }
最后把信号量的等待队列实现为优先级队列:
void sema_up (struct semaphore *sema) { enum intr_level old_level; ASSERT (sema != NULL); old_level = intr_disable (); if (!list_empty (&sema->waiters)) { list_sort (&sema->waiters, thread_cmp_priority, NULL); thread_unblock (list_entry (list_pop_front (&sema->waiters), struct thread, elem)); } sema->value++; thread_yield (); intr_set_level (old_level); }
void sema_down (struct semaphore *sema) { enum intr_level old_level; ASSERT (sema != NULL); ASSERT (!intr_context ()); old_level = intr_disable (); while (sema->value == 0) { list_insert_ordered (&sema->waiters, &thread_current ()->elem, thread_cmp_priority, NULL); thread_block (); } sema->value--; intr_set_level (old_level); }
(3)实现结果:
至此关于优先级的测试案例就全部通过了!
六、线程管理实现第三部分——多级反馈调度的实现 1、实现思路根据官方实验指导Pintos Projects: 4.4BSD Scheduler (neu.edu)的说明,需要实现维持64个队列的优先级,同时需要一些计算公式来计算当前优先级,计算公式如下图:
因此需要在timer_interrupt函数中固定时间更新优先级,每4个ticks更新一次, 同时保证recent_cpu自增1。
2、实现过程:(1)实现运算逻辑:新建fixed_point.h文件,并按照计算公式编写运算程序
#ifndef __THREAD_FIXED_POINT_H #define __THREAD_FIXED_POINT_H typedef int fixed_t; #define FP_SHIFT_AMOUNT 16 #define FP_CONST(A) ((fixed_t)(A << FP_SHIFT_AMOUNT)) #define FP_ADD(A,B) (A + B) #define FP_ADD_MIX(A,B) (A + (B << FP_SHIFT_AMOUNT)) #define FP_SUB(A,B) (A - B) #define FP_SUB_MIX(A,B) (A - (B << FP_SHIFT_AMOUNT)) #define FP_MULT_MIX(A,B) (A * B) #define FP_DIV_MIX(A,B) (A / B) #define FP_MULT(A,B) ((fixed_t)(((int64_t) A) * B >> FP_SHIFT_AMOUNT)) #define FP_DIV(A,B) ((fixed_t)((((int64_t) A) << FP_SHIFT_AMOUNT) / B)) #define FP_INT_PART(A) (A >> FP_SHIFT_AMOUNT) #define FP_ROUND(A) (A >= 0 ? ((A + (1 << (FP_SHIFT_AMOUNT - 1))) >> FP_SHIFT_AMOUNT) : ((A - (1 << (FP_SHIFT_AMOUNT - 1))) >> FP_SHIFT_AMOUNT)) #endif
(2)修改timer_interrupt函数,实现每4个ticks更新一次, 同时保证recent_cpu自增1的要求:
static void timer_interrupt (struct intr_frame *args UNUSED) { ticks++; thread_tick (); thread_foreach (blocked_thread_check, NULL); //new code if (thread_mlfqs) { mlfqs_inc_recent_cpu(); if (ticks % TIMER_FREQ == 0) mlfqs_update_load_avg_and_recent_cpu(); else if (ticks % 4 == 0) mlfqs_update_priority(thread_current()); } }
(3)实现recent_cpu自增函数
void mlfqs_inc_recent_cpu() { ASSERT(thread_mlfqs); ASSERT(intr_context()); struct thread *cur = thread_current(); if (cur == idle_thread) return; cur->recent_cpu = FP_ADD_MIX(cur->recent_cpu, 1); }
(4)实现mlfqs_update_load_avg_and_recent_cpu函数
void mlfqs_update_load_avg_and_recent_cpu() { ASSERT(thread_mlfqs); ASSERT(intr_context()); size_t ready_cnt = list_size(&ready_list); if (thread_current() != idle_thread) ++ready_cnt; load_avg = FP_ADD (FP_DIV_MIX (FP_MULT_MIX (load_avg, 59), 60), FP_DIV_MIX(FP_CONST(ready_cnt), 60)); struct thread *t; struct list_elem *e; for (e = list_begin(&all_list); e != list_end(&all_list); e = list_next(e)) { t = list_entry(e, struct thread, allelem); if (t != idle_thread) { t->recent_cpu = FP_ADD_MIX (FP_MULT (FP_DIV (FP_MULT_MIX (load_avg, 2), FP_ADD_MIX (FP_MULT_MIX (load_avg, 2), 1)), t->recent_cpu), t->nice); mlfqs_update_priority(t); } } }
(5)实现mlfqs_update_priority函数
void mlfqs_update_priority(struct thread *t) { ASSERT(thread_mlfqs); if (t == idle_thread) return; t->priority = FP_INT_PART (FP_SUB_MIX (FP_SUB (FP_CONST (PRI_MAX), FP_DIV_MIX (t->recent_cpu, 4)), 2 * t->nice)); if (t->priority < PRI_MIN) t->priority = PRI_MIN; else if (t->priority > PRI_MAX) t->priority = PRI_MAX; }
(6)在thread结构体中加入成员并在init_thread中初始化:
struct thread { ... int nice; fixed_t recent_cpu; ... }
static void init_thread (struct thread *t, const char *name, int priority) { ... t->nice = 0; t->recent_cpu = FP_CONST (0); ... }
(7)在thread.c中声明全局变量load_avg:
fixed_t load_avg;
(8)在thread_start中初始化load_avg:
void thread_start (void) { load_avg = FP_CONST (0); ... }
(9)在thread.h中包含浮点运算头文件:
#include "fixed_point.h"
(10)在thread.c中修改thread_set_nice、thread_get_nice、thread_get_load_avg、thread_get_recent_cpu函数:
void thread_set_nice (int nice UNUSED) { thread_current()->nice = nice; mlfqs_update_priority(thread_current()); thread_yield(); } int thread_get_nice (void) { return thread_current()->nice; } int thread_get_load_avg (void) { return FP_ROUND (FP_MULT_MIX (load_avg, 100)); } int thread_get_recent_cpu (void) { return FP_ROUND (FP_MULT_MIX (thread_current()->recent_cpu, 100)); }3、实现结果:
至此,27个测试均已通过,项目一全部完成。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)