[自制操作系统] 第15回 实现内核线程

目录
一、前景回顾
二、线程的实现
三、线程的切换
四、运行测试

 

一、前景回顾

  上一回我们实现了内存管理系统,说实话代码还是比较多,看起来还是比较头疼的,不过为了知识这都是小事。这一节终于可以来实现我们的线程了,以前学操作系统的时候,听到的最多的就是什么线程,进程等,这一回我们来自己动手实现一下,加深对线程的理解。

二、线程的实现

  我相信能认真去看这篇博客的同学,不会是零基础。所以我也就不再深入地去讲解进程和线程的区别。这里我引入书中的话:

  线程是什么?具有能动性、执行力、独立的代码块。

  进程是什么?进程=线程+资源。

  先贴上代码,在project/kernel目录下新建list.c、list.h以及thread.c和thread.h文件。

[自制操作系统] 第15回 实现内核线程

  1 #include "list.h"   2 #include "interrupt.h"   3 #include "print.h"   4    5 void list_init(struct list*list)   6 {   7     list->head.prev = NULL;   8     list->head.next = &list->tail;   9     list->tail.prev = &list->head;  10     list->tail.next = NULL;  11 }  12   13 /*将链表元素elem插入到元素before之前*/  14 void list_insert_before(struct list_elem *before, struct list_elem *elem)  15 {  16     enum intr_status old_state = intr_disable();  17     before->prev->next = elem;  18     elem->prev = before->prev;  19       20     elem->next = before;  21     before->prev = elem;  22     intr_set_status(old_state);  23 }  24   25 /*添加元素到列表队首,类似栈push操作*/  26 void list_push(struct list *plist, struct list_elem *elem)  27 {  28     list_insert_before(plist->head.next, elem);//在队头插入elem  29 }  30   31 /*追加元素到链表队尾,类似队列的先进先出*/  32 void list_append(struct list *plist, struct list_elem *elem)  33 {  34     list_insert_before(&plist->tail, elem);  35 }  36   37 /*使元素pelem脱离链表*/  38 void list_remove(struct list_elem *elem)  39 {  40     enum intr_status old_state = intr_disable();  41     elem->prev->next = elem->next;  42     elem->next->prev = elem->prev;  43     intr_set_status(old_state);  44 }  45   46   47 /*将链表第一个元素弹出并返回,类似栈的pop操作*/  48 struct list_elem *list_pop(struct list *plist)   49 {  50     struct list_elem *elem = plist->head.next;  51     list_remove(elem);  52     return elem;  53 }  54   55 /*从链表中查找元素obj_elem,成功返回true,失败返回false*/  56 bool elem_find(struct list *plist, struct list_elem *obj_elem)  57 {  58     struct list_elem *elem = plist->head.next;  59     while (elem != &plist->tail) {  60         if (elem == obj_elem) {  61             return true;  62         }  63         elem = elem->next;  64     }  65     return false;  66 }  67   68 /*返回链表长度*/  69 uint32_t list_len(struct list *plist)  70 {  71     struct list_elem *elem = plist->head.next;  72     uint32_t length = 0;  73     while (elem != &plist->tail) {  74         length++;  75         elem = elem->next;  76     }  77     return length;  78 }  79   80 /*判断链表是否为空,空时返回true,否则返回false*/  81 bool list_empty(struct list *plist)  82 {  83     return (plist->head.next == &plist->tail ? true : false);  84 }  85   86   87 /*把列表plist中的每个元素elem和arg传给回调函数func*/  88 struct list_elem *list_traversal(struct list *plist, function func, int arg)  89 {  90     struct list_elem *elem = plist->head.next;  91     //如果队列为空,就必然没有符合条件的节点,直接返回NULL  92     if (list_empty(plist)) {  93         return NULL;  94     }  95   96     while (elem != &plist->tail) {  97         if (func(elem, arg)) {  98             return elem;  99         } 100         elem = elem->next; 101     } 102     return NULL; 103 }

list.c

[自制操作系统] 第15回 实现内核线程

 1 #ifndef  __LIB_KERNEL_LIST_H  2 #define  __LIB_KERNEL_LIST_H  3 #include "stdint.h"  4   5 #define offset(struct_type, member) (int)(&((struct_type *)0)->member)  6 #define elem2entry(struct_type, struct_member_name, elem_ptr)   7         (struct_type *)((int)elem_ptr - offset(struct_type, struct_member_name))  8   9 struct list_elem { 10     struct list_elem *prev;  //前驱节点 11     struct list_elem *next;  //后继节点 12 }; 13  14 struct list { 15    struct list_elem head;   16    struct list_elem tail; 17 }; 18  19 typedef bool function(struct list_elem *, int arg); 20  21 struct list_elem *list_traversal(struct list *plist, function func, int arg); 22 bool list_empty(struct list *plist); 23 uint32_t list_len(struct list *plist); 24 bool elem_find(struct list *plist, struct list_elem *obj_elem); 25 struct list_elem *list_pop(struct list *plist) ; 26 void list_remove(struct list_elem *elem); 27 void list_append(struct list *plist, struct list_elem *elem); 28 void list_push(struct list *plist, struct list_elem *elem); 29 void list_insert_before(struct list_elem *before, struct list_elem *elem); 30 void list_init(struct list*list); 31  32 #endif

list.h

[自制操作系统] 第15回 实现内核线程

#include "thread.h" #include "string.h" #include "memory.h" #include "list.h" #include "interrupt.h" #include "debug.h" #include "print.h" #include "stddef.h"   struct task_struct *main_thread;         //主线程PCB struct list thread_ready_list;           //就绪队列 struct list thread_all_list;             //所有任务队列 static struct list_elem *thread_tag;     //用于保存队列中的线程节点 extern void switch_to(struct task_struct* cur, struct task_struct* next);   /*获取当前线程PCB指针*/ struct task_struct *running_thread(void) {     uint32_t esp;     asm volatile ("mov %%esp, %0" : "=g" (esp));      /*取esp整数部分,即PCB起始地址*/     return (struct task_struct *)(esp & 0xfffff000); }  /*由kernel_thread去执行function(func_arg)*/ static void kernel_thread(thread_func *function, void *func_arg) {     /*执行function前要开中断,避免后面的时钟中断被屏蔽,而无法调度其他线程*/     intr_enable();     function(func_arg); }  /*初始化线程PCB*/ void init_thread(struct task_struct *pthread, char *name, int prio) {     memset(pthread, 0, sizeof(*pthread));     strcpy(pthread->name, name);      /*由于main函数也封装成了一个线程,并且他是一直在运行的,所以将其直接设置为TASK_RUNNING*/     if (pthread == main_thread) {         pthread->status = TASK_RUNNING;     } else {         pthread->status = TASK_READY;     }     //pthread->status = TASK_RUNNING;     pthread->priority = prio;     pthread->ticks = prio;     pthread->elapsed_ticks = 0;     pthread->pgdir = NULL;     pthread->self_kstack = (uint32_t *)((uint32_t)pthread + PG_SIZE);     pthread->stack_magic = 0x19870916; }  void thread_create(struct task_struct *pthread, thread_func function, void *func_arg) {     pthread->self_kstack -= sizeof(struct intr_stack);     pthread->self_kstack -= sizeof(struct thread_stack);      //初始化线程栈     struct thread_stack *kthread_stack = (struct thread_stack *)pthread->self_kstack;     kthread_stack->eip = kernel_thread;     kthread_stack->function = function;     kthread_stack->func_arg = func_arg;     kthread_stack->ebp = kthread_stack->ebx = kthread_stack->edi = kthread_stack->esi = 0; }  /*创建一个优先级为prio的线程,线程名字为name,线程所执行的函数为function(func_arg)*/ struct task_struct *thread_start(char *name, int prio, thread_func function, void *func_arg) {     /*创建线程的pcb,大小为4kb*/     struct task_struct *thread = get_kernel_pages(1);     init_thread(thread, name, prio);     thread_create(thread, function, func_arg);      /*确保之前不在队列中*/     ASSERT(!elem_find(&thread_ready_list, &thread->general_tag));      /*加入就绪线程队列*/     list_append(&thread_ready_list, &thread->general_tag);      /*确保之前不在队列*/     ASSERT(!elem_find(&thread_all_list, &thread->all_list_tag));          /*加入全部线程队列*/     list_append(&thread_all_list, &thread->all_list_tag);      return thread; }  static void make_main_thread(void) {     main_thread = running_thread();     init_thread(main_thread, "main", 31);      /*main函数是当前线程,当前线程不在thread_ready_list,所以只能将其加在thread_all_list*/     ASSERT(!elem_find(&thread_all_list, &main_thread->all_list_tag));     list_append(&thread_all_list, &main_thread->all_list_tag); }  /*实现任务调度*/ void schedule(void) {     //put_str("schedulen");     ASSERT(intr_get_status() == INTR_OFF);     struct task_struct *cur = running_thread();     if (cur->status == TASK_RUNNING) {         ASSERT(!elem_find(&thread_ready_list, &cur->general_tag));         list_append(&thread_ready_list, &cur->general_tag);         cur->ticks = cur->priority;         cur->status = TASK_READY;     } else {         /*阻塞等其他情况*/     }      ASSERT(!list_empty(&thread_ready_list));     thread_tag = NULL;     thread_tag = list_pop(&thread_ready_list);          struct task_struct *next = elem2entry(struct task_struct, general_tag, thread_tag);     next->status = TASK_RUNNING;     switch_to(cur, next); }  /*初始化线程环境*/ void thread_init(void) {     put_str("thread_init startn");     list_init(&thread_ready_list);     list_init(&thread_all_list);     /*将当前main函数创建为线程*/     make_main_thread();     put_str("thread_init donen"); }

thread.c

[自制操作系统] 第15回 实现内核线程

#ifndef  __KERNEL_THREAD_H #define  __KERNEL_THREAD_H #include "stdint.h" #include "list.h" #include "memory.h"  /*自定义通用函数类型,它将在很多线程函数中作为形参类型*/ typedef void thread_func (void *); #define PG_SIZE 4096 /*进程或线程的状态*/ enum task_status {     TASK_RUNNING,     TASK_READY,     TASK_BLOCKED,     TASK_WAITING,     TASK_HANGING,     TASK_DIED };  /****************中断栈intr_stack****************/ struct intr_stack {     uint32_t vec_no;     uint32_t edi;     uint32_t esi;     uint32_t ebp;     uint32_t esp_dummy;     uint32_t ebx;     uint32_t edx;     uint32_t ecx;     uint32_t eax;     uint32_t gs;     uint32_t fs;     uint32_t es;     uint32_t ds;  /*以下由cpu从低特权级进入高特权级时压入*/     uint32_t err_code;     void (*eip)(void);     uint32_t cs;     uint32_t eflags;     void *esp;     uint32_t ss; };  /***************线程栈thread_stack**********/ struct thread_stack  {     uint32_t ebp;     uint32_t ebx;     uint32_t edi;     uint32_t esi;      void (*eip) (thread_func *func, void *func_arg);     void (*unused_retaddr);     thread_func *function;     void *func_arg; };  /************进程或者线程的pcb,程序控制块**********/ struct task_struct {     uint32_t *self_kstack;    //每个内核线程自己的内核栈     enum task_status status;     uint8_t priority;          char name[16];     uint8_t ticks;            //每次在处理器上执行的时间滴答数      /*此任务自从上CPU运行至今占用了多少滴答数,也就是这个任务执行了多久时间*/     uint32_t elapsed_ticks;      /*general_tag的作用是用于线程在一般的队列中的节点*/     struct list_elem general_tag;      /*all_list_tag的作用是用于线程thread_all_list的节点*/     struct list_elem all_list_tag;      uint32_t *pgdir;//进程自己页表的虚拟地址      uint32_t stack_magic; };  void schedule(void); struct task_struct *running_thread(void); static void kernel_thread(thread_func *function, void *func_arg); void init_thread(struct task_struct *pthread, char *name, int prio); void thread_create(struct task_struct *pthread, thread_func function, void *func_arg); struct task_struct *thread_start(char *name, int prio, thread_func function, void *func_arg); static void make_main_thread(void); void thread_init(void);  #endif

thread.h

  不过我并不建议现在就去看代码,我当时看这一章看得云里雾里,后面捋了好久,现在希望你能跟着我的思路从宏观上了解线程的创建,再回去掐细节就很好理解了。

  首先,我们先定义PCB结构,PCB结构由中断栈、线程栈和task_struct组成:

[自制操作系统] 第15回 实现内核线程

 1 /****************中断栈intr_stack****************/  2 struct intr_stack {  3     uint32_t vec_no;  4     uint32_t edi;  5     uint32_t esi;  6     uint32_t ebp;  7     uint32_t esp_dummy;  8     uint32_t ebx;  9     uint32_t edx; 10     uint32_t ecx; 11     uint32_t eax; 12     uint32_t gs; 13     uint32_t fs; 14     uint32_t es; 15     uint32_t ds; 16  17 /*以下由cpu从低特权级进入高特权级时压入*/ 18     uint32_t err_code; 19     void (*eip)(void); 20     uint32_t cs; 21     uint32_t eflags; 22     void *esp; 23     uint32_t ss; 24 }; 25  26 /***************线程栈thread_stack**********/ 27 struct thread_stack  28 { 29     uint32_t ebp; 30     uint32_t ebx; 31     uint32_t edi; 32     uint32_t esi; 33  34     void (*eip) (thread_func *func, void *func_arg); 35     void (*unused_retaddr); 36     thread_func *function; 37     void *func_arg; 38 }; 39  40 /************进程或者线程的pcb,程序控制块**********/ 41 struct task_struct 42 { 43     uint32_t *self_kstack;     //每个内核线程自己的内核栈                44     enum task_status status;   //线程或进程状态 45     uint8_t priority;          //线程或进程状态 46      47     char name[16];             //线程或进程名称 48     uint8_t ticks;            //每次在处理器上执行的时间滴答数 49  50     /*此任务自从上CPU运行至今占用了多少滴答数,也就是这个任务执行了多久时间*/ 51     uint32_t elapsed_ticks; 52  53     /*general_tag的作用是用于线程在一般的队列中的节点*/ 54     struct list_elem general_tag; 55  56     /*all_list_tag的作用是用于线程thread_all_list的节点*/ 57     struct list_elem all_list_tag; 58  59     uint32_t *pgdir;                //进程自己页表的虚拟地址 60   61     uint32_t stack_magic;           //魔数 边缘检测使用 62 };

PCB

  有了PCB,那么如何实现线程呢?在Linux中提供创建线程的函数为:

  int pthread_create(pthread_t *id , pthread_attr_t *attr, void(*fun)(void*), void *arg);

  其中fun就是线程将要执行的函数,arg就是要往函数里面传递的参数。

  照猫画虎,我们也实现一个类似的函数,就叫做:

  struct task_struct *thread_start(char *name, int prio, thread_func function, void *func_arg);

  其中name表示线程名字,prio表示线程优先级,function表示线程将要执行的函数,func_arg表示传递给函数的参数。

  在这个函数中我们对线程PCB噼里啪啦进行初始化等一系列操作之后,最后在内存中出现了这么一块东西:

[自制操作系统] 第15回 实现内核线程

  PCB在内存中的结构如上图所示,从上往下,首先是intr_stack,中断栈,它的作用是什么呢?假设我们的线程被调度在CPU上运行,突然来了一个中断,这时CPU肯定不能马上转头去处理中断,需要先把线程当前的运行环境给保存下来,然后才去处理中断。保存在哪里呢?就保存在这个中断栈中,关于这部分后面章节还会详细讲到,这里先不管;随后是thread_stack,又叫线程栈,它的作用就是保存线程需要运行的函数以及传递给该函数的参数,可以看到eip指向的函数:kernel_thread(thread_func *, void *)就是我们最终线程需要去执行的函数。至于其他的几个参数,待会儿再说;最后是task_struct,它呢就是保存了线程的一些基本信息,比如线程名称、优先级、状态等等。

三、线程的切换

  线程是怎么切换的呢?或者换句话说,线程是怎么被调度上CPU,又怎么被调度下CPU的呢?这里就不卖关子了,还记得我们在线程的初始化中,有一个ticks的变量么?这个ticks变量在初始化时就被赋了一定的值。另一边,在我们的系统中开启了一个定时器中断,这个中断每隔一段时间就会进入中断处理函数,在中断处理函数中将当前线程的ticks减1,当ticks被减为0后就调用schedule函数将当前线程调下,将下一个就绪线程调度上CPU,否则便从中断处理函数返回继续执行当前线程的程序。

  现在线程的切换我们也讲完了,不过我想你可能还是迷迷糊糊,心想就这?我还是不懂嘛。

  不急,我们还是带入具体情况来一步一步分析。现在我们来假想这么一种情况,假如我们的线程A的ticks已经减为0,那么意味着线程A要被换下,而下一个线程B要被换上,让我们来看一下线程A是如何切换到线程B的。先来看看schedule()这个函数,schedule()定义在thread.c文件中,这个函数就是调度函数。

[自制操作系统] 第15回 实现内核线程

/*实现任务调度*/ void schedule(void) {     //put_str("schedulen");     ASSERT(intr_get_status() == INTR_OFF);     struct task_struct *cur = running_thread();     if (cur->status == TASK_RUNNING) {         ASSERT(!elem_find(&thread_ready_list, &cur->general_tag));         list_append(&thread_ready_list, &cur->general_tag);         cur->ticks = cur->priority;         cur->status = TASK_READY;     } else {         /*阻塞等其他情况*/     }      ASSERT(!list_empty(&thread_ready_list));     thread_tag = NULL;     thread_tag = list_pop(&thread_ready_list);          struct task_struct *next = elem2entry(struct task_struct, general_tag, thread_tag);     next->status = TASK_RUNNING;     switch_to(cur, next); }

schedule()

  首先修改当前要被换下的线程A的信息,将运行状态改为TASK_READY,重新赋值ticks,然后添加到就绪队列中去,供调度器下一次调度。随后利用list_pop函数,将下一个准备就绪的线程B从就绪队列中弹出,利用elem2entry函数得到线程B的PCB所在的地址,随后修改线程B的运行状态为TASK_RUNNING。此时线程B已经准备好了所有,就准备通过switch_to函数调度上CPU了。在project/kernel目录下新建名为switch.S的文件,在其中实现switch_to函数。

[自制操作系统] 第15回 实现内核线程

[bits 32] section .text global switch_to switch_to:     push esi            ;这里是根据ABI原则保护四个寄存器 放到栈里面     push edi     push ebx     push ebp          mov eax, [esp+20]    ;esp+20的位置是cur cur的pcb赋值给eax     mov [eax], esp       ;[eax]为pcb的内核栈指针变量 把当前环境的esp值记录下来          mov eax, [esp+24]     mov esp, [eax]       ;把要切换的线程的pcb 内核栈esp取出来      pop ebp     pop ebx     pop edi     pop esi     ret                 ;这里的返回地址为 kernel_thread的地址

switch.S

  关于这里为什么要连续通过四个push操作将esi、edi、ebx和ebp,以及后面新线程又要弹出这四个寄存器值,这是因为ABI的规定,这里不详细展开,想了解的话可以参考原书《操作系统真象还原》P411页。总之现在通过四个push操作后,此时线程A栈里的情况是这样:

[自制操作系统] 第15回 实现内核线程

  随后通过mov eax, [esp + 20],将cur所指向的地址保存在eax寄存器中,也就是将当前线程A的PCB地址赋给了eax寄存器。又通过mov [eax], esp指令,将当前线程A的esp存放于线程A的self_kstack中。随后通过

  mov eax, [esp+24]   

  mov esp, [eax]  

  这两行命令将线程B的esp指针加载到esp寄存器中。这样就完成了栈的切换。此时,请注意,由于栈已经发生变化了,现在是线程B的栈了,还记得前面说线程初始化后的那张内存分布图么,在这里:

[自制操作系统] 第15回 实现内核线程

 

  对于初始化好的线程B,它的PCB内存分布图就如上图所示。此时线程B的栈的情况:

  [自制操作系统] 第15回 实现内核线程

  接着看switch_to函数中的代码,我们还有下面一部分没有执行完。需要注意的是,栈已经发生变化了,所以接下来的pop操作都是针对线程B的栈,这里切忌不要搞错。所以我们可以看到,四个pop操作将ebp,ebx,edi和esi弹出到对应的寄存器中。随后调用ret指令,该指令的作用是将栈顶处的数据*eip弹到eip寄存器中并且使esp+4,也就是说cpu接下来将从eip寄存器所指向的地址开始执行,而我们事先已将线程的执行函数kernel_thread保存在*eip处。该函数实现如下:

[自制操作系统] 第15回 实现内核线程

/*由kernel_thread去执行function(func_arg)*/ static void kernel_thread(thread_func *function, void *func_arg) {     /*执行function前要开中断,避免后面的时钟中断被屏蔽,而无法调度其他线程*/     intr_enable();     function(func_arg); }

kernel_thread

  此时相当于是调用*eip所指向的函数,对于这个函数而言,栈中的情况如上右图所示。这时我们事先设置的unused_retaddr就起到作用了,对于被调函数而言,*unused_retaddr就相当于是返回地址,只不过我们的函数永远不会从这里返回。所以被调函数会从esp+4开始取值作为函数的输入参数。至此我们便完成了线程的切换过程。

  我们又来分析一下,线程在运行时,如果时间片用光了,要被从CPU上调度下去的过程:

  我们知道定时器在每次中断中,都会将当前线程的ticks减1,并且检测ticks是否为0,如果为0就调用schedule函数,也就是调度函数,也就回到了上面我们讲解schedule的地方了。关于内核线程在执行过程中,遇到中断后发生的压栈情况,读者可以参看第12回 实现中断代码。在这一回我详细地讲解了中断的压栈和出栈过程。

  所以,对于这部分代码,我建议读者先从调度函数schedule出发,理清楚思路后,就很好理解整个线程的实现以及调度了。需要说明的是,为什么叫内核线程呢?其实线程不应该有什么内核,用户之分的。确切地说应该是线程所处的运行态,就拿从本系列开始到本回合为止的代码来说,我们一直都是处于内核态的,也就是最高特权级0级下的,所以我们可以随意访问任意地址的内存。我想会有读者好奇我们现在实现的PCB中,有一块中断栈始终没有讲到,它其实就是给我们后面实现的用户态的线程所使用的。我们用户态下的线程如果需要被调度下CPU,首先需要通过定时器中断进入中断函数,完成3特权级到0特权级的转变。一旦发生中断,处理器会将线程的相关运行环境保存在0特权级下的栈中,这个0特权级的栈就是我们前面所构建的这个中断栈,因为不同特权级下所用的栈是不同的。所以它的作用在此,这里就不展开讲,等我们到后面的章节再细说。

四、运行测试

  将thread_init()加入到init.c中,修改main.c,在main.c中创建多个线程。除此之外还要修改makefile,time.c下的定时器中断函数。

[自制操作系统] 第15回 实现内核线程

#include "init.h" #include "print.h" #include "interrupt.h" #include "timer.h" #include "memory.h" #include "thread.h" #include "list.h"  void init_all(void) {     put_str("init_alln");     idt_init();     timer_init();     mem_init();     thread_init(); }

init.c

[自制操作系统] 第15回 实现内核线程

#include "print.h" #include "init.h" #include "memory.h" #include "thread.h" #include "list.h" #include "interrupt.h"  void k_thread_a(void *arg); void k_thread_b(void *arg);  int main(void) {     put_str("HELLO KERNELn");     init_all();     thread_start("k_thread_a", 31, k_thread_a, "A ");     thread_start("k_thread_b", 8, k_thread_b, "B ");     intr_enable();     while(1) {         put_str("Main: ");     } }  /*在线程中运行的函数k_thread_a*/ void k_thread_a(void *arg) {     char *para = arg;     while (1) {         put_str(para);     } }  /*在线程中运行的函数k_thread_b*/ void k_thread_b(void *arg) {     char *para = arg;     while (1) {         put_str(para);     } }

main.c

[自制操作系统] 第15回 实现内核线程

#include "timer.h" #include "io.h" #include "print.h" #include "interrupt.h" #include "thread.h" #include "debug.h"  #define IRQ0_FREQUENCY         100 #define INPUT_FREQUENCY     1193180 #define COUNTER0_VALUE        INPUT_FREQUENCY / IRQ0_FREQUENCY #define COUNTER0_PORT        0x40 #define COUNTER0_NO         0 #define COUNTER_MODE        2 #define READ_WRITE_LATCH    3 #define PIT_COUNTROL_PORT    0x43  uint32_t ticks;   //ticks是内核自中断开启以来总共的滴答数  /*时钟的中断处理函数*/ static void intr_timer_handler(void) {     struct task_struct *cur_thread = (struct task_struct *)running_thread();     ASSERT(cur_thread->stack_magic == 0x19870916); //检查栈是否溢出     cur_thread->elapsed_ticks++;     ticks++;     if (cur_thread->ticks == 0) {         schedule();     } else {         cur_thread->ticks--;     } }   static void frequency_set(uint8_t counter_port ,uint8_t counter_no,uint8_t rwl,uint8_t counter_mode,uint16_t counter_value) {     outb(PIT_COUNTROL_PORT, (uint8_t) (counter_no << 6 | rwl << 4 | counter_mode << 1));     outb(counter_port, (uint8_t)counter_value);     outb(counter_port, (uint8_t)counter_value >> 8); }   void timer_init(void) {     put_str("timer_init start!n");     frequency_set(COUNTER0_PORT, COUNTER0_NO, READ_WRITE_LATCH, COUNTER_MODE, COUNTER0_VALUE);     register_handler(0x20, intr_timer_handler);     put_str("timer_init done!n"); }

timer.c

[自制操作系统] 第15回 实现内核线程

 1 BUILD_DIR = ./build  2 PATH1 = project/kernel  3 PATH2 = project/lib/kernel  4 PATH3 = project/lib/user  5 PATH4 = project/userprog  6 PATH5 = project/lib  7 INCLUDE = -I $(PATH1) -I $(PATH2) -I $(PATH3) -I $(PATH4) -I $(PATH5)   8 SRC = $(wildcard $(PATH1)/*.c $(PATH2)/*.c $(PATH3)/*.c $(PATH4)/*.c $(PATH5)/*.c)  9 OBJ = $(patsubst %.c, $(BUILD_DIR)/%.o, $(notdir $(SRC))) $(BUILD_DIR)/print.o $(BUILD_DIR)/kernel.o $(BUILD_DIR)/switch.o  10  11 kernel.bin: $(OBJ) 12     ld -m elf_i386 -Ttext 0xc0001500 -e main -o ./kernel.bin ./build/main.o ./build/print.o ./build/interrupt.o  13     ./build/kernel.o ./build/timer.o ./build/init.o ./build/debug.o ./build/string.o ./build/bitmap.o ./build/list.o  14     ./build/memory.o ./build/switch.o ./build/thread.o 15  16 mbr.bin: mbr.S 17     nasm -I include/ mbr.S -o mbr.bin  18  19 loader.bin: loader.S 20     nasm -I include/ loader.S -o loader.bin  21  22 install: mbr.bin loader.bin 23     dd if=./mbr.bin of=./hd60M.img bs=512 count=1 conv=notrunc  24     dd if=./loader.bin of=./hd60M.img bs=512 count=4 seek=2 conv=notrunc 25     dd if=./kernel.bin of=./hd60M.img bs=512 count=200 seek=9 conv=notrunc 26     ./bin/bochs -f bochsrc.disk 27  28 #编译print.S 29 $(BUILD_DIR)/print.o : ./project/lib/kernel/print.S 30     nasm -f elf -o $(BUILD_DIR)/print.o ./project/lib/kernel/print.S 31  32 #编译kernel.S 33 $(BUILD_DIR)/kernel.o : ./project/kernel/kernel.S 34     nasm -f elf -o $(BUILD_DIR)/kernel.o ./project/kernel/kernel.S 35  36 #编译switch.S 37 $(BUILD_DIR)/switch.o : ./project/kernel/switch.S 38     nasm -f elf -o $(BUILD_DIR)/switch.o ./project/kernel/switch.S 39  40 #编译四个目录下的.c文件为对应的.o文件 41 $(BUILD_DIR)/%.o : $(PATH1)/%.c  42     gcc -m32 $(INCLUDE) -c -fno-builtin $< -o $@ 43  44 $(BUILD_DIR)/%.o : $(PATH2)/%.c 45     gcc -m32 $(INCLUDE) -c -fno-builtin $< -o $@ 46  47 $(BUILD_DIR)/%.o : $(PATH3)/%.c 48     gcc -m32 $(INCLUDE) -c -fno-builtin $< -o $@ 49  50 $(BUILD_DIR)/%.o : $(PATH4)/%.c 51     gcc -m32 $(INCLUDE) -c -fno-builtin $< -o $@ 52  53 $(BUILD_DIR)/%.o : $(PATH5)/%.c 54     gcc -m32 $(INCLUDE) -c -fno-stack-protector -fno-builtin $< -o $@ 55  56 .PHONY:clean #防止 外面有clean文件 阻止执行clean 57 clean: 58     -rm -rf $(BUILD_DIR)/*.o

makefile

  [自制操作系统] 第15回 实现内核线程

  运行起来还算符合预期效果,可以看到argA打印的次数大概是argB的4倍,这跟我们所设置的时间片关系有关。不过可以看到字符打印的不连续性,这个留到下回再说。

  本回到此结束,预知后事如何,请看下回分解。

发表评论

评论已关闭。

相关文章