μC/OS-II是美国人Jean Labrosse编写的一个免费的、源码公开的嵌入式实时内核。对于开发计算机嵌入式应用产品的技术人员来说是一个实用价值很高的实时嵌入式 *** 作系统ERTOS(Embedded Real TIme OperaTIon System)。
1 多任务信息流关键技术
在讨论多任务信息流之前,先讨论一下多任务的工作状态。在μC/OS中,每个任务都是无限循环的,每个任务都处在以下五种状态之一:休眠态、就绪态、运行态、挂起态和中断态,如图1所示。
在多任务的调度和驱动程序的编写过程中,必然要涉及到公用代码段和共享存储区的保护问题。即使是原有的C函数,可重用性方面在没有得到理论和实践的验证情况下也需要对其进行保护。这样就需要合理的算法对公用代码段、共享存储区进行保护,避免 *** 作系统在运行过程中产生重用性问题而导致运行结果不可预测。
系统在开发过程中,既要考虑到减少系统的复杂程度,也要兼顾其稳定性与运行效率的要求。这就需要我们对各种算法进行合理的选择:在稳定性可以保障的情况下,选择相对简单,占用CPU时间少的算法;在稳定性不能保障的情况下,考虑选择周全的算法。只有这样才能使 *** 作系统在一定的配置环境下达到最高的运行效率。
接下来分别用void CanSendMessageProcess(void *data)、void CanSendMessage(void *data)、void CanReceiveMessageProcess(void *data)和void CanReceiveMessage(void *data)这四个任务来描述在采用消息队列、邮箱和信号量通信机制时的信息流的传递过程。
(1)消息队列通信机制
消息队列在初始化的时候,建立一个指定空间大小的数组,这个数组在使用的时候取得了环形缓冲区的概念。这个数组在运行期间不会被消除,这样就避免了重复建立数组的时候内存空间的泄漏问题。当一个任务向消息队列发送一个信息的时候,相应的指针加1(OSQIn+1),队列满时(OSQEntries = OSQSize),OSQIn则与OSQOut指向同一单元。如果在OSQIn指向的单元内插入新的指向消息的指针,就构成FIFO(First-In-First-Out)队列。相反,如果在OSQOut指向单元的下一个单元插入新的指针,就构成LIFO队列(Last-In-First-Out)。在本实例中,我们定义FIFO队列。消息指针总是从OSQOut指向的单元取出。OSQStart和OSQEnd定义了消息指针数组的头和尾,以便在OSQIn和OSQOut到达队列的边缘时,进行边界检查和必要的指针调整,实现其循环功能。
消息队列数据结构如下:
typedef struct os_q {
struct os_q *OSQPtr; /* 在空闲队列控制块中链接所有的队列控制块*/
void *OSQStart; /*指向消息队列的指针数组的起始地址的指针*/
void *OSQEnd; /* 指向消息队列结束单元的下一个地址的指针*/
void *OSQIn; /* 指向消息队列中插入下一条信息位置的指针*/
void *OSQOut; /* 指向消息队列中下一个取出消息位置的指针*/
INT16U OSQSize; /* 消息队列中总的单元数*/
INT16U OSQEntries; /*消息队列中总的消息数量*/
} OS_Q;
图2为消息队列信息流的演示说明。
① CanSendMessageProcess任务完成信息的计算工作以后,将要发送的信息送进消息队列1。
② CanSendMessage任务负责取得消息队列1里面的信息。
③ 通过CAN总线I/O端口将数据发送到总线上去。如果消息队列中没有信息,则该任务由运行状态进入等待状态,直到从消息队列中接收到信息为止。
④ CanReceiveMessage任务负责读取总线上面的信息。
⑤ CanReceiveMessage任务将读取到的信息送入消息队列2。
⑥ CanReceiveMessageProcess任务是从消息队列2中取出信息开始计算工作,如果消息队列为空的话,该任务进入等待状态。
消息队列适用于一对一、一对多、多对多和多对一的关系。也就是说,消息队列可以作为一块共享的公共区域,为实施互斥,任务间需要同步;为了合作,进程间需要交换信息,这样也就实现了同步和通信。
(2)邮箱通信机制
邮箱的概念和管道(管线)有相似的定义,一个任务或者中断服务子程序向另一个任务发送一个指针型的变量,该指针指向一个包含了特定“消息”的数据结构。在源端的任务只能向邮箱写,在目的端的任务只能从邮箱读。邮箱传输流数据,即连续的字节串或流。因此,访问一个邮箱就像是访问一个顺序文件。邮箱可以用来通知一个事件的发生(发送一条信息),也可以用来共享某些资源,这样邮箱就被当成一个二值信号量。
图3为邮箱信息流的演示说明。
① CanSendMessageProcess任务将计算好的数据发送给CanSendMessage任务,然后进入就绪态等待应答信号。CanSendMessage在接收的同时发送应答握手信号给CanSendMessageProcess,确认信息接收完毕。
②CanSendMessage任务将CanSend MessageProcess任务发送来的信息发送到CAN总线,发送结束后进入就绪态等待下一次传输工作。
③ CanReceiveMessage任务接收来自总线的信息流,将接收到的信息发送到Can ReceiveMessageProcess任务,进入就绪态等待应答信号。
④ CanReceiveMessageProcess任务收到信息后发送应答握手信号。
(3)信号量通信机制
信号量(semaphore)是一种约定机制:两个或多个任务通过简单的信号进行合作,一个任务可以被迫在某一位置停止,直到它接收到一个特定的信号。在多任务内核中普遍将信号量用于:
◇ 标志某事件的发生;
◇ 控制共享资源的使用权(满足互斥条件);
◇ 使两个任务的行为同步。
信号量主要实施三种 *** 作:
◇ 一个信号量可以初始化为非负数;
◇ 等待(wait) *** 作使信号量减1。如果值变成负数,则执行等待的任务被阻塞。
◇ 得到CPU使用权的任务singal *** 作使信号量加1。如果值不是正数,则被等待 *** 作阻塞的任务被解除阻塞。
为了满足信息传递过程中实时高效的原则,在消息队列中部分地引入信号量的概念。也就是CanSendMessageProcess任务,把若干个字节的信息一次性地发送到消息队列,令信号量加1并由运行态进入等待挂起状态。在CanSendMessage任务获得信号量后进入就绪态,等待CPU的使用权进入运行态。进入运行态后,该任务使信号量减1并从消息队列中取出信息后通过I/O端口发送到CAN总线。CanReceiveMessage任务和CanReceive MessageProcess任务执行与上面相反的 *** 作。这个实例说明了信号量用于标志某事件的发生。(见图2。)
2 μC/OS-II的中断处理
μC/OS-II中,中断服务程序一般用汇编语言来写。以下是中断服务程序的示意代码。
用户中断服务程序:
保存全部CPU寄存器;
调用OSIntEnter或OSIntNesTIng直接加1;
执行用户代码做中断服务;
调用OSIntExit;
恢复所有CPU寄存器;
执行中断返回指令;
这里μC/OS-II提供了两个ISR与内核的接口函数:OSIntEnter和OSIntExit。OSIntEnter通知μC/OS-II内核,中断服务程序开始运行了。实际上,此函数做的工作是把一个全局变量OSIntNesTIng加1。在x86等有累加指令的CPU中,可以用指令代替OSIntEnter:
INC BYTE PTR OSIntNesting
此中断嵌套计数器可以确保所有中断处理完成后再作任务调度。另一个接口函数OSIntExit则通知内核,中断服务已结束。根据相应情况,返回被中断点(可能是一个任务或者被嵌套的中断服务程序)或由内核作任务调度。
用户编写的ISR必须被安装到某一位置,以便中断发生后,CPU根据相应的中断号运行准确的服务程序。许多实时 *** 作系统都提供了安装、卸载中断服务程序的API接口函数,有些成熟的RTOS甚至对中断控制器的管理都有相应的API函数。但 μC/OS-II内核没有提供类似的接口函数,需要用户在对应的CPU移植中自己实现。这些接口函数与具体的硬件环境有关,接下来PC体系下的中断处理对此有详细的说明。
3 PC体系下的中断
X86系列的处理器可支持256个中断,并用向量表的方法来关联每个中断和相应ISR的位置。在实模式下,中断向量表(IVT)存于内存的低端1K。每个向量表条目占4字节,保存一个ISR的段地址和偏移信息。PC系统使用两个级联的可编程中断控制器82C59A。一个82C59A能连接8个硬件中断,编号为IRQ0~IRQ7。 PC总共可管理15个外部中断源,PC的中断控制器如图4所示。(关于82C59A的详细使用可参见有关资料。)
在μC/OS下,CAN总线I/O端口中断向量设置伪代码:
void CanInitHW(UI segment,BYTE Irq0,BYTE Irq1){
保存原有的中断向量
保存掩码寄存器的值
使82C59A的掩码寄存器(0x21)各位置1,关闭中断输入
关闭CPU中断
设置新的中断向量
正在服务的中断禁止再次响应服务(假定当前服务中断是IRQ5)
开CPU中断
清除82C59A的掩码寄存器(0X21、0XA1)各位,开启中断输入
}
4 信号量与缓冲队列支持下的CAN总线驱动
前面介绍了μC/OS-II内核下多任务调度的关键技术、中断与PC体系下中断的一般方法。又以82C59A的中断5(IRQ5)、0x0D中断向量为例,介绍了中断服务子程序的重新分配和响应SJA1000控制器收发的中断服务子程序。
下面介绍信号量配合下的环形缓冲队列与中断处理程序之间的关系问题,这也是设备驱动部分的核心内容。
ERTOS的驱动程序与其它 *** 作系统有所不同。比如Windows、Unix、Solaris、Linux等 *** 作系统弱化了设备的概念,用户进程对设备的使用可以通过文件系统来完成。然而,在μC /OS-II上开发CAN总线驱动程序没有那么严格,只要满足设备在连续的CPU时间上使用时不发生时间重叠就可以了。
串行设备或者其它字符型设备都存在外设处理速度和CPU速度不匹配的问题,所以需要建立相应的缓冲区。向CAN口发送数据时,只要把数据写到缓冲区,然后由SJA1000控制器逐个取出往外发。从CAN口接收数据时,往往等收到若干个字节后才需要CPU进行处理,所以这些预收的数据可以先存于缓冲区。缓冲区可以设置收到若干个字节后再中断CPU,这样避免了因为CPU的频繁中断而降低系统的实时性。
在对缓冲区读写的过程中,经常会遇到想发送数据时,发送缓冲已满;想去读时,接收缓冲却是空的。对于用户程序端,可以采用查询工作方式,即放弃无法读写的 *** 作,然后再频繁地去尝试这个 *** 作直到成功,这样程序效率显然降低。如果引入读、写两个信号量分别对缓冲区两端的 *** 作进行同步,问题将迎刃而解。用户任务想写但缓冲区满时,在信号量上睡眠,让CPU运行别的任务,待ISR从缓冲区读走数据后唤醒此睡眠的任务;类似地,用户任务想读但缓冲区空时,也可以在信号量上睡眠,待外部设备有数据来了再唤醒。由于μC/OS-II的信号量提供了超时等待机制,CAN口当然也具有超时读写能力。
带缓冲和信号量的CAN口接收和发送部分见本刊网络补充版()。
接口函数总结如下。
void CanInitHW(UI segment,BYTE irq0,BYTE IRQ1)
/*设置SJA1000控制器端口中断向量*/
int canReleaseHW() /* 清除SJA1000控制器端口中断向量*/
int canSendMsg( CANBYTE port, MSG_STRUCT msg)
/* 向定制SJA1000控制器端口发送数据*/
int canReceiveMsg( CANBYTE port, MSG_STRUCT msg_ptr)
/*从定制SJA1000控制器端口接收数据
int canConfig( CANBYTE port, CAN_STRUCT can)
/*初始化和配置SJA1000控制器 */
int canNormalRun( CANBYTE port )
/*设置SJA1000正常(Normal)运行模式 */
int canReset( CANBYTE port )
/* SJA1000控制器端口重新设置,缓冲区置位0xff*/
CANBYTE can0r( CANBYTE addr)
/*读取SJA1000控制器端口0的定制寄存器的值 */
CANBYTE can1r( CANBYTE addr)
/*读取SJA1000控制器端口1的定制寄存器的值 */
接收和发送数据缓冲区数据结构定义:
typedef struct {
INT16U RingBufRxCtr; /* 接收缓冲中字符数目 */
OS_EVENT RingBufRxSem; /* 接收信号量 */
INT8U RingBufRxInPtr; /* 接收缓冲中下一字符的写入位置 */
INT8U RingBufRxOutPtr; /* 接收缓冲中下一待读出字符的位置 */
INT8U RingBufRx[CAN_RX_BUF_SIZE]; /* 接收环形缓冲区*/
INT16U RingBufTxCtr;
/* 发送缓冲中字符数目 */
OS_EVENT *RingBufTxSem; /* 发送信号量 */
INT8U *RingBufTxInPtr;
/* 发送缓冲中下一字符的写入位置 */
INT8U *RingBufTxOutPtr;
/* 发送缓冲中下一待读出字符的位置 */
INT8U RingBufTx[CAN_TX_BUF_SIZE]; /* 发送环形缓冲区*/
} CAN_RING_BUF;
结 语
本文是在嵌入式计算机技术领域的应用背景下提出的,整个工程开发结束以后,系统正常运作时间超过27天。希望本文的提出对开发嵌入式 *** 作系统的技术人员能有所帮助,同时也希望同一领域的开发人员共同探讨、共同发展。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)