求一个linux下的epoll服务器和客户端代码

求一个linux下的epoll服务器和客户端代码,第1张

#include  <unistd.h>

#include  <sys/types.h>       /* basic system data types */

#include  <sys/socket.h>      /* basic socket definitions */

#include  <netinet/in.h>      /* sockaddr_in{} and other Internet defns */

#include  <arpa/inet.h>       /* inet(3) functions */

#include  <sys/epoll.h> /* epoll function */

#include  <fcntl.h>     /* nonblocking */

#include  <sys/resource.h> /*setrlimit */

#include <stdlib.h>

#include <errno.h>

#include <stdio.h>

#include <string.h>

#define MAXEPOLLSIZE 10000

#define MAXLINE 10240

int handle(int connfd)

int setnonblocking(int sockfd)

{

    if (fcntl(sockfd, F_SETFL, fcntl(sockfd, F_GETFD, 0)|O_NONBLOCK) == -1) {

        return -1

    }

    return 0

}

int main(int argc, char **argv)

{

    int  servPort = 6888

    int listenq = 1024

    int listenfd, connfd, kdpfd, nfds, n, nread, curfds,acceptCount = 0

    struct sockaddr_in servaddr, cliaddr

    socklen_t socklen = sizeof(struct sockaddr_in)

    struct epoll_event ev

    struct epoll_event events[MAXEPOLLSIZE]

    struct rlimit rt

    char buf[MAXLINE]

    /* 设置每个进程允许打开的最大文件数 */

    rt.rlim_max = rt.rlim_cur = MAXEPOLLSIZE

    if (setrlimit(RLIMIT_NOFILE, &rt) == -1)

    {

        perror("setrlimit error")

        return -1

    }

    bzero(&servaddr, sizeof(servaddr))

    servaddr.sin_family = AF_INET

    servaddr.sin_addr.s_addr = htonl(INADDR_ANY)

    servaddr.sin_port = htons(servPort)

    listenfd = socket(AF_INET, SOCK_STREAM, 0)

    if (listenfd == -1) {

      perror("can't create socket file")

        return -1

    }

    int opt = 1

    setsockopt(listenfd, SOL_SOCKET, SO_REUSEADDR, &opt, sizeof(opt))

    if (setnonblocking(listenfd) < 0) {

        perror("setnonblock error")

    }

    if (bind(listenfd, (struct sockaddr *) &servaddr, sizeof(struct sockaddr)) == -1)

    {

        perror("bind error")

        return -1

    }

    if (listen(listenfd, listenq) == -1)

    {

        perror("listen error")

        return -1

    }

    /* 创建 epoll 句柄,把监听 socket 加入到 epoll 集合里 */

    kdpfd = epoll_create(MAXEPOLLSIZE)

    ev.events = EPOLLIN | EPOLLET

    ev.data.fd = listenfd

    if (epoll_ctl(kdpfd, EPOLL_CTL_ADD, listenfd, &ev) < 0)

    {

        fprintf(stderr, "epoll set insertion error: fd=%d\n", listenfd)

        return -1       

     }

    curfds = 1

    printf("epollserver startup,port %d, max connection is %d, backlog is %d\n", servPort, MAXEPOLLSIZE, listenq)

    for () {

        /* 等待有事件发生 */

        nfds = epoll_wait(kdpfd, events, curfds, -1)

        if (nfds == -1)

        {

            perror("epoll_wait")

            continue

        }

        /* 处理所有事件 */

        for (n = 0 n < nfds ++n)

        {

            if (events[n].data.fd == listenfd)

            {

                connfd = accept(listenfd, (struct sockaddr *)&cliaddr,&socklen)

                if (connfd < 0)

                {

                    perror("accept error")

                    continue

                }

                sprintf(buf, "accept form %s:%d\n", inet_ntoa(cliaddr.sin_addr), cliaddr.sin_port)

                printf("%d:%s", ++acceptCount, buf)    

               if (curfds >= MAXEPOLLSIZE) {

                    fprintf(stderr, "too many connection, more than %d\n", MAXEPOLLSIZE)

                    close(connfd)

                    continue

                }

                if (setnonblocking(connfd) < 0) {

                    perror("setnonblocking error")

                }

                ev.events = EPOLLIN | EPOLLET

                ev.data.fd = connfd

                if (epoll_ctl(kdpfd, EPOLL_CTL_ADD, connfd, &ev) < 0)

                {

                    fprintf(stderr, "add socket '%d' to epoll failed: %s\n", connfd, strerror(errno))

                    return -1

                }

                curfds++

                continue

            }

            // 处理客户端请求

            if (handle(events[n].data.fd) < 0) {

                epoll_ctl(kdpfd, EPOLL_CTL_DEL, events[n].data.fd,&ev)

                curfds--

            }

        }  

      }

    close(listenfd)

    return 0

}

int handle(int connfd) {

    int nread

    char buf[MAXLINE]

    nread = read(connfd, buf, MAXLINE)//读取客户端socket流

    if (nread == 0) {

        printf("client close the connection\n")

        close(connfd)

        return -1

    }

    if (nread < 0) {

        perror("read error")

        close(connfd)

        return -1

    }

    write(connfd, buf, nread)//响应客户端  

    return 0

}

epoll   server端;

epoll   client端

#include  <unistd.h>

#include  <sys/types.h>       /* basic system data types */

#include  <sys/socket.h>      /* basic socket definitions */

#include  <netinet/in.h>      /* sockaddr_in{} and other Internet defns */

#include  <arpa/inet.h>       /* inet(3) functions */

#include <netdb.h> /*gethostbyname function */

#include <stdlib.h>

#include <errno.h>

#include <stdio.h>

#include <string.h>

#define MAXLINE 1024

void handle(int connfd)

int main(int argc, char **argv)

{

    char * servInetAddr = "127.0.0.1"

    int servPort = 6888

    char buf[MAXLINE]

    int connfd

    struct sockaddr_in servaddr

    if (argc == 2) {

        servInetAddr = argv[1]

    }

    if (argc == 3) {

        servInetAddr = argv[1]

        servPort = atoi(argv[2])

    }

    if (argc > 3) {

        printf("usage: echoclient <IPaddress> <Port>\n")

         return -1

    }

    connfd = socket(AF_INET, SOCK_STREAM, 0)

    //bzero(&servaddr, sizeof(servaddr))

    servaddr.sin_family = AF_INET

    servaddr.sin_port = htons(servPort)

    //inet_pton(AF_INET, servInetAddr, &servaddr.sin_addr)

    servaddr.sin_addr.s_addr = inet_addr(servInetAddr)

    bzero(&(servaddr.sin_zero), 0)

    if (connect(connfd, (struct sockaddr *) &servaddr, sizeof(servaddr)) < 0) {

        perror("connect error")

        return -1

    }

    printf("welcome to echoclient\n")

    handle(connfd)     /* do it all */

    close(connfd)

    printf("exit\n")

    exit(0)

}

void handle(int sockfd)

{

    char sendline[MAXLINE], recvline[MAXLINE]

    int n

    for () {

        if (fgets(sendline, MAXLINE, stdin) == NULL)

        {

            break//read eof

        }

      

        n = write(sockfd, sendline, strlen(sendline))

        n = read(sockfd, recvline, MAXLINE)

        if (n == 0) {

            printf("echoclient: server terminated prematurely\n")

            break

        }

        write(STDOUT_FILENO, recvline, n)

    }

}

select这个系统调用的原型如下

第一个参数nfds用来告诉内核 要扫描的socket fd的数量+1 ,select系统调用最大接收的数量是1024,但是如果每次都去扫描1024,实际上的数量并不多,则效率太低,这里可以指定需要扫描的数量。 最大数量为1024,如果需要修改这个数量,则需要重新编译Linux内核源码。

第2、3、4个参数分别是readfds、writefds、exceptfds,传递的参数应该是fd_set 类型的引用,内核会检测每个socket的fd, 如果没有读事件,就将对应的fd从第二个参数传入的fd_set中移除,如果没有写事件,就将对应的fd从第二个参数的fd_set中移除,如果没有异常事件,就将对应的fd从第三个参数的fd_set中移除 。这里我们应该 要将实际的readfds、writefds、exceptfds拷贝一份副本传进去,而不是传入原引用,因为如果传递的是原引用,某些socket可能就已经丢失

最后一个参数是等待时间, 传入0表示非阻塞,传入>0表示等待一定时间,传入NULL表示阻塞,直到等到某个socket就绪

FD_ZERO()这个函数将fd_set中的所有bit清0,一般用来进行初始化等。

FD_CLR()这个函数用来将bitmap(fd_set )中的某个bit清0,在客户端异常退出时就会用到这个函数,将fd从fd_set中删除。

FD_ISSET()用来判断某个bit是否被置1了,也就是判断某个fd是否在fd_set中。

FD_SET()这个函数用来将某个fd加入fd_set中,当客户端新加入连接时就会使用到这个函数。

epoll_create系统调用用来创建epfd,会在开辟一块内存空间(epoll的结构空间)。size为epoll上能关注的最大描述符数,不够会进行扩展,size只要>0就行,早期的设计size是固定大小,但是现在size参数没什么用,会自动扩展。

返回值是epfd,如果为-1则说明创建epoll对象失败

第一个参数epfd传入的就是epoll_create返回的epfd。

第二个参数传入对应 *** 作的宏,包括 增删改(EPOLL_CTL_ADD、EPOLL_CTL_DEL、EPOLL_CTL_MOD)

第三个参数传入的是 需要增删改的socket的fd

第四个参数传入的是 需要 *** 作的fd的哪些事件 ,具体的事件可以看后续。

返回值是一个int类型,如果为-1则说明 *** 作失败

第一个参数是epfd,也就是epoll_create的返回值。

第二个参数是一个epoll_event类型的指针,也就是传入的是一个数组指针。 内核会将就绪的socket的事件拷贝到这个数组中,用户可以根据这个数组拿到事件和消息等

第三个参数是maxevents,传入的是 第二个参数的数组的容量

第四个参数是timeout, 如果设为-1一直阻塞直到有就绪数据为止,如果设为0立即返回,如果>0那么阻塞一段时间

返回值是一个int类型,也就是就绪的socket的事件的数量(内核拷贝给用户的events的元素的数量),通过这个数量可以进行遍历处理每个事件

一般需要传入 ev.data.fd 和 ev.events ,也就是fd和需要监控的fd的事件。事件如果需要传入多个,可以通过按位与来连接,比如需要监控读写事件,只需要像如下这样 *** 作即可: ev.events=EPOLLIN | EPOLLOUT 。

LT(水平触发), 默认 的工作模式, 事件就绪后用户可以选择处理和不处理,如果用户不处理,内核会对这部分数据进行维护,那么下次调用epoll_wait()时仍旧会打包出来

ET(边缘触发),事件就绪之后, 用户必须进行处理 ,因为内核把事件打包出来之后就把对应的就绪事件给清掉了, 如果不处理那么就绪事件就没了 。ET可以减少epoll事件被重复触发的次数,效率比LT高。

如果需要设置为边缘触发只需要设置事件为类似 ev.events=EPOLLIN | EPOLLET 即可

select/poll/epoll是nio多路复用技术, 传统的bio无法实现C10K/C100K ,也就是无法满足1w/10w的并发量,在这么高的并发量下,在进行上下文切换就很容易将服务器的负载拉飞。

1.将fd_set从用户态拷贝到内核态

2.根据fd_set扫描内存中的socket的fd的状态,时间复杂度为O(n)

3.检查fd_set,如果有已经就绪的socket,就给对应的socket的fd打标记,那么就return 就绪socket的数量并唤醒当前线程,如果没有就绪的socket就继续阻塞当前线程直到有socket就绪才将当前线程唤醒。

4.如果想要获取当前已经就绪的socket列表,则还需要进行一次系统调用,使用O(n)的时间去扫描socket的fd列表,将已经打上标记的socket的fd返回。

CPU在同一个时刻只能执行一个程序,通过RR时间片轮转去切换执行各个程序。没有被挂起的进程(线程)则在工作队列中排队等待CPU的执行,将进程(线程)从工作队列中移除就是挂起,反映到Java层面的就是线程的阻塞。

什么是中断?当我们使用键盘、鼠标等IO设备的时候,会给主板一个电流信号,这个电流信号就给CPU一个中断信号,CPU执行完当前的指令便会保存现场,然后执行键盘/鼠标等设备的中断程序,让中断程序获取CPU的使用权,在中断程序后又将现场恢复,继续执行之前的进程。

如果第一次没检测到就绪的socket,就要将其进程(线程)从工作队列中移除,并加入到socket的等待队列中。

socket包含读缓冲区+写缓冲区+等待队列(放线程或eventpoll对象)

当从客户端往服务器端发送数据时,使用TCP/IP协议将通过物理链路、网线发给服务器的网卡设备,网卡的DMA设备将接收到的的数据写入到内存中的一块区域(网卡缓冲区),然后会给CPU发出一个中断信号,CPU执行完当前指令则会保存现场,然后网卡的中断程序就获得了CPU的使用权,然后CPU便开始执行网卡的中断程序,将内存中的缓存区中的数据包拿出,判断端口号便可以判断它是哪个socket的数据,将数据包写入对应的socket的读(输入)缓冲区,去检查对应的socket的等待队列有没有等待着的进程(线程),如果有就将该线程(进程)从socket的等待队列中移除,将其加入工作队列,这时候该进程(线程)就再次拥有了CPU的使用权限,到这里中断程序就结束了。

之后这个进程(线程)就执行select函数再次去检查fd_set就能发现有socket缓冲区中有数据了,就将该socket的fd打标记,这个时候select函数就执行完了,这时候就会给上层返回一个int类型的数值,表示已经就绪的socket的数量或者是发生了错误。这个时候就再进行内核态到用户态的切换,对已经打标记的socket的fd进行处理。

将原本1024bit长度的bitmap(fd_set)换成了数组的方式传入 ,可以 解决原本1024个不够用的情况 ,因为传入的是数组,长度可以不止是1024了,因此socket数量可以更多,在Kernel底层会将数组转换成链表。

在十多年前,linux2.6之前,不支持epoll,当时可能会选择用Windows/Unix用作服务器,而不会去选择Linux,因为select/poll会随着并发量的上升,性能变得越来越低,每次都得检查所有的Socket列表。

1.select/poll每次调用都必须根据提供所有的socket集合,然后就 会涉及到将这个集合从用户空间拷贝到内核空间,在这个过程中很耗费性能 。但是 其实每次的socket集合的变化也许并不大,也许就1-2个socket ,但是它会全部进行拷贝,全部进行遍历一一判断是否就绪。

2.select/poll的返回类型是int,只能代表当前的就绪的socket的数量/发生了错误, 如果还需要知道是哪些socket就绪了,则还需要再次使用系统调用去检查哪些socket是就绪的,又是一次O(n)的 *** 作,很耗费性能

1.epoll在Kernel内核中存储了对应的数据结构(eventpoll)。我们可以 使用epoll_create()这个系统调用去创建一个eventpoll对象 ,并返回eventpoll的对象id(epfd),eventpoll对象主要包括三个部分:需要处理的正在监听的socket_fd列表(红黑树结构)、socket就绪列表以及等待队列(线程)。

2.我们可以使用epoll_ctl()这个系统调用对socket_fd列表进行CRUD *** 作,因为可能频繁地进行CRUD,因此 socket_fd使用的是红黑树的结构 ,让其效率能更高。epoll_ctl()传递的参数主要是epfd(eventpoll对象id)。

3.epoll_wait()这个系统调用默认会 将当前进程(线程)阻塞,加入到eventpoll对象的等待队列中,直到socket就绪列表中有socket,才会将该进程(线程)重新加入工作队列 ,并返回就绪队列中的socket的数量。

socket包含读缓冲区、写缓冲区和等待队列。当使用epoll_ctl()系统调用将socket新加入socket_fd列表时,就会将eventpoll对象引用加到socket的等待队列中, 当网卡的中断程序发现socket的等待队列中不是一个进程(线程),而是一个eventpoll对象的引用,就将socket引用追加到eventpoll对象的就绪列表的尾部 。而eventpoll对象中的等待队列存放的就是调用了epoll_wait()的进程(线程),网卡的中断程序执行会将等待队列中的进程(线程)重新加入工作队列,让其拥有占用CPU执行的资格。epoll_wait()的返回值是int类型,返回的是就绪的socket的数量/发生错误,-1表示发生错误。

epoll的参数有传入一个epoll_event的数组指针(作为输出参数),在调用epoll_wait()返回的同时,Kernel内核还会将就绪的socket列表添加到epoll_event类型的数组当中。

udp还是tcp,如果是tcp需要你把服务器当成客户端主动连接客户端的指定端口,listen后才能send。要么你就手动使用raw socket直接从最上层到最底层直接构造tcp回应包发送,不用bind listen都可以。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/9024594.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-24
下一篇 2023-04-24

发表评论

登录后才能评论

评论列表(0条)

保存