开发环境:
主机:Ubuntu 18.04
开发板:LuckFox Pico Plus开发板
并发服务器支持多个客户端的同时连接,最大可接入的客户端数取决于内核控制块的个数。当使用Socket API时,要使服务器能够同时支持多个客户端的连接,必须引入多任务机制,为每个连接创建一个单独的任务来处理连接上的数据,多任务可以是多线程或者多进程,这是最常用的并发服务器设计。但是多线程/多进程消耗资源多,处理起来也比较复杂,本文将基于Select/Poll机制实现并发服务器。
1 IO模型概述
在具体讲解基于Select/Poll机制实现并发服务器之前,我们需要了解IO的相关概念,所谓IO就是,就是数据的读写,一般分为网络IO(本质就是socket读写)和磁盘IO。
IO模型大致可以分为:同步阻塞、同步非阻塞、异步、信号驱动。
可细分为5种I/O模型:
1)阻塞I/O,进程处于阻塞模式时,让出CPU,进入休眠状态;
2)非阻塞I/O,非阻塞模式的使用并不普遍,因为非阻塞模式会浪费大量的CPU资源;
3)I/O复用(select和poll),针对批量IP操作时,使用I/O多路复用,非常有好;
4)异步I/O(POSIX的aio_系列函数)
5)信号驱动I/O(SIGIO)
一个输入操作通常包括两个不同的阶段:
1)等待数据准备好;
2)从内核向进程复制数据;
对于一个套接字的输入操作,第一步通常涉及等待数据从网络中到达。当所等待分组到达时,它被复制到内核中某个缓冲区。第二步就是把数据从内核缓冲区复制到应用进程缓冲区。
本文的要将的I/O复用,本质就是select/poll机制。因此,其他IO有兴趣可以去了解。
2 Select/Poll概述
Select/Poll则是POSIX所规定,一般操作系统或协议栈均有实现。
值得注意的是,poll和select都是基于内核函数sys_poll实现的,不同在于在Linux系统中select是从BSD Unix系统继承而来,poll则是从System V Unix系统继承而来,因此两种方式相差不大。poll函数没有最大文件描述符数量的限制。poll和 select与一样,大量文件描述符的数组被整体复制于用户和内核的地址空间之间,开销随着文件描述符数量的增加而线性增大。
2.1 Select函数
在BSD Socket 中,select函数原型如下:
int select(int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds,struct timeval *timeout);
【参数说明】
- nfds:select监视的文件句柄数,一般设为要监视各文件中的最大文件描述符值加1。
- readfds:文件描述符集合监视文件集中的任何文件是否有数据可读,当select函数返回的时候,readfds将清除其中不可读的文件描述符,只留下可读的文件描述符。
- writefds:文件描述符集合监视文件集中的任何文件是否有数据可写,当select函数返回的时候,writefds将清除其中不可写的文件描述符,只留下可写的文件描述符。
- exceptfds:文件集将监视文件集中的任何文件是否发生错误,可用于其他的用途,例如,监视带外数据OOB,带外数据使用MSG_OOB标志发送到套接字上。当select函数返回的时候,exceptfds将清除其中的其他文件描述符,只留下标记有OOB数据的文件描述符。
- timeout 参数是一个指向 struct timeval 类型的指针,它可以使 select()在等待 timeout 时间后若没有文件描述符准备好则返回。其timeval结构用于指定这段时间的秒数和微秒数。它可以使select处于三种状态:
(1) 若将NULL以形参传入,即不传入时间结构,就是将select置于阻塞状态,一定等到监视文件描述符集合中某个文件描述符发生变化为止;
(2) 若将时间值设为0秒0毫秒,就变成一个纯粹的非阻塞函数,不管文件描述符是否有变化,都立刻返回继续执行,文件无变化返回0,有变化返回一个正值;
(3) timeout的值大于0,这就是等待的超时时间,即select在timeout时间内阻塞,超时时间之内有事件到来就返回了,否则在超时后不管怎样一定返回,返回值同上述。
timeval 结构体定义
struct timeval
{
int tv_sec;
int tv_usec;
};
【返回值】
- int:若有就绪描述符返回其数目,若超时则为0,若出错则为-1
下列操作用来设置、清除、判断文件描述符集合。
FD_ZERO(fd_set *set);
FD_SET(int fd,fd_set *set);
FD_CLR(int fd,fd_set *set);
FD_ISSET(int fd,fd_set *set);
fd_set可以理解为一个集合,这个集合中存放的是文件描述符(file descriptor),即文件句柄。中间的三个参数指定我们要让内核测试读、写和异常条件的文件描述符集合。如果对某一个的条件不感兴趣,就可以把它设为空指针。
select()的机制中提供一种fd_set的数据结构,实际上是一个long类型的数组,每一个数组元素都能与打开的文件句柄(不管是Socket句柄,还是其他文件或命名管道或设备句柄)建立联系,建立联系的工作由程序员完成,当调用select()时,由内核根据IO状态修改fd_set的内容,由此来通知执行了select()的进程哪一Socket或文件可读。
2.2 Poll函数
poll的函数原型:
int poll(struct pollfd *fds, nfds_t nfds, int timeout);
【参数说明】
- fds:fds是一个struct pollfd类型的数组,用于存放需要检测其状态的socket描述符,并且调用poll函数之后fds数组不会被清空;一个pollfd结构体表示一个被监视的文件描述符,通过传递fds指示 poll() 监视多个文件描述符。
struct pollfd原型如下:
typedef struct pollfd {
int fd;
short events;
short revents;
} pollfd_t;
其中,结构体的events域是监视该文件描述符的事件掩码,由用户来设置这个域,结构体的revents域是文件描述符的操作结果事件掩码,内核在调用返回时设置这个域。
- nfds:记录数组fds中描述符的总数量。
- timeout:指定等待的毫秒数,无论 I/O 是否准备好,poll() 都会返回,和select函数是类似的。
【返回值】
- int:函数返回fds集合中就绪的读、写,或出错的描述符数量,返回0表示超时,返回-1表示出错;
poll改变了文件描述符集合的描述方式,使用了pollfd结构而不是select的fd_set结构,使得poll支持的文件描述符集合限制远大于select的1024。这也是和select不同的地方。
3 基于Select并发服务器实现
接下来将使用select/poll来实现并发服务器。这里以select为例。
select并发服务器模型:
socket(...);
bind(...);
listen(...);
while(1)
{
if(select(...) > 0)
{
if(FD_ISSET(...)>0)
{
accpet(...);
process(...);
}
}
close(...);
}
因此,基于select实现的并发服务器模型如下:
从流程上来看,使用select函数进行IO请求和同步阻塞模型没有太大的区别,甚至还多了添加监视socket,以及调用select函数的额外操作,效率更差。但是,使用select以后最大的优势是用户可以在一个线程内同时处理多个socket的IO请求。用户可以注册多个socket,然后不断地调用select读取被激活的socket,即可达到在同一个线程内同时处理多个IO请求的目的。而在同步阻塞模型中,必须通过多线程的方式才能达到这个目的。
Server:
#include <sys/types.h>
#include <sys/socket.h>
#include <stdio.h>
#include <stdlib.h>
#include <errno.h>
#include <unistd.h>
#include <string.h>
#include <netdb.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#define SERVER_PORT 8888
#define BUFF_SIZE 1024
static char recvbuff[BUFF_SIZE];
int main(int argc,char *argv[])
{
int sfd, cfd, maxfd, i, nready, n;
char str[INET_ADDRSTRLEN];
struct sockaddr_in server_addr, client_addr;
char sendbuff[ ] = "Hello client !";
socklen_t client_addr_len;
fd_set all_set, read_set;
int clientfds[FD_SETSIZE - 1];
if ((sfd = socket(AF_INET, SOCK_STREAM, 0)) < 0)
{
printf("Socket create failed.\n");
}
server_addr.sin_family = AF_INET;
server_addr.sin_port = htons(SERVER_PORT);
server_addr.sin_addr.s_addr = htonl(INADDR_ANY);
if (bind(sfd, (struct sockaddr *)&server_addr, sizeof(struct sockaddr)) < 0)
{
printf("socket bind failed.\n");
}
printf("socket bind network interface success!\n");
if(listen(sfd, 5) == -1)
{
printf("listen error");
}
else
{
printf("listening...\n");
}
client_addr_len = sizeof(client_addr);
maxfd = sfd;
FD_ZERO(&all_set);
FD_SET(sfd, &all_set);
for(i = 0; i < FD_SETSIZE -1 ; i++)
{
clientfds[i] = -1;
}
while(1)
{
read_set = all_set;
nready = select(maxfd + 1, &read_set, NULL, NULL, NULL);
if(nready < 0)
{
printf("select error \r\n");
}
if(FD_ISSET(sfd, &read_set))
{
cfd = accept(sfd, (struct sockaddr *)&client_addr, &client_addr_len);
if(cfd < 0)
{
printf("accept socket error\r\n");
continue;
}
printf("new client connect fd = %d\r\n", cfd);
FD_SET(cfd, &all_set);
maxfd = (cfd > maxfd)?cfd:maxfd;
for(i = 0; i < FD_SETSIZE -1 ; i++)
{
if(clientfds[i] == -1)
{
clientfds[i] = cfd;
break;
}
}
if(--nready == 0)
{
continue;
}
}
for(i = 0; i < FD_SETSIZE -1 ; i++)
{
if(clientfds[i] == -1)
{
continue;
}
if(FD_ISSET(clientfds[i], &read_set))
{
n = recv(clientfds[i], recvbuff, sizeof(recvbuff), 0);
printf("Client from %s at Port %d, ",
inet_ntop(AF_INET, &client_addr.sin_addr, str, sizeof(str)),
ntohs(client_addr.sin_port));
printf("Clientfd %d: %s \r\n",clientfds[i], recvbuff);
if(n <= 0)
{
FD_CLR(clientfds[i], &all_set);
clientfds[i] = -1; }
else
{
n = send(clientfds[i], sendbuff, strlen(sendbuff), 0);
if(n < 0)
{
FD_CLR(clientfds[i], &all_set);
clientfds[i] = -1;
}
}
}
}
}
}
Client:
#include <sys/types.h>
#include <sys/socket.h>
#include <stdio.h>
#include <stdlib.h>
#include <errno.h>
#include <unistd.h>
#include <string.h>
#include <netdb.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#define SERVPORT 8888
int main(int argc,char *argv[])
{
char sendbuf[ ] = {"Hello server !"};
char recvbuf[1024];
int sockfd,sendbytes;
struct sockaddr_in serv_addr;
if (argc != 2)
{
perror("init error");
}
if((sockfd = socket(AF_INET,SOCK_STREAM,0)) < 0)
{
perror("socket");
exit(1);
}
serv_addr.sin_family = AF_INET;
serv_addr.sin_port = htons(SERVPORT);
serv_addr.sin_addr.s_addr = inet_addr(argv[1]);
bzero(&(serv_addr.sin_zero),8);
if((connect(sockfd,(struct sockaddr *)&serv_addr,sizeof(struct sockaddr))) < 0)
{
perror("connect failed!");
exit(1);
}
printf("connect successful! \n");
while (1)
{
send(sockfd, sendbuf, strlen(sendbuf), 0);
recv(sockfd, recvbuf, sizeof(recvbuf), 0);
printf("Server : %s \n", recvbuf);
sleep(2);
}
close(sockfd);
}
接下来就是验证了,现在LuckFox Pico Plus开发板上开启服务器:
Server:
然后开启客户端,笔者的客户端在Ubuntu上运行的:
Client:
笔者这里使用的客户端只有四个,有兴趣的也可以使用多个客户端。
当然啦,如果懒得写客户端,也可使用网络调试助手测试。