欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

socket连接关闭问题分析

程序员文章站 2022-06-10 10:16:15
socket编程过程中往往会遇到这样那样的问题,出现了这些问题,有的是由于并发访问量太大造成的,有些却是由于代码中编程不慎造成的。比如说,最常见的错误就是程序中报打开的文件数过多这个错误。socket...

socket编程过程中往往会遇到这样那样的问题,出现了这些问题,有的是由于并发访问量太大造成的,有些却是由于代码中编程不慎造成的。比如说,最常见的错误就是程序中报打开的文件数过多这个错误。socket建立连接的时候是三次握手,这个大家都很清楚,但是socket关闭连接的时候,需要进行四次挥手,但很多人对于这四次挥手的具体流程不清楚,吃了很多亏。

close_wait分析

socket是一种全双工的通信方式,建立完socket连接后,连接的任何一方都可以发起关闭操作。这里不妨假设连接的关闭是客户端发起。客户端的代码如下:

代码片段1.1

ret = cs_getconnect(&client,ipaddr,9010);
if (ret == 0) {
    printf("connected success.");
}
closesocket(client);

基本逻辑就是,连接建立后立即关闭。其中closesocket函数是自定义函数,仅仅封装了在windows和linux下关闭socket的不同实现而已

代码片段1.2

#if defined(win32) || defined(win64)
#define closesocket(fd) do{ closesocket(fd);/* shutdown(fd, 2);*/ }while(0)
#else
#define closesocket(fd) do{ close(fd); /*shutdown(fd,2);*/ }while(0)
#endif

socket连接关闭问题分析

客户端调用了closesocket之后,发送fin信号到服务器端,告诉socket程序,连接已经断开。服务器端接收到fin信号后,会将自身的tcp状态置为`close_wait`,同时回复 一个ack信号给客户端,客户端接收到这个ack信号后,自身将处于`fin_wait_2`状态。

但是tcp是全双工的通信协议,虽然客户端关闭了连接,但是服务器端对于这个关闭动作不予理睬怎么办。对于服务器端来说,这是个不幸的消息,因为它将一直处于`close_wait`状态,虽然客户端已经不需要和服务器间进行通信了,但是服务器端的socket连接句柄一直得不到释放;如果老是有这种情况出现,久而久之服务器端的连接句柄就会被耗尽。对于发起关闭的客户端来说,他处于`fin_wait_2`状态,如果出现服务器端一直处于`close_wati`状态的情况,客户端并不会一直处在`fin_wait_2`状态,因为这个状态有一个超时时间,这个值可以在/etc/sysctl.conf中进行配置。在这个文件中配置`net.ipv4.tcp_fin_timeout=30`即可保证`fin_wait_2`状态最多保持30秒,超过这个时间后就进入time_wait状态(下面要讲到这个状态)。

注意:这里socket的关闭从客户端发起,仅仅是为了举例说明,socket的关闭完全也可以从服务器端发起。比如说你写了一个爬虫程序去下载互联网上的某些web服务器上的资源的时候,某些要下载的web资源不存在,web服务器会立即关闭当前的socket连接,但是你的爬虫程序不够健壮,对于这种情况没有做处理,同样会使你的爬虫客户端处于close_wait状态。

那么怎样预防socket处于close_wati状态呢,答案在这里:

代码片段1.3

    while(true) {
        memset(getbuffer,0,my_socket_buffer_size);
        ret = recv(client, getbuffer, my_socket_buffer_size, 0);
        if ( ret == 0 || ret == socket_error ) 
        {
            printf("对方socket已经退出,ret【%d】!\n",ret);
            ret = socket_reade_error;//接收服务器端信息失败
            break;
        }
    }
clear:
    if (getbuffer != null) {
        free(getbuffer);
        getbuffer = null;
    }
    closesocket(client);

这里摘录了服务器端部分代码,注意这个recv函数,这个函数在连接建立时,会堵塞住当前代码,等有数据接收成功后才返回,返回值为接收到的字节数;但是对于连接对方socket关闭情况,它能立即感应到,并且返回0.所以对于返回0的时候,可以跳出循环,结束当前socket处理,进行一些垃圾回收工作,注意最后一句closesocket操作是很重要的,假设没有写这句话,服务器端会一直处于close_wait状态。如果写了这句话,那么socket的流程就会是这样的:

socket连接关闭问题分析

time_wait分析

服务器端调用了closesocket操作后,会发送一个fin信号给客户端,客户端进入`time_wait`状态,而且将维持在这个状态一段时间,这个时间也被成为2msl(msl是maximum segment lifetime的缩写,意指最大分节生命周期,这是ip数据包能在互联网上生存的最长时间,超过这个时间将在互联网上消失),在这个时间段内如果客户端的发出的数据还没有被服务器端确认接收的话,可以趁这个时间等待服务端的确认消息。注意,客户端最后发出的ack n+1消息,是一进入`time_wait`状态后就发出的,并不是在`time_wait`状态结束后发出的。如果在发送ack n+1的时候,由于某种原因服务器端没有收到,那么服务器端会重新发送fin n消息,这个时候如果客户端还处于`time_wait`状态的,会重新发送ack n+1消息,否则客户端会直接发送一个rst消息,告诉服务器端socket连接已经不存在了。

有时,我们在使用netstat命令查看web服务器端的tcp状态的时候,会发现有成千上万的连接句柄处在`time_wait`状态。web服务器的socket连接一般都是服务器端主动关闭的,当web服务器的并发访问量过大的时候,由于web服务器大多情况下是短连接,socket句柄的生命周期比较短,于是乎就出现了大量的句柄堵在`time_wait`状态,等待系统回收的情况。如果这种情况太过频繁,又由于操作系统本身的连接数就有限,势必会影响正常的socket连接的建立。在linux下对于这种情况倒是有解救措施,方法就是修改/etc/sysctl.conf文件,保证里面含有以下三行配置:

配置型 2.1

    #表示开启重用。允许将time-wait sockets重新用于新的tcp连接,默认为0,表示关闭  
    net.ipv4.tcp_tw_reuse = 1  
    #表示开启tcp连接中time-wait sockets的快速回收,默认为0,表示关闭  
    net.ipv4.tcp_tw_recycle = 1  
    #表示系统同时保持time_wait的最大数量,如果超过这个数字,
    #time_wait将立刻被清除并打印警告信息。默认为180000,改为5000。
    net.ipv4.tcp_max_tw_buckets = 5000

关于重用`time_wait`状态的句柄的操作,也可以在代码中设置:

代码片段2.1

int on = 1;
if (setsockopt(socketfd/*socket句柄*/,sol_socket,so_reuseaddr,(char *)&on,sizeof(on)))
{
    return error_set_reuse_addr;
}

如果在代码中设置了关于重用的操作,程序中将使用代码中设置的选项决定重用或者不重用,/etc/sysctl.conf中`net.ipv4.tcp_tw_reuse`中的设置将不再其作用。

当然这样设置是有悖tcp的设计标准的,因为处于`time_wait`状态的tcp连接,是有其存在的积极作用的,前面已经介绍过。假设客户端的ack n+1信号发送失败,服务器端在1msl时间过后会重发fin n信号,而此时客户端重用了之前关闭的连接句柄建立了新的连接,但是此时就会收到一个fin信号,导致自己被莫名其妙关闭。

一般`time_wait`会维持在2msl(linux下1msl默认为30秒)时间,但是这个时间可以通过代码修改:

代码片段2.2

struct linger so_linger;
so_linger.l_onoff = 1;
so_linger.l_linger = 10;
if (setsockopt(socketfd,sol_socket,so_linger,(char *)&so_linger,sizeof(struct linger)))
{
    return error_set_linger;
}

这里代码将`time_wait`的时间设置为10秒(在bsd系统中,将会是0.01*10s)。tcp中的`time_wait`机制使得socket程序可以“优雅”的关闭,如果你想你的程序更优雅,最好不要设置`time_wait`的停留时间,让老的tcp数据包在合理的时间内自生自灭。当然对于`so_linger`参数,它不仅仅能够自定义`time_wait`状态的时间,还能够将tcp的四次挥手直接禁用掉,假设对于so_linger结构体变量的设置是这个样子的:

    so_linger.l_onoff = 1;
    so_linger.l_linger = 0;

如果客户端的socket是这么设置的那么socket的关闭流程就直接是这个样子了:

socket连接关闭问题分析

这相当于客户端直接告诉服务器端,我这边异常终止了,对于我稍后给出的所有数据包你都可以丢弃掉。服务器端如果接受到这种rst消息,会直接把对应的socket句柄回收掉。有一些socket程序不想让tcp出现`time_wait`状态,会选择直接使用rst方式关闭socket,以保证socket句柄在最短的时间内得到回收,当然前提是接受有可能被丢弃老的数据包这种情况的出现。如果socket通信的前后数据包的关联性不是很强的话,换句话说每次通信都是一个单独的事务,那么可以考虑直接发送rst信号来快速关闭连接。

补充

1.文中提到的修改/etc/sysctl.conf文件的情况,修改完成之后需要运行`/sbin/sysctl -p`后才能生效。

2.图1中发送完fin m信号后,被动关闭端的socket程序中输入流会接收到一个eof标示,是在c代码中处理时recv函数返回0代表对方关闭,在java代码中会在inputstream的read函数中接收到-1:

代码片段3.1

socket client = new socket();//,9090
    try {
        client.connect(
            new inetsocketaddress("192.168.56.101",9090));
        while(true){                
            int c = client.getinputstream().read();
            if (c > 0) {
                system.out.print((char) c);
            } else {//如果对方socket关闭,read函数返回-1
                break;
            }
             try {
                thread.currentthread().sleep(2000);                 
            } catch (interruptedexception e) {
                e.printstacktrace();
            }
        }
    } catch (ioexception e2) {
        e2.printstacktrace();
    } finally {
        try {
            client.close();
        } catch (ioexception e) {
            e.printstacktrace();
        }
    }
}

3.如果主动关闭方已经发起了关闭的fin信号,被动关闭方不予理睬,依然往主动关闭方发送数据,那么主动关闭方会直接返回rst新号,连接双方的句柄就被双方的操作系统回收,如果此时双方的路由节点之前还存在未到达的数据,将会被丢弃掉。

4.通信的过程中,socket双发中有一方的进程意外退出,则这一方将向其对应的另一方发送rst消息,所有双发建立的连接将会被回收,未接收完的消息就会被丢弃。

5.项目的配套代码可以从这里得到http://git.oschina.net/yunnysunny/socket_close

以上就是socket连接关闭问题分析的详细内容,更多关于socket连接关闭的资料请关注其它相关文章!