技术头条 - 一个快速在微博传播文章的方式     搜索本站
您现在的位置首页 --> 网络系统 --> 记一次TIME_WAIT网络故障

记一次TIME_WAIT网络故障

浏览:2368次  出处信息

    临近年关,人会变得浮躁,期间写的代码可谓乱七八糟。不过出来混始终是要还的,这不最近就发现一个脚本时常发生连不上服务器的现象。

    遇到这类问题,我习惯于先用strace命令跟踪了一下看看:

shell> strace php /path/to/file
EADDRNOTAVAIL (Cannot assign requested address)

    从字面结果看似乎是网络资源相关问题。这里顺便介绍一点小技巧:在调试的时候一般是从后往前看strace命令的结果,这样更容易找到有价值的信息。

    查看一下当前的网络连接情况,结果发现TIME_WAIT数非常大:

shell> netstat -nt | awk \'/^tcp/ {++state[$NF]} END {for(key in state) print key,"\\t",state[key]}\'
TIME_WAIT 28233

    重复了几次测试,结果每次出问题的时候,TIME_WAIT都等于28233,这真是一个魔法数字!实际原因很简单,它取决于一个内核参数net.ipv4.ip_local_port_range:

shell> sysctl -a | grep port
net.ipv4.ip_local_port_range = 32768 61000

    因为端口范围是一个闭区间,所以实际可用的端口数量是:

shell> echo $((61000-32767))
28233

    问题分析到这里基本就清晰了,解决方向也明确了,内容所限,这里就不说如何优化程序代码了,只是从系统方面来阐述如何解决问题,无非就是以下两个方面:

    首先是增加本地可用端口数量。这点可以用以下命令来实现:

shell> echo "net.ipv4.ip_local_port_range = 10240 61000" >> /etc/sysctl.conf
shell> sysctl -p

    其次是减少TIME_WAIT连接状态。网络上已经有不少相关的介绍,大多是建议:

shell> sysctl net.ipv4.tcp_tw_reuse=1
shell> sysctl net.ipv4.tcp_tw_recycle=1

    这两个选项在降低TIME_WAIT数量方面可以说是立竿见影,不过如果你觉得问题已经完美搞定那就错了,实际上这样可能会引入一个更复杂的网络故障。

    关于内核参数的详细介绍,可以参考官方文档。我们这里简要说明一下tcp_tw_recycle参数。它用来快速回收TIME_WAIT连接,不过如果在NAT环境下会引发问题。

    RFC1323中有如下一段描述:

    An additional mechanism could be added to the TCP, a per-host cache of the last timestamp received from any connection. This value could then be used in the PAWS mechanism to reject old duplicate segments from earlier incarnations of the connection, if the timestamp clock can be guaranteed to have ticked at least once since the old connection was open. This would require that the TIME-WAIT delay plus the RTT together must be at least one tick of the sender’s timestamp clock. Such an extension is not part of the proposal of this RFC.

    大概意思是说TCP有一种PAWS机制,可以缓存每个连接最新的时间戳,后续请求中如果时间戳小于缓存的时间戳,即视为无效,相应的数据包会被丢弃。

    Linux是否启用PAWS取决于tcp_timestamps和tcp_tw_recycle,因为tcp_timestamps缺省就是开启的,所以当tcp_tw_recycle被开启后,PAWS实际上就被激活了。

    现在很多公司都用LVS做负载均衡,通常是前面一台LVS,后面多台后端服务器,这其实就是NAT,当请求到达LVS后,它修改地址数据后便转发给后端服务器,但不会修改时间戳数据,对于后端服务器来说,请求的源地址就是LVS的地址,加上LVS会复用端口,所以从后端服务器的角度看,原本不同客户端的请求经过LVS的转发,就可能会被认为是同一个连接,加之不同客户端的时间可能不一致,所以就会出现时间戳错乱的现象,于是后面的数据包就被丢弃了,具体的表现通常是是客户端明明发送的SYN,但服务端就是不响应ACK,还可以通过下面命令来确认数据包不断被丢弃的现象:

shell> netstat -s | grep timestamp
... packets rejects in established connections because of timestamp

    结论显而易见:如果服务器身处NAT环境,一定要禁止tcp_tw_recycle,至于TIME_WAIT连接过多的问题,可以通过激活tcp_tw_reuse来缓解(暂未发现副作用)。

    再唠十块钱儿的,既然PAWS必须同时激活tcp_timestamps和tcp_tw_recycle才能开始,那能不能禁止tcp_timestamps,激活tcp_tw_recycle,这样既可以避免激活PAWS,又可以降低TIME_WAIT连接数量。看上去很美,可惜很多服务依赖tcp_timestamps。

    老实说,这次网络故障本身并没什么高深之处,不过拔出萝卜带出泥,在过程中牵扯的方方面面还是值得大家仔细体会,于是便有了这篇文字。

建议继续学习:

  1. 再叙TIME_WAIT    (阅读:3305)
  2. TIME_WAIT状态消除方法-快速回收    (阅读:2803)
  3. 关于流量升高导致TIME_WAIT增加,MySQL连接大量失败的问题    (阅读:2722)
  4. linux上大量tcp端口处于TIME_WAIT的问题    (阅读:2263)
  5. 诡异提交失败问题追查    (阅读:1849)
QQ技术交流群:445447336,欢迎加入!
扫一扫订阅我的微信号:IT技术博客大学习
后一篇:DNS >>
© 2009 - 2024 by blogread.cn 微博:@IT技术博客大学习

京ICP备15002552号-1