程序笔记   发布时间:2022-07-17  发布网站:大佬教程  code.js-code.com
大佬教程收集整理的这篇文章主要介绍了Linux网络优化大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。

 

 

=======================Linux网络优化篇====================

概念:网络七层模型:

应用层,负责为应用程序提供统一的接口。

表示层,负责把数据转换成兼容接收系统的格式。

会话层,负责维护计算机之间的通信连接。

传输层,负责为数据加上传输表头,形成数据包。

网络层,负责数据的路由和转发。

数据链路层,负责 MAC 寻址、错误侦测和改错。

物理层,负责在物理网络中传输数据帧

网络四层模型:

应用层,负责向用户提供一组应用程序,比如 HTTP、FTP、DNS 等。

传输层,负责端到端的通信,比如 TCP、UDP 等。

网络层,负责网络包的封装、寻址和路由,比如 IP、ICMP 等。

网络接口层,负责网络包在物理网络中的传输,比如 MAC 寻址、错误侦测以及通过网卡传输网络帧等。

网络接口配置的最大传输单元(MTU),就规定了最大的 IP 包大小。在我们最常用的以太网中,MTU 默认值是 1500(这也是 Linux 的默认值)。一旦网络包超过 MTU 的大小,就会在网络层分片,以保证分片后的 IP 包不大于 MTU 值。显然,MTU 越大,需要的分包也就越少,自然,网络吞吐能力就越好。

 

===============================================================================================================================================

Linux网络收发流程:

***接受过程

当一个网络帧到达网卡后,网卡会通过 DMA 方式,把这个网络包放到收包队列中;然后通过硬中断,告诉中断处理程序已经收到了网络包。

接着,网卡中断处理程序会为网络帧分配内核数据结构(sk_buff),并将其拷贝到 sk_buff 缓冲区中;然后再通过软中断,通知内核收到了新的网络帧。

接下来,内核协议栈从缓冲区中取出网络帧,并通过网络协议栈,从下到上逐层处理这个网络帧。比如,

在链路层检查报文的合法性,找出上层协议的类型(比如 IPv4 还是 IPv6),再去掉帧头、帧尾,然后交给网络层。

网络层取出 IP 头,判断网络包下一步的走向,比如是交给上层处理还是转发。当网络层确认这个包是要发送到本机后,就会取出上层协议的类型(比如 TCP 还是 UDP),去掉 IP 头,再交给传输层处理。

传输层取出 TCP 头或者 UDP 头后,根据 < 源 IP、源端口、目的 IP、目的端口 > 四元组作为标识,找出对应的 Socket,并把数据拷贝到 Socket 的接收缓存中。

最后,应用程序就可以使用 Socket 接口,读取到新接收到的数据了。

***发送过程

首先,应用程序调用 Socket API(比如 sendmsg)发送网络包。

由于这是一个系统调用,所以会陷入到内核态的套接字层中。套接字层会把数据包放到 Socket 发送缓冲区中。

接下来,网络协议栈从 Socket 发送缓冲区中,取出数据包;再按照 TCP/IP 栈,从上到下逐层处理。比如,传输层和网络层,分别为其增加 TCP 头和 IP 头,执行路由查找确认下一跳的 IP,并按照 MTU 大小进行分片。

分片后的网络包,再送到网络接口层,进行物理地址寻址,以找到下一跳的 MAC 地址。然后添加帧头和帧尾,放到发包队列中。这一切完成后,会有软中断通知驱动程序:发包队列中有新的网络帧需要发送。

最后,驱动程序通过 DMA ,从发包队列中读出网络帧,并通过物理网卡把它发送出去。

 

===============================================================================================================================================

性能指标:带宽,表示链路的最大传输速率,单位通常为 b/s (比特 / 秒)。

吞吐量,表示单位时间内成功传输的数据量,单位通常为 b/s(比特 / 秒)或者 B/s(字节 / 秒)。吞吐量受带宽限制,而吞吐量 / 带宽,也就是该网络的使用率。

延时,表示从网络请求发出后,一直到收到远端响应,所需要的时间延迟。在不同场景中,这一指标可能会有不同含义。比如,它可以表示,建立连接需要的时间(比如 TCP 握手延时),或一个数据包往返所需的时间(比如 RTT)。

PPS,是 Packet Per Second(包 / 秒)的缩写,表示以网络包为单位的传输速率。PPS 通常用来评估网络的转发能力,比如硬件交换机,通常可以达到线性转发(即 PPS 可以达到或者接近理论最大值)。而基于 Linux 服务器的转发,则容易受网络包大小的影响。

除了这些指标,网络的可用性(网络能否正常通信)、并发连接数(TCP 连接数量)、丢包率(丢包百分比)、重传率(重新传输的网络包比例)等也是常用的性能指标。

 

===============================================================================================================================================

小记:ifconfig 和 ip 分别属于软件包 net-tools 和 iproute2,iproute2 是 net-tools 的下一代。通常情况下它们会在发行版中默认安装。但如果你找不到 ifconfig 或者 ip 命令,可以安装这两个软件包。

ifconfig 和 ip 命令输出的指标基本相同

相关重要指标:

Linux网络优化

 

 

 

 

Linux网络优化

 

 

 

 

 

第一,网络接口的状态标志。ifconfig 输出中的 RUNNING ,或 ip 输出中的 LOWER_UP ,都表示物理网络是连通的,即网卡已经连接到了交换机或者路由器中。如果你看不到它们,通常表示网线被拔掉了。

第二,MTU 的大小。MTU 默认大小是 1500,根据网络架构的不同(比如是否使用了 VXLAN 等叠加网络),你可能需要调大或者调小 MTU 的数值。

第三,网络接口的 IP 地址、子网以及 MAC 地址。这些都是保障网络功能正常工作所必需的,你需要确保配置正确。

第四,网络收发的字节数、包数、错误数以及丢包情况,特别是 TX 和 RX 部分的 errors、dropped、overruns、carrier 以及 collisions 等指标不为 0 时,通常表示出现了网络 I/O 问题。其中:

errors 表示发生错误的数据包数,比如校验错误、帧同步错误等;

dropped 表示丢弃的数据包数,即数据包已经收到了 Ring Buffer,但因为内存不足等原因丢包

overruns 表示超限数据包数,即网络 I/O 速度过快,导致 Ring Buffer 中的数据包来不及处理(队列满)而导致的丢包;

carrier 表示发生 carrirer 错误的数据包数,比如双工模式不匹配、物理电缆出现问题等;

collisions 表示碰撞数据包数。

===============================================================================================================================================netstat ss命令各字段说明:

当套接字处于连接状态(Established)时,

Recv-Q 表示套接字缓冲还没有被应用程序取走的字节数(即接收队列长度)。

而 Send-Q 表示还没有被远端主机确认的字节数(即发送队列长度)。

当套接字处于监听状态(Listening)时,

Recv-Q 表示 syn backlog 的当前值。

而 Send-Q 表示最大的 syn backlog 值。

半连接:

就是还没有完成 TCP 三次握手的连接,连接只进行了一半,而服务器收到了客户端的 SYN 包后,就会把这个连接放到半连接队列中,然后再向客户端发送 SYN+ACK 包。

全连接:

则是指服务器收到了客户端的 ACK,完成了 TCP 三次握手,然后就会把这个连接挪到全连接队列中。这些全连接中的套接字,还需要再被 accept() 系统调用取走,这样,服务器就可以开始真正处理客户端的请求了。

netstat -s/ss -s #查看协议栈信息

===============================================================================================================================================网络吞吐和ppssar 增加-n参数就可以查看网络的统计信息,比如网络接口(DEV)、网络接口错误(EDEV)、TCP、UDP、ICMP等sar -n DEV 1 #获取网络接口统计信息,每秒输出一组数据

 

sar -u  #统计CPU的使用情况,每间隔1秒钟统计一次总共统计三次:

 

#sar -u 1 3

Linux网络优化

 

 

 

sar -p 1 3 #报个每个CPU的使用状态:

 

#CPU 所有CPU的统计

#%user 用户态的CPU使用统计

#%nice 更改过优先级的进程的CPU使用统计

#%iowait CPU等待IO数据的百分比

#%steal 虚拟机的vCPU占用的物理CPU的百分比

#%idle 空闲的CPU百分比

Linux网络优化

 

 sar -q #查看平均负载:

 

#runq-sz  运行队列的长度(等待运行的进程数,每核的CP不能超过3个)

#plist-sz 进程列表中的进程(processes)和线程数(threads)的数量

#ldavg-1 最后1分钟的CPU平均负载,即将多核CPU过去一分钟的负载相加再除以核心数得出的平均值,5分钟和15分钟以此类推

#ldavg-5 最后5分钟的CPU平均负载

#ldavg-15 最后15分钟的CPU平均负载

Linux网络优化

 

 

sar -r  #查看内存使用情况

 

#kbmemfree  空闲的物理内存大小

#kbmemused  使用中的物理内存大小

#%memused 物理内存使用率

#kbbuffers 内核中作为缓冲区使用的物理内存大小,kbbuffers和kbcached:这两个值就是free命令中的buffer和cache. 

#kbcached 缓存的文件大小

#kbcommit  保证当前系统正常运行所需要的最小内存,即为了确保内存不溢出而需要的最少内存(物理内存+Swap分区)

#commit 这个值是kbcommit与内存总量(物理内存+swap分区)的一个百分比的值

Linux网络优化

 

 sar -W #查看系统swap分区的统计信息:

 

 

#pswpin/s  每秒从交换分区到系统的交换页面(swap page)数量

 

#pswpott/s 每秒从系统交换到swap的交换页面(swap page)的数量

Linux网络优化

 

 

Linux网络优化

 

 

sar -b #查看I/O和传递速率的统计信息

 

#tps  磁盘每秒钟的IO总数,等于iostat中的tps

#rtps 每秒钟从磁盘读取的IO总数

#wtps 每秒钟从写入到磁盘的IO总数

#bread/s 每秒钟从磁盘读取的块总数

#bwrtn/s 每秒钟此写入到磁盘的块总数

 

Linux网络优化

 

 

Linux网络优化

 

 

sar -d #磁盘使用详情统计

 

#DEV 磁盘设备的名称,如果不加-p,会显示dev253-0类似的设备名称,因此加上-p显示的名称更直接

#tps:每秒I/O的传输总数

#rd_sec/s 每秒读取的扇区的总数

#wr_sec/s 每秒写入的扇区的 总数

#avgrq-sz 平均每次次磁盘I/O操作的数据大小(扇区)

#avgqu-sz 磁盘请求队列的平均长度

#await 从请求磁盘操作到系统完成处理,每次请求的平均消耗时间,包括请求队列等待时间,单位是毫秒(1秒等于1000毫秒),等于寻道时间+队列时间+服务时间

#svctm I/O的服务处理时间,即不包括请求队列中的时间

#%util I/O请求占用的CPU百分比,值越高,说明I/O越慢

Linux网络优化

 

 

 

sar -v #进程、inode、文件和锁表状态

 

#dentunusd 在缓冲目录条目中没有使用的条目数量

#file-nr 被系统使用的文件句柄数量

#inode-nr 已经使用的索引数量 

#pty-nr 使用的pty数量

Linux网络优化

 

 

 

 

 

各字段含义:rxpck/s 和 txpck/s 分别是接收和发送的 PPS,单位为包 / 秒。

rxkB/s 和 txkB/s 分别是接收和发送的吞吐量,单位是 KB/ 秒。

rxcmp/s 和 txcmp/s 分别是接收和发送的压缩数据包数,单位是包 / 秒。

%ifutil 是网络接口的使用率,即半双工模式下为 (rxkB/s+txkB/s)/Bandwidth,而全双工模式下为 max(rxkB/s, txkB/s)/Bandwidth。

ethtool eth0 | grep Speed #查看网卡类型(千兆、万兆)

 

Linux网络优化

 

 

===============================================================================================================================================连通性和延时ping -c3 ip地址 #测试连通性,发送3次icmp包后停止

第一部分,是每个 ICMP 请求的信息,包括 ICMP 序列号(icmp_seq)、TTL(生存时间,或者跳数)以及往返延时。

第二部分,则是三次 ICMP 请求的汇总。===============================================================================================================================================

io模型优化---io的多路复用

io事件通知方式:水平触发:只要文件描述符可以非阻塞地执行 I/O ,就会触发通知。也就是说,应用程序可以随时检查文件描述符的状态,然后再根据状态,进行 I/O 操作。

边缘触发:只有在文件描述符的状态发生改变(也就是 I/O 请求达到)时,才发送一次通知。这时候,应用程序需要尽可能多地执行 I/O,直到无法继续读写,才可以停止。如果 I/O 没执行完,或者因为某种原因没来得及处理,那么这次通知也就丢失了。

 

三种io多路复用的实现方式:.

*********第一种,使用非阻塞 I/O 和水平触发通知,比如使用 select 或者 poll。

根据刚才水平触发的原理,select 和 poll 需要从文件描述符列表中,找出哪些可以执行 I/O ,然后进行真正的网络 I/O 读写。由于 I/O 是非阻塞的,一个线程中就可以同时监控一批套接字的文件描述符,这样就达到了单线程处理多请求的目的。

所以,这种方式的最大优点,是对应用程序比较友好,它的 API 非常简单。

但是,应用软件使用 select 和 poll 时,需要对这些文件描述符列表进行轮询,这样,请求数多的时候就会比较耗时。并且,select 和 poll 还有一些其他的限制。

select 使用固定长度的位相量,表示文件描述符的集合,因此会有最大描述符数量的限制。比如,在 32 位系统中,默认限制是 1024。并且,在 select 内部,检查套接字状态是用轮询的方法,再加上应用软件使用时的轮询,就变成了一个 O(n^2) 的关系。

而 poll 改进了 select 的表示方法,换成了一个没有固定长度的数组,这样就没有了最大描述符数量的限制(当然还会受到系统文件描述符限制)。但应用程序在使用 poll 时,同样需要对文件描述符列表进行轮询,这样,处理耗时跟描述符数量就是 O(N) 的关系。

除此之外,应用程序每次调用 select 和 poll 时,还需要把文件描述符的集合,从用户空间传入内核空间,由内核修改后,再传出到用户空间中。这一来一回的内核空间与用户空间切换,也增加了处理成本。

有没有什么更好的方式来处理呢?答案自然是肯定的。

********第二种,使用非阻塞 I/O 和边缘触发通知,比如 epoll。

既然 select 和 poll 有那么多的问题,就需要继续对其进行优化,而 epoll 就很好地解决了这些问题。

epoll 使用红黑树,在内核中管理文件描述符的集合,这样,就不需要应用程序在每次操作时都传入、传出这个集合。

epoll 使用事件驱动的机制,只关注有 I/O 事件发生的文件描述符,不需要轮询扫描整个集合。

不过要注意,epoll 是在 Linux 2.6 中才新增的功能(2.4 虽然也有,但功能不完善)。由于边缘触发只在文件描述符可读或可写事件发生时才通知,那么应用程序就需要尽可能多地执行 I/O,并要处理更多的异常事件。

********第三种,使用异步 I/O(Asynchronous I/O,简称为 AIO)。在前面文件系统原理的内容中,我曾介绍过异步 I/O 与同步 I/O 的区别。异步 I/O 允许应用程序同时发起很多 I/O 操作,而不用等待这些操作完成。而在 I/O 完成后,系统会用事件通知(比如信号或者回调函数)的方式,告诉应用程序。这时,应用程序才会去查询 I/O 操作的结果。

异步 I/O 也是到了 Linux 2.6 才支持的功能,并且在很长时间里都处于不完善的状态,比如 glibc 提供的异步 I/O 库,就一直被社区诟病。同时,由于异步 I/O 跟我们的直观逻辑不太一样,想要使用的话,一定要小心设计,其使用难度比较高。

===============================================================================================================================================进程的工作模型:第一种,主进程 + 多个 worker 子进程,这也是最常用的一种模型。这种方法的一个通用工作模式就是:

主进程执行 bind() + listen() 后,创建多个子进程;

然后,在每个子进程中,都通过 accept() 或 epoll_wait() ,来处理相同的套接字。

注:此种方式会存在惊群问题,此后通过全局锁解决,谁得到锁谁就去处理

第二种,监听到相同端口的多进程模型。在这种方式下,所有的进程都监听相同的接口,并且开启 SO_REUSEPORT 选项,由内核负责将请求负载均衡到这些监听进程中去。由于内核确保了只有一个进程被唤醒,就不会出现惊群问题了

===============================================================================================================================================c1000k:100万并发请求的处理思路假设每个请求需要 16KB 内存的话,那么总共就需要大约 15 GB 内存。

而从带宽上来说,假设只有 20% 活跃连接,即使每个连接只需要 1KB/s 的吞吐量,总共也需要 1.6 Gb/s 的吞吐量。千兆网卡显然满足不了这么大的吞吐量,所以还需要配置万兆网卡,或者基于多网卡 Bonding 承载更大的吞吐量。

其次,从软件资源上来说,大量的连接也会占用大量的软件资源,比如文件描述符的数量、连接状态的跟踪(CONNTRACK)、网络协议栈的缓存大小(比如套接字读写缓存、TCP 读写缓存)等等。

最后,大量请求带来的中断处理,也会带来非常高的处理成本。这样,就需要多队列网卡、中断负载均衡、CPU 绑定、RPS/RFS(软中断负载均衡到多个 CPU 核上),以及将网络包的处理卸载(Offload)到网络设备(如 TSO/GSO、LRO/GRO、VXLAN OFFLOAD)等各种硬件和软件的优化。

C1000K 的解决方法,本质上还是构建在 epoll 的非阻塞 I/O 模型上。只不过,除了 I/O 模型之外,还需要从应用程序到 Linux 内核、再到 CPU、内存和网络等各个层次的深度优化,特别是需要借助硬件,来卸载那些原来通过软件处理的大量功能。

===============================================================================================================================================c10m1000万并发请求处理思路实际上,在 C1000K 问题中,各种软件、硬件的优化很可能都已经做到头了。特别是当升级完硬件(比如足够多的内存、带宽足够大的网卡、更多的网络功能卸载等)后,你可能会发现,无论你怎么优化应用程序和内核中的各种网络参数,想实现 1000 万请求的并发,都是极其困难的。

究其根本,还是 Linux 内核协议栈做了太多太繁重的工作。从网卡中断带来的硬中断处理程序开始,到软中断中的各层网络协议处理,最后再到应用程序,这个路径实在是太长了,就会导致网络包的处理优化,到了一定程度后,就无法更进一步了。

要解决这个问题,最重要就是跳过内核协议栈的冗长路径,把网络包直接送到要处理的应用程序那里去。这里有两种常见的机制,DPDK 和 XDP。

第一种机制,DPDK,是用户态网络的标准。它跳过内核协议栈,直接由用户态进程通过轮询的方式,来处理网络接收。说起轮询,你肯定会下意识认为它是低效的象征,但是进一步反问下自己,它的低效主要体现在哪里呢?是查询时间明显多于实际工作时间的情况下吧!那么,换个角度来想,如果每时每刻都有新的网络包需要处理,轮询的优势就很明显了。比如:

在 PPS 非常高的场景中,查询时间比实际工作时间少了很多,绝大部分时间都在处理网络包;

而跳过内核协议栈后,就省去了繁杂的硬中断、软中断再到 Linux 网络协议栈逐层处理的过程,应用程序可以针对应用的实际场景,有针对性地优化网络包的处理逻辑,而不需要关注所有的细节。

此外,DPDK 还通过大页、CPU 绑定、内存对齐、流水线并发等多种机制,优化网络包的处理效率。

第二种机制,XDP(eXpress Data Path),则是 Linux 内核提供的一种高性能网络数据路径。它允许网络包,在进入内核协议栈之前,就进行处理,也可以带来更高的性能。XDP 底层跟我们之前用到的 bcc-tools 一样,都是基于 Linux 内核的 eBPF 机制实现的。你可以看到,XDP 对内核的要求比较高,需要的是 Linux 4.8 以上版本,并且它也不提供缓存队列。基于 XDP 的应用程序通常是专用的网络应用,常见的有 IDS(入侵检测系统)、DDoS 防御、 cilium 容器网络插件等。

===============================================================================================================================================总结:C10K 问题的根源,一方面在于系统有限的资源;另一方面,也是更重要的因素,是同步阻塞的 I/O 模型以及轮询的套接字接口,限制了网络事件的处理效率。Linux 2.6 中引入的 epoll ,完美解决了 C10K 的问题,现在的高性能网络方案都基于 epoll。

从 C10K 到 C100K ,可能只需要增加系统的物理资源就可以满足;但从 C100K 到 C1000K ,就不仅仅是增加物理资源就能解决的问题了。这时,就需要多方面的优化工作了,从硬件的中断处理和网络功能卸载、到网络协议栈的文件描述符数量、连接状态跟踪、缓存队列等内核的优化,再到应用程序的工作模型优化,都是考虑的重点。

再进一步,要实现 C10M ,就不只是增加物理资源,或者优化内核和应用程序可以解决的问题了。这时候,就需要用 XDP 的方式,在内核协议栈之前处理网络包;或者用 DPDK 直接跳过网络协议栈,在用户空间通过轮询的方式直接处理网络包。========================================================================================各协议层的性能指标:

1.转发性能:

hping3 作为一个测试网络包处理能力的性能工具。syn攻击的工具

pktgen是Linux内核自带的高性能网络测试工具,pktgen命令不能直接找到,因为pktgen作为内核来运行,需要你加载pktgen内核模块后,再通过/proc文件系统来交互。

modprobe pktgen

ls /proc/pktgen

pktgen 在每个 CPU 上启动一个内核线程,并可以通过 /proc/net/pktgen 下面的同名文件,跟这些线程交互;而 pgctrl 则主要用来控制这次测试的开启和停止注:如果 modprobe 命令执行失败,说明你的内核没有配置 CONFIG_NET_PKTGEN 选项。这就需要你配置 pktgen 内核模块(即 CONFIG_NET_PKTGEN=m)后,重新编译内核,才可以使用。

使用 pktgen 测试网络性能时,需要先给每个内核线程 kpktgend_X 以及测试网卡,配置 pktgen 选项,然后再通过 pgctrl 启动测试。

-------------------------------------------------------------------------发包测试:# 定义一个工具函数,方便后面配置各种测试选项function pgset() {local resultecho $1 > $PGDEV

result=`cat $PGDEV | fgrep "Result: OK:"`if [ "$result" = "" ]; thencat $PGDEV | fgrep Result:fi}

# 为 0 号线程绑定 eth0 网卡PGDEV=/proc/net/pktgen/kpktgend_0pgset "rem_device_all" # 清空网卡绑定pgset "add_device eth0" # 添加 eth0 网卡

# 配置 eth0 网卡的测试选项PGDEV=/proc/net/pktgen/eth0pgset "count 1000000" # 总发包数量pgset "delay 5000" # 不同包之间的发送延迟 (单位纳秒)pgset "clone_skb 0" # SKB 包复制pgset "pkt_size 64" # 网络包大小pgset "dst 192.168.0.30" # 目的 IPpgset "dst_mac 11:11:11:11:11:11" # 目的 MAC

# 启动测试PGDEV=/proc/net/pktgen/pgctrlpgset "start"

查看测试报告:cat /proc/net/pktgen/eth0

报告选项说明:第一部分的 Params 是测试选项;

第二部分的 Current 是测试进度,其中, packts sofar(pkts-sofar)表示已经发送了100万个包,也就表明测试已完成。

第三部分的 Result 是测试结果,包含测试所用时间、网络包数量和分片、PPS、吞吐量以及错误数。---------------------------------------------------------------------------注:pktgen在内核4.4中不存在,在内核3.10中存在

========================================================================================TCP/UDP性能:

tcp/udp的性能测试工具:iperf/netperf---------------------------------------------------------开启一个端口监听连接:

# -s 表示启动服务端,-i 表示汇报间隔,-p 表示监听端口$ iperf3 -s -i 1 -p 10000

在另一个窗口进行连接测试:# -c 表示启动客户端,192.168.0.30 为目标服务器的 IP# -b 表示目标带宽 (单位是 bits/s)# -t 表示测试时间# -P 表示并发数,-p 表示目标服务器监听端口

$ iperf3 -c 192.168.0.30 -b 1G -t 15 -P 2 -p 10000

---------------------------------------------------------

========================================================================================HTTP性能:

http性能测试工具:ab---------------------------------------------------------# -c 表示并发请求数为 1000,-n 表示总的请求数为 10000$ ab -c 1000 -n 10000 http://192.168.0.30/

---------------------------------------------------------========================================================================================应用负载性能:wrk、TCPCopy、Jmeter 或者 LoadRunner命令确认应用程序的实际负载能力---------------------------------------------------------安装wrk:$ https://github.com/wg/wrk/tree/4.1.0$ cd wrk$ yum install build-essential -y$ make$ sudo cp wrk /usr/local/bin/

测试nginx性能:# -c 表示并发连接数 1000,-t 表示线程数为 2$ wrk -c 1000 -t 2 http://192.168.0.30/---------------------------------------------------------=======================================================================================DNS域名解析:nslookup time.geekbang.org

# +trace 表示开启跟踪查询# +nodnssec 表示禁止 DNS 安全扩展$ dig +trace +nodnssec time.geekbang.org

-------------------------------------------------------------------dnsmasq是最常用的DNS缓存服务之一DNS-dnsmasq安装配置:轻量级集合DNS,HTTP,TFTP软件。本初仅使用DNS功能。用途 : 给本地局域网服务器提供:hosts主机记录,自定义域名,以及公网域名DNS转发解析。集中配置内网服务器的hosts记录,替代内网bind服务功能。

yum安装安装yum -y install dnsmasq修改配置文件cp /etc/dnsmasq.conf /etc/dnsmasq.conf.bak#重新填写配置文件 /etc/dnsmasq.conf

##侦听端口port=53##服务启动用户及用户组user=nobodygroup=nobody##业务侦听地址 - interface 选项和 listen-address 选项可以同时使用listen-address=10.10.10.10,127.0.0.1##不加载本地的 /etc/hosts 文件no-hosts##添加读取额外的 hosts 文件路径,可以多次指定。如果指定为目录,则读取目录中的所有文件。addn-hosts=/data/dnsmasq/dnsmasq.hosts##读取目录中的所有文件,文件更新将自动读取hostsdir=/data/dnsmasq/dnsmasq.d##记录dns查询日志,如果指定 log-queries=extra 那么在每行开始处都有额外的日志信息。log-queries##设置日志记录器log-facility=/data/dnsmasq/log/dnsmasq.log##异步log,缓解阻塞,提高性能。默认为5,最大100。log-async=50##指定 EDNS.0 UDP 包的最大尺寸,默认为 RFC5625 推荐的 edns-packet-max=4096edns-packet-max=4096##指定接口interface=ens33##指定不提供 DHCP 或 TFTP 服务的接口,仅提供 DNS 服务。no-dhcp-interface=ens33##指定 resolv-file 文件路径(上游DNS服务器),默认/etc/resolv.dnsmasqresolv-file=/data/dnsmasq/resolv.dnsmasq##严格按照resolv.conf中的顺序进行查找strict-order##重启后清空缓存clear-on-reload##完整的域名才向上游服务器查找,如果仅仅是主机名仅查找hosts文件domain-needed##缓存条数,默认为150条,cache-size=0 禁用缓存。cache-size=1000##不缓存未知域名缓存,默认情况下dnsmasq缓存未知域名并直接返回为客户端。no-negcache##指定DNS同属查询转发数量dns-forward-max=1000创建相关配置文件及文件夹mkdir -p /data/dnsmasq/{dnsmasq.d,log}touch /data/dnsmasq/{dnsmasq.hosts,resolv.dnsmasq}填写DNS转发服务器(提供非自定义域名查询)#新增配置 /data/dnsmasq/resolv.dnsmasqnameserver 223.5.5.5nameserver 1.2.4.8填写hosts主机记录(提供域名hosts记录集中查询)#新增配置 /data/dnsmasq/dnsmasq.hosts10.10.10.10 test1010.10.10.11 test1110.10.10.12 test12修改addn-hosts指定hosts记录文件,需重启dnsmasq,可以通过hostsdir指定域名配置文件添加解析。

填写自定义域名(提供内网自定义域名查询)#新增配置文件 /data/dnsmasq/dnsmasq.d/k8s.test (为方便区分不同的二级域名,建议按二级域名创建配置文件)10.10.10.11 etcd.k8s.test启动服务并设置开机启动systemctl start dnsmasq.servicesystemctl enable dnsmasq.service所有服务器设置DNS指向10.10.10.10#修改配置项 /etc/sysconfig/network-scripts/ifcfg-eth0PEERDNS=no #拒绝接受DHCP分发的DNS配置DNS1=10.10.10.10 #自定义配置DNS服务器地址

#重启网络配置systemctl restart network.service其他DNS用法添加指定泛域名通过指定DNS服务器解析(防域名被劫持,或者转发指定域名解析)#增加配置 /etc/dnsmasp.confserver=/sohu.com/10.1.1.1添加指定泛域名解析成指定IP (可用来屏蔽特定的域名)#增加配置 /etc/dnsmasp.confaddress=/baidu.com/2.2.2.2添加A记录#增加配置 /etc/dnsmasp.confhost-record=test13.test,10.10.10.13添加别名记录(需要先添加源地址解析记录,在添加别名记录)#增加配置 /data/dnsmasq/dnsmasq.d/test.test10.10.10.20 20.test.test#增加配置 /etc/dnsmasp.confcname=10.test.test,20.test.test-------------------------------------------------------------------------nslookup -type=PTR 35.190.27.188 8.8.8.8 #PTR反解析==================================================================================# -w 表示只输出 HTTP 状态码及总时间,-o 表示将响应重定向到 /dev/null$ curl -s -w 'Http code: %{http_code}nTotal time:%{time_total}sn' -o /dev/null http://192.168.0.30/

DDOS模拟与防护:hping3模拟DDOS攻击:# -S 参数表示设置 TCP 协议的 SYN(同步序列号),-p 表示目的端口为 80# -i u10 表示每隔 10 微秒发送一个网络帧$ hping3 -S -p 80 -i u10 192.168.0.30

iptables限制syn连接数:

# 限制 syn 并发数为每秒 1 次$ iptables -A INPUT -p tcp --syn -m limit --limit 1/s -j ACCEPT

 

# 限制单个 IP 在 60 秒新建立的连接数为 10$ iptables -I INPUT -p tcp --dport 80 --syn -m recent --name SYN_FLOOD --update --seconds 60 --hitcount 10 -j REJECT

#半连接容量配置:查看:$ sysctl net.ipv4.tcp_max_syn_backlognet.ipv4.tcp_max_syn_backlog = 256

配置:$ sysctl -w net.ipv4.tcp_max_syn_backlog=1024net.ipv4.tcp_max_syn_backlog = 1024

更改连接重试次数:$ sysctl -w net.ipv4.tcp_synack_retries=1net.ipv4.tcp_synack_retries = 1

#开启SYN Cookies用于处理相同请求的连接$ sysctl -w net.ipv4.tcp_syncookies=1net.ipv4.tcp_syncookies = 1

#以上配置的永久生效配置:

$ cat /etc/sysctl.conf

net.ipv4.tcp_syncookies = 1net.ipv4.tcp_synack_retries = 1net.ipv4.tcp_max_syn_backlog = 1024

sysctl -p==================================================================================hping3测试网络延迟:hping3 -c 3 -S -p 80 baidu.com# -c 表示发送 3 次请求,-S 表示设置 TCP SYN,-p 表示端口号为 80

traceroute测试网络延迟:# --tcp 表示使用 TCP 协议,-p 表示端口号,-n 表示不对结果中的 IP 地址执行反向域名解析traceroute --tcp -p 80 -n baidu.com

hping3 -c 3 -S -p 8080 192.168.0.30 #hping3压力测试

tcpdump -nn tcp port 8080 -w nginx.pcap #tcpdump抓测试包保存

wrk --latency -c 100 -t 2 --timeout 2 http://192.168.0.30:8080/ #测试网络延迟

strace -f wrk --latency -c 100 -t 2 --timeout 2 http://192.168.0.30:8080/ #strace命令追踪命令的系统调用

注:大量小包发送,可能与tcp算法有关,Nagle算法,是TCP协议中用于减少小包发送数量的一种优化算法,目的是为了提高实际带宽的利用率。tcp_nodelay off;nginx中这个关闭了,就会每次请求的包都会发送。开启后可以提高发送效率。

=================================================================================NAT原理:

静态NAT,即内网ip与公网ip是一对一的永久映射关系;

动态NAT,即内网ip从公网ip池中,动态选择一个进行映射;

网络地址端口转换NAPT,即把内网ip映射到公网ip的不同端口上,让多个内网ip可以共享一个公网ip地址。

 

三类NAPT:

第一类是源地址转换 SNAT,即目的地址不变,只替换源 IP 或源端口。SNAT 主要用于,多个内网 IP 共享同一个公网 IP ,来访问外网资源的场景

 

第二类是目的地址转换 DNAT,即源 IP 保持不变,只替换目的 IP 或者目的端口。DNAT 主要通过公网 IP 的不同端口号,来访问内网的多种服务,同时会隐藏后端服务器的真实 IP 地址。

 

第三类是双向地址转换,即同时使用 SNAT 和 DNAT。当接收到网络包时,执行 DNAT,把目的 IP 转换为内网 IP;而在发送网络包时,执行 SNAT,把源 IP 替换为外部 IP。

 

 

双向地址转换,其实就是外网 IP 与内网 IP 的一对一映射关系,所以常用在虚拟化环境中,为虚拟机分配浮动的公网 IP 地址。

 

iptables包括 filter(用于过滤)、nat(用于 NAT)、mangle(用于修改分组数据) 和 raw(用于原始数据包)等。

SNAT转换的两种方式:$ iptables -t nat -A POSTROUTING -s 192.168.0.0/16 -j MASQUERADE$ iptables -t nat -A POSTROUTING -s 192.168.0.2 -j SNAT --to-source 100.100.100.100

DNAT转换:$ iptables -t nat -A PREROUTING -d 100.100.100.100 -j DNAT --to-destination 192.168.0.2

双向地址转换:$ iptables -t nat -A POSTROUTING -s 192.168.0.2 -j SNAT --to-source 100.100.100.100$ iptables -t nat -A PREROUTING -d 100.100.100.100 -j DNAT --to-destination 192.168.0.2

开启Linux转发功能:$ sysctl net.ipv4.ip_forwardnet.ipv4.ip_forward = 1

$ sysctl -w net.ipv4.ip_forward=1net.ipv4.ip_forward = 1

$ cat /etc/sysctl.conf | grep ip_forwardnet.ipv4.ip_forward=1

=======================================================================================systemtap工具:SystemTap 是 Linux 的一种动态追踪框架,它把用户提供的脚本,转换为内核模块来执行,用来监测和跟踪内核的行为。

---------------------------------------------systemtap安装:# Ubuntuapt-get install -y systemtap-runtime systemtap# Configure ddebs sourceecho "deb http://ddebs.ubuntu.com $(lsb_release -cs) main restricted universe multiversedeb http://ddebs.ubuntu.com $(lsb_release -cs)-updates main restricted universe multiversedeb http://ddebs.ubuntu.com $(lsb_release -cs)-proposed main restricted universe multiverse" | sudo tee -a /etc/apt/sources.list.d/ddebs.list# Install dbgsymapt-key adv --keyserver keyserver.ubuntu.com --recv-keys F2EDC64DC5AEE1F6B9C621F0C8CAB6595FDFF622apt-get updateapt install ubuntu-dbgsym-keyringstap-prepapt-get install linux-image-`uname -r`-dbgsym

# CentOSyum install systemtap kernel-devel yum-utils kernelstab-prep---------------------------------------------

NAT正常工作至少需要两个步骤:第一,利用 Netfilter 中的钩子函数(Hook),修改源地址或者目的地址。

第二,利用连接跟踪模块 conntrack ,关联同一个连接的请求和响应。

写systemtap的stap脚本:(不懂)---------------------------------------------#! /usr/bin/env stap

############################################################# Dropwatch.stp# Author: Neil Horman <nhorman@redhat.com># An example script to mimic the behavior of the dropwatch utility# http://fedorahosted.org/dropwatch############################################################

# Array to hold the list of drop points we findglobal locations

# Note when we turn the monitor on and offprobe begin { printf("Monitoring for dropped packetsn") }probe end { printf("Stopping dropped packet monitorn") }

# increment a drop counter for every location we drop atprobe kernel.trace("kfree_skb") { locations[$location] <<< 1 }

# Every 5 seconds report our drop locationsprobe timer.sec(5){printf("n")foreach (l in locations-) {printf("%d packets dropped at %sn",@count(locations[l]), symname(l))}delete locations}

注:这个脚本,跟踪内核函数 kfree_skb() 的调用,并统计丢包的位置------------------------------------------------

执行stap命令:stap是systemtap的命令行工具$ stap --all-modules dropwatch.stp

执行ab命令,可以在stap命令监控端看到追踪的输出$ ab -c 5000 -n 10000 -r -s 30 http://192.168.0.30:8080/

通过perf record和perf report命令可以记录ab压测的调用perf record -a -g -- sleep 30perf report -g graph,0

# 统计总的连接跟踪数$ conntrack -L -o extended | wc -l

# 统计 TCP 协议各个状态的连接跟踪数$ conntrack -L -o extended | awk '/^.*tcp.*$/ {sum[$6]++} END {for(i in sum) print i, sum[i]}'

# 统计各个源 IP 的连接跟踪数$ conntrack -L -o extended | awk '{print $7}' | cut -d "=" -f 2 | sort | uniq -c | sort -nr | head -n 10

===================================================================================网络通信各层性能指标:1.首先是网络接口层和网络层,它们主要负责网络包的封装、寻址、路由,以及发送和接收。每秒可处理的网络包数 PPS,就是它们最重要的性能指标(特别是在小包的情况下)。你可以用内核自带的发包工具 pktgen ,来测试 PPS 的性能。

 

2.再向上到传输层的 TCP 和 UDP,它们主要负责网络传输。对它们而言,吞吐量(BPS)、连接数以及延迟,就是最重要的性能指标。你可以用 iperf 或 netperf ,来测试传输层的性能。

 

不过要注意,网络包的大小,会直接影响这些指标的值。所以,通常,你需要测试一系列不同大小网络包的性能。

 

3.最后,再往上到了应用层,最需要关注的是吞吐量(BPS)、每秒请求数以及延迟等指标。你可以用 wrk、ab 等工具,来测试应用程序的性能。

网络性能优化:

1.从网络io角度:第一种是最常用的 I/O 多路复用技术 epoll,主要用来取代 select 和 poll。这其实是解决 C10K 问题的关键,也是目前很多网络应用默认使用的机制。

第二种是使用异步 I/O(Asynchronous I/O,AIO)。AIO 允许应用程序同时发起很多 I/O 操作,而不用等待这些操作完成。等到 I/O 完成后,系统会用事件通知的方式,告诉应用程序结果。不过,AIO 的使用比较复杂,你需要小心处理很多边缘情况。

2.从进程的工作模型:第一种,主进程 + 多个 worker 子进程。其中,主进程负责管理网络连接,而子进程负责实际的业务处理。这也是最常用的一种模型。

第二种,监听到相同端口的多进程模型。在这种模型下,所有进程都会监听相同接口,并且开启 SO_REUSEPORT 选项,由内核负责,把请求负载均衡到这些监听进程中去。

3.应用层网络协议优化:使用长连接取代短连接,可以显著降低 TCP 建立连接的成本。在每秒请求次数较多时,这样做的效果非常明显。

使用内存等方式,来缓存不常变化的数据,可以降低网络 I/O 次数,同时加快应用程序的响应速度。

使用 Protocol Buffer 等序列化的方式,压缩网络 I/O 的数据量,可以提高应用程序的吞吐。

使用 DNS 缓存、预取、HTTPDNS 等方式,减少 DNS 解析的延迟,也可以提升网络 I/O 的整体速度。

 

4.套接字角度

增大每个套接字的缓冲区大小 net.core.optmem_max;

增大套接字接收缓冲区大小 net.core.rmem_max 和发送缓冲区大小 net.core.wmem_max;

增大 TCP 接收缓冲区大小 net.ipv4.tcp_rmem 和发送缓冲区大小 net.ipv4.tcp_wmem。

 

注:tcp_rmem 和 tcp_wmem 的三个数值分别是 min,default,max,系统会根据这些设置,自动调整 TCP 接收 / 发送缓冲区的大小。

udp_mem 的三个数值分别是 min,pressure,max,系统会根据这些设置,自动调整 UDP 发送缓冲区的大小。

 

套接字接口额外配置选项:为 TCP 连接设置 TCP_NODELAY 后,就可以禁用 Nagle 算法;

为 TCP 连接开启 TCP_CORK 后,可以让小包聚合成大包后再发送(注意会阻塞小包的发送);

使用 SO_SNDBUF 和 SO_RCVBUF ,可以分别调整套接字发送缓冲区和接收缓冲区的大小

 

5.tcp协议优化:

第一类,在请求数比较大的场景下,你可能会看到大量处于 TIME_WAIT 状态的连接,它们会占用大量内存和端口资源。这时,我们可以优化与 TIME_WAIT 状态相关的内核选项,比如采取下面几种措施。

增大处于 TIME_WAIT 状态的连接数量 net.ipv4.tcp_max_tw_buckets ,并增大连接跟踪表的大小 net.netfilter.nf_conntrack_max。

减小 net.ipv4.tcp_fin_timeout 和 net.netfilter.nf_conntrack_tcp_timeout_time_wait ,让系统尽快释放它们所占用的资源。

开启端口复用 net.ipv4.tcp_tw_reuse。这样,被 TIME_WAIT 状态占用的端口,还能用到新建的连接中。

增大本地端口的范围 net.ipv4.ip_local_port_range 。这样就可以支持更多连接,提高整体的并发能力。

增加最大文件描述符的数量。你可以使用 fs.nr_open 和 fs.file-max ,分别增大进程和系统的最大文件描述符数;或在应用程序的 systemd 配置文件中,配置 LimitNOFILE ,设置应用程序的最大文件描述符数。

第二类,为了缓解 SYN FLOOD 等,利用 TCP 协议特点进行攻击而引发的性能问题,你可以考虑优化与 SYN 状态相关的内核选项,比如采取下面几种措施。

增大 TCP 半连接的最大数量 net.ipv4.tcp_max_syn_backlog ,或者开启 TCP SYN Cookies net.ipv4.tcp_syncookies ,来绕开半连接数量限制的问题(注意,这两个选项不可同时使用)

减少 SYN_RECV 状态的连接重传 SYN+ACK 包的次数 net.ipv4.tcp_synack_retries。

第三类,在长连接的场景中,通常使用 Keepalive 来检测 TCP 连接的状态,以便对端连接断开后,可以自动回收。但是,系统默认的 Keepalive 探测间隔和重试次数,一般都无法满足应用程序的性能要求。所以,这时候你需要优化与 Keepalive 相关的内核选项,比如:

缩短最后一次数据包到 Keepalive 探测包的间隔时间 net.ipv4.tcp_keepalive_time;

缩短发送 Keepalive 探测包的间隔时间 net.ipv4.tcp_keepalive_intvl;

减少 Keepalive 探测失败后,一直到通知应用程序前的重试次数 net.ipv4.tcp_keepalive_probes。

 

6.udp协议优化:UDP 提供了面向数据报的网络协议,它不需要网络连接,也不提供可靠性保障。所以,UDP 优化,相对于 TCP 来说,要简单得多。这里我也总结了常见的几种优化方案

跟上篇套接字部分提到的一样,增大套接字缓冲区大小以及 UDP 缓冲区范围;

跟前面 TCP 部分提到的一样,增大本地端口号的范围;

根据 MTU 大小,调整 UDP 数据包的大小,减少或者避免分片的发生。

7.网络层优化:

网络层,负责网络包的封装、寻址和路由,包括 IP、ICMP 等常见协议。在网络层,最主要的优化,其实就是对路由、 IP 分片以及 ICMP 等进行调优。

 

第一种,从路由和转发的角度出发,你可以调整下面的内核选项。

 

在需要转发的服务器中,比如用作 NAT 网关的服务器或者使用 Docker 容器时,开启 IP 转发,即设置 net.ipv4.ip_forward = 1。

调整数据包的生存周期 TTL,比如设置 net.ipv4.ip_default_ttl = 64。注意,增大该值会降低系统性能。

开启数据包的反向地址校验,比如设置 net.ipv4.conf.eth0.rp_filter = 1。这样可以防止 IP 欺骗,并减少伪造 IP 带来的 DDoS 问题。

 

第二种,从分片的角度出发,最主要的是调整 MTU(Maximum Transmission Unit)的大小。

通常,MTU 的大小应该根据以太网的标准来设置。以太网标准规定,一个网络帧最大为 1518B,那么去掉以太网头部的 18B 后,剩余的 1500 就是以太网 MTU 的大小。

 

在使用 VXLAN、GRE 等叠加网络技术时,要注意,网络叠加会使原来的网络包变大,导致 MTU 也需要调整。

比如,就以 VXLAN 为例,它在原来报文的基础上,增加了 14B 的以太网头部、 8B 的 VXLAN 头部、8B 的 UDP 头部以及 20B 的 IP 头部。换句话说,每个包比原来增大了 50B。

所以,我们就需要把交换机、路由器等的 MTU,增大到 1550, 或者把 VXLAN 封包前(比如虚拟化环境中的虚拟网卡)的 MTU 减小为 1450。

另外,现在很多网络设备都支持巨帧,如果是这种环境,你还可以把 MTU 调大为 9000,以提高网络吞吐量。

 

第三种,从 ICMP 的角度出发,为了避免 ICMP 主机探测、ICMP Flood 等各种网络问题,你可以通过内核选项,来限制 ICMP 的行为。

 

比如,你可以禁止 ICMP 协议,即设置 net.ipv4.icmp_echo_ignore_all = 1。这样,外部主机就无法通过 ICMP 来探测主机。

或者,你还可以禁止广播 ICMP,即设置 net.ipv4.icmp_echo_ignore_broadcasts = 1

 

8.链路层优化:

网络层的下面是链路层,所以最后,我们再来看链路层的优化方法。

链路层负责网络包在物理网络中的传输,比如 MAC 寻址、错误侦测以及通过网卡传输网络帧等。自然,链路层的优化,也是围绕这些基本功能进行的。接下来,我们从不同的几个方面分别来看。

由于网卡收包后调用的中断处理程序(特别是软中断),需要消耗大量的 CPU。所以,将这些中断处理程序调度到不同的 CPU 上执行,就可以显著提高网络吞吐量。这通常可以采用下面两种方法。

比如,你可以为网卡硬中断配置 CPU 亲和性(smp_affinity),或者开启 irqbalance 服务。

再如,你可以开启 RPS(Receive Packet Steering)和 RFS(Receive Flow Steering),将应用程序和软中断的处理,调度到相同 CPU 上,这样就可以增加 CPU 缓存命中率,减少网络延迟。

另外,现在的网卡都有很丰富的功能,原来在内核中通过软件处理的功能,可以卸载到网卡中,通过硬件来执行。

TSO(TCP Segmentation Offload)和 UFO(UDP Fragmentation Offload):在 TCP/UDP 协议中直接发送大包;而 TCP 包的分段(按照 MSS 分段)和 UDP 的分片(按照 MTU 分片)功能,由网卡来完成 。

GSO(Generic Segmentation Offload):在网卡不支持 TSO/UFO 时,将 TCP/UDP 包的分段,延迟到进入网卡前再执行。这样,不仅可以减少 CPU 的消耗,还可以在发生丢包时只重传分段后的包。

LRO(Large Receive Offload):在接收 TCP 分段包时,由网卡将其组装合并后,再交给上层网络处理。不过要注意,在需要 IP 转发的情况下,不能开启 LRO,因为如果多个包的头部信息不一致,LRO 合并会导致网络包的校验错误。

GRO(Generic Receive Offload):GRO 修复了 LRO 的缺陷,并且更为通用,同时支持 TCP 和 UDP。

RSS(Receive Side Scaling):也称为多队列接收,它基于硬件的多个接收队列,来分配网络接收进程,这样可以让多个 CPU 来处理接收到的网络包。

VXLAN 卸载:也就是让网卡来完成 VXLAN 的组包功能。

最后,对于网络接口本身,也有很多方法,可以优化网络的吞吐量。

比如,你可以开启网络接口的多队列功能。这样,每个队列就可以用不同的中断号,调度到不同 CPU 上执行,从而提升网络的吞吐量。

再如,你可以增大网络接口的缓冲区大小,以及队列长度等,提升网络传输的吞吐量(注意,这可能导致延迟增大)。

你还可以使用 Traffic Control 工具,为不同网络流量配置 QoS。

9.C10M情况优化:第一种,使用 DPDK 技术,跳过内核协议栈,直接由用户态进程用轮询的方式,来处理网络请求。同时,再结合大页、CPU 绑定、内存对齐、流水线并发等多种机制,优化网络包的处理效率。

第二种,使用内核自带的 XDP 技术,在网络包进入内核协议栈前,就对其进行处理,这样也可以实现很好的性能。

===========================================================================================================================================关于网络缓冲区的说法:网卡收发网络包时,通过 DMA 方式交互的环形缓冲区;

网卡中断处理程序为网络帧分配的,内核数据结构 sk_buff 缓冲区;

应用程序通过套接字接口,与网络协议栈交互时的套接字缓冲区。

环形缓冲区,由于需要 DMA 与网卡交互,理应属于网卡设备驱动的范围。

sk_buff 缓冲区,是一个维护网络帧结构的双向链表,链表中的每一个元素都是一个网络帧(Packet)。虽然 TCP/IP 协议栈分了好几层,但上下不同层之间的传递,实际上只需要操作这个数据结构中的指针,而无需进行数据复制。

套接字缓冲区,则允许应用程序,给每个套接字配置不同大小的接收或发送缓冲区。应用程序发送数据,实际上就是将数据写入缓冲区;而接收数据,其实就是从缓冲区中读取。至于缓冲区中数据的进一步处理,则由传输层的 TCP 或 UDP 协议来完成。

sk_buff、套接字缓冲、连接跟踪等,都通过 slab 分配器来管理。你可以直接通过 /proc/slabinfo,来查看它们占用的内存大小。

 

 

 

 

 

 

提高Linux系统下的负载能力,可以使用nginx等原生并发处理能力就很强的web服务器,如果使用Apache的可以启用其Worker模式,来提高其并发处理能力。除此之外,在考虑节省成本的情况下,可以修改Linux的内核相关TCP参数,来最大的提高服务器性能。

 

 

TIME_WAIT

Linux系统下,TCP连接断开后,会以TIME_WAIT状态保留一定的时间,然后才会释放端口。当并发请求过多的时候,就会产生大量的TIME_WAIT状态的连接,无法及时断开的话,会占用大量的端口资源和服务器资源。这个时候我们可以优化TCP的内核参数,来及时将TIME_WAIT状态的端口清理掉。

本文介绍的方法只对拥有大量TIME_WAIT状态的连接导致系统资源消耗有效,如果不是这种情况下,效果可能不明显。可以使用netstat命令去查TIME_WAIT状态的连接状态,输入下面的组合命令,查看当前TCP连接的状态和对应的连接数量:

 

netstat -n | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}'

用vim打开配置文件:#vim /etc/sysctl.conf这个命令会输出类似下面的结果:

LAST_ACK 16SYN_RECV 348ESTABLISHED 70FIN_WAIT1 229FIN_WAIT2 30CLOSING 33TIME_WAIT 18098我们只用关心TIME_WAIT的个数,在这里可以看到,有18000多个TIME_WAIT,这样就占用了18000多个端口。要知道端口的数量只有65535个,占用一个少一个,会严重的影响到后继的新连接。这种情况下,我们就有必要调整下Linux的TCP内核参数,让系统更快的释放TIME_WAIT连接。

在这个文件中,加入下面的几行内容:net.ipv4.tcp_syncookies = 1net.ipv4.tcp_tw_reuse = 1net.ipv4.tcp_tw_recycle = 1net.ipv4.tcp_fin_timeout = 30

输入下面的命令,让内核参数生效:#sysctl -p

简单的说明上面的参数的含义:

net.ipv4.tcp_syncookies = 1#表示开启SYN Cookies。当出现SYN等待队列溢出时,启用cookies来处理,可防范少量SYN攻击,默认为0,表示关闭;

net.ipv4.tcp_tw_reuse = 1#表示开启重用。允许将TIME-WAIT sockets重新用于新的TCP连接,默认为0,表示关闭;

net.ipv4.tcp_tw_recycle = 1#表示开启TCP连接中TIME-WAIT sockets的快速回收,默认为0,表示关闭;

net.ipv4.tcp_fin_timeout#修改系統默认的 TIMEOUT 时间。

 

在经过这样的调整之后,除了会进一步提升服务器的负载能力之外,还能够防御小流量程度的DoS、CC和SYN攻击。

此外,如果你的连接数本身就很多,我们可以再优化一下TCP的可使用端口范围,进一步提升服务器的并发能力。依然是往上面的参数文件中,加入下面这些配置:net.ipv4.tcp_keepalive_time = 1200net.ipv4.ip_local_port_range = 10000 65000net.ipv4.tcp_max_syn_backlog = 8192net.ipv4.tcp_max_tw_buckets = 5000

#这几个参数,建议只在流量非常大的服务器上开启,会有显著的效果。一般的流量小的服务器上,没有必要去设置这几个参数。

net.ipv4.tcp_keepalive_time = 1200#表示当keepalive起用的时候,TCP发送keepalive消息的频度。缺省是2小时,改为20分钟。

net.ipv4.ip_local_port_range = 10000 65000#表示用于向外连接的端口范围。缺省情况下很小:32768到61000,改为10000到65000。(注意:这里不要将最低值设的太低,否则可能会占用掉正常的端口!)

net.ipv4.tcp_max_syn_backlog = 8192#表示SYN队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数。

net.ipv4.tcp_max_tw_buckets = 6000#表示系统同时保持TIME_WAIT的最大数量,如果超过这个数字,TIME_WAIT将立刻被清除并打印警告信息。默 认为180000,改为6000。对于Apache、Nginx等服务器,上几行的参数可以很好地减少TIME_WAIT套接字数量,但是对于Squid,效果却不大。此项参数可以控制TIME_WAIT的最大数量,避免Squid服务器被大量的TIME_WAIT拖死。

 

内核其他TCP参数说明:

net.ipv4.tcp_max_syn_backlog = 65536#记录的那些尚未收到客户端确认信息的连接请求的最大值。对于有128M内存的系统而言,缺省值是1024,小内存的系统则是128。

net.core.netdev_max_backlog = 32768#每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目。

net.core.somaxconn = 32768#web应用中listen函数的backlog默认会给我们内核参数的net.core.somaxconn限制到128,而nginx定义的NGX_LISTEN_BACKLOG默认为511,所以有必要调整这个值。

 

net.core.wmem_default = 8388608net.core.rmem_default = 8388608net.core.rmem_max = 16777216           #最大socket读buffer,可参考的优化值:873200net.core.wmem_max = 16777216           #最大socket写buffer,可参考的优化值:873200net.ipv4.tcp_timestsmps = 0

#时间戳可以避免序列号的卷绕。一个1Gbps的链路肯定会遇到以前用过的序列号。时间戳能够让内核接受这种“异常”的数据包。这里需要将其关掉。net.ipv4.tcp_synack_retries = 2

#为了打开对端的连接,内核需要发送一个SYN并附带一个回应前面一个SYN的ACK。也就是所谓三次握手中的第二次握手。这个设置决定了内核放弃连接之前发送SYN+ACK包的数量。

#net.ipv4.tcp_syn_retries = 2

#在内核放弃建立连接之前发送SYN包的数量。#net.ipv4.tcp_tw_len = 1

net.ipv4.tcp_tw_reuse = 1# 开启重用。允许将TIME-WAIT sockets重新用于新的TCP连接。

net.ipv4.tcp_wmem = 8192 436600 873200# TCP写buffer,可参考的优化值: 8192 436600 873200net.ipv4.tcp_rmem  = 32768 436600 873200# TCP读buffer,可参考的优化值: 32768 436600 873200net.ipv4.tcp_mem = 94500000 91500000 92700000

# 同样有3个值,意思是:net.ipv4.tcp_mem[0]:低于此值,TCP没有内存压力。net.ipv4.tcp_mem[1]:在此值下,进入内存压力阶段。net.ipv4.tcp_mem[2]:高于此值,TCP拒绝分配socket。

上述内存单位是页,而不是字节。可参考的优化值是:786432 1048576 1572864

net.ipv4.tcp_max_orphans = 3276800#系统中最多有多少个TCP套接字不被关联到任何一个用户文件句柄上。如果超过这个数字,连接将即刻被复位并打印出警告信息。这个限制仅仅是为了防止简单的DoS攻击,不能过分依靠它或者人为地减小这个值,更应该增加这个值(如果增加了内存之后)。

net.ipv4.tcp_fin_timeout = 30#如果套接字由本端要求关闭,这个参数决定了它保持在FIN-WAIT-2状态的时间。对端可以出错并永远不关闭连接,甚至意外当机。缺省值是60秒。2.2 内核的通常值是180秒,你可以按这个设置,但要记住的是,即使你的机器是一个轻载的WEB服务器,也有因为大量的死套接字而内存溢出的风险,FIN- WAIT-2的危险性比FIN-WAIT-1要小,因为它最多只能吃掉1.5K内存,但是它们的生存期长些。

经过这样的优化配置之后,你的服务器的TCP并发处理能力会显著提高。以上配置仅供参考,用于生产环境请根据自己的实际情况。

 

 

 

 

 

 

大多数Linux发行版都定义了适当的缓冲区和其他TCP参数,可以通过修改这些参数来分配更多的内存,从而改进网络性能。

 

设置内核参数的方法是通过proc接口,也就是通过读写/proc中的值。幸运的是,sysctl可以读取/etc/sysctl.conf中的值并根据需要填充/proc,这样就能够更轻松地管理这些参数。

下面展示了在互联网服务器上应用于Internet服务器的一些比较激进的网络设置。

# Use TCP syncookies when needednet.ipv4.tcp_syncookies = 1# Enable TCP window scalingnet.ipv4.tcp_window_scaling = 1# Increase TCP max buffer sizenet.core.rmem_max = 16777216net.core.wmem_max = 16777216# Increase linux autotuning TCP buffer limitsnet.ipv4.tcp_rmem = 4096 87380 16777216net.ipv4.tcp_wmem = 4096 65535 16777216# Increase number of ports availablenet.ipv4.ip_local_port_range = 1024 65000

将这些设置添加到/etc/sysctl.conf的现有内容中。

第一个设置启用TCP SYN cookie。

当从客户机发来新的TCP连接时,数据包设置了SYN位,服务器就位这个半开的连接创建一个条目,并用一个SYN-ACK数据包进行响应。在正常操作中,远程客户机用一个ACK数据包进行响应,这回使得半开的连接转换为全开的。

有一种称为SYN泛滥(SYN flood)的网络攻击,它使ACK数据包无法返回,导致服务器用光内存空间,无法处理到来的连接。SYN cookie特性可以识别出这种情况,并使用一种优雅的方法保留队列中的空间,大多数系统都默认启用这个特性,但是确保配置这个特性更可靠。

第二个设置启用TCP窗口伸缩

启用TCP窗口伸缩可以使客户机能够以更高的速度下载数据。TCP允许在未从远程端收到确认的情况下发送多个数据包,默认设置是最多64KB,在与延迟比较大的远程客户机进行通信时这个设置可能不够,窗口伸缩会在头中启用更多的位,从而增加窗口大小。

后面四个配置项增加TCP发送和接收缓冲区

这使应用程序可以更快地丢掉它的数据,从而为另一个请求服务,还可以强化远程客户机在服务器繁忙时发送数据的能力。

最后一个配置项增加可用的本地端口数量

这样就增加了可以同时服务的最大连接数量。

在下一次引导系统时,或者下一次运行sysctl -p /etc/sysctl.conf时,这些设置就会生效。

TCP/IP子系统的调优所有的TCP/IP调优参数都位于/proc/sys/net目录,例如下面是最重要的一些调优参数:

 

# 最大的TCP数据接收缓冲/proc/sys/net/core/rmem_max

 

# 最大的TCP数据发送缓冲/proc/sys/net/core/wmem_max

# 时间戳在TCP的包头增加12个字节/proc/sys/net/ipv4/tcp_timestamps

# 有选择的应答/proc/sys/net/ipv4/tcp_sack

# 支持更大的TCP窗口,如果TCP窗口最大超过65535,必须设置该数值为1/proc/sys/net/ipv4/tcp_window_scaling

# 默认的接收窗口大小rmem_default

# 接收窗口的最大大小rmem_max

# 默认的发送窗口大小wmem_default

# 发送窗口的最大大小wmem_max

 

/proc目录下的所有内容都是临时性的,所以重启系统后任务修改都会丢失

建议在系统启动时自动修改TCP/IP参数,将下面代码增加到/etc/rc.local文件中,然后保存文件,系统重新引导的时候回自动修改下面TCP/IP参数:

echo 256960 > /proc/sys/net/core/rmem_defaultecho 256960 > /proc/sys/net/core/rmem_maxecho 256960 > /proc/sys/net/core/wmem_defaultecho 256960 > /proc/sys/net/core/wmem_maxecho 0 > /proc/sys/net/ipv4/tcp_timestampsecho 1 > /proc/sys/net/ipv4/tcp_sackecho 1 > /proc/sys/net/ipv4/tcp_window_scaling

 

TCP/IP参数都是自解释的,TCP窗口大小设置为256960,禁止TCP的时间戳(取消在每个数据包的头中增加12字节),支持更大的TCP窗口和TCP有选择的应答。

上面数值的设定是根据互联网连接和最大带宽/延迟率来决定的。

另外一个方法:使用/etc/sysctl.conf在系统启动时将参数设置成需要设置的值。

net.core.rmem_default = 256960net.core.rmem_max = 256960net.core.wmem_default = 256960net.core.wmem_max = 256960net.ipv4.tcp_timestamps = 0net.ipv4.tcp_sack = 1net.ipv4.tcp_window_scaling = 1

大佬总结

以上是大佬教程为你收集整理的Linux网络优化全部内容,希望文章能够帮你解决Linux网络优化所遇到的程序开发问题。

如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。
标签:算法