|
|
51CTO旗下网站
|
|
移动端
创建专栏

服务器不丢包背后的兵法:Redis在万亿级日访问量下的中断优化

2017 年年初以来,随着 Redis 产品的用户量越来越大、接入服务越来越多,再加上美团点评 Memcache 和 Redis 两套缓存融合......

作者:骁雄、春林|2018-05-28 08:20

【51CTO技术沙龙】10月27日,让我们共同探索AI场景化应用实现之道

2017 年年初以来,随着 Redis 产品的用户量越来越大、接入服务越来越多,再加上美团点评 Memcache 和 Redis 两套缓存融合......

这导致 Redis 服务端的总体请求量从年初最开始日访问量百亿次级别上涨到高峰时段的万亿次级别,因此给运维和架构团队都带来了极大的挑战。

原本稳定的环境也因为请求量的上涨带来了很多不稳定的因素,其中一直困扰我们的就是网卡丢包问题。

起初线上存在部分 Redis 节点还在使用千兆网卡的老旧服务器,而缓存服务往往需要承载极高的查询量,并要求毫秒级的响应速度,如此一来千兆网卡很快就出现了瓶颈。

经过整治,我们将千兆网卡服务器替换为了万兆网卡服务器。本以为可以高枕无忧,但是没想到,在业务高峰时段,机器竟然也出现了丢包问题,而此时网卡带宽使用还远远没有达到瓶颈。

定位网络丢包的原因

从异常指标入手

首先,我们在系统监控的 net.if.in.dropped 指标中,看到有大量数据丢包异常,那么第一步就是要了解这个指标代表什么。

这个指标的数据源,是读取 /proc/net/dev 中的数据,监控 Agent 做简单的处理之后上报。

以下为 /proc/net/dev 的一个示例,可以看到第一行 Receive 代表 in,Transmit 代表 out,第二行即各个表头字段,再往后每一行代表一个网卡设备具体的值。

其中各个字段意义如下:

/proc/net/dev 的数据来源,根据源码文件 net/core/net-procfs.c,可以知道上述指标是通过其中的 dev_seq_show() 函数和 dev_seq_printf_stats() 函数输出的。

通过上述字段解释,我们可以了解丢包发生在网卡设备驱动层面,但是想要了解真正的原因,需要继续深入源码。

  1. static int dev_seq_show(struct seq_file *seq, void *v) 
  2.     if (v == SEQ_START_TOKEN) 
  3.         /* 输出/proc/net/dev表头部分   */ 
  4.         seq_puts(seq, "Inter-|   Receive                            " 
  5.                   "                    |  Transmit\n" 
  6.                   " face |bytes    packets errs drop fifo frame " 
  7.                   "compressed multicast|bytes    packets errs " 
  8.                   "drop fifo colls carrier compressed\n"); 
  9.     else 
  10.         /* 输出/proc/net/dev数据部分   */ 
  11.         dev_seq_printf_stats(seq, v); 
  12.     return 0; 
  13.  
  14. static void dev_seq_printf_stats(struct seq_file *seq, struct net_device *dev) 
  15.     struct rtnl_link_stats64 temp
  16.  
  17.     /* 数据源从下面的函数中取得   */ 
  18.     const struct rtnl_link_stats64 *stats = dev_get_stats(dev, &temp); 
  19.  
  20.     /* /proc/net/dev 各个字段的数据算法   */ 
  21.     seq_printf(seq, "%6s: %7llu %7llu %4llu %4llu %4llu %5llu %10llu %9llu " 
  22.            "%8llu %7llu %4llu %4llu %4llu %5llu %7llu %10llu\n"
  23.            dev->name, stats->rx_bytes, stats->rx_packets, 
  24.            stats->rx_errors, 
  25.            stats->rx_dropped + stats->rx_missed_errors, 
  26.            stats->rx_fifo_errors, 
  27.            stats->rx_length_errors + stats->rx_over_errors + 
  28.             stats->rx_crc_errors + stats->rx_frame_errors, 
  29.            stats->rx_compressed, stats->multicast, 
  30.            stats->tx_bytes, stats->tx_packets, 
  31.            stats->tx_errors, stats->tx_dropped, 
  32.            stats->tx_fifo_errors, stats->collisions, 
  33.            stats->tx_carrier_errors + 
  34.             stats->tx_aborted_errors + 
  35.             stats->tx_window_errors + 
  36.             stats->tx_heartbeat_errors, 
  37.            stats->tx_compressed); 

dev_seq_printf_stats() 函数里,对应 drop 输出的部分,能看到由两块组成:stats->rx_dropped+stats->rx_missed_errors。

继续查找 dev_get_stats 函数可知,rx_dropped 和 rx_missed_errors 都是从设备获取的,并且需要设备驱动实现。

  1. /** 
  2.  *  dev_get_stats   - get network device statistics 
  3.  *  @dev: device to get statistics from 
  4.  *  @storage: place to store stats 
  5.  * 
  6.  *  Get network statistics from device. Return @storage. 
  7.  *  The device driver may provide its own method by setting 
  8.  *  dev->netdev_ops->get_stats64 or dev->netdev_ops->get_stats; 
  9.  *  otherwise the internal statistics structure is used. 
  10.  */ 
  11. struct rtnl_link_stats64 *dev_get_stats(struct net_device *dev, 
  12.                     struct rtnl_link_stats64 *storage) 
  13.     const struct net_device_ops *ops = dev->netdev_ops; 
  14.     if (ops->ndo_get_stats64) { 
  15.         memset(storage, 0, sizeof(*storage)); 
  16.         ops->ndo_get_stats64(dev, storage); 
  17.     } else if (ops->ndo_get_stats) { 
  18.         netdev_stats_to_stats64(storage, ops->ndo_get_stats(dev)); 
  19.     } else { 
  20.         netdev_stats_to_stats64(storage, &dev->stats); 
  21.     }    
  22.     storage->rx_dropped += (unsigned long)atomic_long_read(&dev->rx_dropped); 
  23.     storage->tx_dropped += (unsigned long)atomic_long_read(&dev->tx_dropped); 
  24.     storage->rx_nohandler += (unsigned long)atomic_long_read(&dev->rx_nohandler); 
  25.     return storage; 

结构体 rtnl_link_stats64 的定义在 /usr/iude/linux/if_link.h 中:

  1. /* The main device statistics structure */ 
  2. struct rtnl_link_stats64 { 
  3.     __u64   rx_packets;     /* total packets received   */ 
  4.     __u64   tx_packets;     /* total packets transmitted    */ 
  5.     __u64   rx_bytes;       /* total bytes received     */ 
  6.     __u64   tx_bytes;       /* total bytes transmitted  */ 
  7.     __u64   rx_errors;      /* bad packets received     */ 
  8.     __u64   tx_errors;      /* packet transmit problems */ 
  9.     __u64   rx_dropped;     /* no space in linux buffers    */ 
  10.     __u64   tx_dropped;     /* no space available in linux  */ 
  11.     __u64   multicast;      /* multicast packets received   */ 
  12.     __u64   collisions; 
  13.  
  14.     /* detailed rx_errors: */ 
  15.     __u64   rx_length_errors; 
  16.     __u64   rx_over_errors;     /* receiver ring buff overflow  */ 
  17.     __u64   rx_crc_errors;      /* recved pkt with crc error    */ 
  18.     __u64   rx_frame_errors;    /* recv'd frame alignment error */ 
  19.     __u64   rx_fifo_errors;     /* recv'r fifo overrun      */ 
  20.     __u64   rx_missed_errors;   /* receiver missed packet   */ 
  21.  
  22.     /* detailed tx_errors */ 
  23.     __u64   tx_aborted_errors; 
  24.     __u64   tx_carrier_errors; 
  25.     __u64   tx_fifo_errors; 
  26.     __u64   tx_heartbeat_errors; 
  27.     __u64   tx_window_errors; 
  28.  
  29.     /* for cslip etc */ 
  30.     __u64   rx_compressed; 
  31.     __u64   tx_compressed; 
  32. }; 

至此,我们知道 rx_dropped 是 Linux 中的缓冲区空间不足导致的丢包,而 rx_missed_errors 则在注释中写的比较笼统。

有资料指出,rx_missed_errors 是 fifo 队列(即 rx ring buffer)满而丢弃的数量,但这样的话也就和 rx_fifo_errors 等同了。

后来公司内网络内核研发大牛王伟给了我们点拨:不同网卡自己实现不一样,比如 Intel 的 igb 网卡 rx_fifo_errors 在 missed 的基础上,还加上了 RQDPC 计数,而 ixgbe 就没这个统计。

RQDPC 计数是描述符不够的计数,missed 是 fifo 满的计数。所以对于 ixgbe 来说,rx_fifo_errors 和 rx_missed_errors 确实是等同的。

通过命令 ethtool -S eth0 可以查看网卡一些统计信息,其中就包含了上文提到的几个重要指标 rx_dropped、rx_missed_errors、rx_fifo_errors 等。

但实际测试后,我发现不同网卡型号给出的指标略有不同,比如 Intel ixgbe 就能取到,而 Broadcom bnx2/tg3 则只能取到 rx_discards(对应rx_fifo_errors)、rx_fw_discards(对应 rx_dropped)。

这表明,各家网卡厂商设备内部对这些丢包的计数器、指标的定义略有不同,但通过驱动向内核提供的统计数据都封装成了 struct rtnl_link_stats64 定义的格式。

在对丢包服务器进行检查后,发现 rx_missed_errors 为 0,丢包全部来自 rx_dropped,这说明丢包发生在 Linux 内核的缓冲区中。

接下来,我们要继续探索到底是什么缓冲区引起了丢包问题,这就需要完整地了解服务器接收数据包的过程。

了解接收数据包的流程

接收数据包是一个复杂的过程,涉及很多底层的技术细节,但大致需要以下几个步骤:

  • 网卡收到数据包。
  • 将数据包从网卡硬件缓存转移到服务器内存中。
  • 通知内核处理。
  • 经过 TCP/IP 协议逐层处理。
  • 应用程序通过 read() 从 socket buffer 读取数据。

将网卡收到的数据包转移到主机内存

NIC与驱动交互:NIC 在接收到数据包之后,首先需要将数据同步到内核中,这中间的桥梁是 rx ring buffer。它是由 NIC 和驱动程序共享的一片区域。

事实上,rx ring buffer 存储的并不是实际的 packet 数据,而是一个描述符。

这个描述符指向了它真正的存储地址,具体流程如下:

  • 驱动在内存中分配一片缓冲区用来接收数据包,叫做 sk_buffer。
  • 将上述缓冲区的地址和大小(即接收描述符),加入到 rx ring buffer。描述符中的缓冲区地址是 DMA 使用的物理地址。
  • 驱动通知网卡有一个新的描述符。
  • 网卡从 rx ring buffer 中取出描述符,从而获知缓冲区的地址和大小。
  • 网卡收到新的数据包。
  • 网卡将新数据包通过 DMA 直接写到 sk_buffer 中。

当驱动处理速度跟不上网卡收包速度时,驱动来不及分配缓冲区,NIC 接收到的数据包无法及时写到 sk_buffer,就会产生堆积,当 NIC 内部缓冲区写满后,就会丢弃部分数据,引起丢包。

这部分丢包为 rx_fifo_errors,在 /proc/net/dev 中体现为 fifo 字段增长,在 ifconfig 中体现为 overruns 指标增长。

通知系统内核处理

驱动与 Linux 内核交互:这个时候,数据包已经被转移到了 sk_buffer 中。

前文提到,这是驱动程序在内存中分配的一片缓冲区,并且是通过 DMA 写入的,这种方式不依赖 CPU 直接将数据写到了内存中,意味着对内核来说,其实并不知道已经有新数据到了内存中。

那么如何让内核知道有新数据进来了呢?答案就是中断,通过中断告诉内核有新数据进来了,并需要进行后续处理。

提到中断,就涉及到硬中断和软中断,首先需要简单了解一下它们的区别:

  • 硬中断: 由硬件自己生成,具有随机性,硬中断被 CPU 接收后,触发执行中断处理程序。

中断处理程序只会处理关键性的、短时间内可以处理完的工作,剩余耗时较长工作,会放到中断之后,由软中断来完成。硬中断也被称为上半部分。

  • 软中断: 由硬中断对应的中断处理程序生成,往往是预先在代码里实现好的,不具有随机性。(除此之外,也有应用程序触发的软中断,与本文讨论的网卡收包无关。)也被称为下半部分。

当 NIC 把数据包通过 DMA 复制到内核缓冲区 sk_buffer 后,NIC 立即发起一个硬件中断。

CPU 接收后,首先进入上半部分,网卡中断对应的中断处理程序是网卡驱动程序的一部分,之后由它发起软中断,进入下半部分,开始消费 sk_buffer 中的数据,交给内核协议栈处理。

通过中断,能够快速及时地响应网卡数据请求,但如果数据量大,那么会产生大量中断请求,CPU 大部分时间都忙于处理中断,效率很低。

为了解决这个问题,现在的内核及驱动都采用一种叫 NAPI(new API)的方式进行数据处理,其原理可以简单理解为中断+轮询,在数据量大时,一次中断后通过轮询接收一定数量包再返回,避免产生多次中断。

整个中断过程的源码部分比较复杂,并且不同驱动的厂商及版本也会存在一定的区别。

以下调用关系基于 Linux-3.10.108 及内核自带驱动 drivers/net/ethernet/intel/ixgbe:

注意到,enqueue_to_backlog 函数中,会对 CPU 的 softnet_data 实例中的接收队列(input_pkt_queue)进行判断。

如果队列中的数据长度超过 netdev_max_backlog ,那么数据包将直接丢弃,这就产生了丢包。

netdev_max_backlog 是由系统参数 net.core.netdev_max_backlog 指定的,默认大小是 1000。

  1.  /* 
  2.  * enqueue_to_backlog is called to queue an skb to a per CPU backlog 
  3.  * queue (may be a remote CPU queue). 
  4.  */ 
  5. static int enqueue_to_backlog(struct sk_buff *skb, int cpu, 
  6.                   unsigned int *qtail) 
  7.     struct softnet_data *sd; 
  8.     unsigned long flags; 
  9.     sd = &per_cpu(softnet_data, cpu); 
  10.     local_irq_save(flags); 
  11.     rps_lock(sd); 
  12.     /* 判断接收队列是否满,队列长度为 netdev_max_backlog  */  
  13.     if (skb_queue_len(&sd->input_pkt_queue) <= netdev_max_backlog) { 
  14.         if (skb_queue_len(&sd->input_pkt_queue)) { 
  15. enqueue: 
  16.             /*  队列如果不会空,将数据包添加到队列尾  */ 
  17.             __skb_queue_tail(&sd->input_pkt_queue, skb); 
  18.             input_queue_tail_incr_save(sd, qtail); 
  19.             rps_unlock(sd); 
  20.             local_irq_restore(flags); 
  21.             return NET_RX_SUCCESS; 
  22.         }    
  23.         /* Schedule NAPI for backlog device 
  24.          * We can use non atomic operation since we own the queue lock 
  25.          */ 
  26.         /*  队列如果为空,回到 ____napi_schedule加入poll_list轮询部分,并重新发起软中断  */  
  27.         if (!__test_and_set_bit(NAPI_STATE_SCHED, &sd->backlog.state)) { 
  28.             if (!rps_ipi_queued(sd)) 
  29.                 ____napi_schedule(sd, &sd->backlog); 
  30.         }    
  31.         goto enqueue; 
  32.     } 
  33.     /* 队列满则直接丢弃,对应计数器 +1 */  
  34.     sd->dropped++; 
  35.     rps_unlock(sd); 
  36.     local_irq_restore(flags); 
  37.     atomic_long_inc(&skb->dev->rx_dropped); 
  38.     kfree_skb(skb); 
  39.     return NET_RX_DROP; 

内核会为每个 CPU Core 都实例化一个 softnet_data 对象,这个对象中的 input_pkt_queue 用于管理接收的数据包。

假如所有的中断都由一个 CPU Core 来处理的话,那么所有数据包只能经由这个 CPU 的 input_pkt_queue。

如果接收的数据包数量非常大,超过中断处理速度,那么 input_pkt_queue 中的数据包就会堆积,直至超过 netdev_max_backlog,引起丢包。

这部分丢包可以在 cat /proc/net/softnet_stat 的输出结果中进行确认:

其中每行代表一个 CPU,第一列是中断处理程序接收的帧数,第二列是由于超过 netdev_max_backlog 而丢弃的帧数。

第三列则是在 net_rx_action 函数中处理数据包超过 netdev_budget 指定数量或运行时间超过 2 个时间片的次数。

在检查线上服务器之后,发现第一行 CPU。硬中断的中断号及统计数据可以在 /proc/interrupts 中看到。

对于多队列网卡,当系统启动并加载 NIC 设备驱动程序模块时,每个 RXTX 队列会被初始化分配一个唯一的中断向量号,它通知中断处理程序该中断来自哪个 NIC 队列。

在默认情况下,所有队列的硬中断都由 CPU 0 处理,因此对应的软中断逻辑也会在 CPU 0 上处理,在服务器 TOP 的输出中,也可以观察到 %si 软中断部分,CPU 0 的占比比其他 Core 高出一截。

到这里其实有存在一个疑惑,我们线上服务器的内核版本及网卡都支持 NAPI。

而 NAPI 的处理逻辑是不会走到 enqueue_to_backlog 中的,enqueue_to_backlog 主要是非 NAPI 的处理流程中使用的。

对此,我们觉得可能和当前使用的 Docker 架构有关,事实上,我们通过 net.if.dropped 指标获取到的丢包,都发生在 Docker 虚拟网卡上,而非宿主机物理网卡上。

因此很可能是 Docker 虚拟网桥转发数据包之后,虚拟网卡层面产生的丢包,这里由于涉及虚拟化部分,就不进一步分析了。

驱动及内核处理过程中的几个重要函数:

(1) 注册中断号及中断处理程序,根据网卡是否支持 MSI/MSIX,结果为:MSIX → ixgbe_msix_clean_rings,MSI → ixgbe_intr,都不支持 → ixgbe_intr。

  1. /** 
  2.  * 文件:ixgbe_main.c 
  3.  * ixgbe_request_irq - initialize interrupts 
  4.  * @adapter: board private structure 
  5.  * 
  6.  * Attempts to configure interrupts using the best available 
  7.  * capabilities of the hardware and kernel. 
  8.  **/ 
  9. static int ixgbe_request_irq(struct ixgbe_adapter *adapter) 
  10.     struct net_device *netdev = adapter->netdev; 
  11.     int err; 
  12.  
  13.     /* 支持MSIX,调用 ixgbe_request_msix_irqs 设置中断处理程序*/ 
  14.     if (adapter->flags & IXGBE_FLAG_MSIX_ENABLED) 
  15.         err = ixgbe_request_msix_irqs(adapter); 
  16.     /* 支持MSI,直接设置 ixgbe_intr 为中断处理程序 */ 
  17.     else if (adapter->flags & IXGBE_FLAG_MSI_ENABLED) 
  18.         err = request_irq(adapter->pdev->irq, &ixgbe_intr, 0, 
  19.                   netdev->name, adapter); 
  20.     /* 都不支持的情况,直接设置 ixgbe_intr 为中断处理程序 */ 
  21.     else  
  22.         err = request_irq(adapter->pdev->irq, &ixgbe_intr, IRQF_SHARED, 
  23.                   netdev->name, adapter); 
  24.  
  25.     if (err) 
  26.         e_err(probe, "request_irq failed, Error %d\n", err); 
  27.  
  28.     return err; 
  29.  
  30. /** 
  31.  * 文件:ixgbe_main.c 
  32.  * ixgbe_request_msix_irqs - Initialize MSI-X interrupts 
  33.  * @adapter: board private structure 
  34.  * 
  35.  * ixgbe_request_msix_irqs allocates MSI-X vectors and requests 
  36.  * interrupts from the kernel. 
  37.  **/ 
  38. static int (struct ixgbe_adapter *adapter) 
  39.     … 
  40.     for (vector = 0; vector < adapter->num_q_vectors; vector++) { 
  41.         struct ixgbe_q_vector *q_vector = adapter->q_vector[vector]; 
  42.         struct msix_entry *entry = &adapter->msix_entries[vector]; 
  43.  
  44.         /* 设置中断处理入口函数为 ixgbe_msix_clean_rings */ 
  45.         err = request_irq(entry->vector, &ixgbe_msix_clean_rings, 0, 
  46.                   q_vector->name, q_vector); 
  47.         if (err) { 
  48.             e_err(probe, "request_irq failed for MSIX interrupt '%s' " 
  49.                   "Error: %d\n", q_vector->name, err); 
  50.             goto free_queue_irqs; 
  51.         } 
  52.     … 
  53.     } 

(2) 线上的多队列网卡均支持 MSIX,中断处理程序入口为:ixgbe_msix_clean_rings,里面调用了函数 napi_schedule(&q_vector->napi)。

  1. /** 
  2.  * 文件:ixgbe_main.c 
  3.  **/ 
  4. static irqreturn_t ixgbe_msix_clean_rings(int irq, void *data) 
  5.     struct ixgbe_q_vector *q_vector = data; 
  6.  
  7.     /* EIAM disabled interrupts (on this vector) for us */ 
  8.  
  9.     if (q_vector->rx.ring || q_vector->tx.ring) 
  10.         napi_schedule(&q_vector->napi); 
  11.  
  12.     return IRQ_HANDLED; 

(3) 之后经过一些列调用,直到发起名为 NET_RX_SOFTIRQ 的软中断。到这里完成了硬中断部分,进入软中断部分,同时也上升到了内核层面。

  1. /** 
  2.  * 文件:include/linux/netdevice.h 
  3.  *  napi_schedule - schedule NAPI poll 
  4.  *  @n: NAPI context 
  5.  * 
  6.  * Schedule NAPI poll routine to be called if it is not already 
  7.  * running. 
  8.  */ 
  9. static inline void napi_schedule(struct napi_struct *n) 
  10.     if (napi_schedule_prep(n)) 
  11.     /*  注意下面调用的这个函数名字前是两个下划线 */ 
  12.         __napi_schedule(n); 
  13.  
  14.  
  15. /** 
  16.  * 文件:net/core/dev.c 
  17.  * __napi_schedule - schedule for receive 
  18.  * @n: entry to schedule 
  19.  * 
  20.  * The entry's receive function will be scheduled to run. 
  21.  * Consider using __napi_schedule_irqoff() if hard irqs are masked. 
  22.  */ 
  23. void __napi_schedule(struct napi_struct *n) 
  24.     unsigned long flags; 
  25.  
  26.     /*  local_irq_save用来保存中断状态,并禁止中断 */ 
  27.     local_irq_save(flags); 
  28.     /*  注意下面调用的这个函数名字前是四个下划线,传入的 softnet_data 是当前CPU */ 
  29.     ____napi_schedule(this_cpu_ptr(&softnet_data), n); 
  30.     local_irq_restore(flags); 
  31.  
  32.  
  33. /* Called with irq disabled */ 
  34. static inline void ____napi_schedule(struct softnet_data *sd, 
  35.                      struct napi_struct *napi) 
  36.     /* 将 napi_struct 加入 softnet_data 的 poll_list */ 
  37.     list_add_tail(&napi->poll_list, &sd->poll_list); 
  38.  
  39.     /* 发起软中断 NET_RX_SOFTIRQ */ 
  40.     __raise_softirq_irqoff(NET_RX_SOFTIRQ); 

(4) NET_RX_SOFTIRQ 对应的软中断处理程序接口是 net_rx_action()。

  1. /* 
  2.  *  文件:net/core/dev.c 
  3.  *  Initialize the DEV module. At boot time this walks the device list and 
  4.  *  unhooks any devices that fail to initialise (normally hardware not 
  5.  *  present) and leaves us with a valid list of present and active devices. 
  6.  * 
  7.  */ 
  8.  
  9. /* 
  10.  *       This is called single threaded during boot, so no need 
  11.  *       to take the rtnl semaphore. 
  12.  */ 
  13. static int __init net_dev_init(void) 
  14.     … 
  15.     /*  分别注册TX和RX软中断的处理程序 */ 
  16.     open_softirq(NET_TX_SOFTIRQ, net_tx_action); 
  17.     open_softirq(NET_RX_SOFTIRQ, net_rx_action); 
  18.     … 

(5) net_rx_action 功能就是轮询调用 poll 方法,这里就是 ixgbe_poll。

一次轮询的数据包数量不能超过内核参数 net.core.netdev_budget 指定的数量(默认值 300),并且轮询时间不能超过 2 个时间片。这个机制保证了单次软中断处理不会耗时太久影响被中断的程序。

  1. /* 文件:net/core/dev.c  */ 
  2. static void net_rx_action(struct softirq_action *h) 
  3.     struct softnet_data *sd = &__get_cpu_var(softnet_data); 
  4.     unsigned long time_limit = jiffies + 2; 
  5.     int budget = netdev_budget; 
  6.     void *have; 
  7.  
  8.     local_irq_disable(); 
  9.  
  10.     while (!list_empty(&sd->poll_list)) { 
  11.         struct napi_struct *n; 
  12.         int work, weight; 
  13.  
  14.         /* If softirq window is exhuasted then punt. 
  15.          * Allow this to run for 2 jiffies since which will allow 
  16.          * an average latency of 1.5/HZ. 
  17.          */ 
  18.  
  19.         /* 判断处理包数是否超过 netdev_budget 及时间是否超过2个时间片 */ 
  20.         if (unlikely(budget <= 0 || time_after_eq(jiffies, time_limit))) 
  21.             goto softnet_break; 
  22.  
  23.         local_irq_enable(); 
  24.  
  25.         /* Even though interrupts have been re-enabled, this 
  26.          * access is safe because interrupts can only add new 
  27.          * entries to the tail of this list, and only ->poll() 
  28.          * calls can remove this head entry from the list. 
  29.          */ 
  30.         n = list_first_entry(&sd->poll_list, struct napi_struct, poll_list); 
  31.  
  32.         have = netpoll_poll_lock(n); 
  33.  
  34.         weight = n->weight; 
  35.  
  36.         /* This NAPI_STATE_SCHED test is for avoiding a race 
  37.          * with netpoll's poll_napi().  Only the entity which 
  38.          * obtains the lock and sees NAPI_STATE_SCHED set will 
  39.          * actually make the ->poll() call.  Therefore we avoid 
  40.          * accidentally calling ->poll() when NAPI is not scheduled. 
  41.          */ 
  42.         work = 0; 
  43.         if (test_bit(NAPI_STATE_SCHED, &n->state)) { 
  44.             work = n->poll(n, weight); 
  45.             trace_napi_poll(n); 
  46.         } 
  47.  
  48.         …… 
  49.     }  
  50.  

(6) ixgbe_poll 之后的一系列调用就不一一详述了,有兴趣的同学可以自行研究,软中断部分有几个地方会有类似 if (static_key_false(&rps_needed))这样的判断,会进入前文所述有丢包风险的 enqueue_to_backlog 函数。 

这里的逻辑为判断是否启用了 RPS 机制,RPS 是早期单队列网卡上将软中断负载均衡到多个 CPU Core 的技术,它对数据流进行 hash 并分配到对应的 CPU Core 上,发挥多核的性能。

不过现在基本都是多队列网卡,不会开启这个机制,因此走不到这里,static_key_false 是针对默认为 false 的 static key 的优化判断方式。

这段调用的最后,deliver_skb 会将接收的数据传入一个 IP 层的数据结构中,至此完成二层的全部处理。

  1. /** 
  2.  *  netif_receive_skb - process receive buffer from network 
  3.  *  @skb: buffer to process 
  4.  * 
  5.  *  netif_receive_skb() is the main receive data processing function
  6.  *  It always succeeds. The buffer may be dropped during processing 
  7.  *  for congestion control or by the protocol layers. 
  8.  * 
  9.  *  This function may only be called from softirq context and interrupts 
  10.  *  should be enabled. 
  11.  * 
  12.  *  Return values (usually ignored): 
  13.  *  NET_RX_SUCCESS: no congestion 
  14.  *  NET_RX_DROP: packet was dropped 
  15.  */ 
  16. int netif_receive_skb(struct sk_buff *skb) 
  17.     int ret; 
  18.  
  19.     net_timestamp_check(netdev_tstamp_prequeue, skb); 
  20.  
  21.     if (skb_defer_rx_timestamp(skb)) 
  22.         return NET_RX_SUCCESS; 
  23.  
  24.     rcu_read_lock(); 
  25.  
  26. #ifdef CONFIG_RPS 
  27.     /* 判断是否启用RPS机制 */ 
  28.     if (static_key_false(&rps_needed)) { 
  29.         struct rps_dev_flow voidflow, *rflow = &voidflow; 
  30.         /* 获取对应的CPU Core */ 
  31.         int cpu = get_rps_cpu(skb->dev, skb, &rflow); 
  32.  
  33.         if (cpu >= 0) { 
  34.             ret = enqueue_to_backlog(skb, cpu, &rflow->last_qtail); 
  35.             rcu_read_unlock(); 
  36.             return ret; 
  37.         } 
  38.     } 
  39. #endif 
  40.     ret = __netif_receive_skb(skb); 
  41.     rcu_read_unlock(); 
  42.     return ret; 

TCP/IP 协议栈

TCP/IP 协议栈逐层处理,最终交给用户空间读取,数据包进到 IP 层之后,经过 IP 层、TCP 层处理(校验、解析上层协议,发送给上层协议),放入 socket buffer。

在应用程序执行 read()  系统调用时,就能从 socket buffer 中将新数据从内核区拷贝到用户区,完成读取。

这里的 socket buffer 大小即 TCP 接收窗口,TCP 由于具备流量控制功能,能动态调整接收窗口大小,因此数据传输阶段不会出现由于 socket buffer 接收队列空间不足而丢包的情况(但 UDP 及 TCP 握手阶段仍会有)。

涉及 TCP/IP 协议的部分不是此次丢包问题的研究重点,因此这里不再赘述。

网卡队列

查看网卡型号

  1.  # lspci -vvv | grep Eth 
  2. 01:00.0 Ethernet controller: Intel Corporation Ethernet Controller 10-Gigabit X540-AT2 (rev 03) 
  3.         Subsystem: Dell Ethernet 10G 4P X540/I350 rNDC 
  4. 01:00.1 Ethernet controller: Intel Corporation Ethernet Controller 10-Gigabit X540-AT2 (rev 03) 
  5.         Subsystem: Dell Ethernet 10G 4P X540/I350 rNDC 
  6. # lspci -vvv 
  7. 07:00.0 Ethernet controller: Intel Corporation I350 Gigabit Network Connection (rev 01) 
  8.         Subsystem: Dell Gigabit 4P X540/I350 rNDC 
  9.         Control: I/O- Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+ 
  10.         Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx- 
  11.         Latency: 0, Cache Line Size: 128 bytes 
  12.         Interrupt: pin D routed to IRQ 19 
  13.         Region 0: Memory at 92380000 (32-bit, non-prefetchable) [size=512K] 
  14.         Region 3: Memory at 92404000 (32-bit, non-prefetchable) [size=16K] 
  15.         Expansion ROM at 92a00000 [disabled] [size=512K] 
  16.         Capabilities: [40] Power Management version 3 
  17.                 Flags: PMEClk- DSI+ D1- D2- AuxCurrent=0mA PME(D0+,D1-,D2-,D3hot+,D3cold+) 
  18.                 Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=1 PME- 
  19.         Capabilities: [50] MSI: Enable- Count=1/1 Maskable+ 64bit+ 
  20.                 Address: 0000000000000000  Data: 0000 
  21.                 Masking: 00000000  Pending: 00000000 
  22.         Capabilities: [70] MSI-X: Enable+ Count=10 Masked- 
  23.                 Vector table: BAR=3 offset=00000000 
  24.                 PBA: BAR=3 offset=00002000 

可以看出,网卡的中断机制是 MSI-X,即网卡的每个队列都可以分配中断(MSI-X 支持 2048 个中断)。

网卡队列

  1.  ... 
  2.  #define IXGBE_MAX_MSIX_VECTORS_82599    0x40 
  3. ... 
  4.   u16 ixgbe_get_pcie_msix_count_generic(struct ixgbe_hw *hw) 
  5.  { 
  6.      u16 msix_count; 
  7.      u16 max_msix_count; 
  8.      u16 pcie_offset; 
  9.      switch (hw->mac.type) { 
  10.      case ixgbe_mac_82598EB: 
  11.          pcie_offset = IXGBE_PCIE_MSIX_82598_CAPS; 
  12.          max_msix_count = IXGBE_MAX_MSIX_VECTORS_82598; 
  13.          break; 
  14.      case ixgbe_mac_82599EB: 
  15.      case ixgbe_mac_X540: 
  16.      case ixgbe_mac_X550: 
  17.      case ixgbe_mac_X550EM_x: 
  18.      case ixgbe_mac_x550em_a: 
  19.          pcie_offset = IXGBE_PCIE_MSIX_82599_CAPS; 
  20.          max_msix_count = IXGBE_MAX_MSIX_VECTORS_82599; 
  21.          break; 
  22.      default
  23.          return 1; 
  24.      } 
  25.  ... 

根据网卡型号确定驱动中定义的网卡队列,可以看到 X540 网卡驱动中定义最大支持的 IRQ Vector 为 0x40(数值:64)。

  1. static int ixgbe_acquire_msix_vectors(struct ixgbe_adapter *adapter) 
  2.     struct ixgbe_hw *hw = &adapter->hw; 
  3.     int i, vectors, vector_threshold; 
  4.     /* We start by asking for one vector per queue pair with XDP queues 
  5.      * being stacked with TX queues. 
  6.      */ 
  7.     vectors = max(adapter->num_rx_queues, adapter->num_tx_queues); 
  8.     vectors = max(vectors, adapter->num_xdp_queues); 
  9.     /* It is easy to be greedy for MSI-X vectors. However, it really 
  10.      * doesn't do much good if we have a lot more vectors than CPUs. We'll 
  11.      * be somewhat conservative and only ask for (roughly) the same number 
  12.      * of vectors as there are CPUs. 
  13.      */ 
  14.     vectors = min_t(int, vectors, num_online_cpus()); 

通过加载网卡驱动,获取网卡型号和网卡硬件的队列数;但是在初始化 misx vector 的时候,还会结合系统在线 CPU 的数量,通过 Sum = Min(网卡队列,CPU Core) 来激活相应的网卡队列数量,并申请 Sum 个中断号。

如果 CPU 数量小于 64,会生成 CPU 数量的队列,也就是每个 CPU 会产生一个 external IRQ。

我们线上的 CPU 一般是 48 个逻辑 Core,就会生成 48 个中断号,由于我们是两块网卡做了 bond,也就会生成 96 个中断号。

验证与复现网络丢包

通过霸爷的一篇文章,我们在测试环境做了测试,发现测试环境的中断确实有集中在 CPU 0 的情况。

下面使用 systemtap 诊断测试环境软中断分布的方法:

  1. global hard, soft, wq 
  2.  
  3. probe irq_handler.entry { 
  4. hard[irq, dev_name]++; 
  5.  
  6. probe timer.s(1) { 
  7. println("==irq number:dev_name"
  8. foreach( [irq, dev_name] in hard- limit 5) { 
  9. printf("%d,%s->%d\n", irq, kernel_string(dev_name), hard[irq, dev_name]);       
  10.  
  11. println("==softirq cpu:h:vec:action"
  12. foreach( [c,h,vec,actionin soft- limit 5) { 
  13. printf("%d:%x:%x:%s->%d\n", c, h, vec, symdata(action), soft[c,h,vec,action]);       
  14.  
  15.  
  16. println("==workqueue wq_thread:work_func"
  17. foreach( [wq_thread,work_func] in wq- limit 5) { 
  18. printf("%x:%x->%d\n", wq_thread, work_func, wq[wq_thread, work_func]);  
  19.  
  20. println("\n"
  21. delete hard 
  22. delete soft 
  23. delete wq 
  24.  
  25. probe softirq.entry { 
  26. soft[cpu(), h,vec,action]++; 
  27.  
  28. probe workqueue.execute { 
  29. wq[wq_thread, work_func]++ 
  30.  
  31.  
  32. probe begin { 
  33. println("~"

下面执行 i.stap 的结果:

  1. ==irq number:dev_name 
  2. 87,eth0-0->1693 
  3. 90,eth0-3->1263 
  4. 95,eth1-3->746 
  5. 92,eth1-0->703 
  6. 89,eth0-2->654 
  7. ==softirq cpu:h:vec:action 
  8. 0:ffffffff81a83098:ffffffff81a83080:0xffffffff81461a00->8928 
  9. 0:ffffffff81a83088:ffffffff81a83080:0xffffffff81084940->626 
  10. 0:ffffffff81a830c8:ffffffff81a83080:0xffffffff810ecd70->614 
  11. 16:ffffffff81a83088:ffffffff81a83080:0xffffffff81084940->225 
  12. 16:ffffffff81a830c8:ffffffff81a83080:0xffffffff810ecd70->224 
  13. ==workqueue wq_thread:work_func 
  14. ffff88083062aae0:ffffffffa01c53d0->10 
  15. ffff88083062aae0:ffffffffa01ca8f0->10 
  16. ffff88083420a080:ffffffff81142160->2 
  17. ffff8808343fe040:ffffffff8127c9d0->2 
  18. ffff880834282ae0:ffffffff8133bd20->1 

下面是 action 对应的符号信息:

  1. addr2line -e /usr/lib/debug/lib/modules/2.6.32-431.20.3.el6.mt20161028.x86_64/vmlinux ffffffff81461a00 
  2. /usr/src/debug/kernel-2.6.32-431.20.3.el6/linux-2.6.32-431.20.3.el6.mt20161028.x86_64/net/core/dev.c:4013 

打开这个文件,我们发现它是在执行 static void net_rx_action(struct softirq_action *h)这个函数,而这个函数正是前文提到的,NET_RX_SOFTIRQ 对应的软中断处理程序。

因此可以确认网卡的软中断在机器上分布非常不均,而且主要集中在 CPU 0 上。

通过 /proc/interrupts 能确认硬中断集中在 CPU 0 上,因此软中断也都由 CPU 0 处理,如何优化网卡的中断成为了我们关注的重点。

优化策略

CPU 亲缘性

前文提到,丢包是因为队列中的数据包超过了 netdev_max_backlog 造成了丢弃,因此首先想到是临时调大 netdev_max_backlog 能否解决燃眉之急。

事实证明,对于轻微丢包调大参数可以缓解丢包,但对于大量丢包则几乎不怎么管用。

内核处理速度跟不上收包速度的问题还是客观存在,本质还是因为单核处理中断有瓶颈,即使不丢包,服务响应速度也会变慢。

因此如果能同时使用多个 CPU Core 来处理中断,就能显著提高中断处理的效率,并且每个 CPU 都会实例化一个 softnet_data 对象,队列数也增加了。

中断亲缘性设置

通过设置中断亲缘性,可以让指定的中断向量号更倾向于发送给指定的 CPU Core 来处理,俗称“绑核”。

命令 grep eth /proc/interrupts 的第一列可以获取网卡的中断号,如果是多队列网卡,那么就会有多行输出:

中断的亲缘性设置可以在 cat /proc/irq/${中断号}/smp_affinity 或 cat /proc/irq/${中断号}/smp_affinity_list 中确认,前者是 16 进制掩码形式,后者是以 CPU Core 序号形式。

例如下图中,将 16 进制的 400 转换成 2 进制后,为 10000000000,“1”在第 10 位上,表示亲缘性是第 10 个 CPU Core。

那为什么中断号只设置一个 CPU Core 呢?而不是为每一个中断号设置多个 CPU Core 平行处理。

我们经过测试,发现当给中断设置了多个 CPU Core 后,它也仅能由设置的第一个 CPU Core 来处理,其他的 CPU Core 并不会参与中断处理。

原因猜想是当 CPU 可以平行收包时,不同的核收取了同一个 queue 的数据包,但处理速度不一致,导致提交到 IP 层后的顺序也不一致,这就会产生乱序的问题,由同一个核来处理可以避免乱序问题。

但是,当我们配置了多个 Core 处理中断后,发现 Redis 的慢查询数量有明显上升,甚至部分业务也受到了影响,慢查询增多直接导致可用性降低,因此方案仍需进一步优化。

Redis 进程亲缘性设置

如果某个 CPU Core 正在处理 Redis 的调用,执行到一半时产生了中断,那么 CPU 不得不停止当前的工作转而处理中断请求。

中断期间 Redis 也无法转交给其他 Core 继续运行,必须等处理完中断后才能继续运行。

Redis 本身定位就是高速缓存,线上的平均端到端响应时间小于 1ms,如果频繁被中断,那么响应时间必然受到极大影响。

容易想到,由最初的 CPU 0 单核处理中断,改进到多核处理中断,Redis 进程被中断影响的几率增大了,因此我们需要对 Redis 进程也设置 CPU 亲缘性,使其与处理中断的 Core 互相错开,避免受到影响。

使用命令 taskset 可以为进程设置 CPU 亲缘性,操作十分简单,一句 taskset -cp cpu-list pid 即可完成绑定。

经过一番压测,我们发现使用 8 个 Core 处理中断时,流量直至打满双万兆网卡也不会出现丢包,因此决定将中断的亲缘性设置为物理机上前 8 个 Core,Redis 进程的亲缘性设置为剩下的所有 Core。

调整后,确实有明显的效果,慢查询数量大幅优化,但对比初始情况,仍然还是高了一些些,还有没有优化空间呢?

通过观察,我们发现一个有趣的现象,当只有 CPU 0 处理中断时,Redis 进程更倾向于运行在 CPU 0,以及 CPU 0 同一物理 CPU 下的其他核上。

于是有了以下推测:我们设置的中断亲缘性,是直接选取了前 8 个核心,但这 8 个 Core 却可能是来自两块物理 CPU 的。

在 /proc/cpuinfo 中,通过字段 processor 和 physical id 能确认这一点,那么响应慢是否和物理 CPU 有关呢?

物理 CPU 又和 NUMA 架构关联,每个物理 CPU 对应一个 NUMA node,那么接下来就要从 NUMA 角度进行分析。

NUMA

SMP 架构

随着单核 CPU 的频率在制造工艺上的瓶颈,CPU 制造商的发展方向也由纵向变为横向:从 CPU 频率转为每瓦性能。CPU 也就从单核频率时代过渡到多核性能协调。

SMP(对称多处理结构):即 CPU 共享所有资源,例如总线、内存、IO 等。

SMP 结构:一个物理 CPU 可以有多个物理 Core,每个 Core 又可以有多个硬件线程。

即:每个 HT 有一个独立的 L1 cache,同一个 Core 下的 HT 共享 L2 cache,同一个物理 CPU 下的多个 Core 共享 L3 cache。

下图(摘自内核月谈)中,一个 x86 CPU 有 4 个物理 Core,每个 Core 有两个 HT(Hyper Thread):

NUMA 架构

在前面的 FSB(前端系统总线)结构中,当 CPU 不断增长的情况下,共享的系统总线就会因为资源竞争(多核争抢总线资源以访问北桥上的内存)而出现扩展和性能问题。

在这样的背景下,基于 SMP 架构上的优化,设计出了 NUMA(Non-Uniform Memory Access)—— 非均匀内存访问。

内存控制器芯片被集成到处理器内部,多个处理器通过 QPI 链路相连,DRAM 也就有了远近之分。(如下图所示:摘自 CPU Cache)

CPU 多层 Cache 的性能差异是很巨大的,比如:L1 的访问时长 1ns,L2 的时长 3ns…跨 Node 的访问会有几十甚至上百倍的性能损耗。

NUMA 架构下的中断优化

这时我们再回归到中断的问题上,当两个 NUMA 节点处理中断时,CPU 实例化的 softnet_data 以及驱动分配的 sk_buffer 都可能是跨 Node 的。

数据接收后对上层应用 Redis 来说,跨 Node 访问的几率也大大提高,并且无法充分利用 L2、L3 cache,增加了延时。

同时,由于 Linux wake affinity 特性,如果两个进程频繁互动,调度系统会觉得它们很有可能共享同样的数据,把它们放到同一 CPU 核心或 NUMA Node 有助于提高缓存和内存的访问性能。

所以当一个进程唤醒另一个的时候,被唤醒的进程可能会被放到相同的 CPU Core 或者相同的 NUMA 节点上。

此特性对中断唤醒进程时也起作用,在上一节所述的现象中,所有的网络中断都分配给 CPU 0 去处理。

当中断处理完成时,由于 wakeup affinity 特性的作用,所唤醒的用户进程也被安排给 CPU 0 或其所在的 NUMA 节点上其他 Core。

而当两个 NUMA Node 处理中断时,这种调度特性有可能导致 Redis 进程在 CPU Core 之间频繁迁移,造成性能损失。

综合上述,将中断都分配在同一 NUMA Node 中,中断处理函数和应用程序充分利用同 NUMA 下的 L2、L3 缓存、以及同 Node 下的内存,结合调度系统的 wake affinity 特性,能够更进一步降低延迟。

参考文档:

1、Intel官方文档:

https://communities.intel.com/community/tech/wired/blog/2009/11/04/how-the-kitchen-sink-and-statistics-explain-and-treat-dropped-packets

2、Red Hat官方文档:

https://access.redhat.com/sites/default/files/attachments/20150325_network_performance_tuning.pdf

【编辑推荐】

  1. 无服务器架构下的运维实践
  2. 万台服务器“一人挑”的奥秘
  3. 百亿级日志系统架构设计及优化
  4. 让深度学习进入移动端,蘑菇街在移动端的深度学习优化实践
  5. 我不得不告诉大家的MySQL优化“套路”
【责任编辑:武晓燕 TEL:(010)68476606】

点赞 0
分享:
大家都在看
猜你喜欢

热门职位+更多