当前位置: 首页 > 工具软件 > napi > 使用案例 >

Linux内核NAPI原理机制、网卡收包过程

有骏祥
2023-12-01

网卡收包流程:

1、网卡将数据包拷贝到主存(一般不需要cpu介入),触发硬中断
2、硬中断函数为驱动probe函数注册的中断回调函数,非napi时一般为netif_rx,napi时一般为驱动自己实现的函数,函数内部触发软中断。napi和非napi触发的软中断都会net_rx_action。
3、backlog_process为默认的poll函数(使用默认poll函数时,硬中断函数中一般调用netif_rx),部分驱动会定义自己的poll函数,此时不会使用默认的(也不调用netif_rx)。
4、RPS与RSS类似,用于将数据包定向到特定的CPU进行处理。RPS是在软件级别实现的,有助于避免单队列网卡成为网络流量的瓶颈。
5、支持napi的一般驱动实现自己的硬中断回调接口和poll接口(poll接口在net_rx_action中调用);
6、napi和非napi一次都会处理多个报文,但非napi时会触发多次硬中断,硬中断会打断软中断流程,对性能有影响。napi时在硬中断回调函数中会关闭rx中断,然后调用net_rx_action,
在poll函数处理完所有需要处理的报文后会根据情况打开rx硬中断。以达到减少硬中断次数。(这里只是禁用了rx中断,其他硬中断还是打开的)
7、(net_rx_action中会对单次处理的时间和报文数做处理,防止软中断单次执行时间过长)
8、napi的skb在poll函数中构造,poll函数直接读取ring缓冲区,构造skb,再调用netif_recv_skb处理。
9、也有部分网卡驱动使用非napi方式,但实现效果与napi方式类似。逻辑一样,都是减少硬中断次数
10、struct napi_struct 对应一个设备napi.,多个网卡有多个napi_struct。另外操作softnet_data变量时是禁用了本地所有中断的
11、最终都是调用netif_receive_skb进入协议栈。
12、desc 、rx_buffer 、skb;网卡收包流程中其中skb和rx_buffer每次会申请释放内存。给网卡回填desc时申请rx_buffer。 skb在rx_poll读取desc数据时申请。然后skb->data执向rx_buffer数据部分。(当然为了效率skb\rx_buffer一般使用单独的slub_node节点。也可以自己实现内存池来提高性能)

详细可参考:

Linux内核源码分析–详谈NAPI原理机制
openstack ovs-vswitch收包流程

 类似资料: