Latência e Throughput: Diagnóstico e Otimização de Performance de Rede
Latência vs Throughput: A Diferença Importa
Latência é o tempo para um pacote chegar ao destino (ms). Throughput é a quantidade de dados transferida por segundo (Gbps). Uma rede pode ter baixa latência e baixo throughput (link lento mas responsivo) ou alta latência e alto throughput (satélite: 600ms mas 100Mbps). Aplicações interativas (VoIP, jogos, trading) precisam de baixa latência. Transferências de arquivos e backup priorizam throughput. Diagnosticar o problema errado leva a otimizações ineficazes.
📊 Performance de Rede em Produção — 2025
Diagnóstico de Gargalos de Rede
iperf3 mede throughput TCP/UDP entre dois pontos: identifica se o gargalo está na rede ou no host. ping e traceroute localizam onde a latência ocorre. ss e netstat mostram conexões TCP e seus estados (TIME_WAIT excessivo indica tuning necessário). tc (Traffic Control) permite simular latência, perda de pacotes e jitter para testes. eBPF com ferramentas como bpftrace e bcc permite introspecção da pilha de rede no kernel sem overhead, identificando drops e retransmissões em tempo real.
iperf3
Ferramenta padrão para medir throughput TCP/UDP. Execute em paralelo com múltiplos streams para saturar NICs de alta velocidade.
MTU e Jumbo Frames
MTU 9000 (Jumbo Frames) aumenta throughput em redes data center reduzindo overhead de cabeçalhos. Requer suporte end-to-end.
TCP Tuning
Ajuste net.core.rmem_max, wmem_max e tcp_rmem/wmem para suportar BDP (Bandwidth-Delay Product) alto em WAN.
DPDK e RDMA
Para latência sub-microsegundo em redes de alta frequência ou HPC: DPDK bypassa kernel; RDMA acessa memória remota diretamente.
QUIC/HTTP3
QUIC elimina Head-of-Line Blocking do TCP, multiplexando streams independentes — reduz latência percebida em aplicações web.
QoS e DSCP
Quality of Service marca e prioriza tráfego crítico (VoIP, videoconferência) sobre tráfego bulk (backups, transferências).
⚠️ Buffer Bloat: O Inimigo Silencioso da Latência
Buffers grandes em roteadores acumulam pacotes em congestionamento, aumentando latência drasticamente. Use AQM (FQ-CoDel, CAKE).
NICs agrupam interrupções para eficiência (throughput), mas aumentam latência. Ajuste ethtool -C para balancear conforme o uso.
TSQ limita dados em vol por socket para reduzir latência. Ajuste net.ipv4.tcp_limit_output_bytes conforme necessidade.
Retransmissões indicam perda de pacotes. Use ss -ti para verificar retransmit ratio e investigar hardware/cabos defeituosos.
Performance de rede não é sobre ter o link mais rápido — é sobre usar o link disponível da forma mais eficiente possível.
— iSecPlus Network Engineering, 2026
eBPF: A Revolução no Diagnóstico de Performance
eBPF (extended Berkeley Packet Filter) permite executar código seguro no kernel Linux em resposta a eventos de rede, sem modificar o kernel ou reiniciar processos. Ferramentas do projeto BCC e bpftrace permitem rastrear latência por syscall, identificar hot paths de CPU, monitorar retransmissões TCP por processo e muito mais. Cilium usa eBPF para implementar políticas de rede K8s com overhead mínimo. Katran (Meta) e XDP (eXpress Data Path) implementam load balancing de altíssima performance com eBPF. Esta tecnologia está transformando observabilidade e performance de rede em Linux.
