/Desenvolvimento

voltar
/Desenvolvimento

Revisitando práticas de performance front-end depois do HTTP/2

PorSérgio Lopes em

O HTTP 2.0 é a nova geração da Web. Traz muitas novidades bacanas e promete mudar a forma como desenvolvemos pra Web, simplificando muita coisa.

Otimizações de performance na Web

Performance Web tem uma importância imensa. Um site performático é melhor para o usuário e para as conversões, trazendo mais retorno para a empresa.

Na prática, quando falamos de performance front-end, as técnicas mais comuns giram em torno de:

  • Diminuir o número de requisições
  • Diminuir o volume de dados nas requisições
  • Paralelizar requisições
  • Otimizar a renderização no navegador

Agora com o HTTP/2, várias técnicas desses tipos passam a ser desnecessárias. Às vezes, podem até ser prejudiciais. Antes de prosseguirmos, dê uma conferida nas novidades do HTTP 2.0 para que possamos analisar seus impactos.

Requisições mais baratas

O HTTP/2 deixa as requisições em si mais baratas. O GZIP, por exemplo, importante desde o HTTP/1, já costuma estar habilitado nos servidores HTTP/2.

Mais que isso: um alto custo de se fazer vários requests no HTTP 1.1 era o tráfego dos cabeçalhos (headers). Eles não eram comprimidos, mas enviados em texto puro. E, pra piorar, cabeçalhos tinham que ser mandados novamente a toda requisição.

No HTTP 2.0, os cabeçalhos são binários e compactados. Além disso, com os header tables, o navegador e o servidor podem mandar um certo header uma vez só e reaproveitar para as requisições seguintes. Só é preciso mandar os cabeçalhos que mudam. Isso deixa as requisições ainda mais baratas e justificam ainda mais a prática de usar vários requests, ao invés de concatenar as coisas como fazíamos antigamente.

Aliás, uma prática que era recomendada no HTTP 1.1 de usar domínios sem cookies para servir imagens, CSS e JS, passa a ser irrelevante. Como os cookies são enviados em um header, sabemos que agora serão enviados uma vez só na conexão.

Requests caros e blocantes no HTTP 1.1

No clássico HTTP 1.1, requisições são muito caras. O navegador faz um request e precisa esperar a resposta inteira chegar antes de mandar o próximo request. Não há paralelização de requisições no protocolo. A gambiarra que os navegadores fazem é abrir várias conexões simultâneas na esperança de paralelizar mais os requests.

Em geral, os browsers modernos abrem de 4 a 8 conexões simultâneas com o mesmo hostname. Não abrem mais para não detonar o servidor na outra ponta e evitar saturar a rede. Mas nas páginas de hoje em dia é comum existir dezenas e até centenas de recursos que precisam ser requisitados. Paralelizar em 8 conexões não ajuda muito se você precisa baixar 100 coisas. Ainda há muito bloqueio e espera.

Então, no HTTP 1.1, a boa prática sempre foi diminuir os requests, concatenando arquivos CSS e JS, criando sprites e até fazendo inline do recurso direto no HTML da página. Tudo isso é desnecessário no HTTP 2.0, o que facilita muito a vida do desenvolvedor.

Não se preocupe mais com o número de requisições

Com o multiplexing, agora o navegador pode manter apenas uma conexão aberta e paralelizar as requisições e respostas dentro dela. Não há mais bloqueio e espera. Podemos fazer várias pequenas requisições separadas e ter excelente performance, o que não era possível no HTTP 1.1.

Ao usar várias requisições pequenas e separadas, melhoramos bastante a capacidade do browser fazer cache dos recursos individualmente. Imagina no mundo antigo de fazer sprites, o que acontece ao mudar um ícone; o browser precisa baixar a sprite inteira de novo e invalidar o cache. Agora não mais. Cada ícone pode ser um request separado e ser invalidado individualmente.

Outra vantagem é que o navegador consegue executar os arquivos individualmente, de maneira progressiva. O melhor exemplo disso acontece com o JavaScript. Se você junta todo o seu JS em 1 arquivo grandão, o browser precisa baixar o arquivo todo pra começar a executá-lo. Ou seja, o tamanho do arquivo pode retardar o início da execução do script. Agora você pode deixar vários arquivos JS separados e pequenos, e o navegador vai executando os arquivos conforme vai baixando, diminuindo o bloqueio.

Não faça gambiarras para paralelizar requisições

A limitação nas requisições no HTTP 1.1 é tão grande que nasceram diversas técnicas para passar por cima disso. A mais comum era a utilização de múltiplos hostnames para aumentar o limite de conexões paralelas. O browser abria, então, 6 conexões com o hostname principal, mas a página usava mais outros endereços para ganhar mais 6 conexões, como imagens.meusite.com. Isso é trabalhoso de fazer.

No HTTP 2.0, usar vários hostnames é uma má-prática, principalmente por anular os benefícios do multiplexing. Agora, a conexão única do protocolo consegue paralelizar todos os requests e responses e não é mais necessário várias conexões.

Enxergando o multiplexing na prática

Fiz um página de testes com 200 arquivos JavaScript separados com tamanho médio de 13 KB cada um. Cada arquivo, quando executado, pintava um quadrado verde na tela, assim, conseguimos visualizar o carregamento individual. O primeiro teste, usando HTTP 1.1 mostrou esse resultado:

É possível ver claramente o navegador baixando 6 coisas ao mesmo tempo, que são as conexões paralelas que ele abre. Mas isso não ajuda muito quando precisamos baixar 200 arquivos. Há muita espera visível.

A boa prática do HTTP 1.1, então, nos dizia para juntarmos tudo em um arquivo só. Refiz o teste, veja a diferença:

O tempo total de carregamento cai absurdamente. Com os arquivos separados, nosso teste demorava mais de 40s e, agora, com tudo concatenado junto, demora apenas 7s. Mas nem tudo é bom. Se olharmos para a métrica do tempo de execução do primeiro arquivo, tivemos uma piora (de 1.2s para 7s). É o que discutimos: juntar os arquivos retarda a execução de tudo, apesar de diminuir o tempo total.

A mágica acontece quando testamos com HTTP/2 usando os 200 arquivos separados:

Repare como o multiplexing permite o download paralelo de muitas coisas, diminui a espera e praticamente junta o melhor dos dois mundos. O tempo final continua baixo em 7s e o tempo do primeiro script fica em 1.2s. Ou seja, requests em paralelo, execução progressiva e tempo total excelente.

Tchau inline de recursos, bem vindo Server Push

No HTTP 1.1, costumava ser uma boa ideia pegar recursos pequenos e essenciais e inserir seu conteúdo direto no HTML – uma prática chamada de inline de recursos. Isso é ruim, pois os recursos não podem ser cacheados individualmente.

No HTTP 2.0, existe um recurso chamado Server Push que permite enviar requisições para o cliente antes mesmo dele as requisitá-las. O próprio protocolo suporta o envio de respostas para os clientes antes do request ser feito – você só precisa configurar seu servidor pra isso; algo bem simples.

Na prática, são as vantagens do inline de enviar coisas junto com o HTML inicial sem suas desvantagens.

Revisitando as antigas técnicas de otimização e focando em novas coisas

Resumindo o que vimos até agora, várias práticas param de fazer sentido no HTTP 2.0:

  • Concatenar arquivos CSS e JS
  • Sprites de imagens
  • Inline de recursos pequenos
  • Domínios sem cookies
  • Usar múltiplos hostnames

Reforçando: a lista acima é de coisas que você não precisa mais fazer se usar os novos protocolos.

Então, onde focar os esforços de otimização? Há várias práticas mais específicas e avançadas, que, inclusive, discuto bastante nos meus cursos de Performance Web na Alura. No geral, são práticas do tipo:

  • Diminuir tráfego:
    • Minificação de CSS, JS e HTML
    • Configuração dos caches
    • Compressão de imagens
  • Melhorar renderização:
    • Usar Server-push e Server-hints
    • Otimizar o critical path
    • Animações a 60 FPS
  • Diminuir latência:
    • Usar CDNs geograficamente distribuídos
    • (fique de olho no QUIC)

O importante é perceber que só a utilização do HTTP 2.0 já vai fazer muita coisa para a gente. As outras otimizações são mais específicas e nem sempre aplicáveis.

Deixe um comentário! 2

2 comentários

Comentários

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Comentando como Anônimo

  1. Oi Sérgio,

    eu tenho a seguinte dúvida nos casos do gzip, imagine 20 arquivos javascript sendo carregados no navegador:

    – No primeiro caso estão concatenados e a compressão funcionará melhor porque está trabalhando em mais caracteres.
    – No segundo caso, serão vários arquivos pequenos porém a soma será maior do que o exemplo anterior.

    Considerando uma conexão 3g ainda haveria uma performance melhor no segundo caso?

  2. Oi Yuri, é uma boa pergunta. É preciso medir mesmo e ver. Até porque não vamos desconcatenar loucamente e ter zilhares de arquivos pequenos. Provalmente o cenário mais otimizado é algo aí no meio entre o primeiro e o segundo caso.

    Mas falando bem genericamente sobre a perda de eficiencia do gzip por quebrar mais arquivos, em geral isso nao impacta tanto assim. Mesmo que vc gaste, sei la 10% a mais de bytes, isso dificilmente tera um impacto grande demais no final. Um aspecto positivo de ter varios arquivos separados, por exemplo, é que eles podem ser executados conforme vão chegando. Entao a pagina vai carregando mais progressivamente que num arquivão só que precisa baixar tudo pra executar. A sensacao de performance pode ser melhor entao, mesmo a quantidade de bytes sendo maior.

leia mais
Este projeto é mantido e patrocinado pelas empresas: