Priorizar a performance não é bom apenas para os usuários, mas também pode ser bom para os negócios. Embora as práticas recomendadas desta coletânea se concentrem principalmente na otimização da integração da tag do editor do Google (GPT), muitos outros fatores contribuem para a performance geral de uma determinada página. Sempre que você introduz mudanças, é importante avaliar o impacto delas em todos os aspectos do desempenho do site.
Medir a performance da página
Para entender como uma mudança afeta o desempenho do seu site, primeiro é necessário estabelecer uma base de comparação. A melhor maneira de fazer isso é criar um orçamento de performance que defina um valor de referência ideal, que seu site pode ou não atender no momento. No entanto, se você quiser manter um nível fixo de performance, use as métricas de performance atuais do seu site como referência.
Para começar a medir o desempenho, recomendamos uma combinação das seguintes abordagens:
- Monitoramento sintético
- Você pode usar ferramentas como o Lighthouse e as Auditorias de anúncios do editor para o Lighthouse para medir o desempenho da página em um ambiente de laboratório. Esse tipo de medição não exige interação do usuário final. Por isso, é adequado para uso em testes automatizados e pode ser usado para validar o desempenho das mudanças antes de liberá-las para os usuários.
- Monitoramento de usuários reais (RUM)
- Você pode usar ferramentas como o Google Analytics e o PageSpeed Insights para coletar dados de desempenho reais diretamente dos usuários. Esse tipo de medição é baseado nas interações do usuário final. Por isso, é útil para identificar problemas de performance de última milha que os testes sintéticos não conseguem descobrir facilmente.
Faça medições e compare com a referência regularmente. Isso vai dar uma boa indicação se a performance do seu site está na direção certa ao longo do tempo.
Escolher o que avaliar
Quando se trata de performance, não há uma única métrica que possa informar tudo o que você precisa saber sobre o desempenho do seu site. Você vai precisar analisar várias métricas que abrangem vários aspectos do desempenho da página para ter uma visão completa. Confira algumas áreas de desempenho principais e métricas sugeridas na tabela abaixo:
Área de performance | |
---|---|
Velocidade de carregamento percebida |
Medidas
A rapidez com que uma página pode carregar e renderizar todos os elementos da interface. Métricas sugeridas
First Contentful Paint (FCP) |
Responsividade do carregamento da página |
Medidas
A rapidez com que uma página se torna responsiva após o carregamento inicial. Métricas sugeridas
First input delay (FID) |
Estabilidade visual |
Medidas
O quanto os elementos da interface mudam e se essas mudanças interferem na interação do usuário. Consulte Minimizar a mudança de layout para mais informações. Métricas sugeridas |
Além da performance da página, você também pode medir as métricas de negócios específicas do anúncio. Informações como impressões, cliques e visibilidade por slot podem ser obtidas nos relatórios do Google Ad Manager.
Testar alterações
Depois de definir e começar a medir as métricas de performance regularmente, você poderá usar esses dados para avaliar o impacto na performance das mudanças feitas no site. Para isso, compare as métricas medidas após uma mudança com as medidas anteriores à mudança (e/ou a referência que você estabeleceu anteriormente). Esse tipo de teste permite detectar e resolver problemas de desempenho antes que eles se tornem um problema grave para sua empresa ou usuários.
Testes automatizados
É possível medir métricas que não dependem da interação do usuário com testes sintéticos. Esses tipos de teste precisam ser executados com a maior frequência possível durante o processo de desenvolvimento para entender como as mudanças não lançadas vão afetar a performance. Esse tipo de teste proativo pode ajudar a descobrir problemas de desempenho antes que as mudanças sejam lançadas para os usuários.
Uma maneira de fazer isso é tornar os testes sintéticos parte de um fluxo de trabalho de integração contínua (CI), em que os testes são executados automaticamente sempre que uma mudança é feita. É possível usar o Lighthouse CI para integrar testes de desempenho sintéticos a vários fluxos de trabalho de CI:
- Monitoramento de desempenho com a CI do Lighthouse
- Uso do CI nas auditorias de anúncios do publisher para o Lighthouse
Teste A/B
As métricas que dependem da interação do usuário não podem ser totalmente testadas até que uma mudança seja realmente lançada para os usuários. Isso pode ser arriscado se você não tiver certeza de como a mudança vai se comportar. Uma técnica para reduzir esse risco é o teste A/B.
Durante um teste A/B, diferentes variantes de uma página são veiculadas aos usuários aleatoriamente. Você pode usar essa técnica para veicular uma versão modificada da sua página para uma pequena porcentagem do tráfego geral, enquanto a maioria continua recebendo a página não modificada. Em combinação com o RUM, é possível avaliar a performance relativa dos dois grupos para determinar qual deles tem melhor desempenho, sem colocar 100% do tráfego em risco.
Outro benefício dos testes A/B é que eles permitem medir com mais precisão os efeitos das mudanças. Para muitos sites, pode ser difícil determinar se uma pequena diferença na performance é devido a uma mudança recente ou a uma variação normal no tráfego. Como o grupo experimental de um teste A/B representa uma porcentagem fixa do tráfego geral, as métricas precisam ser diferentes do grupo de controle por um fator constante. Portanto, as diferenças observadas entre os dois grupos podem ser atribuídas com mais confiança à mudança que está sendo testada.
Ferramentas como AB Tasty, Optimizely e VWO podem ajudar a configurar e executar testes A/B. No entanto, os testes A/B com base em tags (a configuração padrão para essas ferramentas) podem afetar negativamente a performance e fornecer resultados enganosos. Portanto, a integração do lado do servidor é altamente recomendada:
Resultados do teste A/B
Para medir o impacto de uma mudança usando um teste A/B, colete métricas dos grupos de controle e experimentais e compare-as. Para isso, você precisa de uma maneira de dizer qual tráfego faz parte de qual grupo.
Para as métricas de performance da página, inclua um identificador em cada página indicando se a versão de controle ou experimental foi veiculada. Esse identificador pode ser qualquer coisa que você queira, desde que seja algo que possa analisar e correlacionar métricas. Se você estiver usando um framework de teste pré-criado, isso geralmente será processado automaticamente.
Para métricas de negócios específicas de anúncios, use o recurso de segmentação por valor-chave do GPT para diferenciar as solicitações de anúncio do grupo de controle do grupo experimental:
// On control group (A) pages, set page-level targeting to:
googletag.pubads().setTargeting('your-test-id', 'a');
// On experimental group (B) pages, set page-level targeting to:
googletag.pubads().setTargeting('your-test-id', 'b');
Essas chaves-valor podem ser referenciadas ao gerar relatórios do Google Ad Manager para filtrar resultados por grupo.