L'optimisation des performances commence par l'identification des métriques clés, généralement liées à la latence et au débit. L'ajout d'une surveillance pour capturer et suivre ces métriques met en évidence les points faibles de l'application. Les métriques permettent d'optimiser les performances.
De plus, de nombreux outils de surveillance vous permettent de configurer des alertes pour vos métriques afin d'être averti lorsqu'un certain seuil est atteint. Par exemple, vous pouvez configurer une alerte pour vous avertir lorsque le pourcentage de requêtes ayant échoué augmente de plus de x % par rapport aux niveaux normaux. Les outils de surveillance peuvent vous aider à identifier les performances normales et à détecter les pics de latence, le nombre d'erreurs et d'autres métriques clés inhabituels. Il est particulièrement important de pouvoir surveiller ces métriques pendant les périodes critiques pour l'activité ou après le déploiement d'un nouveau code en production.
Identifier les métriques de latence
Assurez-vous que votre UI est aussi réactive que possible, en gardant à l'esprit que les utilisateurs attendent des normes encore plus élevées des applications mobiles. La latence doit également être mesurée et suivie pour les services de backend, en particulier parce qu'elle peut entraîner des problèmes de débit si elle n'est pas contrôlée.
Voici quelques exemples de métriques à suivre :
- Durée de la demande
- Durée des requêtes avec une précision au niveau du sous-système (par exemple, les appels d'API)
- Durée du job
Identifier les métriques de débit
Le débit est une mesure du nombre total de requêtes traitées sur une période donnée. Le débit peut être affecté par la latence des sous-systèmes. Vous devrez peut-être optimiser la latence pour améliorer le débit.
Voici quelques métriques que nous vous suggérons de suivre :
- Requêtes par seconde
- Taille des données transférées par seconde
- Nombre d'opérations d'E/S par seconde
- Utilisation des ressources, comme l'utilisation du processeur ou de la mémoire
- Taille du backlog de traitement, comme Pub/Sub ou le nombre de threads
Pas seulement la moyenne
Une erreur fréquente dans la mesure des performances consiste à ne regarder que le cas moyen. Bien que cela soit utile, cela ne donne pas d'informations sur la distribution de la latence. Il est préférable de suivre les centiles de performances, par exemple les 50e, 75e, 90e et 99e centiles d'une métrique.
En général, l'optimisation peut être effectuée en deux étapes. Commencez par optimiser la latence du 90e centile. Ensuite, considérez le 99e centile, également appelé latence de queue : la petite partie des requêtes qui mettent beaucoup plus de temps à se terminer.
Surveillance côté serveur pour des résultats détaillés
Le profilage côté serveur est généralement préférable pour le suivi des métriques. Le côté serveur est généralement beaucoup plus facile à instrumenter, permet d'accéder à des données plus précises et est moins sujet aux perturbations liées aux problèmes de connectivité.
Surveillance du navigateur pour une visibilité de bout en bout
Le profilage du navigateur peut fournir des informations supplémentaires sur l'expérience de l'utilisateur final. Il peut indiquer les pages qui présentent des requêtes lentes, que vous pouvez ensuite corréler à la surveillance côté serveur pour une analyse plus approfondie.
Google Analytics fournit une surveillance prête à l'emploi des temps de chargement des pages dans le rapport "Temps de chargement des pages". Cela fournit plusieurs vues utiles pour comprendre l'expérience utilisateur sur votre site, en particulier :
- Temps de chargement des pages
- Temps de chargement des redirections
- Temps de réponse du serveur
Surveillance dans le cloud
De nombreux outils vous permettent de capturer et de surveiller les métriques de performances de votre application. Par exemple, vous pouvez utiliser Google Cloud Logging pour consigner les métriques de performances dans votre projet Google Cloud, puis configurer des tableaux de bord dans Google Cloud Monitoring pour surveiller et segmenter les métriques consignées.
Consultez le guide de journalisation pour obtenir un exemple de journalisation dans Google Cloud Logging à partir d'un intercepteur personnalisé dans la bibliothèque cliente Python. Une fois ces données disponibles dans Google Cloud, vous pouvez créer des métriques basées sur les données de journaux pour obtenir de la visibilité sur votre application grâce à Google Cloud Monitoring. Suivez le guide pour les métriques basées sur les journaux définies par l'utilisateur afin de créer des métriques à l'aide des journaux envoyés à Google Cloud Logging.
Vous pouvez également utiliser les bibliothèques du client Monitoring pour définir des métriques dans votre code et les envoyer directement à Monitoring, séparément des journaux.
Exemple de métrique basée sur les journaux
Supposons que vous souhaitiez surveiller la valeur is_fault
pour mieux comprendre les taux d'erreur dans votre application. Vous pouvez extraire la valeur is_fault
des journaux dans une nouvelle métrique de compteur, ErrorCount
.
Dans Cloud Logging, les libellés vous permettent de regrouper vos métriques dans des catégories en fonction d'autres données des journaux. Vous pouvez configurer un libellé pour le champ method
envoyé à Cloud Logging afin d'examiner la répartition du nombre d'erreurs par méthode de l'API Google Ads.
Une fois la métrique ErrorCount
et le libellé Method
configurés, vous pouvez créer un graphique dans un tableau de bord Monitoring pour surveiller ErrorCount
, regroupé par Method
.
Alertes
Dans Cloud Monitoring et d'autres outils, vous pouvez configurer des règles d'alerte qui spécifient quand et comment les alertes doivent être déclenchées par vos métriques. Pour savoir comment configurer des alertes Cloud Monitoring, consultez le guide sur les alertes.