Mise à jour de nos consignes techniques aux webmasters
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
lundi 27 octobre 2014
Nous avons récemment annoncé que notre système d'indexation permettait désormais
d'afficher les pages Web
davantage telles qu'elles apparaîtraient dans un navigateur standard, avec les ressources CSS et JavaScript activées. Suite à cette annonce, nous mettons à jour l'une de nos
consignes techniques aux webmasters
.
Pour optimiser l'affichage et l'indexation de vos pages et de votre site, vous devez désormais autoriser l'accès de Googlebot aux fichiers JavaScript, CSS et image que vous utilisez.
Le blocage de l'exploration des fichiers JavaScript ou CSS dans le fichier robots.txt de votre site nuit directement à la qualité de l'affichage et de l'indexation de votre contenu par nos algorithmes. Cela peut avoir un impact négatif sur le classement de votre site.
Conseils à jour pour une indexation optimisée
Auparavant, nos systèmes d'indexation ressemblaient aux anciens navigateurs en texte seul, tels que Lynx, et c'est ce qui figurait dans nos consignes aux webmasters. À présent, étant donné que l'indexation est basée sur le rendu des pages, nos systèmes d'indexation ne peuvent plus être considérés comme un navigateur en texte seul. Il serait plus juste de les comparer à un navigateur Web moderne. Dans cette nouvelle perspective, gardez à l'esprit ce qui suit :
-
À l'instar des navigateurs modernes, il est possible que notre moteur de rendu ne soit pas compatible avec toutes les technologies utilisées sur vos pages. Assurez-vous que votre conception Web respecte les principes de l'
amélioration progressive
, car cela permet à nos systèmes (et à un plus grand nombre de navigateurs) de détecter le contenu utilisable et les fonctionnalités de base lorsque certains éléments de la conception Web ne sont pas encore compatibles.
-
Si vos pages s'affichent plus rapidement, non seulement les internautes peuvent accéder plus facilement à votre contenu, mais elles peuvent également être indexées de manière plus efficace. Nous vous recommandons de suivre les bonnes pratiques d'
optimisation des performances des pages
, et en particulier les suivantes :
-
Assurez-vous que votre serveur peut gérer des charges supplémentaires afin d'afficher les fichiers JavaScript et CSS pour Googlebot.
Test et résolution des problèmes
Parallèlement au lancement de notre système d'indexation basé sur le rendu des pages, nous avons également mis à jour la fonctionnalité
Explorer et afficher comme Google
des outils pour les webmasters afin que les webmasters puissent savoir comment leurs pages s'affichent dans nos systèmes. Grâce à cela, vous pourrez identifier un certain nombre de problèmes relatifs à l'indexation, comme des restrictions inappropriées du fichier robots.txt ou des redirections qui ne peuvent être suivies par Googlebot.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2014/10/01 (UTC).
[null,null,["Dernière mise à jour le 2014/10/01 (UTC)."],[[["\u003cp\u003eGoogle's indexing system now renders web pages like modern browsers, requiring access to JavaScript, CSS, and image files for optimal ranking.\u003c/p\u003e\n"],["\u003cp\u003eBlocking Googlebot from accessing these files via robots.txt negatively impacts indexing and rankings.\u003c/p\u003e\n"],["\u003cp\u003eWebsites should be designed with progressive enhancement principles and optimized for performance to ensure content is accessible and efficiently indexed.\u003c/p\u003e\n"],["\u003cp\u003eWebmasters can use the "Fetch and Render as Google" tool to troubleshoot indexing issues and see how Google renders their pages.\u003c/p\u003e\n"]]],["Google's indexing system now renders web pages like modern browsers, necessitating an update to webmaster guidelines. Webmasters should allow Googlebot access to JavaScript, CSS, and image files for optimal indexing and ranking. Disallowing these files harms content rendering. Pages should be designed with progressive enhancement and optimized for performance, including minimizing downloads and optimizing CSS and JavaScript files. Webmasters can use the updated \"Fetch and Render as Google\" tool to identify indexing issues.\n"],null,["# Updating our technical Webmaster Guidelines\n\nMonday, October 27, 2014\n\n\nWe recently announced that our indexing system has been\n[rendering web pages](/search/blog/2014/05/understanding-web-pages-better)\nmore like a typical modern browser, with CSS and JavaScript turned on. Today, we're updating one\nof our\n[technical Webmaster Guidelines](/search/docs/essentials)\nin light of this announcement.\n\n\nFor optimal rendering and indexing, our new guideline specifies that you should allow Googlebot\naccess to the JavaScript, CSS, and image files that your pages use. This provides you optimal\nrendering and indexing for your site. **Disallowing crawling of Javascript or CSS files in\nyour site's robots.txt directly harms how well our algorithms render and index your content and\ncan result in suboptimal rankings.**\n\nUpdated advice for optimal indexing\n-----------------------------------\n\n\nHistorically, Google indexing systems resembled old text-only browsers, such as Lynx, and that's\nwhat our Webmaster Guidelines said. Now, with indexing based on page rendering, it's no longer\naccurate to see our indexing systems as a text-only browser. Instead, a more accurate\napproximation is a modern web browser. With that new perspective, keep the following in mind:\n\n- Just like modern browsers, our rendering engine might not support all of the technologies a page uses. Make sure your web design adheres to the principles of [progressive enhancement](https://en.wikipedia.org/wiki/Progressive_enhancement) as this helps our systems (and a wider range of browsers) see usable content and basic functionality when certain web design features are not yet supported.\n-\n Pages that render quickly not only help users get to your content easier, but make indexing of\n those pages more efficient too. We advise you follow the best practices for\n [page performance optimization](/web/fundamentals/performance),\n specifically:\n\n - [Eliminate unnecessary downloads](/web/fundamentals/performance/optimizing-content-efficiency/eliminate-downloads)\n - [Optimize the serving of your CSS and JavaScript files](/web/fundamentals/performance/optimizing-content-efficiency/optimize-encoding-and-transfer) by concatenating (merging) your separate CSS and JavaScript files, minifying the concatenated files, and configuring your web server to serve them compressed (usually gzip compression)\n- Make sure your server can handle the additional load for serving of JavaScript and CSS files to Googlebot.\n\nTesting and troubleshooting\n---------------------------\n\n\nIn conjunction with the launch of our rendering-based indexing, we also updated the\n[Fetch and Render as Google](https://support.google.com/webmasters/answer/158587)\nfeature in Webmaster Tools so webmasters could see how our systems render the page. With it,\nyou'll be able to identify a number of indexing issues: improper robots.txt restrictions,\nredirects that Googlebot cannot follow, and more.\n\n\nAnd, as always, if you have any comments or questions, please ask in our\n[Webmaster Help forum](https://support.google.com/webmasters/community/).\n\n\nPosted by\n[Pierre Far](https://google.com/+PierreFar?rel=superauthor),\nWebmaster Trends Analyst"]]