Wir sind jetzt auf LinkedIn:
Folgen Sie uns auf LinkedIn, um Neuigkeiten und Ressourcen der Google Suche dazu zu erhalten, wie Sie Ihre Website auffindbar machen können.
Bessere Analyse von Webseiten
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Freitag, 23. Mai 2014
Im Jahr
1998
standen unsere Server noch in
Susan Wojcickis
Garage und wir machten uns keine großen Gedanken über JavaScript oder CSS. Beide wurden kaum verwendet bzw. JavaScript wurde damals genutzt, um Seitenelemente blinken zu lassen! Seither hat sich viel verändert. Im Web gibt es zahlreiche komplexe, dynamische Websites, die JavaScript in großem Umfang einsetzen. In diesem Blogpost erläutern wir unser Verfahren zum Rendern umfangreicherer Websites, d. h., wir rufen eure Inhalte jetzt mehr wie moderne Webbrowser ab, einschließlich externer Ressourcen, führen JavaScript aus und wenden CSS an.
Ursprünglich haben wir uns nur die reinen Textinhalte angesehen, die wir in HTTP-Antworten erhielten, und haben nicht analysiert, was ein typischer Browser abrufen würde, der JavaScript ausführt. Als es dann immer mehr Seiten gab, auf denen wertvolle Inhalte mit JavaScript gerendert wurden, konnten wir diese den suchenden Nutzern nicht anzeigen. Das war sowohl für die Suchenden als auch für die jeweiligen Webmaster ein Nachteil.
Um dieses Problem zu beheben, beschlossen wir, auszuprobieren, ob die Analyse der Seiten durch das Ausführen von JavaScript möglich sei. Dieses Vorgehen ist beim aktuellen Umfang des Webs recht schwierig, aber wir waren der Ansicht, dass es einen Versuch wert sei. Wir haben dieses Verfahren im Laufe der Zeit schrittweise verbessert. In den letzten Monaten hat unser Indexierungssystem eine große Anzahl an Webseiten beinahe wie einnormaler Nutzer gerendert, der einen Browser mit aktiviertem JavaScript verwendet.
Manche Abläufe beim Rendern sind nicht perfekt und können die Suchergebnisse für eure Websites beeinträchtigen. Im Folgenden findet ihr einige potenzielle Probleme und – sofern verfügbar – auch Vorschläge, wie ihr diese verhindern könnt:
-
Wenn Ressourcen wie JavaScript oder CSS in separaten Dateien blockiert werden, z. B. in robots.txt, damit der Googlebot sie nicht abrufen kann, kann unser Indexierungssystem eure Websites nicht wie ein normaler Nutzer abrufen. Wir empfehlen daher, dem Googlebot das Abrufen von JavaScript und CSS zu gestatten, damit eure Inhalte besser indexiert werden. Das ist insbesondere bei mobilen Websites wichtig, bei denen externe Ressourcen wie CSS und JavaScript unseren Algorithmen anzeigen, dass die Seiten
für Mobilgeräte optimiert
sind.
-
Sollte euer Webserver die hohe Anzahl von Crawling-Anfragen für Ressourcen nicht verarbeiten können, werden eure Seiten von uns möglicherweise nicht korrekt gerendert. Um sicherzustellen, dass eure Seiten von Google gerendert werden können, müssen eure Server die Crawling-Anfragen für Ressourcen verarbeiten können.
-
Idealerweise sollte eure Website auch auf Fehler und unerwartet auftretende Ereignisse angemessen reagieren (Graceful Degradation). Dadurch können Nutzer auf eure Inhalte auch dann zugreifen, wenn sie in ihren Browsern keine kompatiblen JavaScript-Implementierungen verwenden. Dieses Vorgehen hilft auch Websitebesuchern, die JavaScript deaktiviert haben, und Suchmaschinen, die noch kein JavaScript ausführen können.
-
In einigen Fällen ist JavaScript unter Umständen zu komplex, sodass wir die Seite nicht vollständig und korrekt rendern können.
-
Manche JavaScript-Implementierungen entfernen Inhalte von der Seite, statt sie hinzuzufügen, weshalb wir diese Inhalte dann nicht indexieren können.
Um das Debugging zu vereinfachen, entwickeln wir momentan ein Tool, das Webmastern ein besseres Verständnis vermitteln soll, wie Google ihre Websites rendert. Es sollte in den nächsten Tagen
in den Webmaster-Tools verfügbar
sein. Antworten auf Fragen findet ihr in unserem
Forum für Webmaster
.
Post von Michael Xu, Software Engineer, und Kazushi Nagayama, Webmaster Trends Analyst
(Veröffentlicht von
Johannes Mehlem
, Search Quality Team)
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2014-05-01 (UTC).
[null,null,["Zuletzt aktualisiert: 2014-05-01 (UTC)."],[[["\u003cp\u003eGoogle's indexing system is now rendering a significant number of web pages with JavaScript enabled to better understand dynamic content.\u003c/p\u003e\n"],["\u003cp\u003eWebmasters should ensure Googlebot can access JavaScript and CSS files to facilitate proper rendering and indexing, particularly for mobile websites.\u003c/p\u003e\n"],["\u003cp\u003eWebsites should be designed to degrade gracefully for users and search engines that may not have JavaScript capabilities, ensuring content accessibility.\u003c/p\u003e\n"],["\u003cp\u003ePotential issues with rendering may include server overload due to crawl requests, overly complex JavaScript, and JavaScript removing content, which webmasters should address.\u003c/p\u003e\n"],["\u003cp\u003eGoogle is developing a tool in Webmaster Tools to aid webmasters in understanding how Google renders their websites.\u003c/p\u003e\n"]]],["Google's indexing system now renders web pages more like a typical browser, including executing JavaScript and applying CSS. Key actions include allowing Googlebot to retrieve JavaScript and CSS resources, ensuring servers can handle crawl requests, and having sites degrade gracefully. Complex or content-removing JavaScript can hinder indexing. A tool is in development to help webmasters understand how their site is rendered, and the team recommends checking the help forum.\n"],null,["# Understanding web pages better\n\nFriday, May 23, 2014\n\n\nIn [1998](https://www.google.com/about/company/history/) when our\nservers were running in\n[Susan Wojcicki](https://twitter.com/SusanWojcicki)'s garage, we\ndidn't really have to worry about JavaScript or CSS. They weren't used much, or, JavaScript was\nused to make page elements... blink! A lot has changed since then. The web is full of rich,\ndynamic, amazing websites that make heavy use of JavaScript. Today, we'll talk about our\ncapability to render richer websites---meaning we see your content more like modern Web\nbrowsers, include the external resources, execute JavaScript and apply CSS.\n\n\nTraditionally, we were only looking at the raw textual content that we'd get in the HTTP response\nbody and didn't really interpret what a typical browser running JavaScript would see. When pages\nthat have valuable content rendered by JavaScript started showing up, we weren't able to let\nsearchers know about it, which is a sad outcome for both searchers and webmasters.\n\n\nIn order to solve this problem, we decided to try to understand pages by executing JavaScript.\nIt's hard to do that at the scale of the current web, but we decided that it's worth it. We have\nbeen gradually improving how we do this for some time. In the past few months, our indexing system\nhas been rendering a substantial number of web pages more like an average user's browser with\nJavaScript turned on.\n\n\nSometimes things don't go perfectly during rendering, which may negatively impact search results\nfor your site. Here are a few potential issues, and---where possible,---how you can help\nprevent them from occurring:\n\n- If resources like JavaScript or CSS in separate files are blocked (say, with robots.txt) so that Googlebot can't retrieve them, our indexing systems won't be able to see your site like an average user. We recommend allowing Googlebot to retrieve JavaScript and CSS so that your content can be indexed better. This is especially important for mobile websites, where external resources like CSS and JavaScript help our algorithms understand that the pages are [optimized for mobile](/search/docs/crawling-indexing/mobile/mobile-sites-mobile-first-indexing#crawling_requirement).\n- If your web server is unable to handle the volume of crawl requests for resources, it may have a negative impact on our capability to render your pages. If you'd like to ensure that your pages can be rendered by Google, make sure your servers are able to handle crawl requests for resources.\n- It's always a good idea to have your site degrade gracefully. This will help users enjoy your content even if their browser doesn't have compatible JavaScript implementations. It will also help visitors with JavaScript disabled or off, as well as search engines that can't execute JavaScript yet.\n- Sometimes the JavaScript may be too complex or arcane for us to execute, in which case we can't render the page fully and accurately.\n- Some JavaScript removes content from the page rather than adding, which prevents us from indexing the content.\n\n\nTo make things easier to debug, we're currently working on a tool for helping webmasters better\nunderstand how Google renders their site. We look forward to making it to available for you in the\ncoming days in\n[Webmaster Tools](https://search.google.com/search-console).\n\nIf you have any questions, please you can visit our help forum.\n\n\nPosted by Erik Hendriks and [Michael Xu](https://www.linkedin.com/in/michaelxu1999/), Software Engineers, and\n[Kazushi Nagayama](https://plus.google.com/+KazushiNagayama/?rel=author),\nWebmaster Trends Analyst"]]