Wir sind jetzt auf LinkedIn:
Folgen Sie uns auf LinkedIn, um Neuigkeiten und Ressourcen der Google Suche dazu zu erhalten, wie Sie Ihre Website auffindbar machen können.
Der Umgang mit domainübergreifendem Duplicate Content
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Mittwoch, 13. Januar 2010
Wir haben uns vor einiger Zeit damit auseinandergesetzt, wie man
mit Duplicate Content auf einer einzelnen Website umgeht
. Heute werfen wir einen Blick auf Möglichkeiten, ähnliche Duplikation bei mehreren Websites, also bei mehreren Domains zu behandeln. Bei einigen Websites gibt es gute Gründe den Content über die Website-Grenze hinweg zu duplizieren - beispielsweise beim Umzug auf einen neuen Domainnamen, zumindest für den Fall, dass der Webserver nicht mit serverseitigen Weiterleitungen umgehen kann. Um bei Problemen, die auf solchen Websites entstehen, helfen zu können, haben wir unsere Unterstützung des
domainübergreifenden Elements
<
link rel="canonical">
bekannt gegeben.
Möglichkeiten mit domainübergreifende
m
Duplicate Content umzugehen:
-
Wählt eure bevorzugte Domain
Wenn Suchmaschinen mit Duplicate Content konfrontiert werden, wählen sie normalerweise eine Version und filtern die anderen aus. Das kann auch passieren, wenn mehrere Domainnamen betroffen sind. Obwohl Suchmaschinen normalerweise ziemlich gut darin sind, eine sinnvolle Auswahl zu treffen, bevorzugen es viele Webmaster die Entscheidung selbst zu fällen.
-
Reduziert Duplicate Content auf den einzelnen Websites
Bevor ihr euch mit dem Thema des domainübergreifenden Duplicate Contents beschäftigt, stellt sicher, dass ihr euch mit
Duplicate Content innerhalb eurer Website
auseinandergesetzt habt.
-
Stellt das Crawling sicher und verwendet , wenn möglich, 301-Weiterleitungen
Wo immer es möglich ist, ist der wichtigste Schritt eine passende
301-Weiterleitung
(also eine permanente Weiterleitung) zu verwenden. Diese Weiterleitungen schicken User und Suchmaschinen-Crawler zu eurer bevorzugten Domain und stellen eindeutig klar, welche URL indexiert werden soll. Das ist im Normalfall die bevorzugte Methode, da sie jedem, der auf den Content zugreift, eine klare Richtlinie gibt. Bedenkt, dass Suchmaschinen diese Weiterleitungen nur finden können, wenn keine URLs in der Kette von Weiterleitungen durch eine
robots.txt-Datei
blockiert wurd
en
. Vergesst nicht, bei den entsprechenden Weiterleitungen und in den Webmaster-Tools zu berücksichtigen, ob ihr
URLs mit "www" oder ohne "www" bevorzugt
.
-
Verwendet das domainübergreifende Element
<
link rel="canonical">
Es gibt Situationen, in denen es nicht leicht ist eine Weiterleitung einzurichten. Dieser Fall könnte eintreten, wenn ihr mit eurer Website von einem Server, der keine serverseitigen Weiterleitungen unterstützt, umzieht. In Fällen wie diesen, könnt ihr das Element <
link rel="canonical">
über Domaingrenzen hinweg verwenden, um die exakte URL genau jener Domain anzugeben, die ihr bei der Indexierung bevorzugt. Das Element <
link rel="canonical">
wird als Hinweis betrachtet und ist nicht vollkommen zwingend, aber wir versuchen es zu beachten, wann immer es möglich ist.
Ihr habt noch Fragen?
F: Müssen die Seiten exakt identisch sein?
A: Nein, aber sie sollten ähnlich sein. Kleine Unterschiede gehen in Ordnung.
F: Aus technischen Gründen, kann ich kein 1:1-Mapping für URLs auf meinen Websites anbieten. Kann ich mit rel="canonical" einfach auf die Root meiner bevorzugten Website verweisen?
A: Nein, das könnte zum Problem werden. Ein Mapping von der alten URL zur neuen URL, und zwar für jede URL der alten Website ist die beste Möglichkeit um rel="canonical" zu benutzen.
F: Ich stelle meinen Content bzw. meine Produktbeschreibungen zur Syndikation zur Verfügung. Sollen andere, die meinen Content veröffentlichen, rel="canonical" verwenden?
A: Die Entscheidung überlassen wir euch und euren Partnern. Wenn der Content ähnlich genug ist, könnte es Sinn machen rel="canonical" zu verwenden, wenn beide Seite zustimmen.
F: Mein Server beherrscht keine 301-Weiterleitung. Kann ich rel="canonical" verwenden, um mit der Website umzuziehen?
A: Wenn es irgendwie möglich ist, solltet ihr versuchen mit dem Webhost oder Webserver eine 301-Weiterleitung zu Stande zu bringen. Bedenkt, dass wir rel="canonical" als Hinweis betrachten, und dass andere Suchmaschinen da anders vorgehen können. Aber wenn eine 301-Weiterleitung aus welchen Gründen auch immer unmöglich ist, könnte rel="canonical" für euch in Frage kommen. Für weitere Informationen, werft einen Blick auf unsere
Richtlinien zum Umzug Eurer Website
.
F: Sollte ich das robots-
Meta-Tag
"noindex" auf Seiten mit dem Element <
link rel="canonical">
verwenden?
A: Nein, da diese Seiten beim Indexieren nicht als gleichwertig betrachtet werden: eine ist in diesem Fall zugänglich, die andere ist blockiert. Außerdem ist es wichtig, dass die Seiten nicht durch eine robots.txt-Datei vom Crawlen ausgeschlossen werden, sonst sind die Crawler von Suchmaschinen nicht in der Lage das Element <
link rel="canonical">
überhaupt erst zu entdecken.
Wir hoffen, dass euch dies hilft mit Duplicate Content benutzerfreundlich umzugehen. Gibt es immer noch Szenarien, in denen ihr das Gefühl habt, Duplicate Content stellt ein Problem für eure Websites dar? Wenn das so ist, schreibt doch was dazu im
Hilfeforum für Webmaster
!
Post von
John Mueller, Webmaster Trends Analyst, Google Zürich (Übersetzung von Jörg, Search Quality Team)
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2010-01-01 (UTC).
[null,null,["Zuletzt aktualisiert: 2010-01-01 (UTC)."],[[["\u003cp\u003eThis post explains how to handle duplicate content across different websites, focusing on the cross-domain \u003ccode\u003erel="canonical"\u003c/code\u003e link element.\u003c/p\u003e\n"],["\u003cp\u003eSearch engines often choose one version of duplicate content and filter others, but webmasters can influence this choice using redirects or the \u003ccode\u003erel="canonical"\u003c/code\u003e tag.\u003c/p\u003e\n"],["\u003cp\u003eUsing 301 redirects is the preferred method for consolidating duplicate content across domains as it provides clear signals for both users and search engines.\u003c/p\u003e\n"],["\u003cp\u003eThe cross-domain \u003ccode\u003erel="canonical"\u003c/code\u003e link element can be used when redirects are not feasible, allowing webmasters to specify the preferred domain for indexing.\u003c/p\u003e\n"],["\u003cp\u003eWhile \u003ccode\u003erel="canonical"\u003c/code\u003e is a hint rather than a directive, Google tries to follow it to consolidate duplicate content for a better user experience.\u003c/p\u003e\n"]]],["To manage cross-domain content duplication, utilize the cross-domain `rel=\"canonical\"` link element to specify the preferred URL for indexing when `301` redirects are not feasible. Prioritize reducing in-site duplication first. Ensure crawlers can access pages with `rel=\"canonical\"` by not blocking them in `robots.txt` files. While pages don't need to be identical, they should be similar. The `rel=\"canonical\"` method is a hint and may be handled differently by other search engines.\n"],null,["# Handling legitimate cross-domain content duplication\n\n| It's been a while since we published this blog post. Some of the information may be outdated (for example, some images may be missing, and some links may not work anymore). Specifically, `rel=\"canonical\"` is no longer recommended for [syndicated content](/search/docs/crawling-indexing/canonicalization-troubleshooting#syndicated-content).\n\nTuesday, December 15, 2009\n\n\nWe've recently discussed several ways of\n[handling duplicate content on a single website](/search/blog/2009/10/reunifying-duplicate-content-on-your);\ntoday we'll look at ways of handling similar duplication across different websites, across\ndifferent domains. For some sites, there are legitimate reasons to duplicate content across\ndifferent websites---for instance, to migrate to a new domain name using a web server that\ncannot create server-side redirects. To help with issues that arise on such sites, we're\nannouncing our support of the\n**cross-domain `rel=\"canonical\"` link element**.\n\nWays of handling cross-domain content duplication:\n--------------------------------------------------\n\n- **Choose your preferred domain** \n When confronted with duplicate content, search engines will generally take one version and filter the others out. This can also happen when multiple domain names are involved, so while search engines are generally pretty good at choosing something reasonable, many webmasters prefer to make that decision themselves.\n- **Reduce in-site duplication** \n Before starting on cross-site duplicate content questions, make sure to [handle duplication within your site](/search/docs/crawling-indexing/consolidate-duplicate-urls) first.\n- **Enable crawling and use `301` (permanent) redirects where possible** Where possible, the most important step is often to use appropriate [`301` redirects](/search/docs/crawling-indexing/301-redirects). These redirects send visitors and search engine crawlers to your preferred domain and make it very clear which URL should be indexed. This is generally the preferred method as it gives clear guidance to everyone who accesses the content. Keep in mind that in order for search engine crawlers to discover these redirects, none of the URLs in the redirect chain can be disallowed via a [robots.txt file](/search/docs/crawling-indexing/robots/intro). Don't forget to handle your www / non-www preference with appropriate redirects and in [Webmaster Tools](https://www.google.com/support/webmasters/bin/answer.py?answer=44231).\n- **Use the cross-domain `rel=\"canonical\"` link element** \n There are situations where it's not easily possible to set up redirects. This could be the case when you need to move your website from a server that does not feature server-side redirects. In a situation like this, **you can use the\n [`rel=\"canonical\"` link element](/search/docs/crawling-indexing/consolidate-duplicate-urls)\n across domains** to specify the exact URL of whichever domain is preferred for indexing. While the `rel=\"canonical\"` link element is seen as a hint and not an absolute command, we do try to follow it where possible.\n\nStill have questions?\n---------------------\n\n\n**Do the pages have to be identical?** \n\nNo, but they should be similar. Slight differences are fine.\n\n\n**For technical reasons I can't include a 1:1 mapping for the URLs on my sites. Can I just\npoint the `rel=\"canonical\"` at the home page of my preferred site?** \n\nNo; this could result in problems. A mapping from old URL to new URL for each URL on the old site\nis the best way to use `rel=\"canonical\"`.\n\n\n**I'm offering my content / product descriptions for syndication. Do my publishers need to use\n`rel=\"canonical\"`?** \n\nWe leave this up to you and your publishers. If the content is similar enough, it might make\nsense to use `rel=\"canonical\"`, if both parties agree.\n\n\n**My server can't do a `301` (permanent) redirect. Can I use\n`rel=\"canonical\"` to move my site?** \n\nIf it's at all possible, you should work with your webhost or web server to do a\n`301` redirect. Keep in mind that we treat `rel=\"canonical\"` as a hint,\nand other search engines may handle it differently. But if a `301` redirect is\nimpossible for some reason, then a `rel=\"canonical\"` may work for you. For more\ninformation, see our\n[guidelines on moving your site](/search/docs/crawling-indexing/site-move-no-url-changes).\n\n\n**Should I use a `noindex` robots\n[`meta` tag](/search/docs/advanced/crawling/special-tags)\non pages with a `rel=\"canonical\"` link element?** \n\nNo, since those pages would not be equivalent with regards to indexing---one would be allowed\nwhile the other would be blocked. Additionally, it's important that these pages are not\ndisallowed from crawling through a robots.txt file, otherwise search engine crawlers will not\nbe able to discover the `rel=\"canonical\"` link element.\n\n\nWe hope this makes it easier for you to handle duplicate content in a user-friendly way. Are\nthere still places where you feel that duplicate content is causing your sites problems? Let us\nknow in the\n[Webmaster Help Forum](https://support.google.com/webmasters/community/thread?tid=07603d23e8071644)!\n\n\nPosted by\n[John Mueller](https://twitter.com/JohnMu),\nWebmaster Trends Analyst, Google Zürich"]]