컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
Google에서 언어 적응형 페이지를 크롤링하는 방법
사이트에 언어 적응형 페이지(감지된 국가 또는 방문자가 선호하는 언어에 따라 다른 콘텐츠를 반환하는 페이지)가 있는 경우 Google에서 일부 언어의 콘텐츠를 크롤링하거나, 색인 생성하거나, 순위를 지정하지 못할 수도 있습니다. 이는 Googlebot 크롤러가 기본적으로 미국에 위치한 것으로 감지되는 IP 주소를 사용하기 때문입니다. 또한 크롤러는 요청 헤더에 Accept-Language
를 설정하지 않은 상태로 HTTP 요청을 보냅니다.
지역 분산 크롤링
Googlebot은 미국에 위치한 IP 주소 외에도 미국 외에 위치한 IP 주소로도 크롤링합니다.
Google에서 항상 권장하는 바와 같이 Googlebot의 출처로 감지되는 국가에 있는 사용자를 대하는 방식과 동일하게 Googlebot을 취급하시기 바랍니다. 즉, 미국에 있는 사용자는 콘텐츠에 액세스하지 못하도록 차단하고 오스트레일리아 방문자는 콘텐츠를 볼 수 있도록 허용하는 경우, 서버에서 출처가 미국으로 감지되는 Googlebot은 차단하지만 오스트레일리아로 감지되는 Googlebot의 액세스는 허용해야 합니다.
기타 고려사항
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2025-08-04(UTC)
[null,null,["최종 업데이트: 2025-08-04(UTC)"],[[["\u003cp\u003eGooglebot's default IP addresses appear to be US-based, which may impact the crawling and indexing of locale-adaptive pages targeting other regions.\u003c/p\u003e\n"],["\u003cp\u003eIt is recommended to use separate locale URL configurations with \u003ccode\u003erel="alternate"\u003c/code\u003e hreflang annotations for better localization.\u003c/p\u003e\n"],["\u003cp\u003eGooglebot crawls from various global locations, so treat it like any other user based on its apparent location, including access restrictions.\u003c/p\u003e\n"],["\u003cp\u003eEnsure consistent robots exclusion protocol (robots.txt and meta tags) across all locales to avoid unintended crawling restrictions.\u003c/p\u003e\n"]]],["Google crawls locale-adaptive pages using IP addresses from various locations, not just the USA. When Googlebot appears to be from a specific country, treat it like a user from that region. For locale-adaptive sites, using separate URL configurations with `rel=\"alternate\"` hreflang annotations is recommended. Ensure consistent application of robots exclusion protocols, such as robots.txt and meta tags, across all locales. You can verify Googlebot's geo-distributed crawls through reverse DNS lookups.\n"],null,["# How Google Crawls Locale-Adaptive Pages | Google Search Central\n\nHow Google crawls locale-adaptive pages\n=======================================\n\nIf your site has *locale-adaptive* pages (that is, your site returns different content\nbased on the perceived country or preferred language of the visitor), Google might not crawl,\nindex, or rank all your content for different locales. This is because the default IP\naddresses of the Googlebot crawler appear to be based in the USA. In addition, the crawler\nsends HTTP requests without setting `Accept-Language` in the request header.\n| **Important** : We recommend using separate locale URL configurations and annotating them with [`rel=\"alternate\"`\n| hreflang annotations](/search/docs/specialty/international/localized-versions).\n\nGeo-distributed crawling\n------------------------\n\nGooglebot crawls with IP addresses based outside the USA, in addition to the US-based IP addresses.\n\nAs we have always recommended, when Googlebot appears to come from a certain country, treat\nit like you would treat any other user from that country. This means that if you block\nUSA-based users from accessing your content, but allow visitors from Australia to see it,\nyour server should block Googlebot if it appears to be coming from the USA, but allow access\nto Googlebot if it appears to come from Australia.\n\n### Other considerations\n\n- Googlebot uses the same user agent string for all crawling configurations. Learn more about the [user agent strings used\n by Google crawlers](/search/docs/crawling-indexing/overview-google-crawlers).\n- You can [verify Googlebot\n geo-distributed crawls](/search/docs/crawling-indexing/verifying-googlebot) using reverse DNS lookups.\n- If your site is using the [*robots exclusion protocol*](https://www.rfc-editor.org/rfc/rfc9309.html), make sure you apply it consistently across locales. This means that [robots `meta` tags](/search/docs/crawling-indexing/robots-meta-tag) and the [robots.txt file](/search/docs/crawling-indexing/robots/create-robots-txt) must specify the same rules in each locale."]]