จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
Google ทำการ Crawl หน้าที่ปรับตามสถานที่/ภาษาอย่างไร
หากเว็บไซต์มีหน้าที่ปรับตามสถานที่/ภาษา (กล่าวคือเว็บไซต์จะแสดงผลเนื้อหาต่างกันตามประเทศที่ดูหรือภาษาที่ต้องการของผู้เข้าชม) Google อาจไม่ทำการ Crawl, จัดทำดัชนี หรือจัดอันดับเนื้อหาทั้งหมดในภาษาต่างๆ เนื่องจากที่อยู่ IP เริ่มต้นของ Crawler Googlebot ดูเหมือนว่าอยู่ในสหรัฐอเมริกา และ Crawler จะส่งคำขอ HTTP โดยไม่มีการตั้งค่า Accept-Language
ในส่วนหัวของคำขอด้วย
การ Crawl แบบกระจายตามตำแหน่งทางภูมิศาสตร์
Googlebot รวบรวมข้อมูลด้วยที่อยู่ IP นอกประเทศสหรัฐอเมริกา นอกเหนือจากที่อยู่ IP ในสหรัฐอเมริกา
อย่างที่เราได้แนะนำอยู่เสมอว่าเมื่อ Googlebot มาจากประเทศหนึ่งๆ ให้คุณดำเนินการกับ Googlebot เช่นเดียวกับที่จะดำเนินการกับผู้ใช้คนอื่นจากประเทศนั้น ซึ่งหมายความว่าหากคุณบล็อกไม่ให้ผู้ใช้ในสหรัฐอเมริกาเข้าถึงเนื้อหาของคุณ แต่อนุญาตให้ผู้เข้าชมจากออสเตรเลียเข้าชมเนื้อหาได้ เซิร์ฟเวอร์ก็ควรจะบล็อก Googlebot หากดูเหมือนว่ามาจากสหรัฐอเมริกา แต่อนุญาตให้ Googlebot ที่ดูเหมือนว่ามาจากออสเตรเลียเข้าถึงเนื้อหาได้
ข้อควรพิจารณาอื่นๆ
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-08-04 UTC
[null,null,["อัปเดตล่าสุด 2025-08-04 UTC"],[[["\u003cp\u003eGooglebot's default IP addresses appear to be US-based, which may impact the crawling and indexing of locale-adaptive pages targeting other regions.\u003c/p\u003e\n"],["\u003cp\u003eIt is recommended to use separate locale URL configurations with \u003ccode\u003erel="alternate"\u003c/code\u003e hreflang annotations for better localization.\u003c/p\u003e\n"],["\u003cp\u003eGooglebot crawls from various global locations, so treat it like any other user based on its apparent location, including access restrictions.\u003c/p\u003e\n"],["\u003cp\u003eEnsure consistent robots exclusion protocol (robots.txt and meta tags) across all locales to avoid unintended crawling restrictions.\u003c/p\u003e\n"]]],["Google crawls locale-adaptive pages using IP addresses from various locations, not just the USA. When Googlebot appears to be from a specific country, treat it like a user from that region. For locale-adaptive sites, using separate URL configurations with `rel=\"alternate\"` hreflang annotations is recommended. Ensure consistent application of robots exclusion protocols, such as robots.txt and meta tags, across all locales. You can verify Googlebot's geo-distributed crawls through reverse DNS lookups.\n"],null,["# How Google Crawls Locale-Adaptive Pages | Google Search Central\n\nHow Google crawls locale-adaptive pages\n=======================================\n\nIf your site has *locale-adaptive* pages (that is, your site returns different content\nbased on the perceived country or preferred language of the visitor), Google might not crawl,\nindex, or rank all your content for different locales. This is because the default IP\naddresses of the Googlebot crawler appear to be based in the USA. In addition, the crawler\nsends HTTP requests without setting `Accept-Language` in the request header.\n| **Important** : We recommend using separate locale URL configurations and annotating them with [`rel=\"alternate\"`\n| hreflang annotations](/search/docs/specialty/international/localized-versions).\n\nGeo-distributed crawling\n------------------------\n\nGooglebot crawls with IP addresses based outside the USA, in addition to the US-based IP addresses.\n\nAs we have always recommended, when Googlebot appears to come from a certain country, treat\nit like you would treat any other user from that country. This means that if you block\nUSA-based users from accessing your content, but allow visitors from Australia to see it,\nyour server should block Googlebot if it appears to be coming from the USA, but allow access\nto Googlebot if it appears to come from Australia.\n\n### Other considerations\n\n- Googlebot uses the same user agent string for all crawling configurations. Learn more about the [user agent strings used\n by Google crawlers](/search/docs/crawling-indexing/overview-google-crawlers).\n- You can [verify Googlebot\n geo-distributed crawls](/search/docs/crawling-indexing/verifying-googlebot) using reverse DNS lookups.\n- If your site is using the [*robots exclusion protocol*](https://www.rfc-editor.org/rfc/rfc9309.html), make sure you apply it consistently across locales. This means that [robots `meta` tags](/search/docs/crawling-indexing/robots-meta-tag) and the [robots.txt file](/search/docs/crawling-indexing/robots/create-robots-txt) must specify the same rules in each locale."]]