تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
التحقق من أنّ مصدر طلبات الزحف هو برنامج Googlebot وبرامج الزحف الأخرى من Google
يمكنك التأكّد مما إذا كان زاحف الويب الذي يصل إلى خادمك هو
زاحف من Google، مثل
Googlebot. هذا الإجراء مفيد إذا كانت لديك شكوك بأنّ أصحاب الأسلوب غير المرغوب فيه أو غيرهم من مسبّبي المشاكل
يصلون إلى موقعك الإلكتروني منتحلين صفة Googlebot.
تندرج برامج الزحف من Google ضمن ثلاث فئات:
النوع |
الوصف |
قناع نظام أسماء النطاقات العكسي |
نطاقات عناوين IP |
برامج الزحف الشائعة |
برامج الزحف الشائعة المستخدمة في منتجات Google (مثل Googlebot): وهي تمتثل دائمًا لقواعد robots.txt بشأن عمليات الزحف الآلية.
|
crawl-***-***-***-***.googlebot.com أو
geo-crawl-***-***-***-***.geo.googlebot.com
|
googlebot.json |
برامج الزحف ذات الحالات الخاصة |
هي برامج الزحف التي تؤدي وظائف محدَّدة لمنتجات Google (مثل AdsBot)، إذا كانت هناك اتفاقية بشأن عملية الزحف بين الموقع الإلكتروني الذي يتم الزحف إليه والمنتج. قد تلتزم برامج الزحف هذه بقواعد ملف robots.txt أو لا تلتزم بها.
|
rate-limited-proxy-***-***-***-***.google.com |
special-crawlers.json |
برامج الجلب التي يشغّلها المستخدم |
هي الأدوات ووظائف المنتجات التي يشغّل فيها المستخدم النهائي عمليات جلب. على سبيل، تعالج أداة إثبات ملكية الموقع على Google طلب المستخدم. وتتجاهل برامج الجلب هذه قواعد robots.txt لأنّ المستخدم هو الذي طلب عملية الجلب.
ترِد برامج الجلب التي يتحكّم فيها محرّك بحث Google من بروتوكولات الإنترنت (IP)
في الهدف user-triggered-fetchers-google.json وتتحوّل إلى
اسم مضيف google.com . تتحوّل بروتوكولات الإنترنت (IP) في الهدف user-triggered-fetchers.json
إلى أسماء مضيفين gae.googleusercontent.com . يتم استخدام بروتوكولات الإنترنت (IP) هذه مثلاً
في حال كان موقع إلكتروني معيّن يستخدم خدمات Google Cloud (GCP) ويضمّ ميزة تتطلّب جلب خلاصات RSS خارجية بناءً على طلب مستخدم هذا الموقع الإلكتروني.
|
***-***-***-***.gae.googleusercontent.com أو
google-proxy-***-***-***-***.google.com
|
user-triggered-fetchers.json
وuser-triggered-fetchers-google.json
|
تتوفّر طريقتان للتأكد من أنّ برامج زحف Google هي مصدر طلبات الزحف:
-
يدويًا: استخدِم أدوات سطر الأوامر لإجراء عمليات بحث لمرة واحدة. وتُعدّ هذه الطريقة
كافية لمعظم حالات الاستخدام.
-
تلقائيًا: لإجراء عمليات بحث على نطاق واسع، استخدِم حلاً تلقائيًا
لمطابقة عنوان IP الخاص بالزاحف مع قائمة عناوين IP المنشورة لبرنامج Googlebot.
استخدام أدوات سطر الأوامر
-
شغِّل عملية "بحث نظام أسماء النطاقات العكسي" على عنوان IP المخصّص للوصول إلى موقعك الإلكتروني من خلال سجلّاتك، وذلك باستخدام
الأمر
host
.
-
تأكَّد من أنّ اسم النطاق هو
googlebot.com
، أو google.com
، أو
googleusercontent.com
.
-
شغِّل عملية "بحث نظام أسماء النطاقات" الأمامية على اسم النطاق الذي تم استرداده في الخطوة الأولى باستخدام الأمر
host
على اسم النطاق.
- تحقَّق من أنّه مماثل لعنوان IP الأصلي المخصّص للوصول إلى موقعك الإلكتروني من خلال سجلّاتك.
المثال 1:
host 66.249.66.1
1.66.249.66.in-addr.arpa domain name pointer crawl-66-249-66-1.googlebot.com.
host crawl-66-249-66-1.googlebot.com
crawl-66-249-66-1.googlebot.com has address 66.249.66.1
المثال 2:
host 35.247.243.240
240.243.247.35.in-addr.arpa domain name pointer geo-crawl-35-247-243-240.geo.googlebot.com.
host geo-crawl-35-247-243-240.geo.googlebot.com
geo-crawl-35-247-243-240.geo.googlebot.com has address 35.247.243.240
المثال 3:
host 66.249.90.77
77.90.249.66.in-addr.arpa domain name pointer rate-limited-proxy-66-249-90-77.google.com.
host rate-limited-proxy-66-249-90-77.google.com
rate-limited-proxy-66-249-90-77.google.com has address 66.249.90.77
استخدام الحلول التلقائية
يمكنك بدلاً من ذلك التأكّد من أنّ برنامج Googlebot هو مصدر طلبات الزحف استنادًا إلى عنوان IP، وذلك من خلال مطابقة عنوان IP للزاحف مع قائمة عناوين IP لبرامج الزحف وبرامج الجلب من Google:
بالنسبة إلى عناوين IP الأخرى التي قد يستخدمها محرّك بحث Google للوصول إلى موقعك الإلكتروني (على سبيل المثال، باستخدام برمجة تطبيقات Google)، يمكنك مطابقة عنوان IP المستخدَم للوصول إلى موقعك مع قائمة عناوين IP العامة التي تستخدمها Google.
يُرجى العلم بأنّ عناوين IP في ملفات JSON تكون بتنسيق CIDR.
إنّ محتوى هذه الصفحة مرخّص بموجب ترخيص Creative Commons Attribution 4.0 ما لم يُنصّ على خلاف ذلك، ونماذج الرموز مرخّصة بموجب ترخيص Apache 2.0. للاطّلاع على التفاصيل، يُرجى مراجعة سياسات موقع Google Developers. إنّ Java هي علامة تجارية مسجَّلة لشركة Oracle و/أو شركائها التابعين.
تاريخ التعديل الأخير: 2025-08-04 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2025-08-04 (حسب التوقيت العالمي المتفَّق عليه)"],[[["\u003cp\u003eVerify if a web crawler is actually a Google crawler to prevent unauthorized access.\u003c/p\u003e\n"],["\u003cp\u003eGoogle has three crawler types: common crawlers, special-case crawlers, and user-triggered fetchers, each with varying adherence to robots.txt rules.\u003c/p\u003e\n"],["\u003cp\u003eTwo verification methods are available: manual verification using command-line tools for individual checks, and automatic verification by comparing IP addresses against published Googlebot IP lists for large-scale checks.\u003c/p\u003e\n"],["\u003cp\u003eGoogle provides JSON files listing IP ranges for different Googlebot types, allowing for automated verification and filtering.\u003c/p\u003e\n"]]],["To verify if a crawler is genuinely from Google, use reverse DNS lookups. Check if the domain is `googlebot.com`, `google.com`, or `googleusercontent.com`. Then, perform a forward DNS lookup on this domain and compare it to the original IP. Alternatively, automatically match the crawler's IP to Google's published IP ranges for common, special, or user-triggered fetchers. Use command-line tools for manual verification or IP-matching against provided JSON files for automation.\n"],null,["# Googlebot and Other Google Crawler Verification | Google Search Central\n\nVerifying Googlebot and other Google crawlers\n=============================================\n\n\nYou can verify if a web crawler accessing your server really is a\n[Google crawler](/search/docs/crawling-indexing/overview-google-crawlers), such as\nGooglebot. This is useful if you're concerned that spammers or other troublemakers are\naccessing your site while claiming to be Googlebot.\n\nGoogle's crawlers fall into three categories:\n\n| Type | Description | Reverse DNS mask | IP ranges |\n|------------------------------------------------------------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|------------------------------------------------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| [Common crawlers](/search/docs/crawling-indexing/google-common-crawlers) | The common crawlers used for Google's products (such as Googlebot). They always respect robots.txt rules for automatic crawls. | `crawl-***-***-***-***.googlebot.com` or `geo-crawl-***-***-***-***.geo.googlebot.com` | [googlebot.json](/static/search/apis/ipranges/googlebot.json) |\n| [Special-case crawlers](/search/docs/crawling-indexing/google-special-case-crawlers) | Crawlers that perform specific functions for Google products (such as AdsBot) where there's an agreement between the crawled site and the product about the crawl process. These crawlers may or may not respect robots.txt rules. | `rate-limited-proxy-***-***-***-***.google.com` | [special-crawlers.json](/static/search/apis/ipranges/special-crawlers.json) |\n| [User-triggered fetchers](/search/docs/crawling-indexing/google-user-triggered-fetchers) | Tools and product functions where the end user triggers a fetch. For example, [Google Site Verifier](https://support.google.com/webmasters/answer/9008080) acts on the request of a user. Because the fetch was requested by a user, these fetchers ignore robots.txt rules. Fetchers controlled by Google originate from IPs in the `user-triggered-fetchers-google.json` object and resolve to a `google.com` hostname. IPs in the `user-triggered-fetchers.json` object resolve to `gae.googleusercontent.com` hostnames. These IPs are used, for example, if a site running on Google Cloud (GCP) has a feature that requires fetching external RSS feeds on the request of the user of that site. | `***-***-***-***.gae.googleusercontent.com` or `google-proxy-***-***-***-***.google.com` | [user-triggered-fetchers.json](/static/search/apis/ipranges/user-triggered-fetchers.json) and [user-triggered-fetchers-google.json](/static/search/apis/ipranges/user-triggered-fetchers-google.json) |\n\nThere are two methods for verifying Google's crawlers:\n\n- [Manually](#manual): For one-off lookups, use command line tools. This method is sufficient for most use cases.\n- [Automatically](#automatic): For large scale lookups, use an automatic solution to match a crawler's IP address against the list of published Googlebot IP addresses.\n\nUse command line tools\n----------------------\n\n1. Run a reverse DNS lookup on the accessing IP address from your logs, using the `host` command.\n2. Verify that the domain name is either `googlebot.com`, `google.com`, or `googleusercontent.com`.\n3. Run a forward DNS lookup on the domain name retrieved in step 1 using the `host` command on the retrieved domain name.\n4. Verify that it's the same as the original accessing IP address from your logs.\n\n**Example 1:** \n\n host 66.249.66.1\n 1.66.249.66.in-addr.arpa domain name pointer crawl-66-249-66-1.googlebot.com.\n\n host crawl-66-249-66-1.googlebot.com\n crawl-66-249-66-1.googlebot.com has address 66.249.66.1\n\n**Example 2:** \n\n host 35.247.243.240\n 240.243.247.35.in-addr.arpa domain name pointer geo-crawl-35-247-243-240.geo.googlebot.com.\n\n host geo-crawl-35-247-243-240.geo.googlebot.com\n geo-crawl-35-247-243-240.geo.googlebot.com has address 35.247.243.240\n\n**Example 3:** \n\n host 66.249.90.77\n 77.90.249.66.in-addr.arpa domain name pointer rate-limited-proxy-66-249-90-77.google.com.\n\n host rate-limited-proxy-66-249-90-77.google.com\n rate-limited-proxy-66-249-90-77.google.com has address 66.249.90.77\n\nUse automatic solutions\n-----------------------\n\n\nAlternatively, you can identify Googlebot by IP address by matching the crawler's IP address\nto the lists of Google crawlers' and fetchers' IP ranges:\n\n- [Common crawlers like Googlebot](/static/search/apis/ipranges/googlebot.json)\n- [Special crawlers like AdsBot](/static/search/apis/ipranges/special-crawlers.json)\n- [User triggered fetches (users)](/static/search/apis/ipranges/user-triggered-fetchers.json)\n- [User triggered fetches (Google)](/static/search/apis/ipranges/user-triggered-fetchers-google.json)\n\n\nFor other Google IP addresses from where your site may be accessed (for example,\n[Apps Scripts](/apps-script)), match the accessing IP address\nagainst the general\n[list of Google IP addresses](https://www.gstatic.com/ipranges/goog.json).\nNote that the IP addresses in the JSON files are represented in\n[CIDR format](https://wikipedia.org/wiki/Classless_Inter-Domain_Routing)."]]