Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Requisiti tecnici per la Ricerca Google
Non costa nulla far comparire la tua pagina nei risultati di ricerca, indipendentemente da quello che puoi sentir dire da altre persone.
La pagina è idonea a essere indicizzata dalla Ricerca Google a condizione che soddisfi i requisiti tecnici minimi di seguito:
Googlebot non è bloccato.
La pagina funziona, il che significa che Google riceve un codice di stato HTTP 200 (success).
La pagina ha contenuti indicizzabili.
Googlebot non è bloccato (può trovare la pagina e accedervi)
Google indicizza solo le pagine sul Web accessibili al pubblico e che non impediscono al nostro crawler Googlebot di eseguirne la scansione. Se una pagina viene resa privata, ad esempio richiedendo un accesso per visualizzarla, Googlebot non ne eseguirà la scansione. Analogamente, se uno dei vari meccanismi viene utilizzato per bloccare l'indicizzazione da parte di Google, la pagina non verrà indicizzata.
Verificare se Googlebot riesce a trovare la pagina e accedervi
È improbabile che le pagine bloccate dal file robots.txt vengano mostrate nei risultati della Ricerca Google. Per visualizzare un elenco di pagine non accessibili a Google (ma che vorresti vedere nei risultati della Ricerca), utilizza sia il report Indicizzazione delle pagine sia il report Statistiche di scansione in Search Console. Ciascun report può contenere vari tipi di dati sui tuoi URL, per cui ti consigliamo di esaminarli entrambi.
Google indicizza solo le pagine che vengono pubblicate con un codice di stato HTTP 200 (success).
Le pagine di errore del client e del server non sono indicizzate. Puoi controllare il codice di stato HTTP di una determinata pagina con lo strumento Controllo URL.
La pagina ha contenuti indicizzabili
Quando Googlebot riesce a trovare una pagina funzionante e accedervi, Google verifica la presenza di contenuti indicizzabili nella pagina. Per contenuti indicizzabili si intendono:
[null,null,["Ultimo aggiornamento 2025-08-04 UTC."],[[["\u003cp\u003eGetting your webpage into Google Search results is free, provided it meets the basic technical requirements.\u003c/p\u003e\n"],["\u003cp\u003eFor a webpage to be indexed by Google, it must be publicly accessible, crawlable by Googlebot, and return an HTTP 200 (success) status code.\u003c/p\u003e\n"],["\u003cp\u003eThe webpage should also contain indexable content in a supported file type and adhere to Google's spam policies, though indexing isn't guaranteed.\u003c/p\u003e\n"],["\u003cp\u003eGoogle Search Console provides tools like the Page Indexing report, Crawl Stats report, and URL Inspection tool to help you assess and troubleshoot indexing issues.\u003c/p\u003e\n"]]],["To be eligible for Google Search indexing, a page must meet these technical requirements: Googlebot must not be blocked from accessing it, the page must function correctly with an HTTP 200 (success) status code, and it must contain indexable content. Blocking Googlebot prevents crawling, while utilizing a `noindex` tag prevents indexing, allowing crawling. The Page Indexing and Crawl Stats reports in Search Console, as well as the URL Inspection tool, can check page status.\n"],null,["# Google Search Technical Requirements | Google Search Central\n\nGoogle Search technical requirements\n====================================\n\n\nIt costs nothing to get your page in search results, no matter what anyone tries to tell you.\nAs long as your page meets the minimum technical requirements, it's eligible to be\nindexed by Google Search:\n\n1. Googlebot isn't blocked.\n2. The page works, meaning that Google receives an HTTP `200 (success)` status code.\n3. The page has indexable content.\n\n| Just because a page meets these requirements doesn't mean that a page will be indexed; indexing isn't guaranteed.\n\nGooglebot isn't blocked (it can find and access the page)\n---------------------------------------------------------\n\n\nGoogle only indexes pages on the web that are accessible to the public and which don't\nblock our crawler, [Googlebot](/search/docs/crawling-indexing/googlebot),\nfrom crawling them. If a page is made private, such as requiring a log-in to view it,\nGooglebot will not crawl it. Similarly, if one of the\n[several mechanisms](/search/docs/crawling-indexing/control-what-you-share) are\nused to block Google from indexing, the page will not be indexed.\n\n### Check if Googlebot can find and access your page\n\n\nPages that are blocked by [robots.txt](/search/docs/crawling-indexing/robots/intro)\nare unlikely to show in Google Search results. To see a list of pages that are inaccessible to\nGoogle (but that you would like to see in Search results), use both the\n[Page Indexing report](https://support.google.com/webmasters/answer/7440203)\nand [Crawl Stats report](https://support.google.com/webmasters/answer/9679690)\nin Search Console. Each report may contain different information about your URLs, so it's a good idea to look at both reports.\n\n\nTo test a specific page, use the [URL Inspection tool](https://support.google.com/webmasters/answer/9012289).\n\nThe page works (it's not an error page)\n---------------------------------------\n\n\nGoogle only indexes pages that are served with an\n[HTTP `200 (success)` status code](/search/docs/crawling-indexing/http-network-errors#2xx-success).\nClient and server error pages aren't indexed. You can check the HTTP status code for a given\npage with the [URL Inspection tool](https://support.google.com/webmasters/answer/9012289).\n\nThe page has indexable content\n------------------------------\n\n\nOnce Googlebot can find and access a working page, Google checks the page for indexable\ncontent. Indexable content means:\n\n- The textual content is in a [file type that Google Search supports](/search/docs/crawling-indexing/indexable-file-types).\n- The content doesn't violate our [spam policies](/search/docs/essentials/spam-policies).\n\n| While blocking Googlebot with a robots.txt file will prevent crawling, a page's URL might still appear in search results. To instruct Google not to index a page, use [`noindex`](/search/docs/crawling-indexing/block-indexing) and allow Google to crawl the URL."]]