Googlebot scansionerà i siti (anche) via HTTP/2

Googlebot scansionerà i siti via http/2

Google ha annunciato ufficialmente che, da novembre 2020, Googlebot potrà scansionare alcuni siti usando il protocollo HTTP/2.

Si tratta della nuova versione del protocollo HTTP, detta anche h2, che è entrata in uso nel 2015 circa.

Da quel momento, gli utenti che si occupano di sviluppo web hanno iniziato a chiedere a Google se Googlebot potesse scansionare i siti utilizzando la versione più moderna del protocollo.

Finalmente, Google ha risposto con un post sul suo blog ufficiale, dettagliando il nuovo supporto.

Big G ha annunciato che, grazie alla novità, ci saranno notevoli miglioramenti in termini di efficienza, riguardo l’utilizzo di risorse dei server. Questo perché il protocollo richiede l’apertura di meno connessioni TCP:

Googlebot può aprire una singola connessione TCP al server e trasferire così file multipli in parallelo, invece di dover aprire connessioni multiple. Meno connessioni si aprono e meno risorse il server e Googlebot dovranno impiegare per il crawling.

La novità comincerà ad essere disponibile per un numero ridotto di siti web, da novembre 2020, poi Google estenderà il supporto e valuterà la situazione man mano.

Ma come farà Googlebot a scegliere il protocollo di scansione? Tutto dipenderà dal supporto di HTTP/2 da parte del sito e dai benefici che sia il bot che i server ne potranno trarre.

Insomma, se i tuoi server supportano il nuovo protocollo e Googlebot passa spesso a scansionare il tuo sito, allora forse ti verrà reso disponibile l’upgrade. E no, non dovrai preoccuparti di nulla: si occuperà di tutto il bot.

Se vuoi scoprire di più sulla novità a livello tecnico, rimandiamo all’articolo ufficiale degli sviluppatori Google. Se invece vuoi scoprire se i tuoi server supportano HTTP/2, rimandiamo a questo articolo di Cloudflare.

Se invece ha bisogno di una solida consulenza SEO, non esitare a contattarci. Ti consiglieremo come ottimizzare il crawling per il tuo sito e molto altro ancora.

05/01/2022
Team Avantgrade
SEO&SEM

Robots.txt: cos’è, a cosa serve e come strutturarlo

In ambito ottimizzazioni SEO degli aspetti tecnici di un sito web, il giusto utilizzo del file robots.txt può risultare importante, soprattutto quando si vuole risparmiare crawl budget (tempo che il crawler dedica alla scansione di un sito), valorizzando le sezioni più rilevanti. Vediamo dunque cos’è il robots.txt, alcuni accenni sulla…

approfondisci
17/12/2021
Team Avantgrade
SEO&SEM

Google Product Reviews Update di Dicembre: 6 cose da sapere

Google ha annunciato il primo dicembre 2021 un nuovo Update sulle recensioni: si tratta del secondo aggiornamento sulle recensioni di quest’anno. Il primo Google Product Reviews update era già stato introdotto a luglio 2021. Quali ulteriori novità vale la pena citare? Vediamo insieme le 6 cose…

approfondisci
16/12/2021
Team Avantgrade
SEO&SEM

Errore 500 (internal server error): cos’è e come eliminarlo

500 Internal Server Error è un errore noto a tutti i webmaster. L’errore 500 (come anche il famigerato errore 404) può avere un impatto negativo sulla user experience e sulla SEO del sito, per cui è importante indagare le cause e trovare le giuste soluzioni. Indice…

approfondisci