Leak algoritmo Google Search: cosa è trapelato

Il 27 maggio 2024 Rand Fishkin, noto per essere il co-fondatore di Moz, ha ricevuto un’email da una fonte anonima che dichiarava di avere accesso a una vasta quantità di documenti API trapelati dalla divisione Search di Google.

Questi documenti, autenticati da ex dipendenti di Google, offrono una visione approfondita delle operazioni interne del motore di ricerca. In questo articolo, analizzeremo i contenuti trapelati e le implicazioni per il settore SEO.

leak algoritmo documentazione google search

Leak documentazione Google Search: autenticità e contenuto

 

Partiamo dalla domanda che si stanno facendo tutti gli esperti di settore: le informazioni trapelate con questo leak sono da considerarsi vere?

Secondo quanto riportato da Fishkin, 3 ex dipendenti di Google hanno confermato l’autenticità dei documenti, riconoscendo i codici e le pratiche descritte. Loro stessi hanno evidenziato che quanto emerso corrisponde agli standard interni di Google e contengono dettagli coerenti con le loro esperienze lavorative.

Da questo leak vengono messe in luce delle pratiche interne di Google che contraddicono dichiarazioni pubbliche fatte dall’azienda negli anni. Queste discrepanze riguardano l’uso dei segnali basati sui click, la considerazione dei sottodomini separatamente nei ranking e l’esistenza di una sandbox per i nuovi siti.

Esplorare queste contraddizioni ci permette di capire meglio le reali metodologie utilizzate da Google per classificare i risultati di ricerca, offrendo una prospettiva più trasparente su come il motore di ricerca effettivamente opera.

Segnali utente basati sui click

 

Nel corso degli anni, Google ha ripetutamente affermato di non utilizzare i segnali basati sui click degli utenti per determinare il ranking dei risultati di ricerca. Tuttavia, i documenti trapelati rivelano che Google raccoglie dati di clickstream, ovvero informazioni dettagliate sui click effettuati dagli utenti durante la navigazione. Questi dati includono metriche come:

  • la durata dei click (long click e short click)
  • il numero di click su determinati risultati
  • e i pattern di comportamento degli utenti.

Queste informazioni vengono utilizzate per migliorare la qualità e la pertinenza dei risultati di ricerca, contraddicendo le dichiarazioni pubbliche di Google.

Considerazione dei sottodomini e dei nuovi siti

 

Google non considera i sottodomini separatamente rispetto ai domini principali nel calcolo dei ranking e ha negato l’esistenza di una sandbox per i siti nuovi. Tuttavia, i documenti trapelati suggeriscono il contrario.

I dati rivelano che Google potrebbe utilizzare algoritmi distinti per valutare i sottodomini, trattandoli come entità separate nel processo di ranking. Inoltre, i documenti indicano l’esistenza di un sistema che limita temporaneamente la visibilità dei nuovi siti web nei risultati di ricerca, comunemente noto come “sandbox”, per monitorarne la qualità e autenticità prima di assegnare loro un ranking definitivo.

documentazione google leak

Sistemi e metodologie di Google

 

I documenti trapelati offrono una panoramica dettagliata dei vari sistemi e metodologie che Google utilizza per ottimizzare e classificare i risultati di ricerca. Tra questi, spiccano l’uso di algoritmi avanzati come NavBoost per analizzare i dati di clickstream e migliorare la pertinenza dei risultati, l’impiego di whitelist per gestire query sensibili, e l’integrazione dei feedback dei quality rater nel sistema di ranking.

Vediamoli nel dettaglio:

  • Navboost: si tratta di un sistema avanzato di Google che analizza i dati di clickstream per migliorare la pertinenza dei risultati di ricerca. NavBoost valuta la qualità delle query e dei siti basandosi su vari segnali utente, come il numero di click su un risultato e la durata del tempo trascorso su una pagina prima di tornare ai risultati di ricerca. Questo sistema contribuisce a ottimizzare l’accuratezza dei risultati di ricerca in base al comportamento reale degli utenti.
  • Whitelist per query sensibili: durante la pandemia di Covid-19 e le elezioni democratiche, Google ha implementato whitelist per garantire che solo siti affidabili apparissero in alto nei risultati di ricerca per questi argomenti. Queste whitelist sono utilizzate per selezionare fonti ritenute autorevoli e pertinenti, prevenendo la diffusione di disinformazione o contenuti potenzialmente dannosi. I documenti trapelati indicano che Google ha utilizzato criteri specifici per determinare quali siti includere in queste whitelist, assicurando così che le informazioni critiche fossero affidabili e accurate.
  • Feedback dei quality rater: Google utilizza il feedback dei quality rater per migliorare i risultati di ricerca. Il sistema EWOK raccoglie valutazioni umane dettagliate, che vengono impiegate per addestrare e perfezionare gli algoritmi di ricerca. I quality rater valutano la qualità dei contenuti web secondo linee guida specifiche, fornendo punteggi e commenti che influenzano il ranking dei siti. Questi feedback umani permettono a Google di affinare i criteri di valutazione automatica, garantendo che i risultati di ricerca riflettano accuratamente l’intenzione e la soddisfazione dell’utente.

Cosa deve sapere chi fa SEO dopo il leak

 

I documenti trapelati offrono preziose informazioni su come Google gestisce i fattori di ranking e quali strategie possono essere efficaci per migliorare la visibilità nei risultati di ricerca. Queste rivelazioni sono particolarmente utili per i professionisti SEO, poiché evidenziano l’importanza dell’intenzione dell’utente, la rilevanza del brand, e la valutazione della qualità del contenuto.

Esamineremo le implicazioni pratiche di queste scoperte per aiutare i marketer a ottimizzare le loro strategie SEO in un contesto sempre più competitivo e dinamico.

appunti leak google search
  • Intento e contesto dominano

 

Nell’algoritmo di Google, l’intenzione dell’utente e i modelli comportamentali risultanti sono fondamentali rispetto ai contenuti e ai link tradizionali. Ad esempio, se un numero significativo di utenti a Milano cerca “Allianz” e clicca sui risultati relativi agli uffici locali, Google riconoscerà rapidamente questo comportamento come indicatore principale della loro intenzione.

Questo sottolinea come la generazione di una domanda mirata per il tuo sito, basata sul comportamento degli utenti, possa superare l’importanza dei segnali SEO classici come i link e il contenuto ottimizzato.

  • E-E-A-T è sopravvalutato

 

L’esperienza, l’autorevolezza e la fiducia (E-E-A-T) potrebbero non essere così determinanti per il ranking come spesso si pensa. I documenti trapelati menzionano brevemente l’esperienza tematica, suggerendo che Google può identificare e trattare gli autori come entità nel sistema.

Tuttavia, l’importanza effettiva di questi elementi rimane incerta. È possibile che E-E-A-T sia più correlato a segnali indiretti o a metodi di valutazione non esplicitamente delineati, piuttosto che essere fattori di ranking diretti e misurabili.

  • Importanza del Brand

 

Google utilizza diversi metodi per identificare, classificare e filtrare le entità, incluse le marche. Questo processo include l’analisi di segnali come il nome del brand, i siti ufficiali e i profili social associati. Costruire un brand popolare e riconosciuto diventa quindi cruciale per migliorare il ranking nei risultati di ricerca.

Un brand consolidato tende ad avere maggiore autorevolezza e fiducia agli occhi di Google, il che si traduce in una maggiore visibilità organica e un miglior posizionamento nelle SERP (Search Engine Results Pages).

  • Fattori di ranking classici

 

Negli anni, l’importanza del PageRank e degli anchor text è diminuita, ma i titoli delle pagine continuano a essere cruciali per il ranking. I documenti trapelati indicano che Google utilizza diverse versioni di PageRank per indicizzare e classificare i siti. Tra queste vi sono versioni evolute come il “rawPagerank” e il “firstCoveragePageRank,” che tengono conto di vari fattori di qualità e rilevanza.

Sebbene l’uso di anchor text sia ancora presente, la loro importanza sembra essere meno predominante rispetto al passato.

  • SEO per piccole e medie imprese

 

Per le piccole e medie imprese (PMI), la SEO può risultare meno efficace fino a quando non viene stabilita una forte reputazione e una domanda di navigazione significativa. La competizione con grandi aggregatori e publisher, che spesso hanno anni di presenza online consolidata, rende difficile per un nuovo dominio emergere nei risultati di ricerca.

Le PMI devono concentrarsi sulla costruzione di un brand forte e riconosciuto, oltre a generare una domanda diretta tra gli utenti per migliorare il loro posizionamento organico nei motori di ricerca.

Conclusioni

 

Questo leak offre una comprensione più approfondita di come Google classifica i risultati di ricerca, rivelando pratiche e sistemi che erano precedentemente sconosciuti. Offre agli esperti di SEO e ai ricercatori un’opportunità unica per esaminare le operazioni interne di uno dei motori di ricerca più complessi e segreti al mondo.

Per ulteriori dettagli, leggi l’articolo completo di Rand Fishkin o il video di iPullRank.

Spread the love