Google Leak: le novità e l’impatto sulla SEO

Home / Blog / Google Leak: le novità e l’impatto sulla SEO

Gli Ultimi Leak di Google: Cosa Abbiamo Scoperto e Come Impatteranno la Tua Strategia SEO

Indice

    Negli ultimi mesi, la comunità SEO è stata scossa da una serie di leak riguardanti Google, che potrebbero avere un impatto significativo sulle strategie di ottimizzazione dei motori di ricerca. In questo articolo, esamineremo i dettagli più rilevanti emersi dai leak e discuteremo dell’impatto sui siti web.

    dettaglio di mani che tengono in ano un cellulare con il logo google

    La vicenda: Che cosa è successo?

    I recenti leak sul funzionamento interno di Google sono stati scoperti grazie a una serie di circostanze casuali.

    Il tutto è partito da Hexdocs, un servizio che indicizza repository pubblici su GitHub, nota piattaforma di hosting per il controllo di versione e la collaborazione tra sviluppatori. Tra marzo e maggio 2024, una documentazione interna di Google, composta da oltre 2.500 pagine e contenente 14.014 attributi del “Content API Warehouse”, è stata erroneamente resa pubblica sulla piattaforma. Il documento è stato quindi subito indicizzato da Hexdocs, diffondendosi poi online.

    logo trasparente hexdocs

    Gli esperti SEO Rand Fishkin e Michael King sono stati tra i primi a individuare e analizzare queste informazioni, a seguito del leak della documentazione da parte di Erfam Azimi. La loro indagine ha confermato l’autenticità dei leak, riscontrando somiglianze stilistiche e contenutistiche con altre documentazioni ufficiali di Google. Le conferme sono poi arrivate anche da ex dipendenti Google, che hanno spiegato come documenti simili esistano effettivamente in vari team interni all’azienda.

    Questo leak ha permesso di svelare dettagli cruciali sui meccanismi del motore di ricerca più utilizzato al mondo

    La risposta di Google

    Google ha risposto alla fuga di notizie cercando di minimizzare l’impatto delle informazioni trapelate. Un portavoce ha dichiarato che molte informazioni pubblicate sono incomplete o fuori contesto e che i segnali di ranking sono soggetti a costanti modifiche. In risposta a The Verge, Google ha invitato a non fare supposizioni inaccurate sulla Ricerca basate su informazioni fuori contesto, obsolete o incomplete, sottolineando di aver condiviso ampie informazioni su come funzionano i motori.

    Il rappresentante dell’azienda ha chiarito che i principi fondamentali del ranking non sono stati modificati, ma che i segnali specifici e individuali sono soggetti a evoluzioni continue. L’azienda, sostiene, ha scelto di non commentare oltre i dettagli specifici dei documenti trapelati spiegando che fornire dettagli precisi potrebbe permettere a soggetti malintenzionati di manipolare i ranking dei risultati di ricerca.

    Che cosa conteneva la documentazione API di Google?

    La documentazione trapelata di Google ha fornito una panoramica dettagliata sul funzionamento interno dei suoi algoritmi di ricerca. Mentre alcuni aspetti confermano le nostre sospetti precedenti, altre rivelazioni hanno portato alla luce nuove informazioni sorprendenti e significative sul processo di ranking dei motori di ricerca.

    Cosa sospettavamo.

    Nella vasta documentazione trapelata alcune informazioni hanno destato poca sorpresa tra gli esperti di ottimizzazione per i motori di ricerca.
    Tra gli specialisti SEO era già risaputo o almeno fortemente sospettato che determinati fattori potessero influenzare il processo di ranking nei risultati di ricerca di Google. La conferma di tali dettagli, sebbene attesa, ha comunque fornito una valida conferma delle pratiche consolidate nel campo, consentendo agli addetti ai lavori di approfondire la propria comprensione dei meccanismi che guidano la visibilità online.

    Ai primi posti contenuti di alta qualità e User Experience (UX)

    Uno dei pilastri della SEO, la qualità dell’esperienza utente, rimane uno degli aspetti fondamentali nel ranking. I documenti confermano che la creazione di contenuti di alto valore e l’offerta di un’esperienza utente ottimale sono essenziali per garantire una buona visibilità nei risultati di ricerca.

    Questo implica (e ribadisce) che gli esperti SEO devono puntare all’elaborazione di contenuti rilevanti e perspicaci, in grado di coinvolgere e fornire valore agli utenti. Parallelamente, l’ottimizzazione della UX, inclusa la velocità di caricamento delle pagine e la semplicità di navigazione, rimane un fattore cruciale per potenziare il posizionamento nei motori di ricerca.

    Altri elementi di UX che determinano il posizionamento sono la dimensione del font per i link e del peso del testo. Avere link di dimensioni maggiori sembra infatti essere valutato positivamente ed è ufficiale che i robot di Google sono in grado di interpretare il testo in grassetto in modo diverso rispetto a quello normale, capendone l’importanza.

    Lato parole chiave, abbiamo un punteggio assegnato alla loro presenza e quantità, con la penalizzazione di siti che ne inseriscono troppe e lo fanno in modo innaturale (keyword stuffing).

    Il contenuto YMYL (Your Money Your Life) ha un punteggio di posizionamento specifico. Il termine YMYL (Your Money Your Life) si riferisce a contenuti online con potenziale impatto sulla salute, sicurezza, stabilità finanziaria o benessere degli utenti. Questi contenuti richiedono un’attenzione particolare e accuratezza nella presentazione, poiché possono influenzare direttamente la vita delle persone.
    Tre argomenti, viaggi, Covid e politica (questi ultimi due fanno parte dei YMYL), richiedono un’approvazione preventiva (tramite whitelist) per essere condivisi. Queste liste assicurano che solo siti di fiducia appaiano per ricerche potenzialmente delicate per evitare la propagazione di informazioni errate.

    Sappiamo inoltre che c’è un gold standard che delimita il contenuto umano da quello AI, ma non è ancora chiaro quali siano i parametri.

    Il peso dei backlink e la diversificazione delle fonti

    I documenti confermano che la diversità e la pertinenza dei collegamenti rimangono essenziali per il posizionamento. Google categorizza i collegamenti in tre livelli di qualità (basso, medio, alto) e utilizza i dati di clic per determinare la categoria a cui appartiene un documento. I collegamenti di alta qualità possono influenzare il posizionamento, mentre quelli di bassa qualità sono ignorati. Questo sottolinea l’importanza per le strategie di costruzione dei collegamenti di concentrarsi sulla qualità e la varietà dei collegamenti anziché sulla quantità.

    I link continuano poi a svolgere un ruolo vitale nel definire l’autorità e la pertinenza di una pagina. In particolare, la varietà dei collegamenti che puntano a una pagina risulta come un indicatore chiave della sua autorità. Un sito che riceve collegamenti da una vasta gamma di fonti affidabili, quindi, è considerato più autorevole rispetto a un sito che riceve collegamenti da poche fonti, magari poco rilevanti.

    Il concetto di PageRank, introdotto da Google nei suoi primi anni, rimane significativo.
    Il PageRank valuta l’importanza di una pagina sulla base del numero e della qualità dei collegamenti ricevuti. Anche se nel tempo Google ha aggiunto molti altri fattori di posizionamento, il PageRank resta uno dei pilastri del suo algoritmo. La homepage di un sito continua quindi ad incidere su ogni pagina del sito, evidenziando l’importanza di averne una ben connessa e autorevole.

    Infine, l’eccessiva ottimizzazione del testo di ancoraggio, specialmente quando viene costantemente utilizzato per i collegamenti provenienti da terze parti, sembra attivare una penalizzazione per spam.

    Backlink di Donna Moderna Lifestyle per Home Staff.

    La Site Authority dei brand e degli autori

    Nonostante Google abbia sempre negato l’esistenza di Site Authority, i documenti trapelati confermano l’importanza di questo concetto nella valutazione della qualità e della pertinenza dei contenuti.

    La Site Authority è influenzata da vari fattori come la qualità dei contenuti, i backlink e l’engagement degli utenti. Inoltre, si sottolinea il ruolo fondamentale della storia del brand, dei domini scaduti nella valutazione dell’autorità e della rilevanza di un sito. Questo approccio orientato alla reputazione e all’affidabilità premia i siti web con una storia consolidata di contenuti di alta qualità e una solida presenza online, confermando l’importanza di mantenere una reputazione solida nel tempo e offrire contenuti di valore agli utenti.

    Google raccoglie inoltre informazioni sugli autori associati ai contenuti, cercando di determinare l’autore di un documento per migliorare la pertinenza e la qualità dei risultati di ricerca. Questo sottolinea l’importanza per i professionisti SEO di costruire e mantenere autorevolezza e credibilità nel proprio settore attraverso la produzione di contenuti di alta qualità e l’interazione attiva nelle community online.

    Le novità del leak di Google

    Il recente leak ha portato alla luce pratiche innovative e inaspettate, aggiungendo un’ulteriore sfumatura alla comprensione delle dinamiche di indicizzazione di Google.

    Super Root, il cervello di Google Search

    Sapevamo che il sistema di ranking di Google fosse estremamente sofisticato, composto da una serie di microservizi che collaborano per generare i risultati di ricerca. Ciò che non sapevamo è che al centro di questa complessa struttura c’è Super Root, che svolge il ruolo di collegamento tra i vari servizi di Google. Prima di arrivare a qualsiasi tipo di risposta sui motori di ricerca, si passa quindi da questo modulo, che va a interrogare Maps, YouTube e tutti i servizi collegati a Google.

    È emerso inoltre che Google non ha già una lista prestabilita di risultati di ricerca da fornirci quando facciamo una ricerca, ma l’elenco viene creato e rifinito ogni volta che lanciamo una query. Quindi, se noi interroghiamo Google, gli algoritmi selezionano un insieme di documenti e poi applicano i loro fattori di ranking per riordinare i risultati e fornirceli nell’ordine in cui li vediamo in SERP.

    Le funzioni di re-ranking dei Twiddlers

    Questi componenti operano dopo l’algoritmo principale, regolando il punteggio e il ranking dei documenti appena prima della visualizzazione all’utente.
    I Twiddlers, analogamente ai filtri e alle azioni in WordPress, svolgono quindi funzioni di re-ranking che impattano vari aspetti dei risultati di ricerca. Tra le diverse tipologie individuate nei documenti, vi sono NavBoost, QualityBoost, RealTimeBoost e WebImageBoost, progettati per ottimizzare specifici aspetti dei risultati di ricerca.

    Quando Google dichiara che aggiornamenti come Panda non fanno parte dell’algoritmo principale, probabilmente significa che sono stati implementati come Twiddlers, con funzioni di boost o demotion di re-ranking, per poi essere integrati nella funzione di scoring primaria.

    I feedback umani dei Quality Raters

    I feedback dei Quality Rater umani sembrano avere un impatto diretto sul ranking delle pagine nei sistemi di ricerca di Google. Sebbene non sia chiaro quanto questi segnali siano influenti e quale sia il loro ruolo preciso, si pensa che le valutazioni umane svolgano un ruolo significativo nel determinare la qualità e la pertinenza dei contenuti nel motore di ricerca

    La misurazione di goodClicks e badClicks

    Google utilizza metriche di coinvolgimento degli utenti, come “goodClicks” e “badClicks”, per valutare l’esperienza degli utenti sulle pagine e influenzare il posizionamento nei risultati di ricerca. I “goodClicks” indicano interazioni positive, come il tempo trascorso sulla pagina o i clic interni, mentre “badClicks” segnalano interazioni negative come un ritorno veloce ai risultati di ricerca (bounce rate).

    Queste metriche sono cruciali per Google poiché riflettono il comportamento degli utenti e la loro soddisfazione, permettendo così al motore di ricerca di premiare le pagine con un’esperienza utente di alta qualità.

    La sandbox dei siti “giovani”

    Potrebbe essere confermata l’esistenza di una sandbox, un ambiente in cui i nuovi siti web o quelli senza sufficienti segnali di fiducia vengono temporaneamente tenuti separati dai risultati di ricerca principali.

    Questo periodo di “quarantena” consente a Google di valutare la qualità e l’affidabilità del sito prima di concedergli una presenza completa nei risultati di ricerca.

    Archiviazione delle versioni delle pagine

    Google conserva copie di ogni versione di ogni pagina web che abbia mai indicizzato, creando un archivio storico digitale delle ultime 20 modifiche alle pagine.

    Questa pratica consente a Google di monitorare l’evoluzione dei contenuti di una pagina nel tempo per valutarne la qualità e la pertinenza.
    La conservazione delle versioni delle pagine è utile per identificare e contrastare pratiche di manipolazione dei contenuti come il cloaking.

    Inoltre, aiuta Google a valutare la coerenza e l’affidabilità di un sito web, premiando quelli che investono nella qualità dei contenuti.

    Come cambia la strategia SEO?

    È importante riflettere sulla reazione di sorpresa che potrebbe suscitare. Sebbene alcune informazioni trapelate siano preziose nel comprendere meglio il funzionamento dei motori di ricerca, gran parte di esse potrebbero apparire ovvie. Tuttavia, confermare tali aspetti può essere comunque utile.

    Da questo episodio emerge chiaramente come la strategia migliore rimanga quella di concentrarsi sulla creazione di contenuti di qualità e sull’ottimizzazione del sito, compresa la parte tecnica. È fondamentale evitare pratiche come l’acquisto di link falsi, poiché Google è in grado di rilevare tali comportamenti.

    Come agenzia, possiamo offrirti servizi completi di ottimizzazione per il tuo sito web, aiutandoti a posizionarti in modo efficace sui motori di ricerca e a ottenere risultati concreti per la tua presenza online.

    Continua a leggere

    Potrebbe piacerti anche

    Web Design

    Guida completa ai CMS per la gestione dei siti web

    E-commerce, Web Design

    I rischi dei siti web troppo economici