Google Leak: svelati i segreti dell’algoritmo di ricerca

Il leak Google di oltre 2.500 pagine rivela dettagli sull’algoritmo di Google e rivela le discrepanze con dichiarazioni pubbliche, offrendo un’analisi senza precedenti su come funziona il ranking della ricerca


Google Leak: oltre 2.500 pagine di dati riguardanti l’algoritmo di ricerca del famoso motore di ricerca sono stati trafugati e resi pubblici.
L’algoritmo di ricerca di Google rappresenta una delle componenti fondamentali di Internet, di fatto stabilisce la sorte dei siti web — determinando quali ricevono molte visite e quali no, e in questo modo modella il panorama dei contenuti online.

Google Leak ricerca seo

I segreti della Seo Google

La metodologia con cui Google assegna i ranking, il punteggio, ai siti web ha costituito (e in parte costituisce ancora) uno dei grandi misteri del mondo digitale, il mistero più indagato da parte di giornalisti, accademici e da una intera categoria di professionisti del settore, gli esperti che si occupano dell’ottimizzazione per i motori di ricerca (SEO).
Il Google Leak, con i suoi documenti segreti resi noti da una fonte anonima, rappresenta una rivelazione sensazionale: migliaia di pagine di documentazione interna Google offrono una visione senza precedenti dei meccanismi interni di Google Search e di come funzioni l’algoritmo. Questa fuga di dati suggerisce che le dichiarazioni precedenti di Google sull’argomento possano non essere state completamente trasparenti. Dopo giorni di bombardamento mediatico, Google ha anche ammesso che i documenti sono veri.

Google Leak, cosa è successo

L’esperto di SEO Rand Fishkin, attivo nel settore da oltre dieci anni, ha affermato che una fonte anonima gli ha fornito 2.500 pagine di documentazione, sperando che la rivelazione potesse mettere in evidenza le discrepanze tra le affermazioni ufficiali di Google e la realtà operativa del suo algoritmo di ricerca. Questa documentazione, il più grande Google Leak mai avvenuto, spiega nel dettaglio come funziona l’API di ricerca di Google e mostra le informazioni accessibili ai dipendenti, come riportato da Fishkin.
Le informazioni divulgate da Fishkin sono tecnicamente complesse, e risultano più comprensibili agli sviluppatori e agli specialisti della SEO, che al pubblico generale. Bisogna poi notare che i dettagli resi pubblici non dimostrano in modo incontrovertibile che Google utilizzi i dati e i fattori citati per determinare i ranking di ricerca. Piuttosto, la divulgazione fornisce indicazioni su quali dati delle pagine web Google monitori, offrendo indizi agli esperti SEO su ciò che Google potrebbe considerare rilevante.

Google Leak, cosa contiene

I documenti in questione raccontano quali siano i dati raccolti e utilizzati da Google, le modalità con cui Google privilegia alcuni siti per argomenti delicati come le elezioni, ma anche l’approccio di Google nei confronti dei siti di piccole dimensioni, e altro ancora. Alcune delle informazioni contenute nei dati trapelati risultano essere in contraddizione con le dichiarazioni pubbliche precedentemente rilasciate da rappresentanti di Google, stando a quanto affermato da Fishkin.

“‘Bugia’ è una parola forte, ma rappresenta l’espressione più precisa per descrivere questa situazione”, sostiene King. “Non intendo necessariamente criticare i rappresentanti di Google per aver difeso le loro informazioni proprietarie; tuttavia, mi preoccupa il loro tentativo di sminuire attivamente quelle persone che hanno divulgato risultati verificabili.”
Il Misterioso algoritmo di ricerca di Google è all’origine di un’intera industria, quella della SEO, con milioni di aziende in tutto il mondo che si adeguano costantemente e scrupolosamente alle linee guida che Google rende pubbliche. Queste tattiche hanno creato una percezione diffusa che la qualità dei risultati di Google Search stia deteriorando, affollata com’è da contenuti di bassa qualità che gli amministratori dei siti sentono la necessità di produrre per garantirsi visibilità.

I documenti trapelati da Google

Dettagli dai documenti trapelati mettono qundi in dubbio la veridicità delle dichiarazioni pubbliche di Google sul funzionamento della sua Ricerca.
Un caso esemplificativo menzionato da Fishkin riguarda l’impiego dei dati di Google Chrome nel ranking. I rappresentanti di Google hanno più volte affermato di non utilizzare dati provenienti da Chrome per il posizionamento delle pagine; tuttavia, Chrome è specificatamente menzionato nelle sezioni che descrivono come i siti web appaiono nei risultati di ricerca. In uno screenshot , ad esempio, i link che si trovano sotto l’URL principale di vogue.com potrebbero essere generati in parte utilizzando dati di Chrome, come indicato dai documenti.
Si sollevano ulteriori interrogativi sul ruolo, se esiste, di E-E-A-T nel ranking. E-E-A-T, che sta per esperienza, competenza, autorevolezza e affidabilità, è una metrica utilizzata da Google per valutare la qualità dei risultati di ricerca. I rappresentanti di Google hanno in passato dichiarato che E-E-A-T non influisce sul ranking. Fishkin osserva di non aver trovato molti riferimenti a E-E-A-T nei documenti.
King, d’altra parte, ha spiegato come Google sembri raccogliere dati sull’autore di una pagina, con un campo dedicato a indicare se un’entità nel testo è l’autore. Una sezione dei documenti condivisi da King afferma che questo campo è stato “sviluppato e affinato principalmente per le notizie, ma è utilizzato anche per altri contenuti, come gli articoli scientifici”. Anche se questo non conferma che i box degli autori influenzano direttamente il ranking, dimostra che Google monitora questa informazione. Pubblicamente i rappresentanti di Google hanno sempre sostenuto che i box degli autori sono un’iniziativa che i proprietari di siti dovrebbero considerare per i lettori, e non per influenzare i ranking su Google.
Sebbene i documenti non rappresentino una prova definitiva, offrono un’osservazione approfondita e non filtrata di un sistema altrimenti strettamente protetto.

Le 10 Rivelazioni sulla Ricerca Google

Qui trovate i 10 punti chiave che emergono dal Google Leak sul funzionamento della ricerca, come li ha evidenziati Rand Fishkin.

1. Rilevanza dei dati di Clickstream: Nella fase iniziale dello sviluppo, il team di ricerca di Google ha compreso l’importanza di acquisire dati di clickstream completi da un’ampia base di utenti di internet per affinare i risultati forniti dal proprio motore di ricerca.
2. Introduzione di NavBoost: Per raccogliere questi dati, Google ha sviluppato un sistema chiamato “NavBoost”. Pandu Nayak, Vicepresidente della Ricerca in Google, ha menzionato NavBoost durante un’udienza legale, evidenziando il suo ruolo nella raccolta dei dati provenienti dalla Toolbar PageRank di Google. Questa esigenza di dati ha guidato allo sviluppo e lancio del browser Google Chrome nel 2008.
3. Analisi delle query di ricerca con NavBoost: NavBoost elabora statistiche quali il numero di ricerche per parole chiave specifiche, il conteggio dei clic sui risultati e la distinzione tra clic lunghi e clic brevi – elementi su cui sono stati condotti esperimenti e analisi tra il 2013 e il 2015.
4. Strategie anti-spam di Google: Google impiega la cronologia dei cookie, i dati di utilizzo di Chrome con utenti loggati e analisi dei pattern di clic (come evidenziato da informazioni trapelate classificandoli in clic “non compressi” e “compressi”) per contrastare attivamente lo spam sia manuale che automatizzato.
5. Personalizzazione dei risultati con NavBoost: NavBoost valuta e assegna un punteggio alle ricerche basandosi sull’intento dell’utente, attivando funzionalità specifiche come video o immagini quando i dati di interazione superano certe soglie.
6. Influenza dell’Interazione utente sui risultati di ricerca: Google monitora e analizza i clic e le interazioni derivanti dalle ricerche prima e dopo la formulazione della query definita “query NavBoost”. Ciò influisce sulla visibilità nei risultati di ricerca di siti web correlati alle parole chiave indagate.
7. Valutazione complessiva dei siti eeb: I dati di NavBoost contribuiscono alla valutazione della qualità generale di un sito web. Questo processo può portare a un miglioramento o a una riduzione della visibilità nei risultati di ricerca, processo che potrebbe corrispondere a quello noto nella community SEO come “Panda”.
8. Fattori minori nella valutazione: Altri elementi, come penalizzazioni per nomi di dominio che corrispondono esattamente a ricerche non legate a marchi e i segnali di spam, vengono presi in considerazione nel processo di valutazione.
9. Rilevazione geografica e disponibilità di dati: NavBoost stabilisce confini geografici per l’analisi dei dati di clic, tenendo conto del livello di dettaglio del paese e dello stato/provincia, e differenziando tra dispositivi mobile e desktop. In assenza di dati sufficienti da certe aree o strumenti, Google può estendere universalmente le sue metodologie di analisi.
10. Uso di Whitelist durante eventi critici: In occasioni particolari, come durante la pandemia di Covid-19 o in contesti di elezioni democratiche, Google ha fatto uso di whitelist per regolare la visibilità di determinati siti web nelle ricerche relative a tali eventi.


Google Leak: svelati i segreti dell’algoritmo di ricerca - Ultima modifica: 2024-06-02T09:39:31+00:00 da Francesco
e-book guida ecm

Non rimanere indietro, iscriviti ora

Ricevi in tempo reale le notizie del digitale

Iscrizione alla Newsletter

controlla la tua inbox per confermare l'iscrizione

Privacy Policy

Grazie! Ora fai parte di Digitalic!