Google BERT arriva in Italia, ecco il nuovo update di Google

Magazine, 11/12/2019.

L'update Google BERT è arrivato in Italia, ecco come e perché rivoluzionerà le risposte del motore di ricerca N°1 al mondo.

È la più grande modifica all'algoritmo di Google degli ultimi cinque anni, per capirci, interessa una ricerca su dieci. Con il Google BERT Update, Google mira a migliorare l'interpretazione delle cosiddette ricerche complesse a coda lunga (longtails) e a mostrare ai suoi utenti risultati di ricerca sempre più rilevanti.

Grazie al Natural Language Processing (NLP), Google ha notevolmente migliorato la sua capacità di comprendere il contesto semantico dei termini di ricerca. In parole povere, come ci spiega l'esperto SEO Roberto Serra, "Google BERT dovrebbe aiutare la macchina a capire cosa significano le parole in una frase includendo nel suo ambito di comprensione tutte le sfumature del contesto".

Ecco che dunque oggi, il motore di ricerca più utilizzato al mondo è diventato ancora più bravo a capire e rispondere alle nostre domande.

Bert è un upgrade quasi dovuto per Google che segue le orme di Panda, Hummingbird e RankBrain. Tuttavia, questa volta non si tratta di un cambiamento nel modo in cui i dati sono indicizzati o classificati. Google sta invece cercando di identificare il contesto di una ricerca e di fornire i risultati di conseguenza. Questa è un'interessante aggiunta a ciò che i modelli privi di contesto sono in grado di offrire.

Google BERT è stato rilasciato ufficialmente il 24 ottobre 2019, come ha annunciato in un blogpost Pandu Nayak, Vice Presidente della Ricerca di Google. Tuttavia, l'influenza del BERT non è (ancora) identica in tutti i paesi e aspetti della ricerca. Nei risultati di ricerca organici ad esempio, BERT è stato introdotto negli Stati Uniti su Google.com, interessando un risultato di ricerca su dieci. In altri paesi, BERT non è stato ancora attivato mentre per quanto concerne l'Italia è del 9 dicembre la notizia del suo rilascio ufficiale.

Ma cosa è Google BERT esattamente?

In sostanza BERT introduce un nuovo modello linguistico. Secondo i ricercatori di Google, "a differenza dei recenti modelli di rappresentazione linguistica, BERT è progettato per preformare rappresentazioni bidirezionali profonde del testo, rilevando e comprendendo dunque congiuntamente sia il contesto destro che quello sinistro. Frasi che se contestualizzate sono di semplice interpretazione per gli umani come ad esempio "i fori sono stupendi" nel caso di "Roma" sino a ieri rappresentavano una sfida di difficile risoluzione per le macchine. Grazie a BERT Google è ora invece capace di dedurre con esattezza il contesto limitando dunque la possibilità di confondere i "fori" per dei buchi.

L'innovazione chiave apportata da BERT è l'applicazione della formazione bidirezionale, un modello di focus noto nella modellazione linguistica. Questo è in contrasto con gli sforzi precedenti che guardavano all'elaborazione esclusiva di una sequenza di testo da sinistra a destra o ad una combinazione come ad es. da sinistra a destra e da destra a sinistra. Rispetto ai modelli usati in passato di tipo monodirezionale, Il modello linguistico bidirezionale può comprendere il senso più profondo del contesto e del flusso linguistico. Questo tipo di approccio è stato reso pubblico nel 2018, in un articolo pubblicato dai ricercatori di Google Artificial Intelligence Language e rilasciato appunto solo qualche giorno fa. Nell'articolo inoltre i ricercatori descrivono in dettaglio una nuova tecnica chiamata Masked LM (MLM).

A tal riguardo sempre il consulente SEO Roberto Serra ci spiega il funzionamento di questo modello innovativo (MLM) affermando che:

"Prima di inserire le sequenze di parole su Google BERT, il 15% delle parole di ogni sequenza viene sostituito da un token anonimo, chiamato MASK. Il modello tenta quindi di prevedere il valore originale delle parole mascherate, sulla base del contesto fornito dalle altre parole, in chiaro, nella sequenza.

L'applicazione del modello linguistico pre-formazione si dimostrato efficace per migliorare molti compiti di elaborazione del linguaggio a livello di frase, come nel caso della parafrasi del linguaggio naturale proprio grazie alla sua capacità di prevedere le relazioni tra le frasi analizzandole in modo olistico, così come a livello simbolico."

Ad ogni update algoritmico di Google in tanti si domandano cosa è necessario fare per non rischiare penalizzazioni, in questo caso la risposta ufficiale non ha tardato ad arrivare: Non c'è assolutamente motivo di preoccuparsi del BERT update.

L'aggiornamento BERT mira a fare una cosa e una cosa sola: facilitare la ricerca naturale e restituire risultati più rilevanti.

Cosa rende Google BERT il più importante aggiornamento degli ultimi 5 anni?

Secondo Google, circa il 15% di tutte le query inserite nel motore di ricerca sono nuove, il che significa che vengono cercate per la prima volta. Come se non bastasse la formulazione delle richieste sta diventando sempre più vicina alla vera comunicazione umana - in parte per l'influenza dei progressi tecnici in direzione della ricerca vocale.

Altro fattore è la crescente lunghezza delle richieste. Per comprendere ciò basti pensare che oggi, il 70% delle ricerche può essere considerato di tipo long-tail (chiavi di ricerca a coda lunga). Il punto è che le persone si rivolgono a Google con domande complesse e si aspettano risposte precise in una frazione di secondo. Proprio in quest'ottica BERT rappresenta ora una parte significativa della tecnologia che lo rende possibile.

Da molti anni ormai, Google sta lavorando su reti neurali che possono rispondere correttamente alle nuove ricerche migliorandone l'interpretazione:

Colibrì: Nel 2013, Hummingbird è stato incorporato nell'algoritmo di Google. Questo aggiornamento dell'algoritmo ha permesso di interpretare meglio intere query di ricerca, piuttosto che cercare le singole parole all'interno di una query.

RankBrain: Nel 2015 RankBrain è entrato a far parte dell'algoritmo di Google ed è stato dichiarato il terzo fattore di ranking più importante. In questo modo è stato possibile elaborare termini di ricerca con significati multipli, o query complesse che vanno oltre la normale ricerca a coda lunga. Con RankBrain è stato inoltre possibile elaborare per la prima volta, colloquialismi, dialoghi e neologismi.

Lo stesso Google chiama il BERT "il più grande balzo in avanti negli ultimi cinque anni, e uno dei più grandi balzi in avanti nella storia della ricerca".

Google BERT è senza dubbio una svolta nell'uso dell'apprendimento automatico per l'elaborazione del linguaggio naturale. Il fatto che sia accessibile e che consenta una rapida messa a punto consentirà probabilmente in futuro un'ampia gamma di applicazioni pratiche.

Newsletter EventiResta aggiornato su tutti gli eventi della tua città, iscriviti gratis alla newsletter