76 / 100

Il nuovo algoritmo di Google analizzerà il linguaggio naturale: scopriamo cos’è BERT e quali ricadute potrebbe avere sul posizionamento nei motori di ricerca.

Google BERT influirà sul posizionamento nei motori di ricerca?

BERT è l’abbreviazione di Bidirectional Encoder Representations from Transformers.
È un sistema per l’elaborazione del linguaggio naturale (NLP) che analizza le informazioni scritte e parlate in una lingua naturale, cioè il modo in cui parliamo normalmente tra di noi.

Funziona attraverso una rete neurale artificiale, un modello virtuale che imita il cervello degli esseri viventi e il modo in cui analizza i dati.

I modelli basati su BERT hanno la capacità di analizzare l’intero contesto in cui è stata utilizzata una parola, ricreandolo e analizzando le altre parole presenti nella frase.

Questo tipo di analisi dovrebbe portare a un’interpretazione più accurata del senso della frase migliorando la qualità della risposta e quindi rendendo la SERP il più possibile aderente all’intent della query.

Come funziona?

Viene indicato come un software in molti articoli, tuttavia Google lo presenta come un modello  poiché fornisce una base ai professionisti della programmazione dell’apprendimento automatico per costruire algoritmi simili a BERT.

BERT è stato pre-addestrato con i testi di Wikipedia inglese e del Brown Corpus,ed è stato messo a punto su attività di elaborazione del linguaggio naturale con una serie di domande e risposte a coppie di frasi estratte da quei contesti.

La principale innovazione tecnica di BERT consiste nell’applicare la formazione bidirezionale di Trasformer, descritto in questo articolo da Google, alla modellazione del linguaggio.

A differenza dei modelli direzionali, che leggono il testo inserito in sequenza (da sinistra a destra o da destra a sinistra), il codificatore Transformer legge l’intera sequenza di parole contemporaneamente. Per questo motivo è considerato bidirezionale.

I ricercatori di Google hanno sviluppato dei processi informatici che gestiscono le parole in una frase mettendole in relazione tra loro invece di gestirle singolarmente, come avvenuto fino adesso.

Transformer include due meccanismi separati: un codificatore, che legge l’input di testo, e un decodificatore, che produce una previsione per l’attività. Siccome l’obiettivo è generare un modello di linguaggio, BERT necessita solo del codificatore.

Inoltre, per analizzare e prevedere meglio frasi che, per la natura stessa del linguaggio naturale, prevedono una certa consequenzialità, BERT utilizza due strategie di allenamento:

• Masked LM: prima di inserire una testo all’interno di BERT, il 15% delle parole in ciascuna frase viene sostituita con un token [MASK]; BERT tenta quindi di prevedere il valore originale delle parole mascherate in base al contesto fornito dalle altre parole non mascherate nella stessa frase; comprenderà più lentamente dei modelli direzionali ma avrà una maggiore consapevolezza del contesto;

• Next Sentence Prediction: BERT riceve come input coppie di frasi estratte dal database di allenamento e impara a prevedere se la seconda frase nella coppia è veramente quella successiva nel documento originale; il 50% degli input inseriti è una coppia in cui la seconda frase è effettivamente la frase successiva nel documento originale mentre l’altro 50% no; l’algoritmo dovrà riuscire a non mettere la frase casuale in relazione con la prima frase.

Qual’e il suo campo di applicazione?

• BERT può essere utilizzato per le attività di classificazione come l’analisi del sentiment, dove le analisi vengono eseguite in modo simile alla classificazione della frase successiva;

• in attività di risposta alle domande, dove il software riceve una domanda relativa a una sequenza di testo ed è necessario per contrassegnare la risposta nella sequenza; 

• in Named Entity Recognition (NER) dove il software riceve una sequenza di testo dove è necessario contrassegnare e riconoscere i vari tipi di entità (Persona, Organizzazione, Data, ecc.) che compaiono nel testo.

Come cambia la risposta alle query?

Secondo Google questi cambiamenti sono orientati non solo al miglioramento della comprensione del linguaggio ma anche della comprensione di query più “colloquiali”.

Nelle ricerche in cui preposizioni come “per” e “come” contano molto per la comprensione del contenuto, BERT potrebbe essere in grado di capire meglio il contesto delle parole che compongono la query.

Un algoritmo di questo tipo è in grado di comprendere meglio la sfumatura e il contesto delle parole nella ricerca di un utente medio, e comprendendo meglio l’intent proporrà quindi risultati più pertinenti.

Possiamo quindi facilmente immaginare un buon futuro per questo tipo di algoritmo sia in un ambito di miglioramento dell’esperienza utente che nell’implementazione della ricerca vocale, sempre più diffusa e bisognosa di miglioramenti per aumentarne l’efficacia.

Come influirà nella SERP?

BERT analizzerà le query di ricerca, non le pagine Web.

Sicuramente bisognerà continuare a prestare le classiche attenzioni che migliorano il posizionamento motori di ricerca e continuare a creare contenuti di qualità presentandoli nei contesti giusti.

Il contenuto di poco valore, come un articolo tradotto male che contiene keyword per metà del testo, probabilmente verrà penalizzato dall’aggiornamento Google BERT, come già avviene.

Possiamo quindi ipotizzare che a breve termine l’azione SEO non verrà stravolta!

Sarà sempre fondamentale lavorare sulla qualità dei nostri contenuti e l’implementazione dei dati strutturati, ma questo è un lavoro costante che prescinde dall’utilizzo della ricerca vocale.

E se non abbiamo ancora attuato strategie SEO per migliorare il nostro posizionamento nei motori di ricerca non esitiamo a contattare dei professionisti!

Lascia un commento

diciassette − quattro =