I nuovi sviluppi della rete, a partire dagli updates Penguin e Hummingbird, spingono la tecnica della SEO a considerare nuovi orizzonti, verso quello che è sempre di più un web semantico. Da un lato troviamo analisti sostenere che l’era delle keywords sia giunta al termine, dall’altro lato, però, bisogna tenere bene in considerazione il ruolo che queste giocano in strategie più ampie, sia a livello di marketing che di pianificazione editoriale. Andiamo a vedere quindi come la pratica del fare SEO può aggiornarsi ad affrontare queste nuove sfide.
Sempre più spesso si trovano inviti a trascurare il gioco booleano del piazzamento delle parole chiave all’interno della struttura del sito, e a evitare quindi di rincorrere i parametri di Keyword Density. Sicuramente col tempo e con la continua evoluzione degli algoritmi di Google dovuti all’inserimento, anche parziale, del machine learning nei suoi sistemi, tali sistemi giocheranno un ruolo forse sempre minore, ma restano tuttora parametri e punti di ancoraggio forti su cui costruire l’architettura testuale di ogni sito internet.
Il sito internet SoftwarePromotions fornisce un bel riassunto dell’evoluzione dei modelli di ricerca, che qui riportiamo, tradotto in Italiano:
IL VECCHIO MODELLO:
- Passaggio 1 – L’utente va su Google e inserisce la sua query.
- Passaggio 2 – Google visualizza l’indice delle pagine ottimizzate secondo tale query.
- Passaggio 3 – Il proprietario del sito internet è in grado di vedere quante visite fa il suo sito in relazione a tale query. In più può vedere su quali pagine i visitatori atterrano, quanto tempo vi spendono sopra, i bounce rates, i tassi di conversione, etc.
Il nuovo modello si presenta invece più caotico, almeno superficialmente:
IL NUOVO MODELLO:
- Passaggio 1 – L’utente va su Google e inserisce la sua query.
- Passaggio 2 – Google interpreta l’intento dietro alla query.
- Passaggio 3 – Google visualizza le pagine che ritiene siano rilevanti a quello che lui percepisce come l’intento dietro alla query.
- Passaggio 4 – Il proprietario del sito difficilmente può monitorare quanto traffico faccia in relazione alla keyword rilevante, e difficilmente può relazionare tale dato a quello relativo alle performance, alle conversioni, i bounce rates, etc.
La diversità si può quindi riassumere nell’introduzione di un passaggio interpretativo che Google fa su ogni query, andando a visualizzare e indicizzare le pagine in base non alla parola chiave sulla quale il creatore del sito fa affidamento, bensì su una valutazione della pagina fatta dall’algoritmo stesso. L’algoritmo quindi si prende in carico di interpretare il contenuto testuale del sito e, se lo ritiene rilevante e in grado di fornire una risposta a quella che lui considera l’intenzione della query, allora lo indicizza di conseguenza. Si tratta di un cambiamento che può inizialmente spiazzare chi vuole operare in tale settore, ma, una volta rimossi i dubbi iniziali, che può fornire nuovi e notevoli spunti su cui lavorare. Vediamo innanzitutto come iniziare a impostare le nuove strategie, e quali possono essere i parametri di riferimento su cui puntare.

Google, anche alla luce di quanto detto finora, lavora comunque su dei dati testuali, che gli permettono di interpretare e dare un valore ai contenuti che trova sul web. Su cosa bisogna basarsi quindi? Sulle keywords ovviamente. Le parole chiave continuano a offrire un ancoraggio testuale su cui il contenuto del sito viene costruito e permettono all’algoritmo effettivamente di capire di cosa stiamo parlando. L’unico valore che perde significato in questo nuovo gioco è forse la keyword density, che se è troppo bassa, o nulla, non permette l’ancoraggio al crawler. In caso invece la keyword density riporti valori eccessivamente alti, questo significa che il rapporto fra parola chiave e contenuti esplicativi è spropositato. In altre parole, le keywords si mangiano i contenuti necessari. Per ottenere un giusto piazzamento delle parole chiave risulta allora più logico limitarsi a piazzarle nell’url, nella head, nei metadata o lasciarle crescere organicamente nel testo.Con una sitemap caricata tramite Search Console questo sarà sufficente a identificare le keywords e l’argomento rilevanti, e si permette al crawler di capire l’argomento del testo, ma si lascia anche spazio ai contenuti. Spesso e volentieri, infatti, si tende a scrivere per soddisfare un bot, non un essere umano, e questo succede a discapito della qualità dei contenuti. I nuovi sviluppi nell’algoritmo sono appunto pensati per invertire questa tendenza. Se Google ritiene che i tuoi contenuti sono ripetitivi e poco informativi, rischi di incorrere in una penalizzazione più facilmente che in un miglioramento del ranking.
Per poter valutare l’efficacia delle keywords, e quindi l’efficacia del nostro piazzamento sul web, continua a essere fondamentale monitore le parole chiave come un tempo, ma cambia forse la modalità di utilizzo degli strumenti che da sempre abbiamo a disposizione. Bisogna infatti ricordare che tutti i tool e i programmi che abbiamo a disposizione rimangono pur sempre degli strumenti, e come tale vanno utilizzati. Se prima ci concentravamo a fare risaltare le keywords per identificare il topic del discorso, ora possiamo partire dal contenuto e utilizzare gli strumenti semplicemente per capire se il piazzamento delle parole chiave all’interno del nostro sito funziona o è da modificare. Le nuove strategie vanno quindi pensate e valutate in ottica di contenuti, e, soprattutto, di contenuti di qualità.

Se non abbiamo più riferimenti meccanici a indirizzare la stesura testuale del nostro sito, dobbiamo ricorrere a nuovi parametri di misurazione della nostra efficacia, che, pur non escludendo i parametri tradizionali strutturali, ci aiutino a capire come stiamo performando. Se la qualità della risposta ha effettivamente sostituito il classico gioco di piazzamento sintattico come obiettivo dell’algoritmo, il nostro parametro di riferimento diventerà, quasi imprescindibilmente, lo user engagement. In altre parole se la qualità diventa l’obiettivo di Google, e i contenuti, più che le parole chiave, il suo cibo preferito, dobbiamo prepararci a tenere in massima considerazione le statistiche relative al comportamento umano, ben più di quello automatico.
Il focus sullo user engagement, una volta che abbiamo assicurato la lettura della keyword da parte dell’algoritmo, ci permette di quantificare il più possibile il dato della qualità dei nostri contenuti. Tramite Analytics possiamo tenere monitorate tutte quelle metriche su come l’utente si interfaccia coi nostri contenuti – bounce rates, il tempo passato su ogni pagina e sul sito, il numero delle pagine visitate, la frequenza di ritorno, etc. In altre parole più un utente interagisce coi nostri testi, più possiamo presupporre che la qualità dei nostri testi sia elevata, almeno in termini editoriali e di mercato. Successivamente questo alto tasso di engagement si tradurrà per il crawler in risposte ottimali alle query che gli utenti pongono a Google e il ranking nella SERP tenderà a salire.
Le conseguenze per la SEO ci sono, ma se sapremo sfruttarle al meglio allora si tradurranno in opportunità per migliorare la qualità dei nostri testi, più che in nuovi problemi e necessari aggiustamenti. Diventa infatti sempre più importante ottimizzare i nostri testi intorno a dei significati e dei contenuti specifici, più che a delle frasi o delle parole chiave scelte. Il web semantico ci spinge infatti a proporre contenuti e a costruirci un’autorità di settore. Le strategie da adottare saranno sempre più di tipo editoriale, anche in ottica commerciale e di marketing. Ripetiamo sempre come un mantra che il modello per eccellenza ci viene dato da Wikipedia, e forse finalmente saremo obbligati ad operare in tale direzione. In questo senso certe pratiche meccaniche diventano superate, come ad esempio l’adozione di blog fini a sè stessi che ripetono formule generiche a raffica senza generare contenuti di spessore. Il modello strutturale adottato, il blog per dire, passa in secondo piano, e può bastare una serie di contenuti strutturati semplicemente, come una semplice seziona editoriale Wiki di pochi articoli ma di buona qualità, per sostituire mitragliate di parole chiave. Il blog non perderà certo la sua funzione, ma passa in secondo piano il suo ruolo strutturale rispetto ai contenuti che trasmette, e una piattaforma editoriale resta comunque fondamentale a qualsiasi sito in ottica di ranking SEO.

In conclusione possiamo quindi sostenere che qualità, pertinenza e rilevanza siano il fattore ora determinante in ottica SEO per il successo del nostro sito web. La spinta verso strategie di contenuti potrà anche permettere al web di crescere qualitativamente in ottica sia editoriale che di mercato. Una strategia Content Marketing diventa così fondamentale prima ancora di impostare un lavoro di SEO, permettendoci infatti di impostare tale lavoro in ottica di user engagement. Sul lungo termine, salvo stravolgimenti all’algoritmo, il web semantico si rivelerà un passaggio che porterà sempre più in alto la qualità e sempre più in basso lo spam e le tecniche grey e black hat. In quest’ottica l’algoritmo si presenta come una situazione win-win, dove l’utente guadagna in termini di contenuti a lui forniti, e Google cementerà sempre di più una posizione già dominante sul web.