In tanti si interrogano sul valore effettivo di una strategia di keyword density nel raggiungimento di un posizionamento di pagina ottimale.
Per quale ragione, alcuni SEO e Webmaster la ritengono nient’altro che una perdita di tempo, mentre altri non vi rinuncerebbero per nessun motivo al mondo?
In questo post cercheremo di capire insieme quello che si nasconde dietro il ragionamento speculativo di queste due opposte fazioni, senza la pretesa di volerlo assurgere a dogma assoluto.
Ribadendo quanto già detto in un precedente post sulle conoscenze reali che abbiamo degli algoritmi di ricerca dei Search Engine che sono in continuo divenire, in particolar modo quelli di Google, non posso non pensare a quale confusione può apportare tutto ciò in chi si affaccia per la prima volta nell’universo SEO.
Come per altre strategie del medesimo tipo, messe in atto dai “maghi” del posizionamento, anche per la keyword density non abbiamo una corrispondenza accademica ma piuttosto la vediamo rientrare nella categoria empirica del “vediamo cosa succede”, pur conservando un minimo di efficacia nel suggerire ai motori di ricerca quale parola potrebbe essere più favorita di un’altra nelle ricerche.
Con questo non vorrei assolutamente denigrare chi ne fa un utilizzo quotidiano, anch’io sono tra costoro, ma vorrei piuttosto ricordare che, come per tutte le altre tecniche di posizionamento, essa va usata con moderazione, nei giusti contesti e affiancata a una corretta gestione dei contenuti.
Meglio un contenuto scritto bene, con poche keyword pertinenti, che un’accozzaglia di keyword clonate, in cerca di autore, senza alcun nesso semantico con il tutto il resto.
Il rischio di tale sconveniente operazione è quello di incombere nel keyword stuffing ovvero nello spam di parole chiave sovraottimizzate, che penalizzerebbe parecchio il vostro posizionamento, fino al ban totale dalle SERP. Negli anni scorsi si è assistito a un vero e proprio abuso del keyword stuffing, con chiavi ripetute all’infinito o nascosti dal testo fino all’inverosimile.
Poi, c’è da dire che alcuni motori di ricerca sono più tolleranti verso questo tipo di operazione, vedi MSN o Yahoo, mentre altri, come Google, non lo sono per niente.
Per finire vorrei aggiungere che, dalla parte di chi crede nell’inefficacia della keyword density, si sono schierati coloro che tirano in ballo meccanismi più sofisticati di analisi come il TF-IDF (Term Frequency – Inverse Document Frequency) vale a dire un algoritmo proposto nel 1989 dallo studioso Gerard Salton nel campo dell’Information Retrieval, che tenta di catturare la “key-ness”, vale a dire il peso di una keyword non solo all’interno del testo in analisi ma anche da altri documenti esterni.
Ma questa è un’altra storia… Nel frattempo, però, mi piacerebbe fare tesoro di alcune vostre considerazioni e suggerimenti a riguardo.