La comunità dei webmaster è in fermento. Google, il motore di ricerca più visitato del Web, ha cominciato da qualche giorno a sperimentare in modo deciso nuove funzionalità che, secondo gli obiettivi dei tecnici, dovrebbero garantire ricerche migliori e risultati più aggiornati. Un «terremoto», come è già stato definito, che potrebbe migliorare le ricerche degli utenti e modificare le tecniche di posizionamento dei siti Web.
Due le principali novità del motore: un filtro in grado di eliminare dall’indice i siti che utilizzano delle tecniche di posizionamento irregolari e una maggiore attenzione agli aggiornamenti quotidiani del World Wide Web. A queste si aggiungano delle nuove tecnologie che permetteranno anche di leggere i contenuti presenti nei file JavaScript e nei file CSS, nonché il testo contenuto nelle immagini.
Ettore Peyrot, consulente in posizionamento ed esperto di Google, tiene a precisare ad HTML.it che «non si tratta di un nuovo algoritmo, ma di componenti diverse che sono state studiate da Google per migliorare la rilevanza dei risultati e combattere alcune tecniche di spam»
Sono molti i webmaster che ricorrono, per avanzare nell’elenco dei risultati di Google, a tecniche di posizionamento scorrette, quali, ad esempio, l’inserimento di parole chiave nascoste ai visitatori ma visibili ai motori, oppure la creazione di ‘catene’ di link verso il proprio sito per aumentarne la popolarità.
«Da quel poco che è stato reso pubblico – ci dice Enrico Altavilla, editore di Motoricerca.info – si sa che i prossimi risultati delle ricerche saranno “scremati” da molte pagine che usavano trucchi per ottenere immeritatamente buone posizioni. In particolare le pagine che fornivano testi e link ai motori di ricerca, nascondendole però agli utenti attraverso varie tecniche (HTML, CSS, ecc.)»
Ma non tutti sembrano essere d’accordo con l’efficacia delle nuove tecniche. Forum e liste di discussione sul World Wide Web sono state prese d’assalto dai webmaster. In molti notano come le nuove tecniche hanno danneggiato anche siti che non utilizzavano tecniche scorrette e in molti si chiedono se l’eliminazione di un così gran numero di siti non infici la correttezza dei risultati.
Sebbene i cambiamenti siano già visibili, chi si sta già affrettando a modificare le proprie pagine per riflettere le nuove esigenze di Google e per non perdere preziosi contatti dovrebbe avere meno fretta. Tutto è ancora in fase di test e nessun comunicato ufficiale è giunto dall’azienda californiana. «Siamo – aggiunge Peyrot – in una fase in cui è necessario attendere e pazientare prima di apportare modifiche al codice dei siti, in modo da poter lavorare con risultati più “stabili” risultanti dal prossimo update […] In definitiva, la regola principale è comunque quella di costruire siti ricchi di contenuto, e dove questo contenuto sia organizzato nel modo più logico e navigabile possibile»
Oltre a filtri perfezionati, Google sta anche sperimentando un più veloce aggiornamento del database delle pagine Web esaminate per la ricerca. Oggi il database viene aggiornato una volta al mese, durante la Google Dance. L’aggiornamento quotidiano e continuativo, il cosiddetto everflux, viene invece garantito in modo non costante e non per tutti i siti. Nel ‘nuovo’ Google l’aggiornamento delle pagine sarà molto più veloce e i risultati sempre aggiornati.