Google ha introdotto alcuni cambiamenti ai Webmaster Tools per dare ai gestori dei siti un controllo maggiore sui contenuti che devono essere visibili sul motore di ricerca. In particolare è stata migliorata la gestione delle URL con parametri, con l’obiettivo di evitare l’indicizzazione di pagine duplicate che comporta un peggioramento del PageRank.
Il controllo dei parametri delle URL è stato introdotto nel 2009 e successivamente aggiornato nel 2010. Ora questo controllo è stato raffinato e consente ai webmaster di specificare in dettaglio come i singoli parametri modificano il contenuto delle pagine. Se il numero dei parametri cresce, come può succedere nel caso delle sessioni utilizzate per tracciare le visite, il contenuto della pagina rimane tuttavia invariato ed il Googlebot indicizzerà più volte la stessa pagina con conseguenze negative sui risultati delle ricerche.
Ci sono però casi in cui i parametri modificano il contenuto delle pagine, ad esempio quando il webmaster utilizza i parametri di ordinamento. Con le nuove opzioni, Google consente ora di specificare qual’è l’effetto di ogni parametro sul contenuto della pagina (filtro, ordinamento, traduzione, impaginazione, ecc.). Se il gestore del sito non effettua questa operazione, sarà il Googlebot a decidere cosa fare quando individua pagine duplicate. Le URL duplicate vengono raggruppate in un “cluster” e viene selezionata quella che Google ritiene l’URL più rappresentativa del cluster che poi verrà mostrata nei risultati della ricerca.
L’utilizzo di questa opzione permetterà di indicizzare solo i contenuti unici e di velocizzare l’indicizzazione, riducendo il traffico aggiuntivo dovuto allo spider web di Google. Ma si tratta anche di una funzionalità molto potente che deve essere usata con cautela, in quanto una sua errata configurazione impedirà la scansione delle pagine e l’assenza del sito dai risultati delle ricerche.