Search Neutrality: Google sia più trasparente

Arrivano dalla stampa americana pressioni per far sì che Google renda pubbliche le dinamiche che costituiscono il proprio algoritmo di ricerca, così da poter fare chiarezza su alcune pratiche ritenute illegali nei confronti dei diretti concorrenti
Search Neutrality: Google sia più trasparente
Arrivano dalla stampa americana pressioni per far sì che Google renda pubbliche le dinamiche che costituiscono il proprio algoritmo di ricerca, così da poter fare chiarezza su alcune pratiche ritenute illegali nei confronti dei diretti concorrenti

Quando un utente inserisce la parola “jaguar” come termine di ricerca sul Web, è intenzionato a consultare informazioni relative alla specie animale, oppure desidera conoscere novità e dati tecnici sulle celebri auto di lusso? Questa è la domanda che Marissa Mayer, vicepresidente del reparto ricerca Google, pone all’inizio del suo intervento comparso sul blog Public Policy per rispondere agli attacchi di quanti pretenderebbero maggiore trasparenza in merito all’algoritmo adottato dall’azienda di Mountain View per l’indicizzazione dei risultati.

La replica arriva dopo alcuni editoriali del New York Times, nei quali si punta il dito contro già ben noti comportamenti sospetti messi in campo da bigG. Tra questi il presunto riservare un posizionamento di rilievo a siti, prodotti e servizi propri (Maps e YouTube su tutti) o dei partner, andando indirettamente a penalizzare la concorrenza. Considerando che circa i due terzi delle ricerche oggi effettuate in Rete passano da Google, si avvertirebbe ormai il bisogno di un controllo super partes della sua attività, secondo il NYT, che si esprime in modo duro anche sulle possibili ripercussioni che le modifiche ai metodi di calcolo delle SERP potrebbero avere sulle attività dei siti Web: «Molti analisti riconoscono che la maggior parte dei siti Web traggono la metà circa delle loro visite dai motori di ricerca. Apportando modifiche al suo algoritmo super segreto, Google è in grado di stroncare improvvisamente l’attività di un sito, penalizzandone il ranking».

La Mayer non nega, e anzi conferma, il continuo perfezionamento del sistema, ma con la sola finalità di ottimizzarne il funzionamento a vantaggio esclusivo dell’utente finale: «Il 25% delle ricerche effettuate quotidianamente su Google sono inedite e ognuna di queste rappresenta per il nostro team una nuova sfida. Al fine di poterle soddisfare al meglio i nostri tecnici apportano costantemente modifiche agli algoritmi, senza tener conto delle occasioni in cui si manifesta la necessità di intervenire manualmente per la rimozione di link a siti pedo-pornografici o contenenti spam».

Da una parte, dunque, una fazione che invoca a gran voce l’avvento di una sorta di “search neutrality“, una trasparenza necessaria perché tutti i protagonisti del settore abbiano la possibilità di giocare la loro partita alla pari, senza incorrere nel rischio di poter falsare il reperimento delle informazioni in favore di ingenti interessi economici. Dall’altra chi prende in modo deciso le distanze da una simile posizione, etichettandola come forma di controllo troppo restrittiva e che rischierebbe di frenare il naturale processo di evoluzione del servizio. Nel mezzo di questo fuoco incrociato ci sono, neanche a dirlo, gli utenti.

Va infine sottolineato come la risposta della Mayer sia giunta nelle stesse ore in cui Google stava ridefinendo la propria attività core facendo proprio Metaweb e spostando così i cardini della ricerca maggiormente verso la semantica e sempre meno su principi propri del PageRank e delle query basate sul testo, sulle keyword e sui sistemi di indicizzazione tradizionali del motore di Mountain View.

Ti consigliamo anche

Link copiato negli appunti