Quando si parla di “big data” non sempre è chiaro quanto “big” possa essere il volume di dati processati da grandi gruppi in grado di calamitare grandi utenze per registrarne dati, gusti e attività. Una piccola fotografia offerta da Facebook aiuta però a delineare almeno in parte il volume di lavoro che i server del gruppo di Mark Zuckerberg debbono operare ogni singolo giorno per abilitare i “mi piace”, gli upload e le condivisioni di circa un miliardi di utenti attivi in tutto il mondo.
I dati sono relativi al cosiddetto “Project Prism“, ossia l’infrastruttura messa in piedi dal social network per reggere le attività che il sito raccoglie ed anima. Per capire quanto lavoro ci sia presso i server del gruppo, occorre considerare che ogni singolo giorno Facebook gestisce 2,5 milioni di contenuti e più di 500 terabyte. Ogni giorno la community clicca 2,7 miliardi di “mi piace” e visualizza 300 milioni di fotografie, per un totale di 105 terabyte di traffico ogni mezzora.
La struttura è monolitica, tale da gestire ogni singola attività all’interno del medesimo sistema: Facebook assicura però che i dipendenti del gruppo non hanno alcuna possibilità di ricerca tra i dati degli utenti poiché ogni singola operazione su server viene registrata e monitorata al fine di evitare abusi di qualsivoglia tipo. Server paralleli vengono utilizzati per la ridondanza dei dati, garantendo così i contenuti salvati dalla community, ma sono strutture a sé aventi specifica funzione di backup.
Nella propria presentazione dei dati il responsabile Jay Parikh ha altresì sottolineato come ogni operazione sui data center avvenga in maniera istantanea, consentendo agli utenti di avere una esperienza soddisfacente in tempo reale ad ogni “like” e ad ogni amicizia conseguita. Perché solo garantendo piena soddisfazione all’utenza la si può coinvolgere appieno nel network. E solo garantendo vitalità al network si può garantire all’infrastruttura di continuare a far crescere il proprio valore intrinseco: i “big data”.