Un servizio come Twitter che nutre forti ambizioni e che coltiva una community di milioni di utenti non può permettersi continui problemi di affidabilità. Non può farlo, soprattutto, nei confronti di quegli investitori che pretendono da Twitter una qualità di servizio tale da assecondare la fedeltà ed il continuo lavoro di quanti ne popolano le bacheche. Twitter, quindi, ha deciso di investire il danaro a disposizione per assicurarsi anzitutto qualità e continuità di servizio gestendo in proprio quei server oggi ottenuti da fornitori terzi.
L’annuncio giunge dal blog di Twitter e con una tempistica non casuale. Dopo un inizio d’anno relativamente tranquillo (nonostante negli anni passati i problemi si siano ripetuti in più circostanze), le ultime settimane hanno nuovamente visto il sito fermo in più occasioni e per cause varie. L’ultimo problema ha coinvolto direttamente il database impedendo all’utenza di accedere al social network per leggere ed inviare i canonici 140 caratteri su cui l’intero concept è costruito. La risposta è dunque immediata, ma per la concretizzazione del progetto occorrerà ancora attendere la fine dell’anno quando il nuovo data center proprietario vedrà la luce nei pressi di Salt Lake City.
Twitter spiega nel post (a firma del responsabile Jean-Paul Cozzatti) che la scelta di aprire un data center è una sorta di percorso obbligato che trae origine dal forte aumento di utenti che il network continua a vedere giorno dopo giorno. La media sarebbe oggi attestata su circa 300 mila nuove unità al giorno, un ritmo tale per cui possedere server propri significa poter meglio gestire il ritmo e le caratteristiche intrinseche della crescita maturata. La collaborazione con NTT America (che gestisce gli odierni server su cui gravita il servizio) è comunque garantita anche in futuro poiché il passaggio verso l’affiancamento di una struttura proprietaria richiederà passaggi lenti e progressivi, nella piena garanzia della qualità del servizio.
Il data center è progettato su una moltitudine di tecnologie open source in modo da assicurare totale affidabilità al servizio, così da garantirne la continuità in qualsiasi condizione e con caratteristiche tali da poter fronteggiare ad ogni tipo di rischio. PcWorld sottolinea però come tale scelta strategica possa essere sì utile, ma non risolutiva: l’ultimo problema incontrato da Twitter era infatti relativo al database e nemmeno un reset forzato ha risolto la situazione dopo ben 12 ore di black-out. Il data center è dunque più che altro una risposta immediata e doverosa all’utenza, la quale si aspetta quantomeno attenzione in cambio della disponibilità offerta. I problemi di Twitter sembrano però andare oltre la semplice costruzione di un data center proprietario e l’indisponibilità di un modello di business certo e performante (da cui si potrebbe trarre giovamento per ulteriori investimenti) è probabilmente il collo di bottiglia più importante nel progetto Twitter complessivo.