Basare sempre più piattaforme e servizi sull’intelligenza artificiale e sugli algoritmi di machine learning significa dover rafforzare l’infrastruttura dedicata alla gestione dei calcoli e fornire ai developer nuovi strumenti in grado di sfruttarne al meglio le potenzialità. Google lo sa bene e, in occasione del keynote che ha aperto l’evento I/O 2018, ha presentato novità che vanno in questa direzione, con un’attenzione particolare alla community di sviluppatori.
A loro è dedicato ML Kit, un framework legato a Firebase che offre una serie di API da sfruttare per la realizzazione di applicazioni da destinare sia ad Android sia ai dispositivi iOS. È così possibile implementare funzionalità di machine learning partendo da modelli predefiniti, risparmiando tempo, anche se nulla vieta di crearne di nuovi andando a soddisfare particolari e specifiche esigenze. A rendere la soluzione particolarmente interessante è la capacità di eseguire calcoli e analisi legati ad esempio al riconoscimento di un volto, di un’immagine o di un testo in locale, in modalità offline, anche in assenza di una connessione a Internet.
Restando in tema, le TPU 3.0 svelate da Sundar Pichai e che entro i prossimi mesi troveranno collocazione nei server cloud di Google, ovvero le Tensor Processor Unit di terza generazione, dispongono invece di un sistema di raffreddamento a liquido reso necessario dalla loro enorme potenza: raggiungono i 100 petaFLOPS, con un incremento notevole rispetto a quelle lanciate lo scorso anno. Al momento non sono state svelate le caratteristiche tecniche complete delle unità, ma la finalità della loro progettazione è chiara: disporre di hardware sempre più potente e performante per la gestione dei modelli di apprendimento automatico.
Oggi annunciamo la terza generazione delle nostre TPU. Le nuove unità con raffreddamento a liquido sono oltre otto volte più potenti rispetto a quelle dello scorso anno e forniscono più di 100 petaFLOPS di accelerazione hardware.
Today we're announcing our third generation of TPUs. Our latest liquid-cooled TPU Pod is more than 8X more powerful than last year's, delivering more than 100 petaflops of ML hardware acceleration. #io18 pic.twitter.com/m8OH5vFw4g
— Google (@Google) May 8, 2018