Nvidia ha annunciato il primo supercomputer al mondo per il deep learning in grado di offrire la potenza di calcolo necessaria all’elaborazione degli algoritmi di intelligenza artificiale. Nvidia DGX-1 integra otto Tesla P100, le nuove GPU basate sull’architettura Pascal. Si tratta di una soluzione completa con hardware, software e strumenti di sviluppo che permetterà di incrementare le prestazioni durante la fase di addestramento delle reti neurali.
Oltre alle otto Tesla P100, Nvidia DGX-1 integra 16 GB di memoria per ogni GPU, 7 TB di storage (SSD), e connettività dual 10GbE e Quad InfiniBand 100Gb. Secondo l’azienda californiana, il supercomputer fornisce un throughput equivalente a quello di 250 server con CPU x86. In base ai test effettuati da Nvidia, il DGX-1 raggiunge i 170 TFLOPS contro i 3 TFLOPS di un sistema con due CPU Intel Xeon-E5. Il training di una rete neurale, invece, ha una durata di appena due ore contro le 150 ore di un tradizionale server x86. Questi risultati sono stati ottenuti grazie alle nuove GPU.
https://www.youtube.com/watch?v=roCXXvI5wK4
Le Tesla P100, basate sull’architettura Pascal, integrano 15,3 miliardi di transistor realizzati con processo produttivo FinFET a 16 nanometri. All’interno del chip sono presenti 16 GB di memoria HBM2 (High Bandwidth Memory 2) con supporto ECC che garantiscono una larghezza di banda pari a 720 GB/sec. Le otto Tesla P100 del DGX-1 sono connesse tra loro con NVLink, un’interfaccia che permette di ottenere velocità di trasferimento bidirezionale fino a 160 MB/sec, cinque volte maggiore del PCIe 3.0.
I supercomputer Nvidia DGX-1 verranno utilizzati in diversi settori: intelligenza artificiale per le auto a guida autonoma, previsioni climatiche, ricerca di nuovi farmaci e altre attività che richiedono deep neural network sempre più complesse. Microsoft userà i DGX-1 per costruire una rete neurale con oltre 1.000 layers. I primi sistemi saranno in vendita dal mese di giugno a 129.000 dollari.