Il CEO di NVIDIA, Jen-Hsun Huang, ha consegnato il primo supercomputer DGX-1 all’organizzazione non profit OpenAI di Elon Musk, e i ricercatori hanno già in mente un progetto molto ambizioso: vogliono insegnare all’IA a chattare leggendo i vari topic su Reddit.
Tutto ciò sembra azzardato visti gli argomenti innumerevoli e bizzarri trattati sul forum, ma le dimensioni e le potenzialità di DGX-1 sono ciò che ha attratto il team. Andrej Karpathy, ricercatore presso OpenAI, ha dichiarato:
L’apprendimento profondo è una classe di modelli molto speciale perché, man mano che si aumentano le dimensioni, funziona sempre meglio.
DGX-1 ha la grandezza di un desktop PC ma costa la bellezza di $ 129.000: al suo interno otto GPU NVIDIA Tesla P100, 7 TB di memoria a stato solido e due processori Xeon. Di fatto, l’architettura parallela è ideale per gli algoritmi di deep learning di OpenAI. NVIDIA ha dichiarato che lo sviluppo del supercomputer è costato circa 2 miliardi di dollari.
OpenAI utilizzerà tutta la potenza della macchina per leggere i quasi 2 miliardi di commenti di Reddit in due mesi, anziché metterci anni. Questo l’aiuterà a imparare molto velocemente e a parlare (o a scrivere) con più precisione. Karpathy spiega:
È possibile prendere una grande quantità di dati che aiuterebbero le persone a parlare tra loro su internet, e si può addestrare, fondamentalmente, un chatbot, ma lo si può fare in modo che il computer impari come funziona la lingua e come le persone interagiscono.
La cosa più interessante è che i ricercatori non dovranno fare granché per migliorare aree come l’apprendimento delle lingue e il riconoscimento delle immagini: non avranno la necessità di scrivere un nuovo codice, ma piuttosto potranno utilizzare quello esistente e aumentare semplicemente le dimensioni del modello, ottenendo risultati molto migliori di quelli attualmente disponibili.