I recenti progressi nel campo dell’intelligenza artificiale sono dovuti all’uso delle rete neurali convoluzionali, ovvero reti virtuali ispirate al funzionamento del cervello umano e realizzate con potenti computer in cui sono installate numerose GPU. I ricercatori del MIT hanno progettato un chip, denominato Eyeriss, che potrebbe essere utilizzato per implementare reti neurali sui dispositivi a bassa potenza, come gli smartphone.
Eyeriss è dieci volte più efficiente di una GPU mobile e potrebbe consentire l’esecuzione locale degli algoritmi di intelligenza artificiale, evitando l’upload dei dati su Internet per la successiva elaborazione. Il nuovo chip offrirebbe anche altri vantaggi, come riduzione della latenza e incremento delle prestazioni, condivisione dei risultati e non dei dati più sensibili. La sua progettazione ha ovviamente richiesto il rispetto di alcuni vincoli, tra cui la riduzione dei consumi. L’efficienza di Eyeriss, formato da 168 core, è stata ottenuta minimizzando la frequenza con cui i core scambiano i dati con la memoria.
Mentre i core di una GPU condividono una memoria di grandi dimensioni, ogni core Eyeriss possiede una propria memoria. Inoltre, il chip integra un circuito che comprime i dati prima di inviarli ai singoli core. Ogni core comunica solo con il suo vicino, senza passare per la memoria principale. L’allocazione dei dati avviene in modo tale da massimizzare il lavoro che ogni core può eseguire prima del prelievo di altri dati dalla memoria centrale.
Nel corso dell’International Solid State Circuits Conference di San Francisco, i ricercatori del MIT hanno mostrato il funzionamento di Eyeriss, implementando una rete neurale in grado di riconoscere le immagini. Grazie al nuovo chip, i calcoli complessi eseguiti dalle reti neurali potrebbero essere trasferiti dal cloud al dispositivo mobile. Il progetto è stata parzialmente finanziato dalla DARPA.