Il secondo giorno della conferenza IDF 2016 è stato dedicato all’intelligenza artificiale. Intel ha infatti annunciato un nuovo membro della famiglia di coprocessori Xeon Phi: Knights Mill. Questo chip, disponibile nel 2017, è stato specificamente progettato per velocizzare l’addestramento delle reti neurali e quindi per offrire tutta la potenza di calcolo necessaria allo sviluppo del deep learning.
Intel non ha fornito molte informazioni su Knights Mill, limitandosi ad indicare alcuni miglioramenti rispetto ai precedenti chip, come la maggiore efficienza e la possibilità di eseguire calcoli a bassa precisione. Solitamente i processori ad alte prestazioni sono progettati per eseguire calcoli a doppia precisione, ma il machine learning non richiede alta precisione, quindi Knights Mill offrirà un throughput superiore. Sicuramente integrerà un numero elevato di core e supporterà una maggiore quantità di memoria.
Il deep learning è un settore in rapida evoluzione. Nel giro di pochi anni è aumentata la complessità delle reti neurali e contemporaneamente è diminuito il tempo necessario per il training, grazie alla potenza delle GPU dedicate, come le Nvidia Tesla. Durante il keynote, Intel ha evidenziato le maggiori prestazioni dei chip Xeon Phi rispetto alle GPU prodotte da Nvidia. Quest’ultima ha però dichiarato che i risultati sono completamente errati, in quanto Intel ha utilizzato una vecchia versione del benchmark Caffe AlexNet.
Mettendo da parte lo “scontro numerico”, si può tuttavia affermare che la soluzione di Intel è più flessibile. Knights Mill, come il precedente Knights Landing, funziona anche come processore host, quindi può avviare un computer, una capacità preclusa alle GPU di Nvidia.