L’impatto che avranno le tecnologie legate all’intelligenza artificiale sarà pari a quello causato dall’avvento dei dispositivi mobile e, ancor prima, dalla diffusione delle connessioni Internet su larga scala. È quanto previsto da più parti, nel tentativo di prevedere a cosa porterà l’evoluzione dei sistemi legati all’IA e al machine learning. C’è però anche chi mette in guarda da eventuali effetti collaterali poco desiderabili.
La posizione di Elon Musk è ben nota: il numero uno di Tesla, SpaceX e Hyperloop si è espresso più volte sulla questione, arrivando a dichiarare che senza le dovute precauzioni l’intelligenza artificiale è destinata a diventare pericolosa per l’uomo entro pochi anni.
Meno allarmista è invece il parere di Eric Schmidt, tra i volti più noti di Google. Intervistato dal TIME, il chairman del gruppo ha parlato della necessità di mettere in campo una sorta di sistema di verifica, con l’obiettivo di capire se la strada intrapresa sia quella giusta o meno. Tre i punti chiave da tenere in considerazione, nello stabilire un metro di giudizio per accertare se una determinata idea sia in linea con quanto auspicato o meno. Sulla base di questi sarà possibile intavolare una discussione costruttiva e condivisa.
- L’intelligenza artificiale dovrebbe offrire benefici a tutti, non a pochi;
- ogni progetto dovrebbe puntare al bene comune;
- lo sviluppo dell’IA dovrebbe essere aperto, responsabile e socialmente impegnato.
Sebbene a Mountain View non siano mai stati sottovalutati i potenziali rischi connessi allo sviluppo di IA avanzate (tanto da portare alla nascita di un comitato etico creato ad hoc), l’atteggiamento di Schmidt nei confronti della questione sembra essere diverso rispetto a quello registrato lo scorso anno, quando esprimendosi in merito non sembrava affatto preoccupato, tanto da liquidare il suo intervistatore con una battuta.
L’ultima volta che ho controllato il cavo di alimentazione era nelle nostre mani.