Nell Watson è CEO e fondatrice di Poikos, azienda che ha messo a punto una tecnologia in grado di consentire a qualsiasi dispositivo mobile di effettuare un’accurata scansione 3D del corpo umano. Ingegnere e futurista, è ritenuta una voce autorevole nel campo della robotica. Una premessa necessaria, da cui partire per comprendere che quanto riportato in questo articolo non è uno scenario prospettato da un autore di romanzi sci-fi o da un regista di film fantascientifici.
Intervenuta all’evento The Conference andato in scena di recente in Svezia, all’interno della sessione intitolata “Helping computers to understand humans”, ha condiviso il proprio parere sui potenziali rischi legati ad uno sviluppo poco responsabile dell’intelligenza artificiale. In sintesi, è necessario valutare attentamente e in modo accurato come i robot interagiranno in futuro con gli umani. Senza essere mossi dall’etica, a differenza di quanto avviene (non sempre) per le persone, nella peggiore delle ipotesi gli automi potrebbero ad esempio decidere che la cosa migliore per l’uomo è di porre fine alla sua vita. Non lo farebbero come atto violento, ma solo perché suggerito come alternativa migliore tra quelle disponibili per affrontare una determinata situazione dal loro “cervello digitale”.
Watson non è la sola a mettere in guardia da un pericolo di questo tipo. Il mese scorso anche Elon Musk, numero uno di Tesla e SpaceX, è intervenuto sul tema, condividendo un parere che molti hanno definito inopportunamente allarmista.
Vale la pena di leggere “Superintelligence” di Bostrom. Dobbiamo essere molto attenti con la IA. È potenzialmente più pericolosa delle armi nucleari.
Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes.
— Elon Musk (@elonmusk) August 3, 2014
In definitiva, i passi in avanti che sta compiendo il mondo della robotica potrebbero portare alla creazione di forme di vita artificiali in grado di comprendere l’uomo meglio dell’uomo stesso e capaci di prendere decisioni pragmatiche, escludendo del tutto la componente emozionale tipica dell’essere umano. Il punto di vista condiviso da Watson può essere riassunto con un estratto del suo intervento, in cui viene citato l’autore di “2001: Odissea nello spazio”.
Quando inizieremo a vedere intelligenze artificiali “super-intelligenti”, saranno amichevoli oppure no? Avere quel tipo di intelligenza non è sufficiente, poiché parafrasando Arthur C. Clarke “ogni azione sufficientemente buona è indistinguibile da una cattiva”. Essere molto, molto, molto buoni, può far sembrare al tempo stesso molto cattivi. Un’entità davvero intelligente potrebbe decidere che la cosa migliore per l’umanità sia porre fine alla sua esistenza.