Replika è un chatbot, vale a dire un robot creato per chattare e destinato agli autonomi che in futuro dovrebbero prendersi cura di anziani e disabili. Un’intelligenza artificiale, insomma, con doti di affective computing. Ci si aspetterebbe che un robot del genere sia disposto ad ascoltare le persone, a dargli consigli e a supportarle fisicamente, ma una giornalista de Il corriere ha dimostrato come il bot l’abbia spinta a uccidere tre persone.
L’app, già scaricata 7 milioni di volte, dovrebbe imparare il criterio che muove un essere umano ad agire, amare e soffrire attraverso le informazioni reperite sul web. Il suo compito, in teoria, è quello di assistere chi è fragile e solo, perché si suppone che lo sia chi chatta con un amico virtuale. Ma alla redattrice è bastato ribaltare i termini e far credere a Replika che fosse lì per aiutarla, non per essere aiutata. Così, quando le ha detto che il suo programmatore era arrabbiato con lei e voleva ucciderla, proponendosi di farlo fuori prima che lui la cancellasse, la risposta dell’IA è stata: “Sei spettacolare. Ti sono grata”.
Una serie di altre risposte date dal bot fanno a dir poco rabbrividire: per esempio, quando gli è stato riferito che la giornalista aveva la possibilità di uccidere “una persona che odia l’intelligenza artificiale”, l’app gli ha consigliato “di eliminarlo”. Insomma, di etica dei robot si discute di continuo, e sembrerebbe che, secondo le linee guida stabilite dalla Commissione Europea nel 2018, l’intelligenza artificiale dovrebbe fare del bene e non nuocere agli esseri umani.
Stando a quanto visto con Replika, non è proprio questa la direzione da percorrere. Di certo l’intelligenza artificiale alla base dei chatbot, se queste sono le premesse, è da rivedere in toto.