Con il progredire della tecnologia a ritmi rapidissimi, l’era attuale rappresenta un momento critico per le scelte dei governi, delle aziende e delle agenzie. Il motivo? Tutti questi soggetti devono pensare seriamente a come salvaguardare gli effetti dell’intelligenza artificiale su scala globale, economica, sociale e politica. L’intelligenza artificiale non è intrinsecamente buona o cattiva, ma il modo in cui la usiamo potrebbe benissimo essere l’uno o l’altro. Sfortunatamente, finora ci sono state poche attenzioni da parte di tali organi per quanto riguarda l’impatto della dirompente tecnologia. Grazie all’IA, vedremo cambiamenti importanti in termini di applicazioni, rapporti tra i paesi, possibilità lavorative, organizzazione della giustizia e dell’energia. Molti di questi aspetti, se gestiti in modo errato o non gestiti del tutto, potrebbero dar seguito a veri disastri.
Approcciata correttamente, con una pianificazione anticipata e una regolamentazione adeguata, la tecnologia artificiale ha il potenziale per migliorare il futuro della nostra società. Gli avvertimenti di Elon Musk nei mesi scorsi hanno fatto scalpore non tanto perché cita un futuro possibile dove le macchine si mettono in rivolta ma perché addebita la necessaria responsabilità a chi con l’IA ha a che fare giornalmente, che si tratti di sviluppatori, laboratori ed enti governativi. Considerare tutti i possibili effetti di software senzienti è un dovere, non una possibilità.
Amazon, Facebook, Google, IBM e Microsoft, hanno annunciato il lancio di varie partnership nel merito dell’intelligenza artificiale, non tanto a livello tecnologico ma etico. Ed è questo il punto: una volta raggiunta una tecnica in grado di realizzare software e progetti senzienti, o quasi, non urge più concentrarsi su ulteriori sviluppi dei bit ma sulla fondazione di un ordine condiviso e attuabile nel breve.
Il CEO dell’Allen Institute for AI ha affermato che dovremmo adottare un approccio simile alle tre leggi della robotica di Isaac Asimov: anche se ambigue per essere intese oggi rispetto al 1946 quando furono scritte, potremmo usarle come una valida base di sviluppo per corrispondenti norme sull’intelligenza artificiale, con un buon fondamento legislativo.
Prima legge: “Un robot non può recar danno a un essere umano né può permettere che a causa del proprio mancato intervento un essere umano riceva danno”.
Seconda legge: “Un robot deve obbedire agli ordini impartiti dagli esseri umani purché tali ordini non contravvengano alla prima legge”.
Terza legge: “Un robot deve proteggere la propria esistenza purché questo non contrasti con la prima e la seconda legge”.
Il quesito che permea tutte e tre le leggi è: chi controlla il rispetto di ogni norma? Qualche lungimirante fantasioso ha pensato ad una mentalità sovrana, che fa da giudice e difensore supremo dei diritti, una sorta di architetto di Matrix. Ma si sbaglia in partenza: piuttosto che controllare l’intelligenza artificiale con esseri super intelligenti dotati di coscienza, è più necessario regolare il modo in cui la tecnologia IA viene utilizzata. Un esempio arriva da uno studio piuttosto distopico di fine 2018, nel quale si afferma di poter distinguere l’orientamento sessuale di una persona analizzando solo il su volto, tramite un software di intelligenza artificiale.
Questo caso ha ovviamente ricevuto un bel po’ di critiche, perché ha il fine di sfruttare algoritmi e machine learning per quella che è una discriminazione, seppur le intenzioni iniziali non fossero quelle. In Cina il riconoscimento facciale sta andando oltre, con alcuni ricercatori che affermano di poter identificare un possibile criminale leggendolo in faccia. Pregiudizio razziale, stereotipi, una faccia di una stessa medaglia, ricca, ma ancora da limare. C’è chi è convinto che sia prematuro mettere in atto regolamenti sull’intelligenza artificiale ma è proprio adesso che servono, prima che la standardizzazione lasci spazio a una varietà di soluzioni con policy differenti e incontrollate.
Del resto, non siamo ancora del tutto sicuri degli esatti impatti e delle implicazioni che l’IA porterà alla società, ed è quindi importante ricordare che i governi e le amministrazioni si muovono notoriamente a un ritmo glaciale rispetto al progresso tecnologico. E pare meglio agire per tempo e gettare le basi per politiche acerbe, che prenderanno man mano forma, invece che essere in ritardo e rischiare un’assenza di moderazione.
E allora…#buongiornounCaffo