L’Europa ha pubblicato un codice etico sullo sviluppo di intelligenza artificiale. Si tratta di linee guida di soluzioni sia tecniche che non sulla responsabilità e trasparenza che le aziende e ricercatori dovrebbero avere per la protezione della privacy, supervisione umana e non discriminazione. Si tratta di una prima bozza di un codice etico che sarà completato il prossimo marzo, in attesa di suggerimenti e migliorie.
L’intelligenza artificiale è una grande opportunità, ma per molti anche una minaccia per il futuro, per questo l’Europa sta giocando d’anticipo. Al centro del codice si trova il ruolo della dignità umana: l’IA non dovrà danneggiare l’umanità, la natura o gli animali. Una tutela garantita sotto il profilo della sicurezza fisica, psicologica e anche finanziaria. Dovrà operare per realizzare l’autonomia dell’uomo, non per ridurla.
Queste linee guida sono state redatte per la Commissione europea da 52 persone tra esperti, società civile e dell’industria. Viene ribadito l’evitare a tutti i costi di diventare dipendenti dai software di intelligenza artificiale. Allo stesso tempo devono essere chiari e accessibili a tutti, questo per evitare che qualcuno ne tragga un vantaggio personale a discapito della collettività, senza discriminazione per le minoranze.
L’Europa è in grande ritardo rispetto alle grandi multinazionali come Facebook, Amazon o Baidu, ma in ogni caso prende nettamente le distanze dall’approccio che stanno avendo Cina e Stati Uniti verso l’intelligenza artificiale. Le grandi compagnie hanno infatti accesso, proprio oggi è esploso un nuovo scandalo per Facebook, a una mole impressionante di dati, molti di più rispetto alle società europee.
La stessa Europa ha deciso quindi di aumentare gli investimenti nella ricerca in IA con 20 miliardi di euro entro il 2020, mentre altri 20 ne saranno destinati fino al 2030. L’Ue spera che un documento del genere possa generare maggiore fiducia negli utenti che utilizzeranno applicazioni dotate di IA: bisogna agire ora che si è in uno stato iniziale, prima che sia troppo tardi.