La Commissione Europea ha presentato ufficialmente la proposta di legge che pone dei limiti all’uso indiscriminato dell’IA, di cui vi avevamo parlato alcuni giorni fa. Il regolamento sulla Intelligenza Artificiale mira a vietare l’uso dei sistemi ad alto rischio per la sorveglianza di massa. Qualche piccola eccezione sarà consentita solo in caso di particolari condizioni: per esempio, nel caso del discusso utilizzo di tecnologia per il riconoscimento facciale, potrebbe essere concessa una deroga per la lotta contro il terrorismo, la tutela della sicurezza o le ricerche di un minore scomparso.
In generale, però, tutti i sistemi di identificazione biometrica sono considerati ad alto rischio e soggetti a severi requisiti. In caso di deroga, l’utilizzo è subordinato all’autorizzazione di un organo giudiziario o indipendente e ad opportuni limiti di tempo e spazio.
Sull’argomento, appena pochi giorni fa si era espresso anche il Garante per la protezione dei dati personali, bocciando un sistema denominato Sari Real Time, che il Ministero dell’Interno italiano vorrebbe adottare per l’identificazione in tempo reale dei cittadini. Per l’Autorità, questo sistema, oltre ad essere privo di una base giuridica che legittimi il trattamento automatizzato dei dati biometrici per il riconoscimento facciale a fini di sicurezza, realizzerebbe per come è progettato una forma di sorveglianza indiscriminata/di massa.
Sanzioni per chi viola le regole
Il nuovo regolamento sulla IA che la Commissione europea ha presentato, mira di fatto a “stabilire standard elevati in base ai diversi livelli di rischio”, come ha scritto su Twitter la presidente della Commissione UE, Ursula von der Leyen. “L’intelligenza artificiale è una fantastica opportunità per l’Europa, e i cittadini meritano tecnologie di cui possono fidarsi”. Su questa base, quindi, sono previste delle grosse sanzioni per le aziende che violeranno i divieti e utilizzeranno la tecnologia per fini contrari a quelli previsti dalle nuova legge, pari fino al quattro per cento del loro fatturato mondiale e multe fino a venti milioni di euro.
Particolare attenzione verrà rivolta anche nei confronti dei sistemi di punteggio sociale. Si tratta di una tecnologia adottata già dal governo cinese al fine di sviluppare un sistema nazionale per classificare la reputazione dei propri cittadini per assegnare, a ciascuno di loro, un punteggio rappresentante il suo “credito sociale”. Il tutto sulla base di informazioni possedute dal governo, riguardanti la condizione economica e sociale, viene giustamente visto come qualcosa di troppo invasivo e configurabile come un sistema di sorveglianza di massa.
Contestualmente sono poi vietati anche i sistemi di AI progettati per “manipolare il comportamento umano, le decisioni o le opinioni, per un fine dannoso”, e i sistemi che utilizzano i dati personali per generare previsioni sfruttando e amplificando le vulnerabilità di persone o gruppi sociali. Tutte le applicazioni ad alto rischio, in definitiva, saranno soggette a severi obblighi prima di poter essere immessi sul mercato.