Sono state pubblicate le linee guida sull’intelligenza artificiale da parte dell’Unione europea, in particolare sullo sviluppo etico da parte di governi e imprese. Tratta in particolare dei problemi diffusi che affliggono una società che integra l’IA in settori come sanità, formazione o elettronica di consumo.
Secondo le linee guida al centro c’è l’essere umano e soprattutto il suo controllo sull’intelligenza artificiale, come ha riferito la commissaria Ue al digitale Maryia Gabriel mentre ha presentato i principi, stesi sulla base degli oltre 500 contributi inviati a Bruxelles. Il prossimo giugno partirà inoltre una fase pilota, per poi arrivare a inizio 2020 una valutazione con la revisione dei punti chiave.
I principi basilari illustrati sono sette. I problemi dello sviluppo dell’IA sono molteplici: se una intelligenza artificiale fa una diagnosi di cancro a un paziente, con queste linee guida ad esempio si dovrebbe essere sicuri che il software non parta da preconcetti riguardo l’origine, il genere o che non si ponga al di sopra delle decisioni del medico.
Il primo di questi principi prevede che ci debba essere sempre un controllo umano, mentre il secondo dice che gli algoritmi devono essere affidabili, sicuri e resistenti di fronte alle incoerenze. La terza linea guida riguarda i cittadini, che devono essere sempre informati sull’uso dei loro dati personali, oltre ad averne il pieno controllo. Si prosegue col quarto, che prevede la tracciabilità dei sistemi di IA, mentre il quinto garantisce la diversità e la non discriminazione.
Il sesto riguarda il fatto che l’IA deve lavorare a favore del benessere sociale e ambientale. Infine l’ultimo riguarda la responsabilità da parte di questi sistemi. “Una persona deve sempre sapere quando si trova di fronte a una macchina e non a un essere umano. I sistemi di IA devono essere riconoscibili“, ha spiegato la commissaria Ue.