Elon Musk e i fondatori di DeepMind hanno firmato un impegno a non sviluppare mai sistemi d’arma letali basati sull’intelligenza artificiale. Questo documento è stato sottoscritto anche da altre 160 aziende e da oltre 2400 persone di 90 Paesi del mondo. Questa lettera di intenti è stata pubblicata sul sito del Future of Life Institute ed è stata annunciata durante l’International Joint Conference on Intelligence Artificiale che si è svolta a Stoccolma, evento in cui si è parlato proprio dello sviluppo dell’intelligenza artificiale.
Tra gli ulteriori firmarti di spicco di questa lettera di intenti si menzionano il fondatore di Skype Jaan Tallinn ed alcuni tra i più noti ricercatori di intelligenza artificiale come Stuart Russell, Yoshua Bengio e Jürgen Schmidhuber. I firmatari chiedono anche che i Governi intervengano per regolamentare il futuro sviluppo dell’intelligenza artificiale. Future of Life Institute ha anche chiesto un intervento diretto delle Nazioni Unite nel settore delle armi autonome. Nel documento si legge, infatti, che la decisione di togliere una vita ad una persona non dovrebbe essere data ad una macchina. Proprio per questo i Governi dovrebbero impegnarsi anche a redigere delle norme contro la creazione di armi autonome letali.
I firmatari, inoltre, invitano anche le altre aziende a sottoscrivere questo impegno per tracciare dei confini netti e stabilire cosa evitare e cosa no. Questa lettera di intenti arriva in un momento molto delicato, subito dopo ad alcuni fatti di cronaca che hanno visto utilizzare tecnologie sviluppate per l’ambito civile in scenari militari. Si pensi, ad esempio, al tentativo di utilizzare l’intelligenza artificiale di Google per gestire i droni militari.
Finora, i tentativi di chiedere ai Governi di porre in essere regole certe per lo sviluppo delle intelligenze artificiali si sono conclusi con un nulla di fatto. Questa nuova iniziativa punta a fare nuovamente pressione per portare i Governi a regolamentare il settore ma la sensazione è che non basterà ancora.