Mentre il Dipartimento della Difesa degli Stati Uniti ha avviato un progetto che affronterà il tema dell’etica dei robot, le Nazioni Unite sembrano già vicine al passo successivo: impedire la realizzazione di macchine in grado di uccidere le persone in maniera autonoma, ovvero senza l’intervento umano. Per evitare un futuro alla Terminator, è in corso a Ginevra un meeting di esperti che potrebbe portare al ban internazionale dei robot killer.
Oggi non ci sono robot in grado di compiere azioni autonome, ma le tecnologie per costruirli esistono e alcuni paesi hanno già presentato alcuni progetti che riguardano l’utilizzo di robot da guerra. Israele, ad esempio, ha progettato un sistema di difesa che lancia missili automaticamente, mentre la Corea del Sud ha costruito una sentinella robot che può sparare se un persona fornisce la password sbagliata. In base ad un documento del governo statunitense, pubblicato nel 2012, 76 paesi possiedono varie tipologie di droni e 16 paesi possiedono droni armati (guidati da un militare in carne e ossa). I droni sono considerati i genitori dei robot killer. A partire dal 2036, il Pentagono ha pianificato la riduzione graduale del controllo umano sugli armamenti. Negli anni successivi tutti le armi saranno nelle mani dei robot, esattamente come in Terminator.
Durante il meeting CCW (Convention on Certain Conventional Weapons), gli esperti discuteranno su diversi argomenti, il più importante dei quali riguarderà il livello di autonomia che dovrà essere concessa ai robot in grado di uccidere un essere umano. L’agenda prevede anche discussioni sulle armi robotiche attuali, sulle leggi umanitarie internazionali e sulle implicazioni etiche dei robot killer. Tutte le associazioni mondiali che difendono i diritti umani chiedono che i governi abbandonino per sempre ogni progetto e che l’ONU vieti preventivamente la costruzione di robot da guerra autonomi, prima che sia troppo tardi.
I sostenitori dei robot killer ritengono che sia possibile sviluppare un software etico per garantire un uso corretto della forza letale in base alle circostanze. Coloro che invece vedono in questi robot solo un pericolo per l’umanità, credono che nemmeno la tecnologia futura possa essere utilizzata per realizzare macchine perfette. Un robot che dovrà usare la forza letale, ad esempio per uccidere un terrorista che ha preso in ostaggio uno studente in una scuola, sarà in grado di comprendere le conseguenze delle sue azioni?