Di AlphaGo si è parlato molto nei mesi scorsi: il sistema di intelligenza artificiale sviluppato dalla squadra di DeepMind (Google-Alphabet) si è dimostrato in grado di battere in modo piuttosto netto i due più grandi campioni della disciplina Go, ovvero Lee Se-Dol e Ke Jie. Oggi il suo team annuncia un nuovo step nel percorso d’evoluzione del progetto.
AlphaGo Zero, questo il nome della nuova IA, non ha più bisogno di un insegnante in carne e ossa per imparare e migliorare le proprie capacità. Mentre il suo predecessore è stato istruito partendo da un database popolato con le mosse di giocatori professionisti e non, in questo caso le abilità vengono acquisite in modo autonomo, in totale indipendenza. Il sistema gioca, sbaglia, impara e corregge di continuo il proprio comportamento, tutto da sé, senza interferenze esterne. Stando a quanto dichiara Demis Hassabis, CEO di DeepMind, un approccio di questo tipo consente di liberare finalmente il sistema da quello che fin qui ha costituito il suo più grande limite: i confini della conoscenza umana.
Ovviamente, le finalità di un’iniziativa come quella legata ad AlphaGo prima e AlphaGo Zero poi trascendono i confini dei board game: l’impiego dell’intelligenza artificiale ai tavoli di Go ha rappresentato solo un primo scoglio da superare, un banco di prova, un esercizio di stile utile per capire quali sono o quali possono essere le reali potenzialità del sistema. Un giorno nemmeno troppo lontano lo stesso metodo potrà essere sfruttato nel campo della ricerca, medica e non solo, per condurre sperimentazioni e simulazioni approfondite su nuovi materiali in territorio ingegneristico e, più in generale, per giungere alla risoluzione di problemi che oggigiorno affliggono l’essere umano e la società. A questo mira DeepMind e a questo ha puntato Google con l’acquisizione del team negli anni scorsi.