La storia di come Google e Facebook hanno fatto a gara per creare un’intelligenza artificiale che superi gli esseri umani in tutti i giochi.
La storia di come Google e Facebook hanno fatto a gara per creare un’intelligenza artificiale che superi gli esseri umani in tutti i giochi.
Rémi Coulom ha trascorso l’ultimo decennio a ideare un software in grado di giocare a Go meglio di qualsiasi altra macchina sulla terra. Ha chiamato la sua creazione Crazy Stone. All’inizio dello scorso anno, nel momento culminante di un torneo a Tokyo, ha sfidato il gran maestro di Go, Norimoto Yoda, uno dei più grandi giocatori del mondo, esibendosi egregiamente. In quella che è conosciuta come Electric Sage Battle, Crazy Stone ha battuto il gran maestro. La vittoria è stata tuttavia determinata da un importante fattore.
Nel corso degli ultimi venti anni, le macchine hanno superato gli uomini in un numero talmente elevato di giochi di abilità mentale da farci ormai pensare che possano superarci quasi in tutto. Tuttavia il Go, la versione orientale degli scacchi in cui due giocatori si affrontano con l’uso di pietre lucide come pedine su una griglia di 19x19, rimane l’eccezione che conferma la regola. Sì, Crazy Stone ha battuto Yoda. Ma ha cominciato la partita con un vantaggio di quattro pietre. Era l’unico modo per garantire una sfida ad armi pari.
A metà degli anni novanta, un programma chiamato Chinook ha battuto il maggiore giocatore del mondo di dama. Qualche anno dopo il computer prodotto dalla IBM, Deep Blue, ha scioccato il mondo degli scacchi sconfiggendo con facilità il campione del mondo Gary Kasparov. Di recente un’altra macchina della IMB, Watson, ha surclassato i migliori giocatori di Jeopardy!, il noto quiz televisivo di cultura generale. Altre macchine hanno avuto la meglio su giochi come Othello, Scrabble, Backgammon e poker. Ma all’indomani della vittoria di Crazy Stone su Yoda, Coulom ha previsto che dovranno passare altri dieci anni prima che una macchina riesca a battere un gran maestro senza un vantaggio iniziale.
All’epoca quel lasso di tempo di dieci anni sembrava piuttosto breve. Nel gioco del Go i gran maestri fanno spesso affidamento più sull’intuito che sull’analisi ragionata, e costruire una macchina in grado di replicare questo tipo di intuito è estremamente difficile. Tuttavia una nuova arma potrebbe aiutare i computer a conquistare l’uomo in tempi più brevi: l’apprendimento approfondito. In società come Google e Facebook, l’uso dell’apprendimento approfondito si sta rivelando molto idoneo nel riconoscimento di immagini e nell’assimilazione di schemi spaziali, abilità che ben si prestano al gioco del Go. Pur esplorando tutte le altre opportunità presentate da questa tecnologia, Google e Facebook sono in corsa per trovarvi un’applicazione anche nell’ambito di questo antico gioco.
Come ha spiegato il ricercatore dell’IA di Facebook, Yuandong Tian, il Go rappresenta una classica sfida da IA, un dilemma estremamente affascinante in quanto estremamente difficile. Secondo la società, la soluzione del Go non si limiterà a migliorare la tecnologia del popolare social network, ma dimostrerà il valore stesso dell’intelligenza artificiale. Rob Fergus, un altro ricercatore di Facebook, concorda. “L’obiettivo è far progredire l’IA”, ha affermato. Ma ammette anche che gli sforzi della società in questa direzione sono guidati, almeno in parte, da un’amichevole rivalità con Google. Risolvere il dilemma posto dal Go sarebbe fonte di grande orgoglio.
Costruire un cervello per il Go
Oggi Google e Facebook usano l’apprendimento approfondito per identificare i volti ritratti nelle fotografie pubblicate in rete. È la tecnologia grazie alla quale i computer riconoscono i comandi vocali e traducono da una lingua a un’altra. A volte riesce perfino a comprendere il linguaggio naturale; il modo in cui gli umani conversano tra loro.
Tale tecnologia è fondata su ciò che chiamiamo reti neurali profonde; vaste reti di macchine simili alla rete di neuroni del cervello umano. Se vi inseriamo un numero sufficiente di foto di alberi, queste possono imparare a identificare un albero. Se vi inseriamo un numero sufficiente di battute di dialogo, possono imparare a condurre una conversazione dignitosa (per quanto a volte bizzarra). E se vi inseriamo un certo numero di mosse del Go, possono dunque imparare a padroneggiare questo gioco.
Le reti neurali profonde possono essere applicate al Go, perché si tratta di un gioco basato su schemi visibili su una griglia. “È un metodo molto adatto alla generalizzazione di schemi”, ha affermato Amos Storkey, professore all’Università di Edimburgo, che usa le reti neurali profonde per affrontare il Go, in modo analogo a quanto stanno facendo Google e Facebook.
Si ritiene che le reti neurali possano finalmente colmare il divario esistente tra macchine e uomini. I gran maestri di Go non esaminano necessariamente i risultati di ogni possibile mossa. La loro strategia è spesso determinata dall’aspetto della griglia. Con l’apprendimento approfondito, i ricercatori possono cominciare a replicare questo approccio. Inserendo nelle reti neurali immagini che raffigurano mosse vincenti, possono aiutare le macchine a imparare com’è fatta una mossa di questo tipo. “Invece di cercare di capire quali siano le mosse migliori da fare, imparano dall’osservazione dei giocatori”, ha affermato Storkey parlando delle reti neurali. “Ciò che fanno effettivamente è copiare il gioco umano”.
Più profondo dell’apprendimento approfondito
Costruire una macchina in grado di vincere a Go non è solo una questione di potenza di calcolo e questa è la ragione per cui i programmi come quelli di Coulom non sono riusciti a trovare una soluzione. Crazy Stone è basato su un algoritmo denominato ricerca ad albero Monte Carlo, un sistema che analizza i risultati di ogni possibile mossa. È così che le macchine hanno padroneggiato gli scacchi, la dama e altri giochi, guardando molto oltre rispetto ai giocatori umani che hanno battuto. Ma con il Go, ci sono troppe possibilità da considerare. Negli scacchi, il numero medio di possibili mosse a ogni turno è 35. Nel Go è 250. E dopo ognuna di queste 250 possibili mosse, ce ne sono altre 250. E così via. È impossibile per una ricerca ad albero prendere in considerazione i risultati di ogni singola mossa (perlomeno in un lasso di tempo ragionevole).
L’apprendimento approfondito può però colmare questo divario, in quanto utilizza l’intuito invece del metodo della “forza bruta”. Il mese scorso Facebook ha dimostrato, in una tesi pubblicata sul sito di ricerca accademica Arxiv, un metodo che combina la ricerca ad albero Monte Carlo e l’apprendimento approfondito. Il sistema ha gareggiato con giocatori umani, senza sfigurare e, secondo l’azienda, ha perfino esibito uno stile di gioco simile a quello umano. D’altronde, ha imparato grazie all’osservazione di reali mosse umane. Coulom ha definito il risultato ottenuto dall’azienda “molto spettacolare”.
In definitiva, ha affermato Coulom, sarà questo tipo di approccio ibrido a risolvere il problema.
"Quello che si sta cercando di fare è combinare i due approcci in modo da migliorarli entrambi".
Ha inoltre sottolineato che Crazy Stone utilizza già una forma di apprendimento automatico parallelamente all’algoritmo Monte Carlo, i cui metodi non sono complessi come le reti neurali utilizzate da Facebook.
Il documento di Facebook dimostra le potenzialità dell’apprendimento approfondito, ma evidenzia anche che le sfide presentate all’IA verranno vinte da più di una singola tecnologia e che più tecnologie sono quindi necessarie a questo scopo. L’apprendimento approfondito viene adottato con successo in molti ambiti, ma può sempre migliorare con l’uso di altre forme di intelligenza artificiale.
Test empirici
Quando Facebook ha svelato il suo lavoro relativo al gioco del Go, Google ha subito preparato una risposta. Un ricercatore del settore IA dell’azienda, Demis Hassabis, ha dichiarato che a distanza di pochi mesi l’azienda avrebbe rivelato “una grossa sorpresa”. Google ha rifiutato di aggiungere altro e non è chiaro cosa l’azienda abbia in serbo. Coulom, per esempio, ritiene improbabile che Google possa produrre così velocemente qualcosa in grado di sconfiggere i giocatori di Go, ma crede che l’azienda farà un significativo passo in avanti su questa strada.
Con ogni probabilità anche questo si baserà su diverse tecnologie. E si ipotizza che una di queste sarà l’apprendimento per rinforzo. Se l’apprendimento approfondito ha buone capacità percettive, come riconoscere aspetto, suoni e comportamenti, gli algoritmi di rinforzo sono in grado di educare le macchine ad agire in base a tale percezione.
Hassabis è il supervisore di DeepMind, una divisione di Google con sede a Cambridge, in Inghilterra, che ha già fatto buon uso dell’apprendimento approfondito combinato agli algoritmi di rinforzo. Nel corso di quest’anno Hassabis e il suo team hanno pubblicato una tesi che descrive come le due tecnologie possano essere adottate nei vecchi videogiochi Atari e come, in alcuni casi, possano battere i game tester. Dopo l’uso di una rete neurale profonda per favorire la comprensione del sistema di una data situazione, gli algoritmi di rinforzo usano test empirici per far capire al sistema come reagire a quella situazione. In pratica il computer prova una mossa e, se tale mossa viene premiata con dei punti, la riconosce come una mossa vincente. Dopo averne provate diverse, il sistema capisce qual è il gioco migliore da mettere in atto. La stessa strategia può funzionare con il Go.