I ricercatori sono recentemente riusciti in un’impresa che ha dell’incredibile. Sfruttando idee nate a fine anni cinquanta del secolo scorso,3 quando gli elaboratori elettronici occupavano stanze intere a loro dedicate. L’idea cioè di imparare un gioco, come per esempio quello della dama, facendo giocare un programma contro sé stesso. Innumerevoli volte, ma sappiamo quanto sono veloci i computer! Da allora e dopo vicende alterne accadute nel variegato campo dell’I.A. che qui tralasciamo, sono emersi almeno un paio di fatti significativi per la nostra chiacchierata. Il primo, quello probabilmente più noto, è l’estrema rapidità con cui l’hardware si potenzia anno su anno, decrescendo parimenti nel costo. Basti pensare alla potenza elaborativa racchiusa in un comune cellulare del nostro tempo. Il secondo è proprio lo sviluppo importante che ha assunto la modellazione delle reti neurali4. Sia in termini teorici che nello sviluppo di algoritmi, metodi e tecniche, sempre più stupefacenti. E sempre più simili alla biologia.
Prendiamo il caso realizzato della società DeepMind, ora di Google, la quale ha realizzato un prototipo che, senza che al sistema vengano date regole o altre informazione dall’esterno, osservando i pixel di uno schermo di computer e giocando contro se stessa ne rileva il senso di quanto è rappresentato sullo schermo, ne comprende le relazioni, sino a trovare la soluzione ottimale di gioco, diventando in breve tempo – certo, giocando un’infinità di partite – praticamente un campione. Chiediamo venia per i per i verbi antropomorfizzanti che abbiamo usato, per semplicità di esposizione, e suggeriamo caldamente la visione di questo video, poco più di un minuto, ma molto esplicativo. Il punto importante da capire è che, in un certo senso, il programma non solo si è auto-programmato, ma ha interpretato quanto c’era da interpretare, in modo autonomo. Senza interventi dall’esterno, una volta avviato il tutto.
Stupefacente! Già, ma se rimaniamo confinati nella virtualità del gioco, è come rimanere nel campo del discorso, della parola… della virtualità, insomma.
Facciamo un passo avanti. Nello spazio fisico. Andando a vedere com’è messa la robotica, oggi. Tutti noi siamo ormai abituati nel vedere i robot lungo le linee di produzione nelle fabbriche moderne. File e file di bracci meccanici, più o meno antropomorfi, che danzano in una coreografia sincronica, interagendo con altri sistemi più dichiaratamente industriali, e che tagliano, piegano, spostano, saldano, avvitano, con sempre meno interventi manuali. Rari i supervisori umani che a volte vediamo sparsi qua e là in stabilimenti di produzione, a volte addirittura a luci spente.
Già oggi esistono sistemi robotizzati, sempre più umanoidi, se non nelle fattezze, almeno nelle funzionalità, e che sempre più si avvicinano alle scene di fantascienza dei film, che si proiettano nelle sale cinematografiche, come in questo caso. Dev’esser duro, oggi, realizzare una pellicola che possa resistere qualche anno, vista la velocità con cui il mondo reale sta tallonando quello immaginato. Addirittura ci sono soluzioni commerciali a basso costo, il cui addestramento è sempre più naturale5.
Facciamo ora due più due. Giustapposizioni, appunto.
Se prendiamo le possibilità di “intelligenza autonoma” come abbiamo visto nel caso di DeepMind, e le connettiamo alle realizzazioni robotica più attuali, (escludendo le eventuali realizzazioni che potrebbero essere coperte da segreto militare, e di cui naturalmente non abbiamo alcuna evidenza) possiamo ipotizzare un veicolo dotato di una sensoristica e di una motricità simil umana, capace di esplorare in modo autonomo un mondo fatto di cose, oggetti, ambienti, ecc. Se cioè lasciassimo operare gli algoritmi di cui sopra non solo per correlare i pixel ripresi dalle telecamere, dai sensori tattili o di posizione sia delle articolazioni del veicolo, ma per collegare anche le relazioni spaziali che esso deve sviluppare con l’ambiente in cui si trova… ebbene ci sovviene l’immagine di un cucciolo di animale che inizia a relazionarsi – in modo autonomo – con l’ambiente. Andando per tentativi ed errori in un primo tempo, che all’inizio probabilmente imparerà prima a reggersi sulle zampe per acquisire l’equilibrio e vincere la gravità per poi pian piano, sempre per tentativi ed errori, iniziare a muoversi, con cautela ed entrare in contatto col mondo circostante. Iniziando a produrre da sé i suoi propri significati, quelli utili alla sua stessa esistenza. Un veicolo meccanico autonomo che stabilisce il suo proprio senso nell’ambiente in cui si trova, esplorandolo. Con un’unico neo. Quello dell’energia necessaria a far muovere il tutto.
La nostra posizione, ci scommettiamo, è che ne vedremo delle belle. A brevissimo!
E voi che ne dite? Fantasia o realtà?
Questo aggiornamento di gennaio 2019 corrobora la nostra intuizione…
oppure questa ricerca di ottobre 2021
1 Singolarità tecnologica, da Wikipedia o Singularity. Un’idea interessante, senz’altro resa famosa da un autori come Raymond Kurzweil, ma che troviamo magistralmente illustrata in queste battute estratte da un video di Daniela Lucangeli.
2 Howard Gardner, Formae Mentis. Saggio sulla pluralità dell’intelligenza, Feltrinelli, 1987
3 Machine learning, Wikipedia
4 Artificial Neural Networks, Wikipedia
5 Rodney Brooks, rodneybrooks.com
Solo alla fine della stesura del nostro articolo, ci siamo resi conto di non esser stati poi così originali nelle nostre conclusioni.
Aggiornamenti: Deep Mind, AlphaGo Zero, ottobre 2017
A Robotic Leg, Born Without Prior Knowledge, Learns to Walk, marzo 2019
Crediti immagine: rielaborazione dal cartellone del film di Varo Venturi: 6 giorni sulla Terra