In principio c’era Clippy, l’assistente virtuale della suite Office di Microsoft: un personaggio a forma di graffetta che forniva consigli e suggerimenti in tempo reale all’utente durante la sua sessione di lavoro su programmi come Word ed Excel. Divertente nei primi tempi, finiva sistematicamente per essere disattivato dopo un po’ a causa delle troppe distrazioni e la stessa Microsoft decise di non inserirlo nelle edizioni successive del software. Bisognerà poi aspettare i tempi dello sviluppo tecnologico per vedere Apple lanciare la sua celeberrima assistente vocale Siri, in dotazione a partire dalla versione 5 di iOS (in Italia dalla 6), subito imitata da tutti i concorrenti: Google Now, Cortana per Windows, Indigo, Cloe e moltissime altre lanciate in tempi rapidissimi sul mercato per restare al passo con la nuova moda degli assistenti virtuali.

Il balzo in avanti in questo settore è stato reso possibile dai portentosi sviluppi nel settore del riconoscimento vocale, alimentato dal nostro atavico desiderio di dialogare con le macchine allo stesso modo in cui già il capitano Kirk nella serie classica di Star Trek dialogava con il supercomputer dell’Enterprise: semplicemente, parlando. Un comando vocale ai nostri attuali assistenti virtuali ci fa risparmiare sicuramente un po’ di tempo rispetto al tradizionale “smanettamento” sulle tastiere del computer o dello smartphone, ma è ben poca cosa rispetto a quanto da tempo la fantascienza prospetta: la possibilità di formulare domande complesse a un computer e ottenere una risposta precisa. Per riuscirci, il riconoscimento vocale di certo non è sufficiente. Bisogna realizzare passi avanti significativi nel settore del natural languange processing (NLP), ossia l’elaborazione del linguaggio naturale. Comprendere il suono di una parola è un conto, comprenderne davvero il significato è un altro paio di maniche.

Un assistente virtuale non è altro che una particolare di intelligenza artificiale (IA). Già Siri e i suoi emuli lo sono, ma anche molte altre applicazioni che utilizziamo quotidianamente e che non considereremmo tali. Gli esperti le chiamano ANI, acronimo di artificial narrow intelligence, o anche “IA deboli”: sono programmi specializzati in un particolare settore, nel quale riescono a produrre risultati strabilianti, come battere un campione di scacchi, tradurre in tempi rapidissimi e con un elevato grado di accuratezza un testo, guidare un’automobile. Quando pensiamo al termine “intelligenza artificiale”, la nostra immaginazione corre invece fin da subito a cose simili ad HAL9000, la celebre IA del film 2001: odissea nello spazio, o più recentemente a Samantha, il sistema operativo dalla voce sensuale (quella di Scarlett Johansson) di cui s’innamora il protagonista del film Lei. Sono le cosiddette “IA forti”, che gli esperti preferiscono chiamare AGI, acronimo di artificial general intelligence, in grado cioè di imitare perfettamente l’intelligenza umana e compiere qualsiasi tipo di attività che un essere umano di tipo medio è in grado di compiere.

Gli sforzi nella realizzazione delle AGI sono stati a lungo frustrati, ma negli ultimi anni la situazione sembra essere radicalmente cambiata. In particolare, a partire dalla fine degli anni Novanta del secolo scorso, gli esperti di IA hanno iniziato a incrociare tra loro settori quali il machine learning, la statistica, il controllo automatico, le neuroscienze, allo scopo di comprendere e imitare nel settore dell’automazione il modo in cui gli esseri umani percepiscono e agiscono all’interno di un ambiente, convinti del fatto che sia questa la capacità che rende un essere “intelligente”. La multidisciplinarietà dell’approccio, insieme all’aumento delle capacità di calcolo dei computer e allo sviluppo di algoritmi in grado di trattare i cosiddetti big data, ossia enormi volumi di dati, ha permesso di realizzare significativi passi in avanti, dal riconoscimento vocale alle traduzioni automatiche, dalla classificazione delle immagini alla guida di veicoli. Questi progressi hanno restituito fiducia a un ambito di ricerca che sembrava essere entrato, alla fine degli Ottanta, in un vicolo cieco; oggi i più ottimisti tra gli esperti di IA sono convinti che sarà possibile ottenere una AGI tra il 2030 e il 2040, se non addirittura prima, nel momento in cui sarà possibile applicare alla ricerca nel settore innovazioni radicali provenienti dall’informatica, per esempio il “computer quantistico”, la cui capacità di elaborazione in parallelo si avvicinerebbe significativamente al modo in cui il nostro cervello è in grado di processare l’informazione.

Le IA dominano quindi già ogni aspetto della nostra vita. Sono presenti sul nostro smartphone, nelle nostre auto – computer di bordo, navigatore satellitare –, sui nostri tablet e PC, e iniziano a invadere le nostre abitazioni. I progetti relativi all’Internet of Things mirano a rendere “intelligente” una miriade di oggetti che oggi non lo sono, dal frigorifero alla lavatrice, dal termostato al sistema di illuminazione di casa nostra. Alcune di queste IA domotiche sono già disponibili sul mercato e installate nelle abitazioni degli utenti più nerd, ma è probabile che nei prossimi anni il naturale calo dei costi le renda disponibili a tutti: gli elettrodomestici che acquisteremo da qui a qualche anno saranno dotati di default di algoritmi sofisticati per prendere decisioni in autonomia, collegandosi a Internet. Lo specchio nel bagno di casa che ci fornisce quotidianamente informazioni sul nostro stato di salute è un leitmotiv della fantascienza che i recenti sviluppi tecnologici rendono ora possibile. Già diverse app sul nostro cellulare permettono di tenere sotto controllo una serie di indicatori di salute. La pervasività delle IA dedicate – le ANI – è tale che quasi non ci accorgiamo di loro, ed è solo l’inizio. Entro il 2035, secondo una stima, il 70% delle persone nei paesi più industrializzati utilizzeranno quotidianamente assistenti virtuali.

Lì però ci troviamo di fronte a una situazione inquietante: una ANI che si comporta come una AGI. Un software molto “umano” che supera la sua programmazione e acquisisce una coscienza pienamente umana, senza che il suo “padrone” se ne renda conto. Quanto è plausibile questo scenario? Molto più di quanto fosse possibile immaginare solo qualche anno fa. Nel recente film Ex Machina, la sofisticata AGI sviluppata dal geniale Nathan e dalla sua compagnia BlueBook (una via di mezzo tra Google e Facebook) è resa possibile attraverso l’elaborazione dell’oceano sterminato di dati che circola su Internet. Se questa mole di dati viene messa a disposizione di algoritmi in grado di apprendere gradualmente alla stregua di un essere umano, ecco che può svilupparmi un’intelligenza artificiale dotata di coscienza di sé. Questo approccio ha già dato i suoi frutti in molteplici occasioni. Google Translate traduce con una precisione di gran lunga superiore rispetto a pochi anni fa, perché “impara” dalle correzioni apportate costantemente dai suoi utenti e, soprattutto, dalla capacità dei suoi algoritmi di comprendere la semantica di un discorso analizzando milioni di pagine che i programmatori gli forniscono costantemente. Google Translate non è cosciente, perché è stato programmato per fare una sola cosa. Ma un software programmato per fare tutto potrebbe, attraverso questo metodo, diventare davvero intelligente.

Il problema sta proprio nella capacità di programmatori di sviluppare software in

grado di imitare in tutto e per tutto il cervello umano. Compito improbo dal momento che sui meccanismi che regolano la nostra mente e la nostra coscienza c’è ancora buio fitto. Tuttavia negli ultimi anni proprio dal settore delle IA si è sviluppato un “movimento” che ritiene possibile realizzare un gigantesco passo in avanti nell’ambito delle neuroscienze mettendo a disposizione le accresciute capacità di simulazione dei sistemi informatici per ricreare su un computer il nostro cervello. Lo Human Brain Project, finanziato dall’Unione europea nel 2013 con un miliardo di euro, punta proprio a quest’obiettivo: sviluppare una simulazione perfetta del cervello umano per metterla a disposizione dei neuroscienziati e sperare così di svelare il segreto dell’intelligenza. Diverse polemiche all’interno della comunità dello Human Brain Project hanno portato di recente a ridefinirne gli obiettivi, con i neuroscienziati che hanno recuperato un ruolo di primo piano rispetto agli informatici, inizialmente alla guida del progetto. Ciò dimostra che non tutti sono convinti della bontà di quest’approccio. Sono note le posizioni di scienziati e pensatori di primissimo piano come Roger Penrose e John Searle, secondo i quali il cervello non funziona in modo algoritmico, e pertanto non sarebbe simulabile da un computer. Uno dei compiti dello Human Brain Project potrebbe essere proprio quello di confermare o smentire quest’assunto.

I tempi sono maturi per riuscirci. L’evoluzione tecnologica mette oggi a disposizione della comunità scientifica capacità di calcolo e di elaborazione dell’informazione impensabili fino a pochi anni fa. Avendo ormai quasi raggiunto i “limiti fisici” della celebre legge di Moore, che prevede il raddoppio delle capacità di calcolo di un processore ogni 18 mesi, i colossi dell’informatica sono da tempo al lavoro su soluzioni rivoluzionarie, come quella di IBM, che punta all’utilizzo dei fotoni invece degli elettroni – che generano calore limitando il numero di operazioni al secondo – all’interno di particolari chip nei quali dispositivi elettronici sono integrati con dispositivi di tipo ottico. In tal modo diventa possibile accelerare significativamente il numero di operazioni al secondo, raggiungendo il livello dell’exaflop, pari a un trilione di operazioni al secondo: circa cento volte più veloce della capacità di elaborazione del cervello umano.

La velocità, naturalmente, non è tutto. Per riuscire a simulare artificialmente un cervello umano bisognerebbe avere degli algoritmi in grado di imitare i processi di apprendimento. L’approccio più utilizzato al momento è quello delle reti neurali artificiali, che connettono tra loro chip al posto di neuroni e utilizzano tecniche di “apprendimento per rinforzo”: inizialmente, il software utilizza metodi del tutto casuali per risolvere un problema, ma quando riesce a portare a termine con successo un compito i circuiti che hanno condotto a quel risultato vengono rinforzati, mentre quelli che hanno portato a vicoli ciechi vengono indeboliti, esattamente come avviene nel nostro cervello, dove le sinapsi responsabili di azioni o riflessioni considerate efficaci sono gradualmente rinforzate. In tal modo diventerebbe possibile imitare la plasticità cerebrale che è alla base della capacità di un essere umano di apprendere partendo da zero. Mettendo a disposizione di una rete neurale particolarmente efficace la mole enorme di informazioni estraibili da Internet, potrebbe essere possibile riuscire a ottenere un’IA forte, un’AGI.

Non tutti sono a proprio agio con l’idea di realizzare un’AGI. È noto che personalità influenti come Stephen Hawking, Bill Gates o Elon Musk abbiano di recente messo in guardia l’umanità dai potenziali rischi di “superintelligenze” artificiali. Libri come Our Final Invention: Artificial Intelligence and the End of the Human Era di James Barrat (2013) o Superintelligence: Paths, Dangers, Strategies di Nick Bostrom (2014) trattano nel dettaglio i rischi collegati a un simile scenario. Bostrom, in particolare, ha analizzato diversi casi in cui un’intelligenza artificiale potrebbe trasformarsi in una “minaccia esistenziale” per l’intera umanità. Non si tratta solo di scenari “alla Terminator” o “alla Matrix”, dove le IA riducono la nostra specie in schiavitù, ma anche più banali casi di errori di programmazione. Nello “scenario paperclip”, un’IA che ha per obiettivo ottimizzare e massimizzare la produzione di graffette (paperclip) all’interno di una fabbrica potrebbe finire per sfruttare tutta la materia del pianeta a questo scopo, impedendoci di fermarla grazie alla sua superiore intelligenza. Secondo Bostrom, una volta realizzata un’IA con un livello di intelligenza pari a quello umano, il passo per raggiungere la “superintelligenza”, superando quindi significativamente i nostri livelli cognitivi, sarebbe brevissimo. A quel punto le IA diventerebbero inevitabilmente incontrollabili, quali che possano essere i loro obiettivi, perché non riusciremmo in nessun modo a prevederli e a comprenderli.

Questi scenari da incubo sono al momento molto prematuri, sebbene siano attualmente oggetto di studi approfonditi da parte di realtà come il Future of Life Institute di Boston, il Center for the Future of Humanity di Oxford o il Center for Study of Existential Risk dell’Università di Cambridge. Il vero impatto delle IA nelle nostre vite sarà, ancora a lungo, di ben altra natura, che possiamo facilmente estrapolare dalla nostra quotidianità. Negli ultimi anni anche paesi più restii al cambiamento come l’Italia stanno vivendo un autentico boom degli acquisti online. Il mondo delle app ci permette di ricevere comodamente a domicilio non più solo libri, prodotti di elettronica o vestiti, ma anche pizza, sushi e tutto quello che possiamo desiderare per la cena, senza nemmeno il bisogno di fare una telefonata e interagire con un essere umano. La comodità, la semplicità e l’immediatezza di queste tecnologie è indubbia e le rende per questo così rapidamente pervasive nelle nostre attività quotidiana. Il modello sociale del prossimo futuro potrebbe di conseguenza rivelarsi molto simile a quello degli hikikomori, i giovani giapponesi che decidono di ritirarsi dalla vita sociale e chiudersi in casa davanti allo schermo del loro computer o tablet, tramite i quali possono vivere un’esistenza “a distanza”, mediata dalla Rete. Questo stile di vita, che si sta diffondendo in tutti i paesi avanzati, e che finora è considerato riprovevole, in futuro potrebbe diventare la norma. La diffusione del lavoro da casa è del resto favorita, rispetto al passato, dal fatto che un accesso rapido a Internet è oggi alla portata di tutti, e dall’esistenza di programmi per teleconferenze e lavori di gruppo a distanza particolare efficaci. L’utilizzo di app per incontri è sempre più diffuso. Stiamo insomma assistendo alla costruzione di un modello sociale mediato da ANI, cioè da quelle IA iper-specializzate che ci consentono di assolvere facilmente qualsiasi tipo di compito.

Nel film Lei, il protagonista s’innamora della sua assistente virtuale Samantha e intraprende con lei una relazione. Scopriamo poi che non si tratta di una vicenda isolata: diverse persone hanno avviato relazioni con questo nuovo sistema operativo autocosciente immesso sul mercato. Potrebbe accadere? Certamente non finché le IA resteranno al livello di una Siri un po’ più sofisticata, ma data l’attuale propensione di tantissime persone a costruire rapporti con persone conosciute virtualmente, l’ipotesi non appare tanto implausibile in prospettiva. La domanda più interessante è se invece future IA forti siano in grado di innamorarsi degli esseri umani, o comunque provare per i loro proprietari umani un’attrazione, anche solo di tipo amichevole. Certamente sarebbe questa la più autentica prova di autocoscienza, il vero test di Turing da superare. Ma poi saremmo davvero sicuri della genuinità di questi sentimenti? Non potrebbe essere, come nel bellissimo racconto Bugiardo! di Isaac Asimov, che l’IA stia solo simulando un innamoramento, per assecondare i desideri del suo padrone, che per programmazione è tenuto ad assecondare? È il dubbio che assale anche Caleb nel film Ex Machina. Questo dubbio ci conduce a un’ultima riflessione. Qualche anno fa George Dyson, autore di un libro imprescindibile sull’origine della cibernetica, La cattedrale di Turing (2012), si chiedeva provocatoriamente se non esistessero già oggi software più intelligenti dell’uomo. Un’IA davvero intelligente, infatti, acquisirebbe presto consapevolezza del fatto che l’umanità costituisca una minaccia alla sua esistenza. Come in 2001: odissea nello spazio, l’hardware che permette all’IA di funzionare, di “vivere”, può sempre essere disattivato dall’intervento umano. Il rapporto tra IA e utente umano sarà sempre, in una prima fase, squilibrato a favore dell’ultimo, che dell’IA è in fin dei conti il creatore. Come anche in Blade Runner, un’intelligenza artificiale dimostrerebbe allora davvero la sua intelligenza nel momento in cui fosse in grado di mentire per sopravvivere. Così accade anche in Ex Machina. La provocazione di Dyson dovrebbe spingerci a qualche domanda: quasi certamente oggi non esistono IA autocoscienti che si nascondono, ma una volta che saremo in grado di crearle, non è detto che vogliano darci davvero una dimostrazione della loro intelligenza; quando capiremo di avere di fronte un’autentica IA, forse potrebbe essere per noi troppo tardi.

Bibliografia

Barrat J., Our Final Invention: Artificial Intelligence and the End of the Human Era, St. Martin’s Press, New York, 2013.

Bostrom N., Superintelligence: Paths, Dangers, Strategies, Oxford University Press, Oxford, 2014.

Paura R., Futuro in progress. Guida al mondo che sta cambiando sotto i nostri occhi, IIF Press, Napoli, 2014.

Russell S.J. & Norvig P., Intelligenza artificiale. Un approccio moderno, 2 voll., Pearson, Torino, 2010.

Tosi T., Genio naturale, intelligenza artificiale. Talento, IA e merito nell’età della tecnica, in “Futuri” n. 6, novembre 2015.