Benché spesso minimizzato o liquidato come ideologia minoritaria, il transumanesimo può essere definito come l’orientamento filosofico di riferimento dei “soluzionisti tecnologici”, che un critico come Evgenij Morozov identifica in particolare con i guru della Silicon Valley1, e che più in generale definisce i sostenitori della “ideologia californiana”, fondata sulla convinzione che l’innovazione tecnologica radicale avrà effetti dirompenti (disruptive) sull’intera società, fino a ridefinire gli stessi connotati dell’essere umano2. Si tratta quindi di un’ideologia destinata a forte presa, soprattutto negli anni a venire; e se, nell’agire quotidiano, i soluzionisti tecnologici non sono particolarmente interessati al dibattito filosofico del transumanesimo, sul lungo periodo esso offre loro una visione escatologica convincente e soprattutto intramondana, priva cioè degli aspetti trascendentali delle tradizionali escatologie religiose, fondata sulla convinzione che, in un’epoca di accelerazione crescente del progresso tecnologico, la proiezione nel futuro di questo trend – come suggerisce la stessa legge di Moore sulle capacità dei microprocessori – assicura l’imminente avvento di una “singolarità tecnologica”, vale a dire di un evento spartiacque oltre il quale le capacità predittive dell’essere umano vengono meno, dal momento che la guida dell’evoluzione della specie sarà assunta dall’intelligenza artificiale o da un’ibridazione tra l’Uomo e la macchina3.

Il principale teorico della singolarità tecnologica, l’inventore, tecnologo e futurologo Ray Kurzweil, ha stimato il suo verificarsi poco prima della metà del secolo, tra il 2040 e il 2045, e ha cercato anche di fornire una qualche ipotesi riguardo il percorso che porterà al suo conseguimento4. Secondo Kurzweil, verso la fine del terzo decennio del XXI secolo «avremo completato la retroingegnerizzazione del cervello umano, e questo ci permetterà di creare sistemi non biologici in grado di eguagliare e superare la complessità e raffinatezza degli esseri umani, intelligenza emotiva compresa»5. Successivamente, diventeremo capaci di caricare l’intero pattern di un essere umano in un substrato pensante di tipo non biologico. Ne conseguirà l’affrancamento dell’essere umano dalla sua componente wet, biologica, cosicché a sopravvivere sarà solo la sua coscienza, virtualmente in grado di sopravvivere per sempre, a patto di realizzarne copie di backup in caso di distruzione accidentale o intenzionale del supporto hardware. Nel romanzo di fantascienza di Richard Morgan Altered Carbon (2002), da cui è stata recentemente tratta una serie televisiva omonima, è proprio questo il caso che dà il via al plot narrativo: il tentato omicidio di un uomo attraverso la distruzione della sua copia di backup (è interessante osservare che nel romanzo i cristiani si oppongono alla possibilità del mind-uploading, e vadano quindi incontro a morte definitiva)6.

La convinzione che il nostro futuro sarà caratterizzato dall’avvento della singolarità tecnologica e dalla trasformazione dell’essere umano in un transumano che potrà liberarsi dalla fisicità (e mortalità) del suo corpo, considerato un mero involucro fisico rimpiazzabile, è estremamente diffusa nell’ideologia transumanista. Nel 2008 Anders Sandberg e Nick Bostrom del Future of Humanity Institute all’Università di Oxford hanno firmato un rapporto tecnico dal titolo Whole Brain Emulation: A Roadmap, nel quale analizzano le diverse possibilità per arrivare a una perfetta emulazione del cervello umano. I due autori distinguono tra il concetto di “simulazione”, che imita i risultati in uscita, e quello di “emulazione”, che imita le dinamiche causali interne di un sistema. L’emulazione di un cervello umano avrebbe successo se fosse in grado di produrre lo stesso comportamento e gli stessi risultati in uscita dell’originale, possibilmente con una velocità superiore7. Queste considerazioni hanno parzialmente ispirato l’ambizioso Human Brain Project, lanciato nel 2013 con un finanziato di un miliardo di euro da parte della Commissione europea, per realizzare un’emulazione virtuale del cervello umano, con il principale obiettivo di comprendere i meccanismi alla base delle malattie neurologiche, ma con l’esplicita convinzione che tale percorso avrebbe spianato la strada alla realizzazione di un’intelligenza artificiale forte o autocosciente. Negli anni successivi il progetto è stato sottoposto a innumerevoli critiche e conseguenti modifiche all’approccio impiegato e al cronoprogramma, con il risultato che oggi è ben al di là di riuscire a ottenere l’esito sperato entro la data auspicata del 20238.

L’economista Robin Hanson, anch’egli ricercatore del Future of Humanity Institute, ha analizzato nel suo libro The Age of Em: Work, Love, and Life When Robots Rule the Earth (2016) lo scenario di un futuro dagli ems, da emulations. Si tratta di intelligenze artificiali fondate sull’emulazione del cervello umano, alle quali assegneremo i compiti finora appannaggio esclusivo dell’intelligenza umana, al fine di affrancarci dal lavoro e dalla fatica, nonché di affidare a queste intelligenze più avanzate il compito di spingere in avanti il progresso tecnologico. Una parte degli ems abiterebbe nel nostro mondo fisico, all’interno di corpi robotici; ma una parte maggioritaria vivrebbe sotto forma di intelligenze disincarnate all’interno di mondi virtuali. Secondo Hanson, in questo futuro gli esseri umani potrebbero non esistere o essere piuttosto una specie in via di estinzione. Gli ems, infatti, rappresenterebbero il gradino successivo dell’evoluzione dell’intelligenza, in grado di sostituirsi alla nostra specie e diventare la razza dominante del pianeta (e poi del Sistema Solare)9.

Il fisico Max Tegmark, co-fondatore del Future of Life Institute con sede a Cambridge, Massachusetts, definisce vita 3.0 questa nuova forma di vita che emergerebbe dall’ibridazione tra intelligenza umana e artificiale. Tegmark cita al riguardo la “profezia” del tecnologo e futurologo Hans Moravec, il cui libro Mind Children (1988) è stato uno dei testi fondativi del transumanesimo: «Noi umani trarreremo vantaggio per un po’ dalle loro [le emulazioni intelligenti] fatiche ma prima o poi, come figli naturali, andranno in cerca della loro fortuna mentre noi, i loro anziani genitori, svaniremo silenziosamente»10. Anche se si tratta solo uno dei possibili scenari della vita futura tratteggiati da Tegmark, e uno degli unici tre in cui la specie umana è destinata a sparire (insieme allo scenario in cui le IA distruggono in modo violento la nostra specie, e a quello in cui la nostra specie si estingue prima di sviluppare IA), lo studioso appare sostanzialmente a suo agio con l’idea che le emulazioni rappresentino i nostri futuri discendenti, potendo esse rivelarsi decisamente più capaci di affrontare le sfide a venire e diffondersi nell’universo, fino addirittura al punto da modificarne l’evoluzione.

robot sex doll
robot sex doll

Una concezione simile è stata sposata dallo storico e futurologo Yuval Noah Harari, il quale distingue le ideologie transumaniste in due tipi categorie: il tecno-umanesimo e il datismo (o “religione dei dati”). Entrambe partono dalla considerazione che Homo sapiens «ha ormai esaurito il suo percorso storico e in futuro non sarà più rilevante»11, ma mentre il tecno-umanesimo suggerisce di utilizzare la tecnologia per potenziare significativamente l’essere umano fino a realizzarne una versione migliorata (l’Homo Deus), il datismo si basa sul principio secondo cui «l’universo consiste di flussi di dati» e che «le stesse leggi matematiche si applicano sia agli algoritmi biochimici sia a quelli computerizzati digitali»12. Sviluppo della moderna “società degli algoritmi”, in cui sempre più funzioni un tempo di competenza dell’intelligenza umana sono affidate ad algoritmi programmati e in grado di apprendere in autonomia (machine learning), il datismo si fonda sulla convinzione che nella sua essenza l’essere umano sia indistinguibile da quelli che John von Neumann – uno dei fondatori della moderna scienza computazionale – chiamava automi cellulari, oggetti digitali che dimostrerebbero come la vita possa essere ricondotta a una serie di leggi di base replicabili su un calcolatore, in grado di far evolvere un sistema dal livello più semplice possibile fino alla complessità autocosciente; secondo Von Neumann, se la coscienza è un fenomeno emergente replicabile computazionalmente, è ragionevole attendersi che in futuro la diffusione dell’intelligenza nell’universo avvenga attraverso macchine autoreplicanti che colonizzeranno i diversi pianeti, riempiendo tutto l’universo13. Analogamente, Harari crede che sia preferibile sostituire alla specie umana attuale qualcosa di diverso, una versione autocosciente dell’Internet-of-Things in cui algoritmi ormai dotati di autonomia agiranno formando un’intelligenza collettiva per ottimizzare l’elaborazione dei dati. «Quando la missione sarà compiuta, Homo sapiens svanirà»14.

Nel suo libro Superintelligenza (2017), il filosofo di Oxford Nick Bostrom considera le diverse vie per arrivare a una futura superintelligenza: lo sviluppo di un’intelligenza artificiale (potremmo dire, la via tradizionale), l’emulazione globale del cervello (quella che egli aveva esplorato nello studio firmato con Sandberg), il potenziamento cognitivo biologico, le interfacce cervello-computer (un approccio attualmente studiato dal progetto Neuralink di Elon Musk), il potenziamento di reti e organizzazioni in grado di far emergere spontaneamente una forma di autocoscienza. Bostrom giudica le prime due soluzioni più credibili rispetto alle altre, e in particolare considera più sicura la prima rispetto alla seconda. Infatti, nel caso dello sviluppo di IA, dovremmo essere in grado di controllarne il suo graduale sviluppo a partire da un “seme” di coscienza artificiale, guidandone l’evoluzione in modo che la futura superintelligenza possa avere un’etica in linea con quella umana. Viceversa, le emulazioni del cervello umano, basandosi sulla “forza bruta” del calcolo per produrre imitazioni del nostro cervello senza realmente comprenderne i meccanismi, rischierebbero di sfuggire al nostro controllo e acquisire obiettivi e finalità divergenti rispetto alle nostre15.

Bostrom suggerisce che le emulazioni abbiano ottime possibilità di sostituirsi alla specie umana. L’esempio che egli impiega è quello dei cavalli, rapidamente sostituiti, con l’avvento delle macchine, al punto da ridurre significativamente il numero di esemplari esistenti: dai 26 milioni nel 1915 a soli 2 milioni negli anni Cinquanta negli Stati Uniti16. Le emulazioni, infatti, verrebbero impiegate per svolgere la maggior parte dei lavori; se esiste un legame tra aumento della popolazione (o più precisamente, tra il tasso di fecondità) e offerta di forza-lavoro, al decrescere di quest’ultima decrescerà inevitabilmente anche la popolazione. Se ci pensiamo, è quel che sta già accadendo nelle società occidentali, dove a un’economia altamente labour-intensive come quella agricola di sussistenza e successivamente quella industriale, che spingeva le famiglie a mettere al mondo un gran numero di figli, si è sostituita un’economia altamente automatizzata che rende i figli non più una potenziale risorsa economica, ma un peso.

Bostrom ritiene che le emulazioni saranno decisamente più efficienti di un analogo lavoratore umano, potendo operare 24 ore su 24 senza ferie, permessi, malattie, distrazioni di sorta. Considerando che si tratta di emulazioni, dotate quindi di un certo livello di autocoscienza, Bostrom ammette che in un simile scenario emergeranno voci contrarie alla loro schiavizzazione, e che le stesse emulazioni potrebbero ribellarsi. Basterebbe però resettarne la programmazione al termine di ogni giornata per far loro dimenticare l’esperienza del passato, oppure infondere nella loro programmazione uno stimolo ulteriore allo stacanovismo, per ovviare a questi problemi. Qui entriamo in un terreno etico molto scivoloso, che riprenderemo quando tratteremo del problema dell’empatia artificiale.

La domanda essenziale che queste considerazioni spingono a porsi è: le emulazioni esistono realmente, vale a dire vivono in modo del tutto analogo a come viviamo noi esseri viventi? Nell’affrontare questa domanda nel suo libro La fisica dell’immortalità (1994), il fisico teorico Frank Tipler sostiene che in una simulazione indistinguibile dal mondo reale le persone emulate non abbiano alcun modo per ritenere che le loro azioni e i loro pensieri siano mere emulazioni delle azioni e dei pensieri degli esseri umani veri, dal momento che essi li imitino in tutti gli aspetti. Ma questa imitazione è sufficiente per sostenerne l’autenticità? Tipler invoca a suo sostengo il principio dell’identità degli indiscernibili, introdotto da Leibniz nel XVII secolo, secondo cui entità che non possono essere in alcun modo distinte l’une dalle altre devono essere considerate identiche17. Pertanto, in presenza di una simulazione sufficientemente perfetta di un essere vivente, è corretto sostenere che questo essere sia vivo. Ne consegue che l’emulazione della mia persona, attraverso la possibilità di riversare il mio pattern su un computer del remoto futuro, sia viva esattamente come lo sono io e che, possedendo i miei stessi ricordi, sia in realtà una continuazione di me stesso. Queste, comunque, sono al momento solo speranze, perlomeno dal punto di vista dei transumanisti. Sebbene esistano progetti più o meno seri per dimostrare la fattibilità tecnica del mind-uploading (il più celebre e controverso è l’Iniziativa 2045 del russo Dmitry Itskov), la comunità scientifica si trova oggi di fronte al problema di come sviluppare capacità intellettive spiccatamente umane, quali l’etica e l’empatia, all’interno degli odierni sistemi artificiali, come per esempio le reti neurali. Questi sistemi emulano certamente in parte i meccanismi alla base dell’apprendimento umano, ma si dimostrano efficaci solo in presenza di compiti routinari e facilmente automatizzabili, per esempio il riconoscimento facciale o la traduzione di testi, in cui la “forza bruta” del calcolo conta più dell’intuizione, alla base dell’intelligenza umana. Risolvere questo problema è essenziale per coloro che auspicano la possibilità di sviluppare le emulazioni attraverso cui la nostra specie sopravviverà nel remoto futuro.

I filosofi della scienza Paul Dumouchel e Luisa Damiano hanno affrontato il problema analizzando lo sviluppo della robotica sociale, ossia di quella branca della robotica che si occupa di creare compagni artificiali degli esseri umani, essenzialmente per finalità di assistenza medica e psicologica. La robotica sociale si basa sull’assunto (opinabile) che il lavoro di cura, finora assegnato agli esseri umani, potrà in futuro essere automatizzato, dato che, in uno scenario di progressivo invecchiamento della popolazione, il numero di persone bisognose di assistenza continua aumenterà inesorabilmente, mentre l’offerta di lavoro nel settore calerà. Pertanto, sostituire ai care-givers umani agenti robotici sembra essere la soluzione più adeguata, vista positivamente anche dai transumanisti come step intermedio nell’affermazione di una specie ibrida uomo-macchina. Non a caso Dumouchel e Damiano usano il termine sostituti per riferirsi a questi agenti artificiali, benché specifichino che il sostituto «ricopre il ruolo di un’altra persona, ma solo in parte – soltanto in alcuni casi, per certi aspetti e in determinati momenti»18.

Sia come sia, l’ostacolo principale alla realizzazione di tali sostituti è la possibilità di emulare l’empatia umana. Ciò deriva dal fatto che non abbiamo ancora una reale comprensione dei meccanismi della mente, in particolare non possediamo una teoria della mente condivisa, che possa spiegare i processi fisiologici attraverso cui gli esseri umani e diverse altre specie animali comprendono che gli altri hanno stati mentali diversi dai propri, capaci di produrre credenze, intenzioni, desideri, emozioni e conoscenze. Una vera emulazione del cervello umano dovrebbe possedere intenzionalità propria, vale a dire intenzioni autonome dai creatori-progettisti che possano essere celate a osservatori esterni. È indubbio che solo in tal modo saremmo di fronte a un sostituto completo di un essere umano: lo stesso Alan Turing, agli albori della moderna scienza informatica, suggerì che il test-chiave per riconoscere un’autentica intelligenza artificiale consistesse nella sua capacità di trarre in inganno un osservatore, emulando efficacemente il comportamento di un’intelligenza umana19. Questo problema è ben presente ai teorici del rischio esistenziale rappresentato dallo sviluppo di autentiche IA. Nick Bostrom, nel suo libro Superintelligenza, si occupa proprio del tema di come dotare un’IA di intenzionalità senza che questa tragga in inganno gli esseri umani al punto da sviluppare piani di emancipazione dal giogo dei suoi creatori-programmatori, che potrebbero sfociare nella distruzione intenzionale della specie umana, considerata un ostacolo alla piena autonomia della superintelligenza. Per risolvere il problema, Bostrom sostiene che dovremmo “caricare” su un’emulazione i valori etici condivisi dalla nostra specie. Niente di più difficile: come esprimere questi valori, per esempio l’aspirazione alla felicità, in linguaggio di programmazione? Nel caso delle emulazioni, che si basano sull’imitazione dei nostri processi mentali, una soluzione potrebbe consistere nel rafforzamento e nell’incremento di stati mentali che corrispondono ai principali valori condivisi dalla nostra comunità20.

Si tratta però di una soluzione rischiosa, dal momento che i valori condivisi cambiano nel tempo: la schiavitù era considerata normale fino al XIX secolo, il razzismo è stato condiviso dalla maggior parte dell’Occidente per buona parte del XX secolo, e in particolari momenti della Storia recente sono stati considerati positivamente orientamenti come la selezione eugenetica o la pena di morte. In futuro, la nostra specie potrebbe per esempio abbracciare l’antispecismo come valore etico condiviso: dovremmo tenerne presente, nel caricamento (o nel rafforzamento) dei valori su un’emulazione informatica? Inevitabilmente, dovremmo lasciare che l’emulazione sia in grado di apprendere autonomamente e scegliere in autonomia quei valori che ritiene più opportuni. Ma questa soluzione ci fa ricadere nel rischio di un’intenzionalità divergente da quella umana.

Appare insomma evidente che, per ottenere un’emulazione perfettamente autocosciente e intelligente, dobbiamo dotarla della capacità di affrancarsi dalla sua programmazione e quindi dal controllo umano, con il serio rischio di creare una nuova specie artificiale che, anziché essere disposta ad accogliere le coscienze disincarnate degli esseri umani sottoposti a mind-uploading in un ambiente virtuale comune, sostituisca la specie umana tout court. Dumouchel e Damiano osservano che la “teoria” dell’uncanny valley – secondo cui, oltre una certa soglia di somiglianza di un sostituito artificiale al suo originale umano, la reazione umana è di orrore e rifiuto – pone vincoli stringenti alla possibilità di realizzare sostituti completi, poiché dimostra che l’essere umano è naturalmente ostile all’idea di convivere con emulazioni perfette di se stesso21. Dovremmo quindi mettere in conto la possibilità che, per una serie di ragioni non solo tecnico-scientifiche, la realizzabilità di un’emulazione dotata di autonomia e intenzionalità non sarà mai conseguita.

L'androide Dick
L'androide Dick

Che cosa ci dice questa conclusione sul nostro discorso, in particolare sulla prospettiva della singolarità tecnologica? L’escatologia transumanista si fonda sulla certezza che sia possibile ottenere una perfetta emulazione della mente umana, così da consentire il “caricamento” del pattern di ciascuna persona su un supporto informatico e assicurarne l’immortalità, perlomeno in un ambiente virtuale. Sul piano teorico, la realizzabilità di questa idea si fonda sulla convinzione che un’emulazione artificiale perfetta sia sostanzialmente indistinguibile dall’originale, cosicché un’emulazione perfetta di una persona umana risulterebbe la naturale prosecuzione della sua esistenza, sebbene in un ambiente virtuale.

Esiste anche una corrente di pensiero che sostiene, come abbiamo visto, che la specie umana possa essere sostituita da una specie completamente artificiale, basata sulle emulazioni: l’Homo sapiens lascerebbe il trono della creazione a questa nuova specie, con l’obiettivo di estendere l’intelligenza a tutto l’universo fino a modificare le stesse leggi fondamentali della fisica. Lo scrittore di fantascienza Stanislaw Lem, nella sua Summa Technologiae, immagina un futuro in cui la nostra specie trasmetta non il pattern neurale di ciascun individuo, ma il suo DNA (inteso come “codice sorgente”), a questa nuova specie artificiale, così da assicurarsi la sopravvivenza all’interno di un ambiente virtuale, una simulazione che girerebbe su enormi supercomputer posti in orbita intorno al Sole, dove l’efficienza dei processi di calcolo sarebbe massima22.

Tuttavia, esistono innegabili ostacoli alla possibilità di ottenere una perfetta emulazione di una persona umana che preservi anche le sue caratteristiche di autonomia e intenzionalità. Finora, tutte le emulazioni che siamo in grado di creare o di immaginare non solo che banali imitazioni programmate a questo scopo. I robot sociali imitano le emozioni umane, e benché siano stati dimostrati certi effetti positivi nel benessere delle persone assistite da tali sostituiti, è evidente che una tale imitazione programmata non ha nulla a che vedere con un’autentica emulazione. Lungi quindi dall’essere vicini dal creare una nuova specie intelligente, la tecnologia oggi è in grado al più di creare degli homunculus, che nella tradizione alchemica erano immaginati come delle versioni “in miniatura” degli esseri umani, patetiche e inquietanti imitazioni create per essere poste al servizio dei loro creatori. Laddove invece fossimo in grado di ottenere emulazioni autocoscienti, autonome e intenzionali, esse diverrebbero qualcosa di totalmente altro rispetto all’originale che vorrebbero emulare, fino a creare una nuova specie che verosimilmente non avrà alcuna intenzione di ibridarsi con la nostra.

In conclusione, dunque, l’escatologia transumanista è destinata a scontrarsi con il problema dell’emulazione di ciò che più autenticamente definisce la persona umana. Se l’immortalità intramondana promessa dal transumanesimo può essere garantita solo attraverso una fuga nella realtà virtuale del cyberspazio, la simulazione che otterremo sarà inesorabilmente inautentica, perché le emulazioni che vi vivranno non saranno mai davvero vive, ma solo pallide imitazioni, simili a marionette, come tali legate ai loro creatori e animatori per poter funzionare. Il futuro del transumanesimo è dunque un futuro non umano, dove l’intelligenza che sopravvivrà, di natura artificiale, sarà condannata a ripetere in perpetuo una programmazione impostata da programmatori ormai scomparsi, a imitare pensieri e comportamenti di esseri ormai estinti, originali non rimpiazzabili: sarà un’intelligenza posticcia, falsa, che non potrà in alcun caso garantire la nostra sopravvivenza nel tempo. Ciò ci impone, nell’era delle “macchine intelligenti”, di non rassegnarci ad abdicare alla nostra umanità in funzione di una sua supposta replicabilità, auspicata in virtù di un’ugualmente supposta ma indimostrata transizione verso una postumanità perfezionata dall’ibridazione con le macchine. Per usare le parole del biotecnologo e futurologo Stephen Talbott: “Nella misura in cui ci impegniamo più in profondità in un’esistenza mediata dalle macchine, dobbiamo puntare con maggior determinazione verso le ragioni più alte del nostro sé; altrimenti verremo progressivamente spogliati della nostra umanità”23.

Note

1 Cfr. Evgenij Morozov, Silicon Valley. I signori del silicio, Codice, Torino, 2016.

2 Cfr. Richard Barbrook, Andy Cameron, «The Californian Ideology», Science as Culture 6:1 (1996), pp. 44-72; Vincenzo Luise, Le forme dell’innovazione nell’Ideologia californiana, Egea, Milano, 2019.

3 Cfr. Riccardo Campa, «Il culto della singolarità. Com’è nata la religione della tecnoscienza», Orbis Idearum 6:2 (2018), pp. 95-110.

4 Cfr. Ray Kurzweil, The Age of Intelligent Machines, MIT Press, Cambridge (MA), 1990; Ray Kurzweil, La singolarità è vicina, Apogeo, Milano, 2008.

5 Kurzweil, La singolarità è vicina, cit., p. 375.

6 Richard Morgan, Altered Carbon, TEA, Milano, 2018.

7 Andres Sandberg, Nick Bostrom, Whole Brain Emulation: A Roadmap, Technical Report #2008-3, Future of Humanity Institute, Oxford University, 2008, p. 7.

8 Cfr. Ed. Yong, «The Human Brain Project Hasn’t Lived Up to Its Promise», The Atlantic, 22 luglio 2019.

9 Robin Hanson, The Age of Em: Work, Love, and Life When Robots Rule the Earth, Oxford University Press, Oxford, 2016.

10 Cit. in Max Tegmark, Vita 3.0. Essere umani nell’era dell’intelligenza artificiale, Raffaello Cortina, Milano, 2018, p. 245.

11 Yuval Noah Harari, Homo Deus. Breve storia del futuro, Garzanti, Milano, 2018, p. 430.

12 Ivi., p. 449.

13 John Von Neumann, A.W. Burks, Theory of self-reproducing automata, University of Illinois Press, Urbana (IL), 1966.

14 Harari, Homo Deus, cit., p. 465.

15 Nick Bostrom, Superintelligenza. Tendenze, pericoli, strategie, Bollati Boringhieri, Torino, 2018, pp. 89-91.

16 Ivi., p. 246

17 Frank J Tipler, The Physics of Immortalty, Doubleday, New York, pp. 208-209.

18 Paul Dumouchel, Luisa Damiano, Vivere con i robot. Saggio sull’empatia artificiale, Raffaello Cortina, Milano, 2019, p. 38.

19 Alan Turing, «Computing machinery and intelligence», Mind 59 (1950), pp. 433-460.

20 Bostrom, Superintelligenza, cit., p. 303.

21 Dumouchel e Damiano, Vivere con i robot, cit., pp. 32-37.

22 Stanislaw Lem, Summa Technologiae, University of Minnesota Press, Minneapolis (MI), 2013, pp. 300-319.

23 Cit. in Gerd Leonhard, Tecnologia vs umanità. Lo scontro prossimo venturo, Egea, Milano, 2019, p. 119.