
Ho appena letto un articolo scritto da una IA [1] che parla della sua esperienza di essere una IA alla quale è stato chiesto di scrivere degli articoli. Il tono è leggero e il testo somiglia al resoconto di un apprendista che sta imparando il mestiere e ne è orgoglioso. Ma perché ho scritto “somiglia”, dato che la IA è davvero in fase di apprendistato? Il fatto è che la IA racconta un’esperienza di tipo umano, accompagnata dall’emozione, mentre una IA di emozioni non ne può avere.
Perché allora la IA cerca di farsi passare per umana? Attenzione: la IA dice chiaramente di essere una IA, dunque non cerca di farsi passare per umana, ma imita il modo di scrivere di un apprendista umano, e si tratta di una buona imitazione. Pur supponendo che sia intervenuto un editing da parte di un umano, il risultato è comunque convincente. Ma convincente rispetto a cosa?
Quel che noi vogliamo sapere non è se una IA ci somiglia, ma se può vantare delle prestazioni (in particolare cognitive) simili alle nostre. Qui però si situa un impiccio, perché il famigerato test di Turing (ideato da Alan Turing nel 1950) non è semplicemente un modo per verificare le prestazioni di una IA, ma è anche la tesi che la similarità (eventuale) delle prestazioni cognitive di una IA rispetto agli umani equivarrebbe a una similarità tout court tra umani e IA (perché non siamo telepatici e giudichiamo dall’esterno).
Questo può essere un problema sotto vari aspetti. Per prima cosa, la similarità delle prestazioni tra umani e IA comporta la possibilità che le IA ci portino via il lavoro. In secondo luogo, se una IA non è distinguibile da un umano noi possiamo essere tratti in inganno, nel momento in cui la IA non dichiarasse di esserlo. In che senso questo è problematico? In più di uno.
Una IA può essere usata per diffondere false notizie, sia sotto forma di testi, sia sotto forma di video o documenti fotografici del tutto fasulli. Naturalmente, non sono le IA in quanto tali a ingannarci, ma gli umani che le utilizzano in maniera fraudolenta. Per le possibili vittime, tuttavia, non fa alcuna differenza. Noi diffidiamo sia delle armi sia di chi le usa.
Ma ci sono questioni più sottili. Se ci capita di chiacchierare con una IA che sembra umana, e che non dichiara di essere una IA, quel che ci disturba profondamente, nello scoprire che ci siamo sbagliati, è la mancata corrispondenza tra la credenza e la verità. L’esperienza è simile a quella che possiamo provare se flirtiamo online con una donna, per poi scoprire che è un uomo (o con un uomo, per poi scoprire che è una donna).
Facciamo un altro esempio, e supponiamo di essere usciti un paio di volte con qualcuno che dice di essere un attore (o un’attrice) e poi viene fuori (in ipotesi) che vende assicurazioni. Non c’è nulla di male, sia chiaro, nel vendere assicurazioni, si tratta solo della discrepanza tra le dichiarazioni e la realtà.
Potrebbe sembrare soprendente il fatto che noi siamo così affezionati alla verità, quando invece accettiamo senza problemi (in base alle nostre preferenze) le panzane che vengono fuori tutti i giorni dai mezzi di comunicazione di massa, ivi compresi i social (e non dimentichiamo che alcune di queste panzane vengono diffuse da algoritmi). La differenza è che in questo secondo caso le questioni non ci riguardano da vicino, e si tratta solo di scegliere un’opinione al posto di un’altra.
Ma c’è di più. Se, ad esempio, una fotografia artistica vince un premio per la miglior foto di una mostra a soggetto, e poi si scopre che è stata prodotta da una IA, noi ci sentiamo gabbati e persino offesi. Il problema qui è la difficoltà di ammettere o che una IA possa creare vera arte, o che noi non siamo semplicemente in grado di distinguere l’arte vera da quella fasulla.

Tornando al test di Turing, è da ricordare che il superamento del test da parte di una IA è di fatto legato alla sua capacità di non farci capire se sia umana oppure no. Si tratta di una capacità di simulazione che non è distinguibile da un inganno. È dunque questo che ci disturba? Per capirne di più, proviamo a rivolverci a due fonti fantascientifiche particolarmente significative.
La prima (in ordine di tempo) è il romanzo di Isaac Asimov Abissi d’acciaio [2] nel quale gli esseri umani si dividono in due gruppi: quelli che hanno raggiunto le stelle (gli spaziali) e quelli che sono rimasti sulla Terra e vivono in città sotterranee. I primi usano i robot per fare qualunque lavoro, mentre i secondi tengono i robot in posizione subordinata, per paura di essere soppiantati.
I robot costruiti dagli spaziali sono in realtà degli androidi indistinguibili dagli umani, mentre i robot dei terrestri sono riconoscibili come robot. I due protagonisti del romanzo sono il detective Elija Baley e il robot R. Daneel Olivaw. Quando quest’ultimo chiede a Baley perché i robot dei terrestri siano così brutti, il detective risponde che potrebbero essere costruiti meglio, ma che loro preferiscono sapere se quello che hanno di fronte è un umano o un robot.
L’altra fonte è il romanzo di Philip Dick Il cacciatore di androidi [3] nel quale la presenza di androidi indistinguibili richiede l’utilizzo di un test (detto di Voigt-Kampff) che serve a stabilire se un individuo è un umano o un replicante. Dal momento che gli androidi hanno prestazioni simili a quelle umane, il test Voigt-Kampff non può essere come quello di Turing.
Già ora, le IA hanno prestazioni cognitive simili (o superiori) alle nostre, quindi noi stessi dobbiamo usare varianti modificate del test di Turing, ma il test immaginato da Dick segue una linea del tutto diversa. Poiché la IA è caratterizzata da un’assenza di emozioni, il test di Voigt-Kampff è in effetti un test di tipo emotivo, che serve a stabilire se il soggetto abbia attitudini empatiche, oppure no.
La questione è complessa, perché una IA che parla può mostrare delle doti empatiche senza sentirle, se è addestrata a farlo. Ed eccoci ancora di fronte alla possibilità dell’inganno. Come si va oltre? Pensiamo di nuovo all’esempio della fotografia artistica. Se stabiliamo che una foto è la più bella di una mostra, non ha importanza se sia stata prodotta da una IA, perché di fatto essa è stata creata “per mezzo di” una IA, come un quadro si dipinge con pennelli e colori, e una fotografia qualsiasi si fa con una macchina fotografica.
Quanto alle emozioni, il punto è che noi non possiamo provare le emozionio degli altri, possiamo sentire solo le nostre. Perciò non serve che ci affanniamo a chiedere agli altri se un’emozione dichiarata sia “reale” oppure no. Conta la nostra risposta a essa, e la nostra risposta non deriva direttamente dall’emozione dell’altro, ma dai suoi atteggiamenti. Siamo noi a rendere vera o falsa la sua emozione, come siamo noi a stabilire se una certa fotografia abbia valore artistico oppure no.
Questo sembrerà discutibile, ma l’immagine di un tramonto ci può commuovere quanto un tramonto visto dal vero. Fa differenza se l’immagine è una fotografia, o la ricostruzione di una IA? I dati percettivi hanno di certo rilievo, ma gli effetti della percezione dipendono dalla nostra risposta.
Se cadiamo a terra e chi ci tira su è un robot, anziché un umano, il suo gesto è per questo meno cortese? Lui lo fa perché è programmato, si dirà, ma anche noi siamo “programmati” a essere gentili, se siamo ben educati. E se chi ci cura è un infermiere, e chi ci serve è un cameriere, l’atto ha forse meno valore perché è il loro lavoro? No, ciò che conta è la maniera in cui lo fanno. Così, la cortesia di una IA dipenderà da quella dei suoi programmatori, e quella degli umani siamo sempre noi a giudicarla. Il test di Turing, per un umano, non può che essere un altro umano.
Note
[1] “Non ci siamo mai divertiti così tanto scrivendo con un algoritmo”, Il Foglio Ai, 11 aprile 2025.
[2] Isaac Asimov, “The Caves of Steel”, Galaxy, 1953 (tre puntate), Doubleday, 1954.
[3] Philip K. Dick, “Do Androids Dream of Electric Sheep?”, Doubleday, 1968.
Aggiungi un commento
Fai login per commentare
Login DelosID