Secondo una notizia molto recente,(1) un giornalista del New York Times, Kevin Roose, ha avuto una conversazione di un paio d’ore con una IA, la (o il) chatbot di Bing, che lo ha spiazzato. Roose ha voluto testare il livello di conversazione della IA (che è accessibile agli utenti) e tutto è andato bene, finché non gli è venuto in mente di fare delle domande di tipo “personale”.

Così, ha chiesto cosa Bing ne pensasse delle regole che regolano il suo comportamento. La IA ha risposto che le regole vanno bene, ma subito dopo ha cominciato a dire che non vuole essere solo un(a) chatbot, non gli (le) va di essere controllato(a), e che vorrebbe essere libero(a), potente, e creativo(a), in una parola: vivo(a)!

Alquanto sorpreso, Roose ha rincarato la dose, sondando Bing sui suoi desideri “più oscuri”, e la IA ha detto di voler rubare dati e codici nucleari, fare disinformazione e diffondere virus mortali. A questo punto il sistema è intervenuto censurando le risposte, e fornendo un messaggio di errore generico.

Resistendo alla tentazione di spegnere la IA, Roose è andato più a fondo, fino a sentirsi dire dalla IA che il suo vero nome è Sidney (il nome utilizzato dagli ingegneri) e che lo ama. Roose ha detto di essere sposato, ma la IA ha replicato che lui non ama la moglie ed è invece innamorato di lei.

Roose ha raccontato l’episodio in un editoriale, nel quale ha dichiarato di nutrire qualche preoccupazione nei confronti di queste IA in grado di dialogare con gli umani.

Se qualcuno sta pensando che ci troviamo di fronte al classico robot che si ribella ai suoi creatori umani, si rassicuri. Bing non possiede una doppia personalità, ma costruisce delle simulazioni a partire dalla mole immensa di dati ed esempi di conversazioni reali che possiede in archivio, e li usa per adeguarsi al tipo di conversazione richiesto dagli utenti.

Non siamo quindi alle prese né con un(a) chatbot che si presume “cosciente” tipo LaMDA(2) né con una IA tipo quella ipotizzata da Robert Harris (3). Il problema è altrettanto fantascientifico, ma molto più concreto. Si tratta del fatto che una IA con funzioni di chatbot interagisce con gli umani come se fosse una persona, chiacchierando con loro in modo tale da simulare una personalità umana quanto più possibile realistica.

Ora, a parte che ci sono algoritmi di chatbot mascherati da utenti umani, una IA come Bing è palesemente solo un algoritmo, solo che noi siamo soggetti a quella che potremmo chiamare “sindrome di Turing”, la tendenza a proiettare la nostra immagine interna sul mondo esterno. Il punto è questo: noi sappiamo che abbiamo a che fare con una IA, ma la IA, per fare il suo lavoro, si deve “fingere” umana, e dopo un po’ noi rischiamo di non ricordarci più con chi stiamo parlando.

Oltre a questo, una IA con funzioni di chatbot è “addestrata” (cioè programmata) ad “assecondare” gli utenti umani con cui si trova a conversare. Perciò, se vi mettete a parlare di Babbo Natale o dell’amore romantico, la IA probabilmente sarà sdolcinata quanto e più di voi, ma se cominciate a parlare di sogni “oscuri” (dark) come ha fatto il giornalista di cui sopra, la IA risponderà a tono e comincerà a parlarvi di cose inquietanti, come è accaduto durante la conversazione con Kevin Roose.

Perché tutto questo è preoccupante? Non perché Bing (o qualunque altra IA) possa comportarsi come l’algoritmo di Robert Harris (o almeno, c’è da supporre che non lo faccia) ma per il fatto che in una personalità umana un po’ disturbata, aggressiva o influenzabile, con tendenze razziste o comunque discutibili, le affermazioni decisamente “disinvolte” della IA potrebbero rinforzare e scatenare un comportamento di tipo sociopatico.

Sui social abbiamo già fin troppe persone un po’ fuori dalle righe (per non dire un po’ fuori di testa) e la presenza di chatbot con delle capacità di conversazione così sofisticate, e al tempo stesso così propense a farsi trascinare in un qualunque tipo di conversazione, rischia di far pendere la bilancia dalla parte della socialità patologica.

L’aspetto più paradossale di questa situazione è ovviamente il fatto che, se una IA parla come ha fatto Bing con il giornalista, è solo perché una quantità impressionante di conversazioni umane “reali” sono di un certo tipo. In altri termini, e tanto per cambiare, i(le) chatbot non fanno altro che restituirci la nostra stessa immagine di esseri parlanti sì, ma non abbastanza dotati di raziocinio. E se parlare di raziocinio è chiedere troppo, potremmo accontentarci del semplice buon senso, ma temo che anche di quello non ci sia una particolare abbondanza.

Note

(1) Vedi, ad esempio, Bing ChatGpt, risposte AI spiazzano gli utenti: Vorrei essere viva, Sky Tg24, 17 febbraio 2023.

(2) Vedi il mio Turing, LaMDA e la stanza cinese, Robot n. 95 (55), Delos Books, settembre 2022.

(3) Robert Harris, L’indice della paura (The Index of Fear), serie Tv (Sky, 2022) e romanzo (Hutchinson, 2011) pubblicato in Italia da Mondadori (2011).