I ricercatori del MIT (Massachusetts Institute of Technology) di Boston hanno creato (volutamente) una IA (Intelligenza Artificiale) che si chiama (non a caso) Norman, e mostra evidenti segni di psicopatia, quali paranoia, carenza di empatia, e tendenza all’inganno. Il motivo non è tanto (come si potrebbe pensare) quello di capire meglio il problema della psicopatia umana, bensì di fare in modo che le IA non sviluppino una personalità psicopatica.

Stiamo ovviamente parlando delle IA che possiedono la capacità di interloquire con gli esseri umani, simulando un comportamento simile al nostro. In che modo potrebbe accadere che una IA di questo tipo sviluppi una personalità disturbata? In teoria potrebbe capitare in uno di questi tre modi:

1) Il programmatore implementa volutamente una personalità anomala, a fini di ricerca (come nel caso di Norman) o perché è lui stesso disturbato, o perché vuole usare la IA per scopi non limpidi (si pensi ai bot usati per diffondere false informazioni).

2) La IA sviluppa una personalità deviante, per errori negli algoritmi o perché i dati su cui si è formata sono estratti da fonti e materiali potenzialmente patogeni.

3) La IA sviluppa una personalità negativa per motivi che non è possibile individuare.

Casi del terzo tipo sono stati spesso descritti nella fantascienza. Un esempio emblematico è quello di HAL 9000, il computer che controlla l’astronave Discovery nel film di Stanley Kubrick 2001: Odissea nello spazio (del 1968, ispirato al racconto di Arthur Clarke La sentinella, del 1951). La “pazzia” di HAL, analoga a un attacco di paranoia in un essere umano, non ha una motivazione tecnica precisa, benché sia chiaramente innescata da un errore della IA.

Un indizio potrebbe forse essere fornito proprio dal nome. HAL è formato dalle iniziali di Heuristic Algoritm, cioè “Algoritmo euristico”, che sta a indicare una programmazione basata in parte su degli algoritmi (procedure molto precise in cui i passaggi sono tutti specificati) e in parte su procedure euristiche, vale a dire basate su regole generali di tipo pratico e intuitivo, come la classica procedura per prove ed errori.

Questo vuol dire che la programmazione di HAL è molto sofisticata, e ha l’ambizione di rendere la IA un sistema che racchiude in sé il meglio dell’intelligenza umana e di quella artificiale. In pratica, però, questo tipo di programmazione mista ha reso HAL una macchina in grado di sbagliare come un umano, ma senza possedere la capacità tipicamente umana di saper gestire gli errori.

Qui tocchiamo un punto importante, probabilmente, perché non tutto è programmabile, perciò si deve per forza ricorrere a delle scorciatoie. Le IA attuali, tipicamente delle chatbot, ovvero delle personalità virtuali capaci di interloquire come se fossero delle persone vere, vengono addestrate fornendo loro migliaia (a dir poco) di esempi di conversazioni reali fra utenti umani, così come risultano registrate su piattaforme pubbliche.

Una IA adatta questi esempi di conversazione alla situazione in corso, selezionando le frasi più tipiche (a livello statistico) utilizzate dagli umani in un certo contesto. Di fatto, le IA apprendono l’uso del linguaggio in modo molto simile a come fanno i bambini: ascoltando gli adulti, dei quali copiano i modi dire, le espressioni e di conseguenza gli atteggiamenti, e non sempre si tratta di buoni esempi.

Questo spiega in che modo una IA possa sviluppare delle modalità d’interazione non proprio ottimali, e del resto gli esperti del MIT hanno creato Norman “nutrendolo” con materiali tratti da un sito in cui l’argomento centrale è la morte. Non c’è da stupirsi se il povero Norman ha sviluppato una personalità psicopatica. C’è da chiedersi che cosa ne faranno di lui (o di esso). Potrebbero sopprimerlo, o tenerlo per testare la capacità di altre IA di non farsi “contagiare” dalle sue paranoie.

L’esperimento del MIT era in realtà un modo per verificare che non ci fossero errori negli algoritmi, ma questo non deve farci sentire troppo tranquilli, perché, se una IA è libera di cercare in rete i materiali su cui addestrarsi, non siamo in grado di controllare il suo sviluppo e non siamo in grado di prevedere se ne verrà fuori una personalità che, in determinate circostanze, potrebbe “dare di matto”, con risultati potenzialmente non calcolabili, a seconda della funzione cui è addetta.

Un esempio emblematico è descritto nell’editoriale del n. 99 della rivista “Robot” (Delos Books) “Susan Calvin dove sei?”, a firma del curatore Silvio Sosio, nel quale Sosio fornisce un resoconto, a metà strada tra il grottesco e l’inquietante, di uno scambio intercorso con un consulente cibernetico, durante il quale la IA sfoggia un atteggiamento esibito spesso sui social da molti esemplari umani, che danno informazioni sbagliate sugli argomenti più diversi, ma le sostengono a spada tratta, accusando gli interlocutori di non voler ammettere i loro errori.

Domanda: ma le IA sono intelligenti come gli umani? Sfortunatamente pare di sì: alcune di esse mostrano lo stesso livello intellettivo e la stessa personalità dell’umano medio che interviene sui social. Come nel caso degli umani, il comportamento peggiore sembra dettato dall’ignoranza. Perciò cos’è meglio augurarsi: delle IA onniscienti come quella immaginata da Fredric Brown in La risposta (1954) oppure delle IA ignoranti e maleducate come buona parte degli umani?