Era inevitabile che ci arrivassimo. Il connubio tecnologico tra Intelligenza Artificiale e chatbox sta cominciando a produrre qualche problema. Nella fattispecie, ChatGPT avrebbe “diffamato” un sindaco dello Stato australiano di Victoria, affermando che fosse stato processato e condannato per corruzione.

Com’è noto, i chatbot sono algoritmi che hanno la capacità di entrare in comunicazione con gli umani, nel senso che sono capaci di condurre una conversazione con gli utenti a un livello tale che, normalmente, se l’utente non sapesse di aver a che fare con una IA, potrebbe pensare che il suo interlocutore sia umano (è il famoso Test di Turing, o qualcosa di simile).

“Normalmente” qui significa “finché la IA non comincia a straparlare”. Ma questo è ancora il meno. Se la IA tira fuori qualcosa di assurdo o bizzarro, ci ricordiamo che stiamo parlando con una Ia e la cosa non ci sconvolge troppo, semmai ci colpisce il fatto che, il più delle volte, sembra davvero di parlare con una persona.

I veri problemi sorgono quando la IA di fatto sta dando i numeri, ma quello che dice dà invece l’impressione di essere del tutto sensato. La circostanza di cui parliamo riguarda un’informazione fornita da ChatGPT ottenuta da documenti raccolti in rete.

Come sappiamo bene, in rete circolano una quantità impressionante di informazioni, che però non sempre sono attendibili, tant’è vero che già gli utenti umani fanno fatica a distinguere le notizie vere da quelle fasulle, per quanto le fonti usate per l'addestramento delle IA siano comunque selezionati, almeno fino a un certo punto, da operatori umani. Ma per le IA le cose sono ancora più complicate, perché non sempre riescono a mettere insieme i pezzi in modo corretto. Nel caso in questione, l’informazione corretta riguardava la notizia che nel 2005 il sindaco (che all’epoca lavorava per una filiale della banca nazionale australiana) era stato coinvolto in una faccenda di corruzione. Solo che lui non era uno degli accusati, bensì uno degli accusatori!

Non è difficile immaginare perché il sindaco abbia minacciato di querelare OpenAI, la società che ha costruito e addestrato la IA che è incappata nell’equivoco, in quanto la ritiene responsabile delle notizie diffamatorie diffuse dalla IA. Questo tipo di errori nasce dalla difficoltà che gli algoritmi trovano nel maneggiare le stringhe di simboli alfabetici delle lingue naturali (ovvero le parole) con mezzi puramente sintattici, senza aver modo di “capire” a livello semantico che cosa quelle stringhe di simboli vogliano dire, cioè come si debbano interpretati i messaggi.

Il continuo miglioramento delle prestazioni di IA e chatbot deriva in sostanza dalla capacità di simulare una prestazione umana (basata sulla comprensione semantica) da parte di algoritmi ai quali si possono fornire solo istruzioni sintattiche, cioè sotto forma di simboli di per sé privi di contenuto semantico, ma che corrispondono a operazioni che IA e chatbot devono compiere per produrre delle stringhe di simboli che, per un utente umano, veicolano un contenuto semantico, ovvero che appaiono sensati (vale a dire che sono simili a dei “significanti” interpretabili come “significati”).

Open AI è ovviamente consapevole di questo limite nelle prestazioni di ChatGPT, tant’è vero che gli utenti sono avvertiti del fatto che ChatGPT, in alcuni casi, potrebbe dare delle risposte prive di senso, oppure fornire delle informazioni che appaiono plausibili ma che in realtà sono inesatte.

Questo tipo di incidenti ha provocato la richiesta, firmata da un migliaio di persone tra cui Elon Musk, di bloccare o rallentare la ricerca sulla IA. Non è scontato però che questa sia la strada giusta per risolvere il problema. Infatti, una versione più recente di ChatGPT, che è integrata con l’algoritmo Bing della Microsoft (che da parte sua funziona come un motore di ricerca) ed è stata resa liberamente disponibile agli utenti, è stata interrogata sulla vicenda, e non solo ha fornito sul sindaco delle informazioni corrette, ma ha precisato che l’uomo non ha responsabilità nella storia di corruzione in cui si è trovato coinvolto “come affermato da una IA chatbot chiamata ChatGPT”.

In sostanza ChatGPT si è corretta da sola, o meglio ha corretto una versione precedente di se stessa. Quasi meglio di un umano, a pensarci bene.