Per chi crede nell’intelligenza artificiale generale o AGI (artificial general intelligence), ovvero la possibilità che l’AI acquisisca capacità tali da renderla pari o superiore agli esseri umani, e che un giorno l’umanità si sveglierà e troverà ad attenderla un’intelligenza cosciente, capace di comprendere situazioni e problemi come e meglio degli umani.

C’è chi pensa che a questo punto quella che seguirà sarà la cosiddetta esplosione di intelligenza, dove l’AGI si riprogrammerà e migliorerà continuamente, aumentando di intelligenza a ritmi esponenziali, diventando in pochi giorni o poche ore l’essere più intelligente del pianeta. La sua incessante corsa all’auto-miglioramento potrebbe renderla un nostro competitor per le risorse naturali, con noi umani che assumeremmo presto la condizione di esseri meno intelligenti, di conseguenza meno utili, facilmente raggirabili, sacrificabili.

Ma non per cattiveria: semplicemente perché potremmo trovarci sulla strada di qualsivoglia progetto si sia messa in testa la superintelligenza. Del resto anche noi non ci facciamo molte remore a distruggere interi formicai se questi si trovano proprio nel punto dove dobbiamo costruire una casa.

Alla base di molte iniziative sull’etica dell’AI c’è questa consapevolezza, che con le conquiste di oggi inizia a uscire dagli armadi della fantascienza e ad assumere connotazioni sempre più realistiche.

Come fare per evitare la sorpresa di trovarci con una superintelligenza fatta e finita? Oren Etzioni, CEO dell’Allen Institute for Artificial Intelligence, ha proposto l’idea dei “canarini“: così come nelle miniere si usavano i canarini per accorgersi delle fughe di gas letale (il canarino che moriva era segno che i minatori dovevano fuggire alla svelta) noi possiamo considerare determinate conquiste dell’AI come segnali di un ulteriore passo verso l’AGI.

Uno dei primi canarini è rappresentato dalla formulazione automatica di problemi di apprendimento. Oggi l’AI risponde a problemi formulati dall’uomo con estrema capacità e accuratezza, ma è molto lontana dall’auto-assegnarsi problemi da risolvere così come potrebbe fare un essere umano.

Per Etzioni le auto a guida autonoma sono il secondo canarino. L’interazione con conducenti umani, pedoni, eventi imprevedibili rende il compito di guidare un’auto autonoma con efficacia e senza incidenti estremamente arduo per gli algoritmi di oggi, malgrado i proclami di certi imprenditori. Quando arriveranno le auto a guida autonoma che guideranno davvero come e meglio degli esseri umani, anche questo canarino sarà vinto. (Se un giorno Etzioni dovesse trovarsi a Roma lo porterò volentieri in giro per la mia città, illustrandogli come sviluppare un software che guidi meglio del romano medio sia un compito tutt’altro che arduo)

I dottori-AI sono il terzo canarino. Chi è medico sa bene come la professione richieda una moltitudine di competenze anche molto diverse fra loro, come ascoltare (e comprendere) i pazienti, lavorare con altri medici, prendere in considerazione fattori non presenti in letteratura, generalizzare, mettere insieme causa ed effetto, rispondere alle complicazioni, assicurarsi che i pazienti facciano quanto prescritto, prendere in considerazione i fattori familiari e innumerevoli altre. Quando un’intelligenza artificiale sarà veramente in grado di farsi carico di tutti i compiti, le analisi e le decisioni che competono a un medico umano, allora si potrà dire che l’AGI è più vicina.

Andrew Ng, citato da Etzioni, ha detto che preoccuparsi dell’AI che diventa malvagia è un po’ come preoccuparsi della sovrappopolazione su Marte. È probabilmente vero, ma è anche vero che se la superintelligenza artificiale sarà un problema dei nostri figli o dei nostri nipoti, visto l’elevato rischio esistenziale sarebbe comunque utile iniziare a pensarci oggi.

Potete leggere l’articolo completo di Oren Etzioni qui: How to know if artificial intelligence is about to destroy civilization.