Una macchina è in grado di pensare? Già questa è una bella domanda, ma ce n'è un'altra ancora migliore: come facciamo a capirlo? Già. Perché una macchina può per esempio giocare a scacchi, ma questo non è pensare, è solo calcolare. Nel 1950 il geniale matematico britannico Alan Turing formulò un criterio, basato su idee in realtà che circolavano già dai tempi di Cartesio, e su un gioco che consisteva nel cercare di indovinare quale, tra due interlocutori nascosti, fosse l'uomo e quale la donna. Il test di Turing richiedeva che una persona conversasse via tastiera con due interlocutori nascosti finché non gli fosse stato chiaro chi era umano e chi era il computer.
Le news di oggi riportano la notizia che per la prima volta il test è stato superato da un programma scritto da due russi e un ucraino, Vladimir Veselov, Eugene Demchenko e Sergey Ulasen. Il programma di chiama Eugene Goostman, finga di essere un tredicenne ucraino e in realtà è in circolazione dal 2001. Esiste anche una versione web col la quale in teoria si potrebbe chiacchierare in qualunque momento all'indirizzo www.princetonai.com/bot/bot.jsp se non fosse che, probabilmente per la popolarità raggiunta in questi giorni, il sito sembra non rispondere.
La stampa britannica ci va a nozza perché l'esperimento si è svolto alla Royal Society di Londra; Eugene ha convinto un terzo dei giudici di essere umano, e il test è stato quindi considerato superato.
Al di là dei proclami della stampa, bisogna però notare innanzitutto che non è proprio vero che il test è stato superato per la prima volta. Anzi, il test è stato perfezionato più volte proprio perché più volte era stato superato da programmi che chiaramente non erano intelligenti, a partire dal famoso "Eliza", una versione del quale girava anche sul vecchio Commodore 64. Si tratta, come del resto nel caso di Eugene Goostman, di programmi pensati per simulare una conversazione.
Nel tempo questo tipo di programmi sono stati utilizzati anche a scopi di frode, dimostrando nella pratica la difficoltà per gli esseri umani di riconoscerli come software.
Altri programmi hanno superato test simili con trucchetti banali come inserire errori di battitura, portando l'interlocutore a dedurre che solo un essere umano avrebbe avuto questo problema.
Quella del 7 giugno è stata la prima competizione organizzata con tutti i crismi, senza limitazioni di alcun tipo poste alle conversazioni, e senza alcuna preparazione dei software sugli argomenti discussi. Tra i tester c'era anche Robert Llewellyn, attore britannico noto per la parte di un androide nel telefilm Red Dwarf.
Dunque Eugene Goostman è davvero in grado di pensare o è solo molto bravo a imitare? Vi lasciamo con questa domanda. Noi invece restiamo con quella che ci siamo sempre posti: ma a parte i computer, quanti esseri umani sarebbero in grado di superare il test di Turing dimostrando di essere pensanti?
35 commenti
Aggiungi un commentoMagari la singola ape è ancora un po' limitata, però se pigli l'alveare intero eh...
Comunque, purchè si discuta dell'intelligenza e delle sue molteplici sfaccettature, benvengano anche gli esperimenti farlocchi nonché i titoloni trionfalistici e vagamente forvianti.
Quando poi si parla di "raffinato programma scacchistico", ricordo ancora i primi tentativi di HAL+1 con Deep Blue vs Kasparov, con la successiva querelle sugli aiutini umani alla macchina stessa...
alla fine dei conti sempre di macchine da noi create si tratta, la speranza è che abbiano un po' di riconoscenza
@ Paolocosmico: Il test vuole misurare la capacità di un'intelligenza artificiale di imitare un'intelligenza umana. Trasformando la domanda "può una macchina pensare?" in "siamo in grado di distinguere tra una conversazione con un essere umano e quella con un'intelligenza artificiale?".
Chi si sottopone all'esperimento può sbagliare in un verso (falso negativo) ma, per paura di riconoscere umana una macchina, anche nell'altro (falso positivo). La convalida dovrebbe tenere conto di entrambi i fattori, e ovviamente l'esperimento andrebbe ripetuto.
Si può dibattere ovviamente se sia o meno una prova conclusiva di qualche genere, ma non vedo nessun motivo, in termini statistici, per cui l'esperimento non possa ambire a una validità scientifica, in relazione almeno alla nostra capacità di distinguere un'intelligenza umana da una artificiale.
Un'intelligenza artificiale come la definisci al limite potrebbe formulare frasi sensate, questo sì, ed essere indistinguibile da qualcuno che cerca di sviare l'argomento ogni volta o ricorrere a qualche altro mezzuccio (un ragazzo ucraino che parla male l'inglese) - beh in realtà al momento neanche in questo.
È possibile che la risposta a una prima domanda sia sensata e in argomento, se l'AI è abbastanza sofisticata da riconoscere almeno l'argomento della discussione e pesca una risposta di circostanza in argomento. Però sostenere una discussione presuppone un buon livello di comprensione dell'intervento del proprio interlocutore e la capacità di formulare una risposta che tenga conto sia della domanda che del contesto dell'intera discussione, sfida che diventa più impegnativa a ogni nuovo intervento.
Ancora più se l'interlocutore sa di star effettuando un simile test e pone delle domande allo scopo di capire con chi sta comunicando. Anzi forse per questo aspetto il test è anche più difficile del "necessario".
Ho trovato questo paper interessante a proposito di Turing e del suo test.
L'ho trovato molto interessante, anche relativamente all'importanza di questo Test - mi pare che ne diano molta di più i suoi lettori che Turing stesso.
http://www.gmu.edu/centers/publicchoice/faculty%20pages/Tyler/turingfinal.pdf
Però mi pare che manchi proprio una definizione di "intelligente". Anche il verbo "capire" ossia "intelligere" è abbastanza, troppo sfumato. Cosa significa "intelligere" ?
Mi chiedo anche se l'autocoscienza non sia in fondo un requisito fondamentale per "intelligere" e dunque per "essere intelligenti"...
infatti, sono parole, non definizioni scientifiche, al massimo filosofiche; del resto anche la tanto sbandierata autocoscienza è una illusione: l'io ha più che altro la funzione di semaforo sulle istanze che vengono presentate dal substrato biologico attraverso emozioni e propriocezioni.
Adesso si spiega tutto, dietro questa bufala c'era Kevin Warwick, noto anche come "Captain Cyborg".
Attivissimo è stato fin troppo buono a definirlo come
"noto per le sue dichiarazioni roboanti e del tutto prive di fondamento scientifico".
Qui c'e' un riassuntino breve breve sul tipo:
http://www.theregister.co.uk/2014/06/10/world_to_captain_cyborg_youre_rumbled/
Aggiungi un commento
Fai login per commentare
Login DelosID