Due ricercatori dell’Università della California, a San Diego, hanno sottoposto l’intelligenza artificiale al test di Turing per verificare quanto il chatbot di Open AI sia in grado di pensare come gli umani; il risultato è sorprendente perché ChatGpt-4 è riuscita a ingannare i partecipanti per il 41% delle volte, superando di molti punti ChatGpt-3.5 che ha raggiunto percentuali di successo comprese tra il 5% e il 14%.
Nel dettaglio, i due ricercatori, Cameron Jones e Benjamin Bergen, esperti in scienze cognitive e linguistiche, hanno condotto uno studio confrontando le prestazioni delle versioni 3.5 e 4 di ChatGPT, organizzando conversazioni – secondo il metodo di Turing – tra 650 partecipanti e ChatGPT da un parte ed un umano dall’altra parte.
Il Test di Turing è un test progettato per determinare se una macchina può mostrare un’apparente intelligenza indistinguibile da quella umana, valutando la capacità della macchina di eseguire attività linguistiche e cognitive tali da far credere ad un umano che stia comunicando con un altro essere umano.
Il test consiste in una conversazione tramite un’interfaccia testuale tra un umano, che pone domande, ed una macchina e un altro umano che rispondono a tali domande. Se colui che pone domande non è in grado di distinguere tra le due risposte e scambia regolarmente la macchina per un essere umano, la macchina supera il Test di Turing.
Nel frattempo, in casa Open AI è stato presentato, durante la conferenza Dev Day a San Francisco, Gpt-4 Turbo, l’ultima versione del chatbot. Il mondo ha però gli occhi puntati su un altro prodotto, Gpt-5, che secondo alcune ben informati potrebbe essere ultimato già entro la fine di quest’anno.
Potranno queste nuove versioni riuscire a passare il test di Turing? Quali sarebbero le conseguenze economiche e sociali se realmente ciò accedesse?