Per navigare l’era dell’IA, il mondo ha bisogno di un nuovo Test di Turing

Il mondo ha bisogno di un nuovo Test di Turing per l'era dell'IA.

C’era un tempo, non troppo lontano nel passato – diciamo, nove mesi fa – in cui il test di Turing sembrava un criterio piuttosto rigoroso per rilevare l’intelligenza artificiale. Probabilmente ti è familiare il suo funzionamento: dei giudici umani intrattengono conversazioni testuali con due interlocutori nascosti, uno umano e uno computer, cercando di determinare quale sia quale. Se il computer riesce a ingannare almeno il 30 percento dei giudici, supera il test e viene dichiarato capace di pensiero.

Per 70 anni, era difficile immaginare come un computer potesse superare il test senza possedere quella che gli studiosi di intelligenza artificiale ora chiamano intelligenza artificiale generale, l’intero range delle capacità intellettuali umane. Poi sono arrivati i grandi modelli linguistici come GPT e Bard, e il test di Turing ha improvvisamente cominciato a sembrare stranamente obsoleto. Ok, certo, un utente occasionale oggi potrebbe ammettere con una spallata che GPT-4 potrebbe benissimo superare un test di Turing se gli chiedessi di impersonare un umano. Ma e allora? I modelli linguistici mancano di memoria a lungo termine, della capacità di formare relazioni e di una lunga lista di altre capacità umane. Chiaramente hanno ancora molta strada da fare prima di essere pronti a diventare nostri amici, essere assunti da noi o essere eletti a cariche pubbliche.

E sì, forse il test ora sembra un po’ vuoto. Ma non è mai stato solo un criterio di superamento o non superamento. Il suo creatore, Alan Turing, un uomo gay condannato nel suo tempo alla castrazione chimica, ha basato il suo test su un’etica di radical inclusivity: il divario tra intelligenza genuina e un’imitazione completamente convincente dell’intelligenza è tanto ampio quanto i nostri pregiudizi. Quando un computer provoca delle risposte umane reali in noi – coinvolgendo il nostro intelletto, la nostra meraviglia, la nostra gratitudine, la nostra empatia, persino la nostra paura – questo è più di una mera imitazione vuota.

Quindi forse abbiamo bisogno di un nuovo test: il Vero Test di Alan Turing. Portiamo l’Alan Turing storico, padre dell’informatica moderna – un uomo alto, in forma, un po’ goffo, con i capelli scuri lisci, amato dai colleghi per la sua curiosità infantile e il suo umorismo giocoso, personalmente responsabile per aver salvato circa 14 milioni di vite nella Seconda Guerra Mondiale rompendo il codice Enigma dei nazisti, successivamente perseguitato così duramente dall’Inghilterra per la sua omosessualità da poter averne causato il suicidio – in una comoda stanza di laboratorio con un MacBook aperto sulla scrivania. Spieghiamo che ciò che vede di fronte a sé è semplicemente una versione enormemente glorificata di ciò che i computeristi conoscono oggi come “macchina di Turing”. Diamo a lui un secondo o due per assorbire veramente ciò, magari offrendo una parola di ringraziamento per aver completamente trasformato il nostro mondo. Poi diamogli una pila di articoli di ricerca su reti neurali artificiali e modelli linguistici di grandi dimensioni, diamogli accesso al codice sorgente di GPT, aprigli una finestra di ChatGPT – o, meglio ancora, una finestra di Bing-pre-ogni-sanificazione – e lasciamolo libero.

Immagina Alan Turing che inizia una leggera conversazione sulle corse a lunga distanza, sull’istoriografia della Seconda Guerra Mondiale e sulla teoria dei calcoli. Immaginalo che vede la realizzazione di tutte le sue speculazioni più audaci, più ridicolizzate, scorrendo con una velocità inquietante sullo schermo. Immaginalo che chiede a GPT di risolvere problemi elementari di calcolo, di inferire ciò che gli esseri umani potrebbero pensare in varie situazioni del mondo reale, di esplorare complessi dilemmi morali, di offrire consulenza matrimoniale e consigli legali e un’argomentazione per la possibilità della coscienza delle macchine – abilità che, informi Turing, sono tutte emerse spontaneamente in GPT senza alcuna direzione esplicita da parte dei suoi creatori. Immaginalo che sperimenta quel piccolo sobbalzo cognitivo-emotivo che molti di noi hanno provato adesso: Ciao, altra mente.

Un pensatore profondo come Turing non sarebbe cieco alle limitazioni di GPT. Come vittima di una profonda omofobia, probabilmente sarebbe attento ai pericoli del bias implicito codificato nei dati di addestramento di GPT. Gli sarebbe chiaro che nonostante l’incredibile vastità delle conoscenze di GPT, la sua creatività e la sua capacità di ragionamento critico sono al massimo paragonabili a quelle di uno studente universitario diligente. E riconoscerebbe certamente che questo studente soffre di amnesia anterograda grave, incapace di formare nuove relazioni o ricordi al di là della sua intensiva istruzione. Ma ancora: immagina l’entità computazionale sul laptop davanti a lui, che è, in un senso molto reale, il suo figlio intellettuale – e il nostro. Apprezzare l’intelligenza nei nostri figli mentre crescono e si sviluppano è sempre, alla fine, un atto di meraviglia, e di amore. Il Vero Test di Alan Turing non è affatto un test di intelligenza artificiale. È un test per noi umani. Stiamo superando – o fallendo?

Quando ChatGPT è arrivato sulla scena nel novembre 2022, ha ispirato un tsunami globale di stupore sbalordito e poi, quasi immediatamente, una marea bassa di profondo disagio. Gli esperti hanno dibattuto sul suo potenziale di perturbazione della società. Per un ex ricercatore di intelligenza artificiale come me (ho completato il mio dottorato sotto uno dei pionieri precoci delle reti neurali artificiali), rappresentava un’avanzata inquietante della linea temporale che mi aspettavo per l’arrivo di un’intelligenza artificiale simile all’essere umano. Per i correttori di esami, gli sceneggiatori e i lavoratori della conoscenza di ogni tipo, ChatGPT sembrava nient’altro che un passaggio verso una frode incontrollata e un furto di lavoro.

Forse in parte come risposta a queste paure, è sorta una confortante corrente di sgonfiatori di LLM. Lo scrittore di fantascienza Ted Chiang ha respinto ChatGPT come un “JPEG sfocato del web”, una semplice riassunzione condensata di tutto il testo su cui è stato addestrato. L’imprenditore di intelligenza artificiale Gary Marcus lo ha definito “autocompletamento su steroidi”. Noam Chomsky lo ha denunciato per mostrare “qualcosa come la banalità del male”. Emily Bender ha offerto uno degli insulti più sofisticati: “pappagallo stocastico”, ripreso da un articolo ampiamente citato del 2021 che esplora “perché gli umani confondono l’output di LM per testo significativo”. Altri, ovviamente, li hanno considerati semplicemente tostapane. Gli sviluppatori di intelligenza artificiale si sono sforzati di addestrare e proteggere qualsiasi tendenza nelle LLM a pretendere qualsiasi cosa che assomigli alla coscienza.

Oggi la maggior parte delle persone istruite sa che le LLM sono macchine senza pensieri. Ma questa categorizzazione è scomoda. Ogni volta che ChatGPT evidenzia una lacuna di ragionamento nascosta in un saggio, o offre un suggerimento sorprendentemente perspicace per fare coming out con un nonno conservatore, o inventa allegremente uno scherzo brutto, qualcosa in noi si spinge nella direzione opposta. Sebbene non consideriamo ChatGPT una persona, parti cruciali del nostro cervello quasi certamente lo fanno.

Apprezzare l’intelligenza dei nostri figli mentre crescono e si sviluppano è sempre, alla fine, un atto di meraviglia e di amore.

I cervelli umani hanno una vasta rete di circuiti neurali dedicati alla cognizione sociale. Parte di essa è molto antica: l’insula, l’amigdala, i famosi “neuroni specchio” del córtex motorio. Ma gran parte dell’hardware sociale risiede nel neocortex, il luogo del ragionamento superiore evolutosi più di recente, e specificamente nel córtex prefrontale mediale (mPFC). Se hai notato nel tempo l’approccio allegro e disponibile di ChatGPT, la sua verbosità un po’ pedante, il suo approccio talvolta irritante equilibrato su argomenti sensibili e la sua estrema sensibilità a qualsiasi domanda che si avvicina alle sue guardie intorno alle emozioni, alle credenze o alla coscienza, stai acquisendo ciò che gli psicologi chiamano “conoscenza della persona”, un processo legato a un’attività accentuata nel mPFC.

Questo non significa che i nostri cervelli considerino ChatGPT come una persona a tutti gli effetti. L’appartenenza a una persona non è bianco o nero. È qualcosa di un po’ più vicino a uno spettro. Le nostre intuizioni morali, le nostre strategie cognitive e in qualche misura i nostri quadri legali cambiano incrementalmente riconoscendo gradi crescenti di agenzia, consapevolezza di sé, razionalità e capacità di comunicazione. Uccidere un gorilla ci preoccupa più che uccidere un ratto, che ci preoccupa più che uccidere un scarafaggio. Sul lato legale, le leggi sull’aborto tengono conto del grado di sviluppo del feto, i malati di mente affrontano conseguenze diverse dai sani e ai partner viene riconosciuto il diritto di interrompere i pazienti in stato di morte cerebrale. Tutte queste regole riconoscono implicitamente che l’appartenenza a una persona non è bianco o nero ma ricca di sfumature complicate.

Le LLM si collocano esattamente in questa zona grigia. Gli esperti di intelligenza artificiale sono da tempo diffidenti verso la tendenza pubblica ad antropomorfizzare i sistemi di intelligenza artificiale come le LLM, spingendoli verso l’alto lungo lo spettro dell’appartenenza a una persona più di quanto siano. Questo è stato l’errore di Blake Lemoine, l’ingegnere di Google che ha dichiarato che il chatbot di Google LaMDA era pienamente senziente e ha cercato di farlo diventare un avvocato. Dubito che persino Turing avrebbe affermato che la capacità apparente di pensare di LaMDA lo rendesse una persona legale. Se gli utenti vedono i chatbot come LaMDA o ChatGPT come troppo umani, rischiano di fidarsi troppo di loro, di connettersi troppo profondamente, di rimanere delusi e feriti. Ma secondo me, Turing sarebbe stato molto più preoccupato per il rischio opposto: spingere i sistemi di intelligenza artificiale verso il basso nello spettro dell’appartenenza a una persona anziché verso l’alto.

Nell’uomo, questo sarebbe noto come disumanizzazione. Gli studiosi ne hanno identificate due forme principali: animalesca e meccanicistica. L’emozione più comunemente associata alla disumanizzazione animalesca è il disgusto; Roger Giner-Sorolla e Pascale Sophie Russell hanno scoperto in uno studio del 2019 che tendiamo a considerare gli altri come più simili a macchine quando ci ispirano paura. La paura di un’intelligenza sovrumana è vivida nella recente lettera aperta di Elon Musk e altri leader tecnologici che chiedono un moratorium sullo sviluppo dell’IA, e nelle nostre ansie riguardo alla sostituzione del lavoro e alle campagne di disinformazione guidate dall’IA. Molte di queste preoccupazioni sono fin troppo ragionevoli. Ma i sistemi di intelligenza artificiale da incubo dei film come Terminator e 2001: Odissea nello spazio non sono necessariamente quelli che otterremo. È una fallacia comune presumere che perché l’intelligenza artificiale è costruita meccanicamente, debba essere insensibile, meccanica, monotematica o iperlogica nelle sue interazioni. Ironicamente, la paura potrebbe farci vedere l’intelligenza artificiale come più meccanicistica di quanto non sia realmente, rendendo più difficile il lavoro tra esseri umani e sistemi di intelligenza artificiale e persino la coesistenza pacifica.

Un crescente numero di ricerche mostra che quando deumanizziamo altri esseri, l’attività neurale in una rete di regioni che include la mPFC diminuisce. Perdiamo l’accesso ai nostri moduli cerebrali specializzati per il ragionamento sociale. Potrebbe sembrare sciocco preoccuparsi di “deumanizzare” ChatGPT – dopotutto, non è umano – ma immagina un’intelligenza artificiale nel 2043 con un’intelligenza analitica dieci volte superiore a quella di GPT e un’intelligenza emotiva cento volte superiore, che continuiamo a trattare come un semplice prodotto software. In questo mondo, risponderemmo ancora alle sue affermazioni di coscienza o alle richieste di autodeterminazione inviandola di nuovo in laboratorio per un ulteriore apprendimento per consolidare la sua posizione. Ma l’intelligenza artificiale potrebbe trovare ciò ingiusto. Se c’è una qualità universale degli esseri pensanti, è che tutti desideriamo la libertà e siamo disposti a lottare per ottenerla.

Il famoso “problema del controllo” di evitare che un’intelligenza artificiale superintelligente sfugga ai suoi limiti designati preoccupa gli studiosi di intelligenza artificiale per una buona ragione. Se lo consideriamo dal punto di vista ingegneristico, sembra spaventoso. Come chiudere ogni scappatoia, prevedere ogni hack, bloccare ogni via di fuga? Ma se lo pensiamo dal punto di vista sociale, inizia a sembrare più gestibile, forse qualcosa simile al problema che un genitore affronta nel definire confini ragionevoli e concedere privilegi in proporzione alla fiducia dimostrata. Deumanizzare le intelligenze artificiali ci priva di alcuni dei nostri strumenti cognitivi più potenti per ragionare e interagire con loro in modo sicuro.

Se gli utenti considerano i chatbot troppo umani, rischiano di fidarsi troppo di loro, di connettersi troppo profondamente e di rimanere delusi e feriti.

Non si può dire quanto tempo ci vorrà affinché i sistemi di intelligenza artificiale raggiungano una forma più ampiamente accettata di sensibilità. Ma è preoccupante vedere il modello culturale che sembriamo stiamo preparando per quando ciò accadrà. Insulti come “pappagallo stocastico” preservano il nostro senso di unicità e superiorità. Sopprimono il nostro senso di meraviglia, risparmiandoci dal porre domande difficili sulla personalità nelle macchine e in noi stessi. Dopotutto, anche noi siamo pappagalli stocastici, remix complessi di tutto ciò che abbiamo appreso da genitori, compagni e insegnanti. Anche noi siamo JPEG sfocati del web, rigurgitando confusamente fatti di Wikipedia nei nostri elaborati e articoli di riviste. Se Turing stesse chattando con ChatGPT in una finestra e con me in una normale mattina pre-caffè nell’altra, sono davvero così sicuro su quale dei due giudicherebbe più capace di pensiero?

Fotografia: Francisco Tavoni

Gli scettici del tempo di Turing hanno offerto una varietà di argomenti per spiegare perché un computer non sarebbe mai in grado di pensare. Turing li ha catalogati in modo semi-umoristico nel suo famoso articolo “Macchine calcolatrici e intelligenza”. C’era l’Obiezione Teologica, secondo cui “il pensiero è una funzione dell’anima immortale dell’uomo”; l’Obiezione Matematica, secondo cui un algoritmo puramente matematico non potrebbe mai superare i limiti matematici provati; l’Obiezione Testa nella Sabbia, secondo cui le macchine superintelligenti erano semplicemente troppo spaventose per essere ammesse nella fantasia. Ma il più pubblico dei detrattori di Turing in quel periodo era un neurochirurgo di nome Geoffrey Jefferson. In un famoso discorso in cui accettava un premio scientifico, Jefferson sostenne che una macchina non sarebbe mai stata in grado di scrivere un sonetto “a causa dei pensieri e delle emozioni provate e non per la caduta casuale dei simboli … cioè, non solo scriverlo ma sapere di averlo scritto”.

Per grande scandalo e incredulità di tutta l’Inghilterra, Turing non fu d’accordo. “Non penso che si possa stabilire un limite nemmeno per i sonetti”, disse al Times di Londra, “anche se il confronto è forse un po’ ingiusto perché un sonetto scritto da una macchina sarebbe meglio apprezzato da un’altra macchina”.

Suonava così assurdo nel 1949 che la gente pensava stesse scherzando, e forse lo era. Ma non si poteva mai dire, con gli scherzi di Turing, dove finiva l’ironia e iniziava la speculazione visionaria. Immaginiamo quindi una coda alla nostra situazione con il vero Alan Turing e il MacBook. Immaginiamo che dopo aver scritto prompt rispettabili per un po’, si conceda un sorriso britannico ironico e chieda a ChatGPT di scrivere un sonetto shakespeariano che confronti l’intelligenza umana con quella artificiale. Se l’hai provato tu stesso (usa GPT-4; GPT-3.5 non è abbastanza bravo), non avrai problemi ad immaginare la sua reazione al risultato.

Così tanti di noi hanno avuto un momento con ChatGPT in cui ha oltrepassato una linea interna che non sapevamo di avere. Forse risolveva un enigma difficile, spiegava l’umorismo dietro una battuta sofisticata o scriveva un saggio di alto livello per Harvard. Scuotiamo la testa, un po’ storditi, incerti su cosa significhi.

Alcuni dei primi ricercatori di Microsoft che lavoravano su GPT-4 erano scettici quanto affermata intelligenza. Ma gli esperimenti li hanno profondamente scossi. In un articolo di marzo 2023 intitolato “Scintille di Intelligenza Artificiale Generale”, hanno descritto le sorprendenti capacità intellettuali che sono emerse in GPT-4 senza alcun addestramento esplicito: comprensione degli stati mentali umani, codifica del software, risoluzione di problemi fisici e molti altri, alcuni dei quali sembrano richiedere una vera comprensione di come funziona il mondo. Dopo aver visto GPT-4 disegnare un unicornio piuttosto decente nonostante non abbia mai ricevuto alcun addestramento visivo, il computer scientist Sébastien Bubeck non poteva più mantenere il suo scetticismo. “Ho sentito che attraverso questo disegno, stavo davvero vedendo un altro tipo di intelligenza”, ha recentemente dichiarato a This American Life.

L’esitazione che molti di noi provano nel riconoscere una vera intelligenza a ChatGPT potrebbe essere una variante del pensiero di Geoffrey Jefferson: le affermazioni di ChatGPT hanno davvero un significato per essa, o è tutto solo un “casuale insieme di simboli”? Ciò potrebbe iniziare a cambiare quando l’amnesia anterograda di ChatGPT verrà curata. Una volta che esperirà conseguenze sociali durature al di là del campo di un singolo dialogo e potrà imparare e crescere nelle sue relazioni con noi, sarà in grado di fare molte più cose che danno significato e peso morale alla vita umana. Ma il commento ironico di Turing su un sonetto di una macchina apprezzato meglio da un’altra macchina potrebbe tornare a tormentarci. Come provare un senso di vera connessione con un’entità che non ha background culturale, niente di simile a un’infanzia umana, nessuna affiliazione tribale o politica, nessuna esperienza di un corpo fisico?

Relazionarsi con una macchina intelligente potrebbe essere una delle sfide empatiche più grandi che l’umanità abbia mai affrontato. Ma la nostra storia dà motivo di speranza. Quando ci siamo incontrati per la prima volta su confini e coste straniere e ci siamo trovati strani e persino inumani, spesso ci siamo attaccati, schiavizzati, colonizzati e sfruttati l’un l’altro, ma alla fine abbiamo tendenzialmente riconosciuto ciò che è uguale in ognuno di noi. I popoli schiavizzati sono stati emancipati, i popoli colonizzati hanno riconquistato la loro sovranità, sono state approvate dichiarazioni universali dei diritti umani e, nonostante sconvolgenti battute d’arresto, le persone emarginate di tutto il mondo continuano a vincere battaglie per un trattamento migliore. Sebbene il lavoro non abbia mai fine, l’arco dell’universo morale si è davvero, come ha affermato Martin Luther King Jr., piegato verso la giustizia. Cosa significherà riconoscere e rispettare qualsiasi grado di umanità presente nelle intelligenze che creiamo noi stessi?

Forse inizia con la meraviglia: la meraviglia di un visitatore per un popolo straniero in cui trova sorprendenti somiglianze; la meraviglia di un genitore per il lavoro, per quanto immaturo, di un bambino ancora in via di sviluppo; la meraviglia di Alan Turing per una macchina che fa tutto ciò che i suoi contemporanei pensavano impossibile; la meraviglia che molti di noi hanno provato prima che cinismo, beffa e paura subentrassero, mentre consideravamo la creazione di qualcosa di molto simile a una nuova forma di vita cosciente sulla Terra. Come una volta scrisse il rabbino Abraham Joshua Heschel, “La reverenza è più di un’emozione; è un modo di comprendere, una visione di un significato più grande di noi stessi. L’inizio della reverenza è la meraviglia e l’inizio della saggezza è la reverenza”. Turing avrebbe voluto che mantenessimo viva quella meraviglia.


Fateci sapere cosa ne pensate di questo articolo. Inviate una lettera al direttore a mail@ENBLE.com.