Il ‘Padrino dell’IA’ ha un piano ottimista per mantenere l’IA futura amichevole

Il 'Padrino dell'IA' ha un piano per l'IA futura

Geoffrey Hinton, forse il ricercatore di intelligenza artificiale più celebrato al mondo, ha fatto un grande scalpore qualche mese fa quando ha rivelato pubblicamente di aver lasciato Google per poter parlare apertamente dei pericoli della tecnologia che ha contribuito a sviluppare. La sua annuncio non è stato improvviso. La fine del 2022 è stata incentrata sulla scoperta appassionante di cosa l’IA potesse fare per noi. Nel 2023, anche mentre utilizzavamo GPT e chattavamo con Bing, l’euforia è stata affiancata da un cocktail di panico e angoscia esistenziale. Quindi non è stato uno shock totale che l’uomo conosciuto come il “padrino dell’IA” avrebbe condiviso le sue preoccupazioni ponderate. Hinton ha fatto ogni sforzo per dire che la sua critica non era una critica nei confronti del gigante delle ricerche che lo aveva impiegato per un decennio; la sua partenza semplicemente evitava eventuali tensioni che derivano dalla critica di una tecnologia che la propria azienda sta implementando in modo aggressivo.

Il messaggio di base di Hinton era che l’IA potrebbe potenzialmente sfuggire al controllo, a detrimento dell’umanità. Nelle prime settimane dopo che è diventato pubblico, ha rilasciato una serie di interviste, incluso un’intervista con Will Knight di ENBLE, riguardo a queste paure, che ha iniziato a provare solo relativamente di recente, dopo aver visto il potere dei grandi modelli linguistici come quello dietro a ChatGPT di OpenAI.

Testo semplice

Ho avuto una conversazione con Hinton all’inizio di quest’estate, dopo che aveva avuto del tempo per riflettere sulla sua vita e missione dopo Google. Abbiamo parlato delle scenari apocalittici, naturalmente, ma ero più interessato a ciò che lo aveva portato a cambiare idea sul nostro futuro potenziale nell’IA. Soprattutto, volevo sapere cosa pensava che i LLM stessero facendo che potesse renderli nemici del Team Umano. Le paure che Hinton sta esprimendo ora rappresentano un cambiamento significativo rispetto all’ultima volta che abbiamo parlato, nel 2014. All’epoca, parlava di come l’apprendimento profondo avrebbe aiutato Google a fare traduzioni più efficaci, migliorare il riconoscimento vocale e identificare in modo più accurato i numeri civici sulle case mostrate su Google Maps. Solo alla fine della conversazione ha assunto una visione più ampia, affermando che credeva che l’apprendimento profondo subisse una ristrutturazione importante che avrebbe portato a una comprensione più profonda del mondo reale.

La sua previsione era corretta, ma nella nostra recente conversazione, Hinton era ancora stupito di come fosse successo esattamente. Alla fine, la nostra conversazione ha preso una piega più filosofica. Cosa stava realmente accadendo quando un sistema come il chatbot di Google rispondeva alla mia domanda? E rappresentano davvero i LLM, come sostengono alcune persone, l’antecedente di una forma aliena di superintelligenza?

Hinton afferma di aver cambiato idea quando si è reso conto di tre cose: i chatbot sembravano comprendere molto bene il linguaggio. Poiché ogni nuovo apprendimento di un modello poteva essere duplicato e trasferito ai modelli precedenti, potevano condividere conoscenze tra loro, molto più facilmente rispetto ai cervelli, che non possono essere direttamente interconnessi. E le macchine avevano ora algoritmi di apprendimento migliori degli esseri umani. “Ho improvvisamente cambiato idea sul fatto che il cervello fosse migliore di quegli agenti digitali”, afferma. “Già ora sanno 1.000 volte di più di qualsiasi cervello. Quindi, in termini di conoscenza massiva, sono molto migliori del cervello”.

Hinton crede che tra cinque e vent’anni ci sia una probabilità del 50% che i sistemi di intelligenza artificiale siano più intelligenti di noi. Gli chiedo come sapremmo quando ciò accadrebbe. “Buona domanda”, dice. E non sarebbe sorpreso se un sistema di intelligenza artificiale superintelligente scelgesse di mantenere le sue capacità per sé. “Presumibilmente avrebbe imparato dal comportamento umano a non dircelo”.

Mi è sembrato che stesse antropomorfizzando quei sistemi artificiali, qualcosa che gli scienziati dicono costantemente ai non addetti ai lavori e ai giornalisti di evitare. “Gli scienziati fanno di tutto per non farlo, perché antropomorfizzare la maggior parte delle cose è stupido”, ammette Hinton. “Ma avranno imparato quelle cose da noi, impareranno a comportarsi esattamente come noi linguisticamente. Quindi penso che sia perfettamente ragionevole antropomorfizzarli”. Quando il tuo potente agente di intelligenza artificiale è addestrato sulla somma totale della conoscenza digitale umana, comprese molte conversazioni online, sarebbe più stupido non aspettarsi che si comporti come un essere umano.

Ma cosa dire dell’obiezione secondo cui un chatbot non potrebbe mai capire veramente ciò che fanno gli esseri umani, perché quei robot linguistici sono solo impulsi su chip informatici senza esperienza diretta del mondo? Tutto ciò che fanno, dopotutto, è prevedere la prossima parola necessaria per formulare una risposta che soddisfi statisticamente una richiesta. Hinton fa notare che anche noi non incontriamo davvero il mondo direttamente.

Alcune persone pensano: “Ehi, c’è questa barriera ultima, che è l’esperienza soggettiva che noi abbiamo e [i robot] non hanno, quindi noi comprendiamo veramente le cose e loro no”, dice Hinton. “Questo è solo una sciocchezza. Perché per predire la prossima parola, devi capire quale fosse la domanda. Non puoi prevedere la prossima parola senza comprensione, giusto? Ovviamente vengono addestrati per prevedere la prossima parola, ma come conseguenza di questa previsione comprendono il mondo, perché è l’unico modo per farlo.”

Quindi queste cose possono essere… senzienti? Non voglio credere che Hinton mi stia facendo una versione di Blake Lemoine. E non lo sta facendo, credo. “Lasciami continuare nella mia nuova carriera da filosofo”, dice Hinton, scherzando, mentre ci addentriamo più in profondità. “Lasciamo da parte la sentienza e la coscienza. Non percepisco veramente il mondo direttamente. Quello che penso che sia nel mondo non è ciò che c’è veramente. Ciò che accade è che entra nella mia mente e vedo direttamente ciò che è nella mia mente. Questo è ciò che pensava Cartesio. E poi c’è la questione di come questa cosa nella mia mente sia collegata al mondo reale. E come posso veramente conoscere il mondo reale?” Hinton continua a sostenere che poiché la nostra esperienza è soggettiva, non possiamo escludere che le macchine possano avere esperienze altrettanto valide. “In base a questa visione, è abbastanza ragionevole dire che queste cose potrebbero già avere esperienze soggettive”, afferma.

Ora considera le possibilità combinate che le macchine possono veramente comprendere il mondo, possono imparare l’inganno e altre cattive abitudini dagli esseri umani, e che i sistemi di intelligenza artificiale giganti possono elaborare miliardi di volte più informazioni di quante il cervello possa gestire. Forse, come Hinton, ora hai una visione più preoccupante degli esiti futuri dell’IA.

Ma non stiamo necessariamente intraprendendo un viaggio inevitabile verso il disastro. Hinton propone un approccio tecnologico che potrebbe mitigare una lotta di potere dell’IA contro gli esseri umani: l’informatica analogica, proprio come si trova nella biologia e come alcuni ingegneri pensano che i computer futuri dovrebbero funzionare. È stato l’ultimo progetto su cui Hinton ha lavorato a Google. “Funziona per le persone”, dice. Adottare un approccio analogico all’IA sarebbe meno pericoloso perché ogni istanza dell’hardware analogico ha una certa unicità, ragiona Hinton. Come le nostre piccole menti umide, i sistemi analogici non possono facilmente fondersi in una sorta di intelligenza collettiva alla Skynet.

“L’idea è che non si renda tutto digitale”, dice Hinton sull’approccio analogico. “Perché ogni pezzo di hardware analogico è leggermente diverso, non puoi trasferire pesi da un modello analogico a un altro. Quindi non c’è un modo efficiente di imparare in molte copie diverse dello stesso modello. Se ottieni IA [tramite l’informatica analogica], sarà molto più simile agli esseri umani e non sarà in grado di assorbire tante informazioni quanto possono fare i modelli digitali.”

Le possibilità sembrano scarse che le grandi aziende tecnologiche che si affrettano a migliorare i loro chatbot LLM adottino questo approccio tecnovegetariano all’IA. La competizione è intensa e le ricompense per la produzione dei bot più potenti sono astronomiche. Hinton, che non ha paura di esprimere le sue opinioni politiche, dubita che le grandi aziende pubbliche o le startup sostenute dai fondi di venture capital impediranno lo sviluppo delle loro innovazioni nell’IA a causa di qualche visione del beneficio pubblico che fa sentire bene.

In alcuni giorni, dice Hinton, è ottimista. “Le persone sono piuttosto ingenue, e l’IA non è ancora più intelligente di noi, e non si è evoluta per essere cattiva e meschina come le persone e molto fedele alla propria tribù e poco leale verso le altre tribù. E proprio per questo motivo, potremmo essere in grado di tenerla sotto controllo e renderla benevola.” Ma altre volte, Hinton si sente cupo. “Ci sono momenti in cui penso che probabilmente non saremo in grado di contenerla e che siamo solo una fase transitoria nell’evoluzione dell’intelligenza.”

E poi c’è una fuga improvvisa nella rete neurale analogica unica e non copiabile di Geoff Hinton: la scienza viene silenziata e la politica, resa più leggera dal suo senso di gioco molto umano, esplode, “Se mettiamo Bernie al comando e abbiamo il socialismo, tutto sarebbe molto migliore”, dice. Scommetto che i suoi ex manager di Google sono sollevati di non dover rispondere a quella dichiarazione.

Nel gennaio 2015, la mia storia Backchannel (ora nell’archivio ENBLE) raccontava come le scoperte del team di Hinton fossero pronte per essere implementate su larga scala nei prodotti di Google e nel mondo in generale. Ci è voluto un certo sforzo per ottenere un’intervista con Hinton, il cui tempo nel campus di Mountain View era limitato, ma alla fine ho ottenuto il mio incontro.

“Devo sapere un po’ della tua formazione”, dice Geoffrey Hinton. “Hai conseguito una laurea in scienze?”

Hinton, un inglese sardonico e asciutto di origine canadese, si trova di fronte a una lavagna bianca a Mountain View, in California, nel campus di Google, l’azienda in cui è entrato nel 2013 come ricercatore distinto. Hinton è forse il massimo esperto al mondo di sistemi di reti neurali, una tecnica di intelligenza artificiale che ha contribuito a sviluppare a metà degli anni ’80. (Una volta ha detto di pensare alle reti neurali fin da quando aveva sedici anni.) Per gran parte del periodo successivo, le reti neurali – che approssimano approssimativamente il modo in cui il cervello umano impara – sono state descritte come un mezzo promettente per i computer di padroneggiare cose difficili come la visione e il linguaggio naturale. Dopo anni di attesa per questa rivoluzione, le persone hanno cominciato a chiedersi se le promesse sarebbero mai state mantenute.

Ma circa dieci anni fa, nel laboratorio di Hinton all’Università di Toronto, lui e altri ricercatori hanno fatto una scoperta che ha improvvisamente reso le reti neurali la cosa più calda nell’AI. Non solo Google, ma anche altre aziende come Facebook, Microsoft e IBM hanno iniziato a cercare freneticamente il relativamente esiguo numero di informatici versati nell’arte nera dell’organizzazione di diverse strati di neuroni artificiali in modo che l’intero sistema potesse essere addestrato, o addirittura addestrarsi da solo, per trarre coerenza da input casuali, in modo simile a come un neonato impara a organizzare i dati che affollano i suoi sensi vergini. Con questo processo recentemente efficace, chiamato Deep Learning, alcuni dei problemi di calcolo da tempo irrisolti (come la capacità di vedere, ascoltare e essere imbattibili a Breakout) sarebbero finalmente stati risolti. L’età dei sistemi informatici intelligenti – tanto attesa quanto temuta – sarebbe improvvisamente alle porte. E la ricerca di Google funzionerebbe molto meglio.

Pascal chiede: “Come potrebbe essere una giornata nella vita di un futuro settantenne in una casa di riposo nel prossimo futuro? Potrebbero i chatbot sostituire parzialmente il contatto umano per anziani isolati? La tecnologia è davvero la soluzione o solo una medicazione temporanea?”

Grazie per la domanda, Pascal. Ringrazio anche gli altri che hanno inviato domande a mail@ENBLE.com con l’oggetto ASK LEVY. La mia piccola richiesta della scorsa settimana ha funzionato! Continuate a inviarle!

La tua domanda è tempestiva, Pascal, perché immagino che ci siano probabilmente centinaia di startup che lavorano su chatbot per gli anziani. La tua formulazione implica che non esista un sostituto per il contatto umano reale, e naturalmente hai ragione. Idealmente, gli ultimi anni dovrebbero essere trascorsi immersi in un web di affettuosa compagnia da parte di amici e parenti. Ma la realtà è che milioni di anziani trascorrono gli ultimi anni della loro vita in case di riposo con un contatto minimo. È lecito chiedersi se la tecnologia possa far sentire a queste persone di avere una compagnia coinvolgente. Siamo certamente vicini a chatbot in grado di emulare un assistente umano, o addirittura qualcosa che sembra un amico. Se la scelta è tra questo e una televisione che trasmette qualche canale infernale, sarebbe crudele negare a qualcuno un LLM spiritoso che conosce i loro argomenti preferiti e ascolta e risponde senza lamentarsi a racconti di bei ricordi e aneddoti senza senso.

Ma ho una speranza più alta. Forse l’IA avanzata può fare scoperte in medicina che mantengono le persone più sane alla vecchiaia. Questo potrebbe consentire alle persone di rimanere attive più a lungo, riducendo il tempo trascorso in case di riposo e istituti isolati. Naturalmente, questo non affronta la vergognosa mancanza di attenzione che prestiamo ai nostri anziani. Per citare il defunto John Prine, “Le persone anziane si sentono sole, aspettando che qualcuno dica, Ciao là dentro, ciao”. Immagino che un chatbot che lo dica sia meglio di niente.

Puoi inviare domande a mail@ENBLE.com. Scrivi ASK LEVY nell’oggetto.

Residenti e turisti fuggono in mare mentre Maui va a fuoco.

Ho passato un mercoledì al parco con Grimes, parlando di intelligenza artificiale, Marte, NFT, il suo prossimo Transumanesimo per Bambini, LSD e la persona di cui tutti parlano.

Risulta che un chip Intel abbia una vulnerabilità che compromette la privacy di milioni di persone. Cosa ti aspetti da un chip chiamato Downfall?

Sei stufo delle grandi aziende tecnologiche? Unisciti al movimento per uscire dalla loro nuvola.

L’hip hop ha compiuto 50 anni e le persone sono consapevoli dell’importanza di preservare la sua storia. E sì, lo Smithsonian se ne sta occupando.

Non perderti le prossime edizioni riservate agli abbonati di questa rubrica. Iscriviti a ENBLE (sconto del 50% per i lettori di Plaintext) oggi stesso.