Una lettera ha suscitato una discussione sull’apocalisse dell’IA. Molti dei firmatari non erano in realtà profeti dell’apocalisse dell’IA

Una lettera ha scatenato discussione sull'apocalisse dell'IA, ma molti firmatari non erano profeti dell'apocalisse dell'IA.

A marzo, quasi 35.000 ricercatori di intelligenza artificiale, tecnologi, imprenditori e cittadini preoccupati hanno firmato una lettera aperta del Future of Life Institute, un’organizzazione non profit, che chiedeva una “pausa” nello sviluppo dell’IA, a causa dei rischi per l’umanità rivelati dalle capacità di programmi come ChatGPT.

“I sistemi di intelligenza artificiale contemporanei stanno diventando competitivi rispetto alle attività generali umane, e dobbiamo chiederci … Dovremmo sviluppare menti non umane che potrebbero alla fine superarci in numero, intelligenza, obsolescenza e sostituzione?”

Potrei ancora essere smentito, ma quasi sei mesi dopo e con lo sviluppo dell’IA più veloce che mai, la civiltà non è crollata. Heck, Bing Chat, l’oracolo di ricerca “rivoluzionario” di Microsoft, con l’aggiunta di ChatGPT, non ha nemmeno sostituito Google come leader nella ricerca. Quindi, cosa dovremmo pensare della lettera e di avvertimenti simili di fantascienza sostenuti da nomi autorevoli sui rischi dell’IA?

Due studentesse intraprendenti del MIT, Isabella Struckman e Sofie Kupiec, hanno contattato i primi cento firmatari della lettera che chiedeva una pausa nello sviluppo dell’IA per saperne di più sulle loro motivazioni e preoccupazioni. Il resoconto dei risultati ottenuti dalle due ragazze rivela una vasta gamma di prospettive tra coloro che hanno apposto la loro firma al documento. Nonostante la ricezione pubblica della lettera, relativamente poche persone erano effettivamente preoccupate per il fatto che l’IA costituisse una minaccia imminente per l’umanità stessa.

Molte delle persone con cui Struckman e Kupiec hanno parlato non credevano che una pausa di sei mesi sarebbe avvenuta o avrebbe avuto molto effetto. La maggior parte di coloro che hanno firmato non immaginava lo “scenario apocalittico” che un anonimo rispondente ha riconosciuto come evocato da alcune parti della lettera.

Un numero significativo di coloro che hanno firmato erano, a quanto pare, principalmente preoccupati dal ritmo della competizione tra Google, OpenAI, Microsoft e altri, in quanto l’hype intorno al potenziale degli strumenti di intelligenza artificiale come ChatGPT ha raggiunto livelli esaltanti. Google è stato il primo sviluppatore di diversi algoritmi fondamentali per la creazione del chatbot, ma si è mosso relativamente lentamente fino a quando non è scoppiata la ChatGPT-mania. Per queste persone, la prospettiva che le aziende si affrettino a rilasciare algoritmi sperimentali senza esplorare i rischi rappresentava motivo di preoccupazione, non perché potessero annientare l’umanità, ma perché potessero diffondere disinformazione, produrre consigli dannosi o di parte, o aumentare l’influenza e la ricchezza di aziende tecnologiche già molto potenti.

Alcuni firmatari erano anche preoccupati per la possibilità più remota che l’IA potesse sostituire i lavoratori a una velocità fino ad allora mai vista. E un certo numero di persone sentiva che la dichiarazione avrebbe contribuito ad attirare l’attenzione del pubblico su progressi significativi e sorprendenti delle tecnologie di modelli di intelligenza artificiale, spingendo forse i regolatori ad adottare qualche forma di azione per affrontare i rischi a breve termine derivanti dagli avanzamenti dell’IA.

A maggio ho parlato con alcuni di coloro che hanno firmato la lettera, ed era chiaro che non erano tutti d’accordo su tutto ciò che veniva detto. Hanno firmato perché pensavano che il momentum che si stava creando attorno alla lettera avrebbe attirato l’attenzione sui vari rischi che li preoccupavano, e quindi ne valeva la pena.

Ma forse è stato un errore cercare di affrontare così tante questioni sollevate dall’IA esistente e recentemente sviluppata in una lettera che sarebbe inevitabilmente stata definita dalla sua affermazione più stravagante e spaventosa. Alcuni ricercatori di intelligenza artificiale hanno passato gli ultimi anni avvertendo in modo preveggente dei problemi sociali più immediati che i grandi modelli di linguaggio potrebbero causare, inclusa l’aggravamento dei pregiudizi radicati. Le loro preoccupazioni sono state a malapena udibili nel frastuono che la lettera ha suscitato intorno a scenari apocalittici sull’IA. La rilevanza di quel filone di pensiero apocalittico è stata rafforzata da una dichiarazione successiva a maggio, firmata anche da molti illustri ricercatori di intelligenza artificiale, che ha paragonato la minaccia di estinzione dell’IA a quella delle armi nucleari e delle pandemie.

Nirit Weiss-Blatt, autrice di The Techlash e Tech Crisis Communication, che ha revisionato il documento del MIT prima della sua pubblicazione, sostiene che la lettera e la dichiarazione abbiano finito per servire gli interessi delle aziende tecnologiche che stanno costruendo l’IA all’avanguardia, perché il focus su scenari catastrofici lontani fa credere ai regolatori che la tecnologia sia incredibilmente preziosa e difficile da gestire. Molti dei professori che hanno firmato la lettera non stavano pensando all’IA come a un rischio esistenziale mentre lo facevano, afferma Weiss-Blatt. “Ma hanno prestato il loro nome agli allarmisti dell’IA estrema. Questa è la vera disinformazione qui.”

Alla fine, la lettera che chiedeva una pausa nello sviluppo dell’IA potrebbe aver fatto l’opposto di ciò che molti di coloro che l’hanno firmata volevano. Facendo sì che la discussione sugli scenari apocalittici diventasse più prominente, la lettera ha reso più difficile far notare o ispirare azioni riguardo alle preoccupazioni relative a macchine meno che superintelligenti. Aggiornato il 17/08/2023, ore 13.50 EDT: Weiss-Blatt ritiene che la maggior parte dei professori che hanno firmato non stesse pensando al rischio esistenziale, non tutti.