Più intelligenza artificiale in Battlefield renderà il nebbiogeno della guerra più letale

More AI in Battlefield makes the fog of war deadlier

L’esercito degli Stati Uniti non è più la forza incontrastata che era un tempo, ma Alexandr Wang, CEO della startup Scale AI, ha dichiarato la scorsa settimana davanti a una commissione del Congresso che potrebbe ottenere un nuovo vantaggio sfruttando l’intelligenza artificiale.

“Abbiamo la flotta più grande di hardware militare al mondo”, ha detto Wang alla sottocommissione della Camera dei rappresentanti per i servizi armati, la tecnologia informatica e l’innovazione. “Se riusciamo a configurare correttamente e strumentare questi dati che vengono generati… allora possiamo creare un vantaggio di dati piuttosto insormontabile per quanto riguarda l’uso militare dell’intelligenza artificiale”.

L’azienda di Wang ha un interesse diretto in quella visione, dal momento che lavora regolarmente con il Pentagono per elaborare grandi quantità di dati di addestramento per progetti di intelligenza artificiale. Ma c’è una convinzione all’interno dei circoli militari degli Stati Uniti che l’uso crescente dell’IA e dell’apprendimento automatico sia praticamente inevitabile ed essenziale. Ho recentemente scritto di quel movimento in crescita e di come una unità del Pentagono stia utilizzando robotica e software di intelligenza artificiale pronti all’uso per sorvegliare in modo più efficiente ampie porzioni dell’oceano in Medio Oriente.

Oltre ai dati militari senza pari del paese, Wang ha detto all’audizione del Congresso che gli Stati Uniti hanno il vantaggio di ospitare i produttori di chip di intelligenza artificiale più avanzati al mondo, come Nvidia, e la migliore esperienza in intelligenza artificiale al mondo. “L’America è il luogo di scelta per gli scienziati di intelligenza artificiale più talentuosi del mondo”, ha detto.

L’interesse di Wang per l’IA militare merita anche attenzione perché Scale AI è all’avanguardia di un’altra rivoluzione dell’IA: lo sviluppo di potenti modelli di linguaggio e chatbot avanzati come ChatGPT.

Nessuno sta ancora pensando di arruolare ChatGPT nel servizio militare, anche se ci sono stati alcuni esperimenti che coinvolgono l’uso di grandi modelli di linguaggio in giochi di guerra militari. Ma gli osservatori vedono i recenti progressi delle aziende statunitensi nell’IA come un altro vantaggio chiave che il Pentagono potrebbe sfruttare. Dato quanto rapidamente si sta sviluppando la tecnologia e quanto problematica sia ancora, questo solleva nuove domande su quali salvaguardie potrebbero essere necessarie per l’IA militare.

Questo salto nelle capacità dell’IA avviene mentre le opinioni delle persone sull’uso militare dell’IA stanno cambiando. Nel 2017, Google ha ricevuto una reazione negativa per aver aiutato l’Aeronautica degli Stati Uniti a utilizzare l’IA per interpretare le immagini aeree attraverso il Progetto Maven del Pentagono. Ma l’invasione della Russia in Ucraina ha attenuato le opinioni pubbliche e politiche sulla collaborazione del settore privato con le aziende tecnologiche e ha dimostrato il potenziale dei droni autonomi economici e dell’IA commerciale per l’analisi dei dati. Le forze ucraine stanno utilizzando algoritmi di apprendimento profondo neurale per analizzare immagini aeree e filmati. La società statunitense Palantir ha dichiarato di fornire software di targeting all’Ucraina. E la Russia si sta concentrando sempre di più sull’IA per i sistemi autonomi.

Nonostante le diffuse paure riguardo ai “robot assassini”, la tecnologia non è ancora sufficientemente affidabile per essere utilizzata in questo modo. E mentre scrivevo sugli obiettivi di IA del Pentagono, non sono venuto a conoscenza di nessuno all’interno del Dipartimento della Difesa, delle forze statunitensi o delle startup focalizzate sull’IA desiderose di scatenare armi completamente autonome.

Ma un uso più ampio dell’IA creerà un numero crescente di incontri militari in cui gli esseri umani sono rimossi o astratti dall’equazione. E sebbene alcune persone abbiano paragonato l’IA alle armi nucleari, il rischio più immediato è meno il potere distruttivo dei sistemi militari di IA che la loro potenziale capacità di approfondire la nebbia della guerra e rendere più probabili gli errori umani.

Quando ho parlato con John Richardson, un ammiraglio a quattro stelle in pensione che è stato capo delle operazioni navali della Marina degli Stati Uniti tra il 2015 e il 2018, era convinto che l’IA avrà un effetto sul potere militare simile alla rivoluzione industriale e all’era atomica. E ha sottolineato che il lato che ha sfruttato meglio quelle rivoluzioni precedenti ha vinto le ultime due guerre mondiali.

Ma Richardson ha anche parlato del ruolo delle connessioni umane nella gestione delle interazioni militari guidate da tecnologie potenti. Mentre era capo della Marina, ha fatto di tutto per conoscere i suoi omologhi nelle flotte di altre nazioni. “Ogni volta che ci incontravamo o parlavamo, avevamo una migliore comprensione l’uno dell’altro”, ha detto. “Quello che volevo davvero fare era assicurarmi che nel caso accadesse qualcosa – qualche tipo di errore di calcolo o qualcosa del genere – potessi chiamarli relativamente velocemente. Non vuoi che quella sia la tua prima chiamata”.

Ora sarebbe un buon momento per i leader militari del mondo iniziare a discutere dei rischi e dei limiti dell’IA.