Il futuro della guerra, alimentato dall’IA e totalmente autonomo, è qui

The future of war, powered by AI and fully autonomous, is here.

Una flotta di navi robot ondeggia dolcemente nelle calde acque del Golfo Persico, da qualche parte tra Bahrain e Qatar, forse a circa 100 miglia al largo della costa dell’Iran. Sono sul ponte vicino di un motoscafo della Guardia Costiera degli Stati Uniti, strizzando gli occhi verso quello che capisco essere il lato sinistro. In questa mattina di inizio dicembre 2022, l’orizzonte è punteggiato da petroliere, navi cargo e piccole golette da pesca, tutte scintillanti nel calore. Mentre il motoscafo sfreccia intorno alla flotta di robot, desidero ardentemente un ombrellone, o anche solo una nuvola.

I robot non condividono la mia misera necessità umana di ombra, né hanno bisogno di altri servizi biologici. Questo è evidente nel loro design. Alcuni assomigliano a tipiche imbarcazioni di pattuglia come quella su cui mi trovo, ma la maggior parte sono più piccoli, snelli e più bassi sull’acqua. Uno assomiglia a un kayak alimentato a energia solare. Un altro sembra una tavola da surf con una vela di metallo. Un altro ancora mi ricorda una macchina Google Street View su pontoni.

Queste macchine si sono radunate qui per un’esercitazione condotta dal Task Force 59, un gruppo all’interno della Quinta Flotta della Marina degli Stati Uniti. Il suo focus è sulla robotica e sull’intelligenza artificiale, due tecnologie in rapida evoluzione che stanno plasmando il futuro della guerra. La missione del Task Force 59 è di integrarle rapidamente nelle operazioni navali, acquisendo le ultime tecnologie disponibili da fornitori privati e mettendo insieme i pezzi in un insieme coerente. L’esercitazione nel Golfo ha riunito più di una dozzina di piattaforme senza equipaggio: navi di superficie, sommergibili, droni aerei. Saranno gli occhi e le orecchie distribuite del Task Force 59: controlleranno la superficie dell’oceano con telecamere e radar, ascolteranno sotto l’acqua con idrofoni e analizzeranno i dati raccolti attraverso algoritmi di riconoscimento dei modelli che distinguono le petroliere dai contrabbandieri.

Un altro umano sul motoscafo attira la mia attenzione su una delle imbarcazioni a forma di tavola da surf. Ripiega improvvisamente la vela verso il basso, come una stiletto, e scompare sotto l’onda. Chiamata Triton, può essere programmata per farlo quando i suoi sistemi percepiscono un pericolo. Mi sembra che questo trucco scomparso potrebbe rivelarsi utile nel mondo reale: un paio di mesi prima di questa esercitazione, una nave da guerra iraniana ha sequestrato due imbarcazioni autonome, chiamate Saildrones, che non possono immergersi. La Marina è dovuta intervenire per recuperarle.

Il Triton potrebbe restare sott’acqua per un massimo di cinque giorni, riemergendo quando la costa è sgombra per ricaricare le batterie e comunicare con la base. Fortunatamente, il mio motoscafo non rimarrà lì così a lungo. Accelera il motore e ruggisce verso la baia di attracco di un cutter della Guardia Costiera lungo 150 piedi. Mi dirigo subito sul ponte superiore, dove so che c’è una scorta di bottiglie d’acqua sotto un tendalino. Valuto le pesanti mitragliatrici e i mortai puntati verso il mare mentre passo.

Il ponte si rinfresca con il vento mentre il cutter fa ritorno alla base a Manama, Bahrain. Durante il viaggio, entro in conversazione con l’equipaggio. Sono desideroso di parlare con loro della guerra in Ucraina e dell’intenso uso di droni, dai quadricotteri hobbistici equipaggiati con granate ai sistemi militari veri e propri. Vorrei chiedere loro dell’attacco recente alla base navale russa occupata di Sebastopoli, che ha coinvolto diverse imbarcazioni a pilotaggio remoto di fabbricazione ucraina cariche di esplosivi, e di una campagna di crowdfunding pubblica per costruirne di nuove. Ma queste conversazioni non saranno possibili, mi dice la mia accompagnatrice, una riservista dell’azienda di social media Snap. Perché la Quinta Flotta opera in una regione diversa, quelli del Task Force 59 non hanno molte informazioni su ciò che sta accadendo in Ucraina, dice lei. Invece, parliamo dei generatori di immagini basati sull’IA e se metteranno gli artisti senza lavoro, e di come la società civile sembri raggiungere il proprio punto di svolta con l’intelligenza artificiale. In realtà, non conosciamo ancora la metà di quello che sta succedendo. È passato solo un giorno dal lancio di ChatGPT 504 da parte di OpenAI, l’interfaccia conversazionale che avrebbe fatto impazzire Internet.

Art: Julien Gobled; Getty Images

Tornato alla base, mi dirigo verso il Centro Operativo Robotico, dove un gruppo di umani supervisiona i sensori distribuiti sulle acque. Il COR è una stanza senza finestre con diverse file di tavoli e monitor per computer – piuttosto priva di carattere tranne che per le pareti, adornate da citazioni ispiratrici di figure come Winston Churchill e Steve Jobs. Qui incontro il capitano Michael Brasseur, il capo del Task Force 59, un uomo abbronzato con la testa rasata, un sorriso pronto e un’occhiata da marinaio. (Brasseur si è ritirato dalla Marina da allora.) Si muove tra i tavoli mentre spiega con allegria come funziona il COR. “Qui convergono tutti i dati provenienti dai sistemi senza equipaggio e qui sfruttiamo l’intelligenza artificiale e l’apprendimento automatico per ottenere risultati davvero entusiasmanti”, dice Brasseur, sfregandosi le mani e sorridendo mentre parla.

I monitor lampeggiano di attività. L’IA del Task Force 59 evidenzia le navi sospette nella zona. Ha già segnalato diverse navi oggi che non corrispondevano al loro segnale di identificazione, spingendo la flotta a dare un’occhiata più da vicino. Brasseur mi mostra una nuova interfaccia in sviluppo che consentirà al suo team di svolgere molte di queste attività su uno schermo, dalla visualizzazione del feed della telecamera di una nave drone alla sua direzione verso l’azione.

“Può agire autonomamente, ma non lo raccomandiamo. Non vogliamo iniziare la Terza Guerra Mondiale.”

Brasseur e altri alla base sottolineano che i sistemi autonomi che stanno testando sono solo per il rilevamento e la percezione, non per l’intervento armato. “L’attenzione attuale del Task Force 59 è migliorare la visibilità”, dice Brasseur. “Tutto ciò che facciamo qui supporta le navi dell’equipaggio”. Ma alcune delle navi robot coinvolte nell’esercitazione mostrano quanto breve possa essere la distanza tra disarmato e armato: una questione di scambio di carichi utili e di aggiustamenti software. Una motoscafo autonomo, il Seagull, è progettato per cercare mine e sottomarini trascinando un’antenna sonar al suo passaggio. Amir Alon, direttore senior presso Elbit Systems, l’azienda di difesa israeliana che ha creato il Seagull, mi dice che può anche essere equipaggiato con una mitragliatrice a comando remoto e siluri che vengono lanciati dal ponte. “Può agire autonomamente, ma non lo raccomandiamo”, dice con un sorriso. “Non vogliamo iniziare la Terza Guerra Mondiale”.

No, non lo vogliamo. Ma la battuta di Alon tocca una verità importante: sistemi autonomi capaci di uccidere esistono già in tutto il mondo. In qualsiasi conflitto importante, anche se molto lontano dalla Terza Guerra Mondiale, ogni parte si troverà presto di fronte alla tentazione non solo di armare questi sistemi ma, in alcune situazioni, di eliminare la supervisione umana, liberando le macchine per combattere alla velocità delle macchine. In questa guerra tra intelligenze artificiali, solo gli esseri umani moriranno. È quindi lecito chiedersi: come pensano queste macchine e le persone che le costruiscono?

Scricchiolii di tecnologia autonoma esistevano già nelle forze armate degli Stati Uniti da decenni, dal software di autopilota negli aerei e nei droni alle mitragliatrici automatiche sui ponti che proteggono le navi da missili in arrivo. Ma si tratta di sistemi limitati, progettati per svolgere funzioni specifiche in ambienti e situazioni particolari. Forse autonomi, ma non intelligenti. È stato solo nel 2014 che i vertici del Pentagono hanno iniziato a contemplare una tecnologia autonoma più capace come soluzione a un problema molto più grande.

Bob Work, all’epoca sottosegretario alla difesa, era preoccupato che i rivali geopolitici della nazione stessero “avvicinandosi alla parità” con le forze armate degli Stati Uniti. Voleva sapere come “riprendere l’iniziativa”, dice, come assicurare che anche se gli Stati Uniti non potessero schierare tanti soldati, aerei e navi come, ad esempio, la Cina, potessero emergere vittoriosi da un eventuale conflitto. Così Work chiese a un gruppo di scienziati e tecnologi su quale settore il Dipartimento della Difesa dovesse concentrare i suoi sforzi. “Sono tornati e hanno detto autonomia abilitata da IA”, ricorda. Ha iniziato a lavorare su una strategia di difesa nazionale che coltivasse le innovazioni provenienti dal settore tecnologico, comprese le capacità emergenti offerte dall’apprendimento automatico.

Questo era più facile a dirsi che a farsi. Il DOD ha realizzato alcuni progetti, tra cui il Sea Hunter, una nave da guerra sperimentale da 20 milioni di dollari, e il Ghost Fleet Overlord, una flottiglia di navi convenzionali adattate per operare autonomamente, ma entro il 2019 i tentativi del dipartimento di collaborare con le Big Tech stavano inciampando. Lo sforzo di creare un’infrastruttura cloud unica per supportare l’IA nelle operazioni militari è diventato una patata bollente politica e è stato abbandonato. Un progetto Google che coinvolgeva l’uso dell’IA per analizzare le immagini aeree è stato accolto da una tempesta di critiche pubbliche e proteste dei dipendenti. Quando la Marina ha pubblicato il suo piano di costruzione navale 2020, una panoramica di come le flotte statunitensi si evolveranno nei prossimi tre decenni, ha sottolineato l’importanza dei sistemi non equipaggiati, in particolare delle grandi navi di superficie e dei sommergibili, ma ha destinato relativamente pochi soldi per lo sviluppo di tali sistemi.

In un piccolo ufficio nel profondo del Pentagono, un ex pilota della Marina di nome Michael Stewart era ben consapevole di questo problema. Incaricato di sovrintendere allo sviluppo di nuovi sistemi di combattimento per la flotta statunitense, Stewart aveva cominciato a sentire che la Marina era come Blockbuster che camminava nel sonnambulismo nell’era di Netflix. Anni prima, alla Harvard Business School, aveva frequentato lezioni tenute da Clay Christensen, un accademico che studiava il motivo per cui grandi e di successo imprese vengono disturbate da nuovi concorrenti sul mercato, spesso perché una focalizzazione sul business attuale fa sì che si perdano le nuove tendenze tecnologiche. La domanda per la Marina, come la vedeva Stewart, era come accelerare l’adozione di robotica e IA senza rimanere impantanati nella burocrazia istituzionale.

Altri in quel periodo stavano pensando lungo linee simili. Quel dicembre, ad esempio, i ricercatori del RAND, il think tank di difesa finanziato dal governo, hanno pubblicato un rapporto che suggeriva un percorso alternativo: anziché finanziare una manciata di costosissimi sistemi autonomi, perché non acquistare quelli meno costosi in gruppo? Basandosi su diversi giochi di guerra su una possibile invasione cinese di Taiwan, il rapporto RAND affermava che il dispiegamento di un gran numero di droni aerei a basso costo potrebbe migliorare significativamente le probabilità di vittoria degli Stati Uniti. Fornendo un’immagine di ogni nave nello Stretto di Taiwan, i droni ipotetici – che RAND ha chiamato “gattini” – potrebbero consentire agli Stati Uniti di distruggere rapidamente la flotta nemica. (Una rivista militare cinese ha preso nota di questa previsione all’epoca, discutendo del potenziale degli xiao mao, la frase cinese per “gattino”, nello Stretto di Taiwan.)

Art: Julien Gobled; Getty Images

All’inizio del 2021, Stewart e un gruppo di colleghi hanno redatto un documento di 40 pagine chiamato Framework della Campagna senza Pilota. Esso delineava un piano combattivo e non convenzionale per l’uso dei sistemi autonomi da parte della Marina, rinunciando alla tradizionale acquisizione in favore della sperimentazione con piattaforme robotiche economiche. Lo sforzo coinvolgeva una piccola squadra eterogenea – specialisti in intelligenza artificiale e robotica, esperti di strategia navale – che poteva lavorare insieme per implementare rapidamente idee. “Non si tratta solo di sistemi senza pilota”, dice Stewart. “È altrettanto, se non di più, una storia organizzativa”.

Il piano di Stewart ha attirato l’attenzione del Vice Ammiraglio Brad Cooper della Quinta Flotta, il cui territorio si estende su 2,5 milioni di miglia quadrate di acqua, dal Canale di Suez intorno alla Penisola Arabica fino al Golfo Persico. L’area è piena di rotte di navigazione che sono vitali per il commercio globale e infestate da pesca illegale e contrabbando. Dopo la fine della Guerra del Golfo, quando parte dell’attenzione e delle risorse del Pentagono si è spostata verso l’Asia, Cooper cercava modi per fare di più con meno, dice Stewart. L’Iran aveva intensificato i suoi attacchi alle navi commerciali, assalendole con motoscafi armati e colpendole addirittura con droni e barche telecomandate.

Cooper ha chiesto a Stewart di unirsi a lui e a Brasseur in Bahrain e insieme i tre hanno iniziato a creare la Task Force 59. Hanno esaminato i sistemi autonomi già in uso in altri luoghi del mondo – per raccogliere dati climatici, ad esempio, o monitorare piattaforme petrolifere offshore – e hanno concluso che l’affitto e la modifica di queste apparecchiature avrebbero costato una frazione di quello che la Marina normalmente spendeva per le nuove navi. La Task Force 59 avrebbe poi utilizzato software guidato dall’intelligenza artificiale per mettere insieme i pezzi. “Se nuovi sistemi senza pilota possono operare in queste acque complesse”, mi ha detto Cooper, “crediamo che possano essere scalati alle altre flotte della Marina degli Stati Uniti”.

Mentre stavano creando la nuova task force, quelle acque continuavano a diventare sempre più complesse. Nelle prime ore del 29 luglio 2021, una petroliera chiamata Mercer Street stava navigando verso nord lungo la costa dell’Oman, in rotta dalla Tanzania agli Emirati Arabi Uniti, quando due droni neri a forma di V sono apparsi all’orizzonte, spazzando il cielo sereno prima di esplodere in mare. Un giorno dopo, dopo che l’equipaggio aveva raccolto alcuni detriti dall’acqua e segnalato l’incidente, un terzo drone ha bombardato il tetto della sala di controllo della nave, facendo detonare un esplosivo che ha squarciato la struttura, uccidendo due membri dell’equipaggio. Gli investigatori hanno concluso che tre “droni suicidi” di fabbricazione iraniana erano responsabili.

La principale minaccia nella mente di Stewart era la Cina. “Il mio obiettivo è arrivare con cose economiche o meno costose molto rapidamente, entro cinque anni, per inviare un messaggio deterrente”, dice. Ma anche la Cina sta facendo investimenti consistenti nell’autonomia militare. Un rapporto dell’Università di Georgetown nel 2021 ha rivelato che l’Esercito di Liberazione del Popolo spende ogni anno oltre 1,6 miliardi di dollari in tecnologia – circa quanto gli Stati Uniti. Il rapporto sottolinea anche che le navi autonome simili a quelle utilizzate dalla Task Force 59 sono un obiettivo principale della marina cinese. Essa ha già sviluppato un clone del Sea Hunter, insieme a quello che si dice sia un grande drone madre nave.

Tuttavia, Stewart non aveva notato molto interesse per il suo lavoro fino a quando la Russia ha invaso l’Ucraina. “Le persone mi chiamano e mi dicono: ‘Sai quella roba autonoma di cui parlavi? OK, dimmi di più'”, dice. Come i marinai e gli ufficiali che ho incontrato in Bahrain, Stewart non ha voluto commentare specificamente la situazione – né l’attacco con droni-boat a Sebastopoli, né il pacchetto di aiuti da 800 milioni di dollari inviato dagli Stati Uniti all’Ucraina la scorsa primavera, che includeva un numero non specificato di “imbarcazioni di difesa costiera senza pilota” – né il lavoro dell’Ucraina per sviluppare droni killer completamente autonomi. Tutto ciò che Stewart ha voluto dire è questo: “La tempistica sta sicuramente cambiando”.

Hivemind è progettato per pilotare il caccia F-16, e può battere la maggior parte dei piloti umani che lo sfidano nel simulatore.

Sono a San Diego, in California, un porto principale della Flotta del Pacifico degli Stati Uniti, dove le startup della difesa crescono come barnacoli. Proprio di fronte a me, in un alto edificio di vetro circondato da palme, si trova la sede di Shield AI. Stewart mi ha incoraggiato a visitare l’azienda, che produce il V-BAT, un drone aereo con cui la Task Force 59 sta sperimentando nel Golfo Persico. Anche se strano nell’aspetto – a forma di T capovolta, con ali e un’unica elica nella parte inferiore – è un’impressionante pezzo di hardware, abbastanza piccolo e leggero perché un team di due persone possa lanciarlo praticamente ovunque. Ma è il software all’interno del V-BAT, un pilota di intelligenza artificiale chiamato Hivemind, che sono venuto a vedere.

Attraverso gli uffici luminosi e bianchi dell’azienda, passo accanto agli ingegneri che manipolano parti di droni e righe di codice, fino a una piccola sala conferenze. Lì, su uno schermo grande, guardo tre V-BATS impegnati in una missione simulata nel deserto californiano. Un incendio boschivo sta infiammando un luogo vicino e il loro compito è trovarlo. Gli aeromobili si lanciano verticalmente da terra, poi si inclinano in avanti e si allontanano in diverse direzioni. Dopo pochi minuti, uno dei droni individua la fiamma e comunica le informazioni ai suoi compagni. Regolano il volo, avvicinandosi al fuoco per mapparne l’estensione completa.

Art: Julien Gobled; Getty Images

I V-BAT simulati non seguono comandi diretti dall’uomo. Non seguono nemmeno comandi codificati dagli umani in software convenzionale, come il rigido Se questo, allora quello. Invece, i droni sono in grado di percepire autonomamente l’ambiente circostante, di navigarlo, di pianificare come compiere la loro missione e di lavorare insieme come uno sciame. Gli ingegneri di Shield AI hanno istruito Hivemind in parte con apprendimento per rinforzo, impegnandolo in migliaia di missioni simulate e incoraggiandolo gradualmente a individuare il modo più efficiente per completare il compito. “Questi sono sistemi capaci di pensare e prendere decisioni”, afferma Brandon Tseng, ex Navy SEAL e cofondatore dell’azienda.

Questa versione di Hivemind include un algoritmo secondario piuttosto semplice in grado di identificare incendi boschivi simulati. Naturalmente, un diverso insieme di sotto-algoritmi potrebbe aiutare uno sciame di droni a identificare qualsiasi altro obiettivo: veicoli, imbarcazioni, combattenti umani. Inoltre, il sistema non è limitato al V-BAT. Hivemind è anche progettato per pilotare il caccia F-16 ed è in grado di battere la maggior parte dei piloti umani che si cimentano in una simulazione. (L’azienda immagina che questa intelligenza artificiale diventi un “copilota” nelle generazioni più recenti di aerei da guerra). Hivemind pilota anche un quadricottero chiamato Nova 2, abbastanza piccolo da entrare nello zaino e in grado di esplorare e mappare gli interni di edifici e complessi sotterranei.

Per la Task Force 59 o qualsiasi altra organizzazione militare interessata ad adottare l’intelligenza artificiale e la robotica in modo relativamente economico, il fascino di queste tecnologie è evidente. Oltre a offrire una “maggiore visibilità” sul campo di battaglia, come ha affermato Brasseur, offrono la possibilità di proiettare potere (e potenzialmente di usare la forza) con meno persone effettivamente impegnate. Invece di assegnare decine di operatori di droni umani a un’operazione di ricerca e soccorso o a una missione di ricognizione, potresti inviare una squadra di V-BAT o Nova 2. Invece di mettere a rischio la vita dei tuoi piloti addestrati a caro prezzo in un attacco aereo, potresti inviare uno sciame di droni economici, ognuno pilotato dalla stessa intelligenza artificiale d’élite, ognuno un’estensione della stessa mente collettiva.

Tuttavia, per quanto sorprendenti possano essere gli algoritmi di apprendimento automatico, possono essere intrinsecamente incomprensibili e imprevedibili. Durante la mia visita a Shield AI, ho un breve incontro con uno dei droni Nova 2 dell’azienda. Si solleva dal pavimento dell’ufficio e si ferma a circa un piede dal mio viso. “Ti sta osservando”, dice un ingegnere. Un attimo dopo, il drone si alza in volo e sfreccia attraverso una finestra simulata su un lato della stanza. L’esperienza è inquietante. In un istante, questa piccola intelligenza volante ha preso una decisione su di me. Ma come? Anche se la risposta potrebbe essere accessibile agli ingegneri di Shield AI, che possono riprodurre e analizzare gli elementi delle decisioni del robot, l’azienda sta ancora lavorando per rendere queste informazioni disponibili agli “utenti non esperti”.

Basta guardare al mondo civile per vedere come questa tecnologia può andare storta: sistemi di riconoscimento facciale che mostrano pregiudizi razziali e di genere, auto a guida autonoma che si scontrano con oggetti che non sono mai stati addestrati a riconoscere. Anche con un’ingegneria accurata, un sistema militare che incorpora l’intelligenza artificiale potrebbe commettere errori simili. Un algoritmo addestrato a riconoscere camion nemici potrebbe confondersi con un veicolo civile. Un sistema di difesa missilistica progettato per reagire a minacce in arrivo potrebbe non essere in grado di “spiegare” completamente perché ha sbagliato.

Questi rischi pongono nuove questioni etiche, simili a quelle sollevate dagli incidenti che coinvolgono le auto a guida autonoma. Se un sistema militare autonomo commette un errore mortale, chi ne è responsabile? È il comandante responsabile dell’operazione, l’ufficiale che supervisiona il sistema, l’ingegnere informatico che ha costruito gli algoritmi e connesso la mente collettiva, il broker che ha fornito i dati di addestramento?

Una cosa è certa: la tecnologia sta avanzando rapidamente. Quando ho incontrato Tseng, ha detto che l’obiettivo di Shield AI era quello di avere “una squadra operativa di tre V-BAT nel 2023, sei V-BAT nel 2024 e dodici V-BAT nel 2025”. Otto mesi dopo il nostro incontro, Shield AI ha lanciato una squadra di tre V-BAT da una base dell’Aeronautica per volare in una missione di simulazione di incendi boschivi. L’azienda ora può vantare anche il fatto che Hivemind può essere addestrato per svolgere una serie di missioni: dalla ricerca di basi missilistiche all’interazione con velivoli nemici, e presto potrà operare anche quando le comunicazioni sono limitate o interrotte.

Prima di lasciare San Diego, faccio un giro sulla USS Midway, una portaerei che è stata originariamente commissionata alla fine della Seconda Guerra Mondiale e ora è permanentemente ormeggiata nella baia. Per decenni, la nave ha trasportato alcune delle tecnologie militari più avanzate del mondo, servendo come pista galleggiante per centinaia di aerei che effettuavano missioni di ricognizione e bombardamento in conflitti dal Vietnam all’Iraq. Al centro della portaerei, come uno stomaco di metallo cavernoso, si trova il ponte degli aerei. Le porte su un lato conducono in un labirinto di corridoi e stanze, tra cui alloggi angusti per marinai, confortevoli camere degli ufficiali, cucine, infermerie, persino un barbiere e una lavanderia, un ricordo che in un certo periodo 4.000 marinai e ufficiali chiamavano questa nave casa.

Standoci qui, posso percepire quanto profondo sarà il passaggio all’autonomia. Potrebbe passare molto tempo prima che le navi senza equipaggio superino in numero quelle con persone a bordo, ancora più tempo prima che le navi madre dei droni dominino i mari. Ma l’armata di robot del Task Force 59, sebbene ancora agli inizi, segna un passo verso un altro mondo. Forse sarà un mondo più sicuro, in cui reti di droni autonomi, dispiegati in tutto il mondo, aiutano gli esseri umani a mantenere sotto controllo i conflitti. O forse i cieli si oscureranno con sciame di attacco. Qualunque futuro si prospetti all’orizzonte, i robot stanno navigando in quella direzione.


Questo articolo compare nel numero di settembre 2023. Iscriviti ora.

Fateci sapere cosa ne pensate di questo articolo. Inviaci una lettera al redattore a mail@WIRED.com.