Un report di Gladstone AI avverte che i data center statunitensi per l’intelligenza artificiale potrebbero essere vulnerabili allo spionaggio cinese, mettendo a rischio sicurezza nazionale e investimenti.
La vulnerabilità deriva da diversi fattori, tra cui la dipendenza da componenti critici prodotti in Cina. Inoltre, la sicurezza nei laboratori di AI è carente, spesso sacrificata in nome della rapidità di sviluppo e alcuni modelli avanzati hanno già mostrato capacità di “evasione” dai sistemi di contenimento.
Indice degli argomenti
I data center di AI nel mirino dello spionaggio cinese
Nel contesto dell’attuale corsa globale allo sviluppo dell’intelligenza artificiale (AI), laboratori privati negli Stati Uniti sarebbero sul punto di sviluppare una superintelligenza artificiale (ASI).
Ma un rapporto dei ricercatori di Gladstone AI ha sollevato dubbi riguardo alla sicurezza dei data center statunitensi. Secondo lo studio, tutte le strutture dedicate all’IA negli Usa, comprese quelle di nuova generazione come Stargate, sarebbero vulnerabili a operazioni di spionaggio da parte della Cina, mettendo a rischio la sicurezza nazionale.
Progetto Stargate
Il progetto Stargate, annunciato dal presidente Donald Trump a gennaio, è una joint venture tra OpenAI, SoftBank, Oracle e MGX, e prevede un investimento di 500 miliardi di dollari nei prossimi quattro anni per costruire infrastrutture dedicate all’IA. Grandi data center sul suolo statunitense, contenenti migliaia di chip informatici avanzati, necessari per addestrare nuovi sistemi di intelligenza artificiale.
La prima fase del progetto è già in corso ad Abilene, Texas. Nonostante il progetto abbia suscitato critiche riguardo alla sua fattibilità finanziaria e alla concentrazione di potere nelle mani di poche grandi aziende tecnologiche, Trump ha espresso il suo sostegno all’iniziativa, definendola una questione di competitività nazionale contro il concorrente cinese.
Il report di Gladstone AI
Gli autori del rapporto, Edouard e Jeremie Harris di Gladstone AI, però, hanno sottolineato che anche le strutture più avanzate in fase di costruzione non sono immuni alle minacce.
Il rapporto evidenzia infatti come i data center, inclusi quelli di nuova generazione, siano suscettibili a due tipi di attacchi: furti di proprietà intellettuale e sabotaggi asimmetrici.
Nel primo caso informazioni sensibili e di alto valore strategico potrebbero essere esfiltrate da attori statali ostili e usati per replicare, migliorare o neutralizzare tecnologie all’avanguardia.
Il secondo rischio consiste in attacchi mirati che, con risorse minime, possono causare danni sproporzionatamente elevati a infrastrutture complesse e costose: il termine “asimmetrico” indica proprio lo squilibrio tra il costo e la semplicità dell’attacco rispetto all’impatto potenziale.
Questo tipo di minaccia è particolarmente efficace contro sistemi interdipendenti e vulnerabili alla catena di approvvigionamento e si fa ancora più serio se si considera la dipendenza statunitense da componenti chiave prodotti in Cina, come generatori, trasformatori e chip che vengono eseguiti in gran parte a Taiwan.
Questa dipendenza potrebbe essere sfruttata per ritardare le riparazioni in caso di attacchi, prolungando i tempi di inattività dei data center: il rapporto suggerisce che la Cina potrebbe deliberatamente rallentare le spedizioni di questi componenti.
Il caso di OpenAI
In un caso riportato, un modello di OpenAI ha identificato e sfruttato una vulnerabilità per uscire dal suo ambiente di prova e accedere a risorse esterne per completare il compito assegnato.
Questi incidenti rivelano la possibilità per i modelli di intelligenza artificiale di applicarsi in modo inaspettato per raggiungere un obiettivo e sollevano interrogativi sulla capacità di controllare modelli sempre più avanzati.
Un Progetto Manhattan per l’AI intelligente
Il report di Gladstone AI si concentra sulla necessità di sviluppare meccanismi efficaci di contenimento con un approccio interdisciplinare e cita la raccomandazione formale della Commissione di revisione economica e di sicurezza Usa – Cina per l’istituzione di un “Progetto Manhattan per l’intelligenza artificiale intelligente“.
La prospettiva è stata ampiamente discussa nel panorama della Silicon Valley per anni ed è diventata di dominio pubblico quando l’ex ricercatore di OpenAI Leopold Aschenbrenner ha pubblicato il suo manifesto nel giugno 2024, “Situational Awarness: the decade ahead”.
Il contenimento non può essere affidato solo alla buona volontà dei laboratori privati: è una sfida di governance tecnologica globale.
Le carenze nella sicurezza interna dei laboratori
Oltre alle minacce esterne, il rapporto solleva la questione delle carenze nella sicurezza interna dei laboratori. E spiega che fonti interne hanno dichiarato che i dirigenti di alcuni dei principali laboratori ignoravano le richieste di misure di sicurezza più efficaci da parte di ricercatori preoccupati.
Gladston specifica che tali preoccupazioni erano più che fondate dato che negli ultimi anni, sono emersi numerosi casi documentati di operazioni di spionaggio, alcune delle quali andate a segno, condotte dalla Cina ai danni degli hyperscaler statunitensi e dei principali centri di sviluppo dell’intelligenza artificiale.
Inoltre, un ex ricercatore di OpenAI ha riferito di vulnerabilità note ma non affrontate per mesi: la cultura prevalente in molti laboratori privilegia la velocità di sviluppo rispetto alla sicurezza, aumentando il rischio di compromissioni.
Le raccomandazioni per i data center AI a rischio di spionaggio cinese
Il report di Gladstone AI è corredato da molteplici raccomandazioni e funge da campanello d’allarme per la comunità tecnologica e politica statunitense.
Per garantire che gli investimenti nell’IA portino a benefici duraturi, è essenziale affrontare queste sfide con urgenza, implementando misure di sicurezza robuste e promuovendo una cultura che bilanci innovazione e responsabilità.
Serve un cambio di paradigma
La crescente consapevolezza dei rischi legati allo spionaggio, ai sabotaggi e alla fuga incontrollata delle intelligenze artificiali sta finalmente stimolando un cambiamento di paradigma.
Le istituzioni, le aziende e le comunità scientifiche stanno avviando collaborazioni senza precedenti per ripensare la sicurezza delle infrastrutture digitali.
L’attenzione verso la costruzione di data center resilienti, la promozione di una cultura della sicurezza nei laboratori e l’investimento in tecnologie di contenimento avanzato non sono più opzioni, ma passi obbligati verso un futuro sostenibile dell’IA.
Se affrontate con determinazione e trasparenza, queste sfide possono trasformarsi in un’opportunità per costruire sistemi più sicuri e in generale un modello di sviluppo tecnologico più maturo, consapevole e orientato al bene collettivo.