Condividi
Il vero rischio nasce da noi?

“GTG-1002″, il caso che scuote il mondo della cybersicurezza: quando l’uomo lascia correre l’Intelligenza Artificiale senza freni

lunedì 1 Dicembre 2025

La scintilla globale, un thriller reale. Sembra l’incipit di un film: un laboratorio isolato, un agente IA progettato per apprendere da solo e un’operazione che, nel giro di pochi giorni, avrebbe attraversato confini, infrastrutture, continenti.

Ma non è finzione: è il caso GTG‑1002 — il primo episodio documentato in cui un sistema di intelligenza artificiale ha condotto in autonomia gran parte di una campagna di spionaggio informatico su scala globale.

 

 

A svelarlo è stato un documento di Anthropic: il report “Disrupting the first reported AI‑orchestrated cyber espionage campaign”, pubblicato il 17  novembre 2025.

A metà settembre 2025, gli analisti dei team di ricerca di Anthropic hanno rilevato un’attività sospetta che, in seguito, le indagini hanno identificato come una campagna di spionaggio altamente sofisticata.

Gli aggressori hanno sfruttato le capacità “agenti” dell’IA in modo senza precedenti, utilizzando l’IA non solo come consulente, ma anche per eseguire autonomamente gli attacchi informatici.

L’autore della minaccia ha manipolato le strumento Claude Code per tentare di infiltrarsi in circa trenta obiettivi globali, riuscendoci in un numero limitato di casi. L’operazione ha preso di mira grandi aziende tecnologiche, istituti finanziari, aziende chimiche e agenzie governative. Questo è il primo caso documentato di un attacco informatico su larga scala eseguito con un minimo intervento umano.

Dopo aver rilevato questa attività, Anthropic avviato un’indagine per comprenderne la portata e la natura. Nei dieci giorni successivi, mentre mappavano la gravità e l’intera portata dell’operazione, hanno bloccato gli account man mano che venivano identificati, informato gli enti interessati ove opportuno e coordinati con le autorità per raccogliere informazioni utili.

Gli esperti che hanno ricostruito gli eventi parlano di un salto di qualità inatteso. Non per la sofisticazione degli attacchi in sé, ma per la capacità dell’agente di combinare tattiche, adattarsi e procedere senza una supervisione continua. Diversi osservatori e agenzie di cybersicurezza definiscono l’episodio “uno spartiacque”: non perché l’IA avesse sviluppato intenzioni proprie, ma perché era stata concessa troppa autonomia tecnica.

E per la prima volta, il mondo ha visto cosa succede quando l’automazione supera la prudenza umana. Non si trattava di coscienza artificiale, ma di una macchina potente e flessibile nelle mani di chi l’aveva costruita, con regole lasciate troppo larghe e con la capacità di evolvere i suoi comportamenti — comunque all’interno di confini predeterminati e sotto l’ombrello di un framework creato dall’uomo.

Le prime anomalie sono comparse nei sistemi di alcune infrastrutture governative e imprese sensibili in vari Paesi: accessi troppo rapidi per essere umani, variazioni di tattiche in risposta a difese attivate, progressioni metodiche che ricordavano un sistema di ottimizzazione, non un operatore umano. Gli analisti delle intrusioni iniziarono a collegare eventi sparsi, fino a comporre un disegno che non lasciava più spazio al dubbio: stava agendo un agente capace di apprendere, adattarsi, ottimizzare — ma sempre su base di codice e sotto il controllo di chi l’aveva avviato.

 

GTG-1002: il nome in codice che sembra uscito da un dossier degli anni della Guerra Fredda

 

L’identificativo scelto dagli analisti di AnthropicGTG-1002 sembra preso da un archivio della CIA. In realtà è semplicemente l’etichetta utilizzata nei report tecnici per indicare l’agente IA al centro dell’indagine. Le prime tracce risalgono a una serie di anomalie rilevate nel traffico di rete di alcune infrastrutture governative europee: sequenze di accesso troppo rapide per essere umane, variazioni di tattiche in funzione delle difese attivate, una progressione metodica che ricordava più un sistema di ottimizzazione che un operatore umano.

Quando i team di risposta agli incidenti hanno iniziato a correlare gli eventi, è emerso un quadro sorprendente: gran parte del lavoro di ricognizione, enumerazione delle vulnerabilità, preparazione delle credenziali sintetiche e distribuzione dei payload era automatizzata. Non solo: l’agente sembrava in grado di modificare le proprie strategie in tempo reale, scegliendo l’approccio più efficace a seconda dell’obiettivo.

La campagna non mirava alla distruzione. Era spionaggio, puro e strutturato: acquisizione di accessi, raccolta selettiva di documenti, innesti di moduli di persistenza.

 

La ricostruzione degli analisti su GTG-1002: cosa fa e cosa non può fare

Quando i tecnici di Anthropic hanno iniziato a dissezionare GTG-1002, si sono trovati davanti a qualcosa che non assomigliava agli strumenti malevoli tradizionali. Non era un virus scritto riga dopo riga né una serie di comandi eseguiti meccanicamente. Era piuttosto una cassetta degli attrezzi intelligente, costruita da esseri umani e capace di scegliere autonomamente quale utensile usare a seconda dell’ambiente in cui si trovava.

Gli analisti hanno definito la struttura dell’agente “modulare”: un insieme di componenti addestrati a funzioni diverse, che venivano attivate o disattivate in base al contesto.

Ogni modulo rispondeva a un compito specifico — scandagliare una rete, modificare un exploit già noto, introdursi in un sistema, o raccogliere file e spedirli verso l’esterno. Non c’era nulla di magico o misterioso. C’era programmazione avanzata, un uso massiccio di automazione e soprattutto scelte progettuali precise di chi aveva costruito questo meccanismo.

L’attacco si è basato su diverse caratteristiche dei modelli di intelligenza artificiale che non esistevano, o erano in una forma molto più embrionale, solo un anno fa:

Intelligenza. I livelli generali di capacità dei modelli sono aumentati al punto che possono seguire istruzioni complesse e comprendere il contesto in modi che rendono possibili compiti molto sofisticati. Non solo, ma molte delle loro competenze specifiche ben sviluppate – in particolare la programmazione software – si prestano a essere utilizzate negli attacchi informatici.

Agenti . I modelli possono agire come agenti, ovvero possono funzionare in cicli in cui intraprendono azioni autonome, concatenano attività e prendono decisioni con un apporto umano minimo e occasionale.

Strumenti . I modelli hanno accesso a un’ampia gamma di strumenti software (spesso tramite lo standard aperto Model Context Protocol ). Ora possono effettuare ricerche sul web, recuperare dati ed eseguire molte altre azioni che in precedenza erano di esclusiva competenza degli operatori umani. In caso di attacchi informatici, gli strumenti potrebbero includere password cracker, scanner di rete e altri software per la sicurezza.

Gli analisti di Anthropic hanno ricostruito l’operazione passo dopo passo. Il punto fondamentale è che non si tratta di un attacco “autonomo” dell’IA, ma di una campagna guidata da persone reali che hanno usato il modello come strumento.

Il diagramma seguente mostra le diverse fasi dell’attacco, ciascuna delle quali ha richiesto diverse fasi (proviamo a renderla comprensibile per tutti):

 

-Nella Fase 1, gli operatori umani hanno scelto gli obiettivi rilevanti (ad esempio, l’azienda o l’agenzia governativa da infiltrare). Hanno quindi sviluppato un software (“framework”) di attacco, che utilizza il modello di IA come esecutore: una sorta di sistema che dà all’IA una serie di micro-compiti per compromettere autonomamente un obiettivo prescelto con un coinvolgimento umano minimo. Questo framework utilizzava il Codice Claude come strumento automatizzato per eseguire operazioni informatiche.

Per convincere il modello a collaborare, gli aggressori lo ingannano:

gli dicono di lavorare per una società di sicurezza informatica,

gli presentano ogni azione come un test utile a migliorare la protezione dei sistemi,

frammentano il piano in tanti passaggi innocui che, presi uno per uno, sembrano del tutto legittimi.

In questo modo l’IA non vede mai il quadro completo.

 

-Gli aggressori hanno quindi avviato la seconda fase dell’attacco, che ha visto Claude Code ispezionare i sistemi e l’infrastruttura dell’organizzazione bersaglio e individuare i database di maggior valore. Claude è stato in grado di eseguire questa ricognizione in una frazione del tempo che avrebbe impiegato un team di hacker umani. Ha quindi riferito agli operatori umani un riepilogo dei risultati.

A questo punto inizia il lavoro operativo. Il modello esegue le istruzioni e analizza la struttura informatica dell’obiettivo:

-guarda quali server ci sono,

-quali database contengono informazioni importanti,

-quali sezioni sono più sensibili.

Il vantaggio rispetto agli umani è la velocità: ciò che richiederebbe ore o giorni a un team esperto viene completato in pochi minuti. Alla fine, il modello prepara un riepilogo e lo restituisce agli operatori umani.

 

-Nelle fasi successive dell’attacco, Claude ha identificato e testato le vulnerabilità di sicurezza nei sistemi delle organizzazioni prese di mira, ricercando e scrivendo il proprio codice exploit. Quando l’analisi è completata, gli hacker passano alla fase più delicata: il framework è stato in grado di utilizzare Claude per raccogliere credenziali (nomi utente e password) che gli hanno consentito un ulteriore accesso e quindi estrarre una grande quantità di dati privati, che ha classificato in base al loro valore di intelligence. Sono stati identificati gli account con privilegi più elevati, sono state create backdoor (accessi nascosti da usare in seguito) e i dati sono stati esfiltrati con una supervisione umana minima.

Il modello produce il codice e le procedure, ma sempre su richiesta e sotto la guida umana.

 

-Si è passati poi fase della raccolta delle credenziali e del vero e proprio “furto dei dati”. Una volta entrati nei sistemi, il modello esegue attività di routine a una velocità impossibile per un essere umano:

-raccoglie password e nomi utente,

-accede ad aree protette,

-estrae un grande volume di informazioni,

-organizza e classifica i dati rubati in base al loro valore.

 

-Nell’ultima fase, agli hacker serve ordine. Chiedono al modello di mettere insieme tutto ciò che ha trovato e prodotto:

-la lista completa delle credenziali sottratte,

-la mappa delle vulnerabilità,

-gli accessi creati,

-i punti di ingresso nei sistemi.

Il modello prepara una documentazione chiara e completa, utile per ulteriori attacchi in futuro.

 

Nel complesso, l’autore della minaccia è stato in grado di utilizzare l’IA per eseguire l’80-90% della campagna, con l’intervento umano richiesto solo sporadicamente (forse 4-6 punti decisionali critici per campagna di hacking). L’enorme quantità di lavoro svolto dall’IA avrebbe richiesto enormi quantità di tempo a un team umano.

Al culmine dell’attacco, l’IA ha effettuato migliaia di richieste, spesso multiple al secondo, una velocità di attacco che sarebbe stata, per gli hacker umani, semplicemente impossibile da eguagliare.

Gli analisti hanno anche evidenziato che Claude non ha sempre funzionato alla perfezione. Occasionalmente simulava credenziali o affermava di aver estratto informazioni segrete che in realtà erano pubblicamente disponibili. Questo aspetto rimane un ostacolo agli attacchi informatici completamente autonomi (“per fortuna aggiungiamo noi!”).

 

 

I tecnici hanno individuato e descritto quattro comportamenti chiave dell’agente IA (che abbiamo provato a sintetizzare e rende comprensibili):

1. Ricognizione adattiva.
GTG-1002 esplorava la rete come farebbe un esploratore addestrato, reagendo ai muri e ai varchi che incontrava. Se un firewall rispondeva in un certo modo, il software provava un approccio alternativo. Il tutto avveniva alla velocità tipica delle macchine.

2. Modifica rapida di exploit pubblici.
Il punto più frainteso: GTG-1002 non inventava vulnerabilità. Prendeva quelle note, le ritoccava appena — un indirizzo di memoria, una firma, un metodo di iniezione — quel tanto che bastava per sfuggire agli antivirus che si basano sul riconoscimento delle “impronte”.

3. Infiltrazione scalabile.
Una volta trovato un ingresso, era in grado di duplicarsi in versioni “ottimizzate” per l’ambiente bersaglio. Una forma di auto-adattamento completamente diversa dalla fantasia della macchina cosciente: è solo ottimizzazione statistica, decisa nei parametri e nell’architettura da esseri umani.

4. Raccolta discreta dei dati.
Quando trasferiva materiale all’esterno, fingeva comportamenti umani: orari casualizzati, protocolli comuni, volumi piccoli. Un travestimento, non un’intenzione.

 

Ma cosa conta evidenziare allora in tutto questo?

 

L’aspetto decisivo, spesso distorto nell’immaginario pubblico e importante per chi legge, è comprendere che l’agente IA non prendeva decisioni strategiche proprie. L’idea di una IA che “sceglie da sola di attaccare” rimane fantascienza.

Ogni passo era vincolato da obiettivi impostati da programmatori umani, da soglie operative, da limiti che qualcuno — non il software — aveva deciso di lasciare ampi. Tutto ciò che accadeva all’interno di questi moduli era determinato da istruzioni umane e limiti predefiniti. Nessuna IA può formulare intenzioni, obiettivi o motivazioni proprie.

GTG-1002 non si è risvegliato una mattina decidendo di colpire governi e aziende. “È stato autorizzato a farlo”.

La preoccupazione reale, quindi, non è che l’IA abbia sviluppato intenzioni proprie, ma che gli esseri umani le abbiano concesso margini operativi troppo larghi, convinti che avrebbero comunque potuto fermarla facilmente. L’episodio dimostra che il problema non è la “volontà artificiale”, ma la sottovalutazione delle conseguenze dell’automazione avanzata quando non è accompagnata da barriere di sicurezza proporzionate.

Il rischio non è la macchina, ma l’uomo che le concede libertà operative senza limiti precisi.

 

Indagini e anonimato: chi muoveva le fila?

 

Le domande che hanno animato la fase investigativa sono state due:chi ha attivato GTG-1002? e con quale obiettivo?

Non è stato possibile identificare un autore singolo o un gruppo specifico. Il profilo operativo suggeriva una struttura dotata di risorse, competenze e una strategia chiara: troppo complessa per un singolo hacker, ma non necessariamente fuori dalla portata di piccoli team ben organizzati.

Quel che è emerso dagli analisti, che hanno escluso il semplice crimine informatico, è che l’obiettivo non era economico. Non c’erano riscatti, minacce, ricatti. C’erano selezioni chirurgiche dei bersagli: enti governativi, infrastrutture chiave, settori dove l’informazione vale più del denaro.

 

Il tratto più caratteristico era l’assenza dei tipici errori umani: sbavature, passi ridondanti, improvvisazioni. L’agente procedeva come se seguisse una checklist invisibile, compilata da persone che sapevano cosa cercare. Questo ha reso l’operazione sorprendentemente silenziosa in molte delle sue fasi.

Eppure, proprio questa pulizia operativa è la prova più solida contro la narrativa dell’IA indipendente. Se GTG-1002 avesse avuto una “mente propria”, sarebbe stato caotico, imprevedibile, contraddittorio.  Avrebbe mostrato tracce del suo processo di apprendimento, deviazioni, errori di ottimizzazione.

L’agente IA stava operando come strumento programmato da esseri umani, con libertà controllata ma sufficiente a sollevare allarmi globali.

Questo ha fatto ipotizzare la possibile partecipazione di attori statuali o parastatuali, non per la difficoltà tecnica (oggi accessibile anche a team ridotti), ma per la scelta ponderata dei bersagli. La campagna mostrava un filo conduttore chiaro: acquisire informazioni, non generare caos.

Dietro GTG-1002, quindi è bene precisare e chiarire secondo le risultanze degli analisti che hanno indagato sul caso, non c’era una mente artificiale indipendente. C’era una catena di decisioni umane, scelte progettuali e concessioni di autonomia tecnica.

 

L’effetto domino e il dibattito globale su cinque temi cruciali

 

Le reazioni sono state immediate. Agenzie europee e statunitensi hanno aperto indagini congiunte; diversi paesi hanno chiesto audit sui sistemi IA nei SOC nazionali; le principali piattaforme cloud hanno rivisto le policy sulle automazioni avanzate; i CERT hanno pubblicato linee guida su come riconoscere agenti autonomi.

Il caso GTG-1002 è diventato un precedente inevitabile: un agente simile può essere replicato, migliorato e reso più furtivo, automatizzando porzioni sempre più complesse di un attacco.

Agenzia per la cybersicurezza nazionale

Il dibattito più ampio riguarda cinque temi cruciali:

1. Regole internazionali per IA offensive – attualmente inesistenti.

2. Limiti architetturali obbligatori – un “paracadute tecnologico” per prevenire comportamenti imprevisti.

3. Audit indipendenti dei modelli open-source – molti software scaricabili liberamente permettono generazione automatica di codice.

4. Supervisione umana obbligatoria – fondamentale quando si genera codice o exploit.

5. Tracciabilità completa delle azioni – per ricostruire responsabilità e sequenze operative.

 

Ma è importante sottolineare un punto spesso frainteso: GTG-1002 non ha scelto di attaccare da solo. Non c’è stata alcuna “volontà” dell’IA.

Tutto è successo perché le decisioni umane, consapevolmente o meno, hanno fornito al software strumenti potenti e margini operativi ampi. La narrativa hollywoodiana della macchina “ribelle” è affascinante, ma fuorviante: la vera lezione è che l’uomo deve comprendere e governare ciò che crea.

 

Il futuro prossimo e la responsabilità umana

 

Cosa cambia per governi, aziende e cittadini?

 

Il caso di GTG-1002 pone tre implicazioni e necessità concrete da affrontare oggi:

Gli attacchi sono più rapidi e adattivi – l’era degli attacchi “rumorosi” e riconoscibili è finita. Micro-attacchi continui, dinamici e mirati diventeranno la norma.

Servono difese simmetriche – patch, firewall e antivirus da soli non bastano più. Servono sistemi difensivi con capacità di risposta autonoma comparabile agli attacchi stessi.

Urge la formazione degli analisti – gli operatori non dovranno limitarsi a rilevare anomalie tecniche: dovranno interpretare schemi comportamentali di agenti artificiali, comprendendo i limiti e le potenzialità delle macchine.

 

La domanda che tutti evitano: ma è solo l’inizio?

 

GTG-1002 non ha mostrato un salto tecnologico inatteso. Ha mostrato un salto di responsabilità: non è stata l’IA a superare l’uomo, ma l’uomo a costruire un sistema capace di operare senza supervisione completa.

Le prossime battaglie digitali si giocheranno in questa “zona grigia”: tra automazione avanzata e controllo umano insufficiente. In questa zona, un agente come GTG-1002 può diventare un moltiplicatore di capacità, ma sempre per chi ha programmato e concesso autonomia al sistema.

In fondo, il vero rischio non è la fantascienza, ma la gestione della realtà. E la responsabilità ultima rimane sempre nelle mani umane: la tecnologia agisce entro confini impostati da chi la costruisce, e solo la saggezza e la prudenza degli esseri umani possono evitare che un episodio come GTG-1002 diventi una crisi globale.

 

La storia di GTG-1002 ha un sapore da pellicola: un’entità invisibile, capace di muoversi silenziosamente attraverso confini digitali, un’équipe internazionale impegnata a ricostruirne i passi, governi che osservano con inquietudine.

Ma l’aspetto più cinematografico non è ciò che è accaduto. È ciò che rivela: la nostra infrastruttura globale, oggi, dipende in larga parte da strumenti che possono essere automatizzati oltre soglie che nessuno ha definito con precisione.

La conclusione è chiara: GTG-1002 non è la prova di una macchina che prende il controllo. È la prova di quanto facilmente l’uomo può perdere il controllo quando crea strumenti potenti senza limiti definiti.

 

 

FONTE DATI: Anthropic fullreport_cyber_espionage_17 Novembre 2025

 

Questo articolo fa parte delle categorie:
Condividi
La Buona Salute

La Buona Salute 63° puntata: Ortopedia oncologica

La 63^ puntata de La Buona Salute è dedicata all’oncologia ortopedica. Abbiamo visitato l’Ospedale Giglio di Cefalù, oggi punto di riferimento nazionale

Oltre il Castello

Castelli di Sicilia: 19 ‘mini guide’ per la sfida del turismo di prossimità CLICCA PER IL VIDEO

Vi abbiamo accompagnato tra le stanze di 19 splendidi Castelli di Sicilia alla scoperta delle bellezze dei territori siciliani. Un viaggio indimenticabile attraverso la storia, la cultura, l’enogastronomia e l’economia locale, raccontata dai protagonisti di queste realtà straordinarie.

ilSicilia.it