Anthropic, uno dei principali sviluppatori di intelligenza artificiale, ha annunciato una svolta paradossale: il suo nuovo modello di intelligenza artificiale, Claude Mythos, è così abile nell’identificare e sfruttare le vulnerabilità del software che l’azienda lo ha ritenuto troppo pericoloso per il rilascio pubblico.
Invece di un tradizionale lancio tra i consumatori, Anthropic si sta orientando verso una strategia difensiva, condividendo lo strumento esclusivamente con i principali fornitori di infrastrutture per aiutarli a correggere gli stessi difetti scoperti dall’intelligenza artificiale.
Зміст
La “spada a doppio taglio” di Claude Mythos
L’emergere di Claude Mythos rappresenta un cambiamento significativo nella corsa agli armamenti dell’IA. Secondo Anthropic, il modello ha raggiunto un livello di sofisticazione della codifica che gli consente di superare quasi tutti gli esperti umani nell’individuazione delle lacune di sicurezza.
Le implicazioni sono profonde:
– Scoperta senza precedenti: nei test preliminari, Mythos ha identificato migliaia di gravi vulnerabilità in tutti i principali sistemi operativi e browser web.
– Scala e profondità: A differenza dei framework di sicurezza tradizionali, Mythos può eseguire analisi a una velocità e profondità che i team umani e i software legacy semplicemente non possono eguagliare.
– Il rischio di democratizzazione: sebbene la ricerca sulle vulnerabilità assistita dall’intelligenza artificiale non sia un concetto nuovo, la preoccupazione qui è la pura potenza di questo modello specifico. Se rilasciato al grande pubblico, potrebbe fornire agli autori malintenzionati una “chiave principale” per l’infrastruttura digitale globale.
Progetto Glasswing: una coalizione difensiva
Per mitigare i rischi posti da Mythos, Anthropic ha lanciato il Progetto Glasswing. Questa iniziativa è progettata per trasformare una potenziale arma in uno scudo difensivo garantendo l’accesso a un massiccio consorzio di giganti della tecnologia e leader della sicurezza.
La coalizione comprende pesi massimi del settore come:
– Cloud e infrastruttura: Amazon Web Services (AWS), Microsoft, Google e Nvidia.
– Hardware e reti: Reti Cisco, Broadcom e Palo Alto.
– Sicurezza e finanza: CrowdStrike, JPMorgan Chase e Linux Foundation.
Anthropic sta sostenendo questo impegno con risorse significative, impegnando 100 milioni di dollari in crediti di utilizzo per il modello Mythos e 4 milioni di dollari in donazioni a organizzazioni di sicurezza open source. L’obiettivo è consentire a queste aziende di utilizzare l’intelligenza artificiale per “rafforzare” le difese prima che gli hacker possano utilizzare una tecnologia simile per attaccarle.
Industria e reazioni politiche
La risposta del settore tecnologico è stata di cauta urgenza. I leader di AWS e Cisco hanno descritto il modello come un “cambio di passo” nel ragionamento, sottolineando che sta già scoprendo modi per rafforzare anche i sistemi più testati.
Tuttavia, gli esperti notano che questo fa parte di una tendenza in accelerazione. Michal Salát, direttore dell’intelligence sulle minacce presso Norton, sottolinea che mentre la ricerca sulle vulnerabilità guidata dall’intelligenza artificiale è esistita in ambienti controllati (come le sfide DARPA), l’arrivo di modelli specializzati altamente capaci porta la minaccia nel mondo reale su una scala senza precedenti.
Questo sviluppo sta attirando anche l’attenzione dei politici. Il senatore americano Mark Warner ha elogiato l’approccio proattivo, sottolineando che poiché l’intelligenza artificiale accelera la scoperta di difetti, l’industria deve muoversi altrettanto rapidamente per dare priorità all’applicazione di patch e alla protezione delle infrastrutture critiche.
“I pericoli di sbagliare sono evidenti, ma se lo facciamo nel modo giusto, c’è una reale opportunità di creare un Internet fondamentalmente più sicuro… di quello che avevamo prima dell’avvento delle capacità informatiche basate sull’intelligenza artificiale.” — Dario Amodei, CEO di Anthropic
Conclusione
La decisione di Anthropic di nascondere Claude Mythos al pubblico evidenzia un punto di svolta critico nello sviluppo dell’intelligenza artificiale: il momento in cui le capacità di un modello diventano un rischio sistemico per la sicurezza. Attraverso Project Glasswing, l’azienda sta tentando di creare un precedente per l’“intelligenza artificiale difensiva”, dando priorità al rafforzamento dell’infrastruttura digitale globale rispetto al rilascio commerciale immediato.
