Anthropic, een toonaangevende AI-ontwikkelaar, heeft een paradoxale doorbraak aangekondigd: zijn nieuwste kunstmatige-intelligentiemodel, Claude Mythos, is zo bedreven in het identificeren en exploiteren van softwarekwetsbaarheden dat het bedrijf het te gevaarlijk vindt om openbaar te maken.
In plaats van een traditionele consumentenlancering richt Anthropic zich op een defensieve strategie, waarbij de tool exclusief wordt gedeeld met grote infrastructuuraanbieders om hen te helpen de tekortkomingen te verhelpen die de AI aan het licht brengt.
Зміст
Het “dubbelsnijdende zwaard” van Claude Mythos
De opkomst van Claude Mythos vertegenwoordigt een belangrijke verschuiving in de AI-wapenwedloop. Volgens Anthropic heeft het model een niveau van codeerverfijning bereikt waarmee het bijna alle menselijke experts kan overtreffen bij het vinden van beveiligingslekken.
De gevolgen zijn diepgaand:
– Ongekende ontdekking: Tijdens voorlopige tests heeft Mythos duizenden ernstige kwetsbaarheden in elk belangrijk besturingssysteem en elke webbrowser geïdentificeerd.
– Schaal en diepte: In tegenstelling tot traditionele beveiligingsframeworks kan Mythos analyses uitvoeren met een snelheid en diepte die menselijke teams en oudere software eenvoudigweg niet kunnen evenaren.
– Het risico van democratisering: Hoewel AI-ondersteund kwetsbaarheidsonderzoek geen nieuw concept is, gaat het hier om de enorme kracht van dit specifieke model. Als het aan het grote publiek wordt vrijgegeven, zou het kwaadwillende actoren een ‘hoofdsleutel’ kunnen verschaffen voor de mondiale digitale infrastructuur.
Project Glasswing: een defensieve coalitie
Om de risico’s van Mythos te beperken, heeft Anthropic Project Glasswing gelanceerd. Dit initiatief is ontworpen om van een potentieel wapen een defensief schild te maken door toegang te verlenen aan een enorm consortium van technologiereuzen en veiligheidsleiders.
De coalitie omvat zwaargewichten uit de industrie, zoals:
– Cloud en infrastructuur: Amazon Web Services (AWS), Microsoft, Google en Nvidia.
– Hardware en netwerken: Cisco-, Broadcom- en Palo Alto-netwerken.
– Beveiliging en financiën: CrowdStrike, JPMorgan Chase en de Linux Foundation.
Anthropic ondersteunt deze inspanning met aanzienlijke middelen, door $100 miljoen aan gebruikskredieten toe te zeggen voor het Mythos-model en $4 miljoen aan donaties aan open-source beveiligingsorganisaties. Het doel is om deze bedrijven in staat te stellen de AI te gebruiken om de verdediging te versterken voordat hackers soortgelijke technologie kunnen gebruiken om hen aan te vallen.
Industrie- en politieke reacties
De reactie van de technologiesector was er één van voorzichtige urgentie. Leiders bij AWS en Cisco hebben het model beschreven als een ‘stapsverandering’ in de redenering, waarbij ze opmerkten dat het al manieren blootlegt om zelfs de best geteste systemen te versterken.
Deskundigen merken echter op dat dit deel uitmaakt van een versnellende trend. Michal Salát, directeur dreigingsinformatie bij Norton, wijst erop dat hoewel AI-gestuurd kwetsbaarheidsonderzoek heeft bestaan in gecontroleerde omgevingen (zoals DARPA-uitdagingen), de komst van zeer capabele, gespecialiseerde modellen de dreiging op een ongekende schaal in de echte wereld brengt.
Deze ontwikkeling trekt ook de aandacht van beleidsmakers. De Amerikaanse senator Mark Warner prees de proactieve aanpak en merkte op dat naarmate AI de ontdekking van fouten versnelt, de industrie net zo snel actie moet ondernemen om prioriteit te geven aan het patchen en beschermen van kritieke infrastructuur.
“De gevaren als we dit verkeerd doen zijn duidelijk, maar als we het goed doen, is er een reële kans om een fundamenteel veiliger internet te creëren… dan we hadden vóór de komst van AI-aangedreven cybercapaciteiten.” — Dario Amodei, CEO van Anthropic
Conclusie
Het besluit van Anthropic om Claude Mythos voor het publiek verborgen te houden, benadrukt een cruciaal keerpunt in de ontwikkeling van AI: het moment waarop de mogelijkheden van een model een systemisch veiligheidsrisico worden. Via Project Glasswing probeert het bedrijf een precedent te scheppen voor ‘defensieve AI’, waarbij prioriteit wordt gegeven aan de verharding van de mondiale digitale infrastructuur boven onmiddellijke commerciële release.
