L’intelligenza artificiale trova 22 vulnerabilità di Firefox in due settimane

16
L’intelligenza artificiale trova 22 vulnerabilità di Firefox in due settimane

Il modello AI Claude Opus 4.6 di Anthropic ha identificato 22 vulnerabilità di sicurezza nel browser Firefox di Mozilla durante un periodo di test di due settimane. I risultati evidenziano il ruolo crescente dell’intelligenza artificiale nella moderna sicurezza informatica.

Risultati principali

Delle vulnerabilità rilevate, 14 sono state classificate come di gravità elevata, il che significa che potrebbero essere sfruttate per causare danni significativi. La maggior parte di questi difetti sono già stati corretti nella versione 148 di Firefox, rilasciata a febbraio. Tuttavia, alcune correzioni sono previste per un aggiornamento successivo. Il processo di test è iniziato nel motore JavaScript di Firefox prima di espandersi ad altre parti del codice del browser.

Perché è importante

Questa scoperta è significativa perché Firefox è ampiamente considerato uno dei browser tradizionali più sicuri. Il fatto che un modello di intelligenza artificiale possa scoprire così tanti problemi in breve tempo suggerisce che gli audit di sicurezza basati sull’intelligenza artificiale potrebbero diventare una pratica standard. La rapida identificazione delle vulnerabilità dimostra il potenziale dell’intelligenza artificiale di integrare o addirittura superare i ricercatori umani nel campo della sicurezza in determinati compiti.

Sfide di sfruttamento

È interessante notare che, sebbene Claude Opus eccellesse nel trovare i difetti, faticasse a sfruttarli. Il team ha speso 4.000 dollari in crediti API nel tentativo di creare exploit funzionanti, ma ci è riuscito solo due volte. Ciò suggerisce che in questa fase l’intelligenza artificiale potrebbe essere più efficace nell’analisi passiva della sicurezza rispetto all’hacking attivo.

Lo studio dimostra che l’intelligenza artificiale può accelerare la scoperta delle vulnerabilità, ma le competenze umane rimangono cruciali per trasformare queste debolezze in attacchi nel mondo reale.

I risultati mostrano che la capacità dell’intelligenza artificiale di rilevare problemi di sicurezza sta progredendo più velocemente della sua capacità di trasformarli in armi, il che potrebbe offrire un vantaggio temporaneo ai difensori.