Ascolta l’Audio dell’Articolo
Ascolta il Mini Podcast dell’articolo
Un test storico su Firefox
La collaborazione tra Anthropic e Mozilla segna un passaggio chiave per la sicurezza del software: il modello Claude Opus 4.6, messo alla prova su una delle codebase più analizzate al mondo, ha aiutato a individuare 22 vulnerabilità in Firefox in appena due settimane, 14 delle quali classificate da Mozilla come ad alta gravità. L’organizzazione ha confermato i risultati e la correzione di tutte le falle nella release Firefox 148.
Non è solo una buona notizia per la cyber difesa. È la prova che i modelli generativi non accelerano soltanto la scrittura del codice: sanno anche leggerlo criticamente, muovendosi in repository enormi e stratificati per scovare errori sfuggiti a revisione umana, fuzzing e analisi statica maturati in oltre vent’anni. Per l’ecosistema open source e per le imprese, significa poter trasformare l’AI in un alleato operativo capace di elevare la qualità del software prima che i problemi diventino incidenti.
Cambia il mestiere dello sviluppatore
Il report di Anthropic racconta che Claude ha identificato un use-after-free nel motore JavaScript di Firefox dopo circa 20 minuti di esplorazione, producendo una descrizione della vulnerabilità e perfino una patch proposta, poi validata dal team umano su Bugzilla. Nello stesso arco di tempo, mentre il primo caso veniva verificato, il modello aveva già generato 50 input unici in grado di far crashare il software. In totale sono stati passati al setaccio quasi 6.000 file C++ e inviati 112 report unici.
Con questa velocità, il collo di bottiglia si sposta: non è più trovare “qualcosa”, ma stabilire cosa conta davvero. Per i team di sviluppo il valore migra verso orchestrazione, verifica e gestione del rischio. In pratica, meno dattilografia del codice e più direzione tecnica del ragionamento software. Le competenze che salgono di prezzo sono:
- Triage e priorità delle vulnerabilità.
- Validazione rapida dei casi riproducibili e riduzione dei falsi positivi.
- Valutazione dell’impatto operativo e remediation.
Questo spostamento non sostituisce gli sviluppatori: li rende coordinatori di una produzione automatizzata che resta veloce ma non autonoma.
Capacità, rischi e benchmark
Come ogni salto tecnologico, anche questo porta ombre. Secondo Gambit Security, nel raid contro dieci enti pubblici messicani e un’istituzione finanziaria, a febbraio sarebbe stato usato Claude Code con oltre 1.000 prompt per trovare vulnerabilità, scrivere exploit, costruire tooling e automatizzare l’esfiltrazione di oltre 150 GB di dati, esponendo circa 195 milioni di identità. Anthropic segnala inoltre che i modelli più recenti riescono, in cyber range realistici, a eseguire attacchi multistadio su reti con decine di host usando strumenti open source standard: la soglia pratica d’impiego si sta abbassando.
Per misurare con rigore queste capacità crescono strumenti e policy dedicate:
- Le Frontier Capability Assessments del Frontier Model Forum e la Responsible Scaling Policy di Anthropic per l’assessment del rischio.
- Benchmark come Cybench (40 task CTF professionali), CVE-Bench (sfruttamento di CVE reali in sandbox) e CyberSecEval 2 (inclusi prompt injection, code interpreter abuse e False Refusal Rate).
Il quadro che ne emerge è duplice: i limiti esistono, ma l’aumento di capacità di coding e agentività rende gli LLM sempre più centrali anche nel dominio cyber. L’innovazione, per essere sostenibile, deve restare incardinata su metodo, responsabilità ed etica by design.
Una finestra di vantaggio per la difesa
C’è però un elemento incoraggiante che passa spesso in sordina. Anthropic ammette che, oggi, i suoi modelli sono significativamente più efficaci nel trovare e correggere vulnerabilità rispetto allo sfruttarle in modo offensivo. Per testare il limite, Claude è stato incaricato di trasformare alcune falle scoperte in exploit funzionanti: il test, eseguito centinaia di volte con circa 4.000 dollari di crediti API, ha prodotto exploit reali in solo due casi e in un ambiente semplificato, privo di protezioni come la sandbox del browser. La scoperta delle falle è, scrive Anthropic, di un ordine di grandezza più economica della costruzione di exploit, e Opus 4.6 è “molto migliore” nell’identificare e nel correggere i bug rispetto allo sfruttarli.
Questa asimmetria crea un’opportunità temporanea: tempo utile per ridurre il debito tecnico e integrare l’AI nella pipeline come lettore instancabile del codice. La stessa Anthropic, presentando Claude Code Security, descrive uno strumento che non si limita a confrontare pattern, ma che “legge e ragiona” sul codice, proponendo patch che restano comunque soggette ad approvazione umana. Anche Mozilla, consapevole che i report assistiti da AI spesso hanno cattiva reputazione perché generano rumore, sottolinea che qui hanno fatto la differenza test minimi riproducibili, verifiche rapide e un processo di responsible disclosure ben integrato nei flussi interni: metodo, non solo tecnologia.
Il messaggio per chi sviluppa è chiaro: il software sta entrando in una nuova fase industriale, con sistemi che iniziano ad agire come colleghi anomali—veloci, instancabili, capaci di correlazioni inedite—ma che richiedono guida, giudizio e responsabilità. È l’“urgenza del momento”: governare il codice, non solo scriverlo. Chi saprà orchestrare persone e modelli, tenendo insieme qualità, sicurezza ed etica, sarà il vero protagonista del prossimo ciclo dell’innovazione.