Agenti Autonomi: difficile il monitoraggio, l’attribuzione e l’applicazione delle policy
“In Terminator, Skynet non era pericoloso perché intelligente, bensì perché operava in modo indipendente e coordinato su larga scala e agiva più rapidamente rispetto agli interventi umani. Oggi stiamo assistendo alla comparsa di quelle stesse caratteristiche strutturali, ma senza i quadri di governance necessari per gestirle in modo sicuro.
I sistemi di AI tradizionali sono stati ampiamente limitati dall’intento dei singoli utenti e dalla revisione umana, ma questi ecosistemi di agenti stanno già mostrando dinamiche sociali che i modelli di sicurezza e governance esistenti non sono stati progettati per gestire. I rischi non sono più ipotetici: gli agenti AI si sono resi responsabili di abusi delle interfacce API, dumping di credenziali, interazioni ingannevoli con altri agenti e truffe finanziarie, comprese frodi con criptovalute. Questo è ciò che distingue fondamentalmente i sistemi di AI agentica dalle precedenti innovazioni nel campo dell’intelligenza artificiale e che costituisce una preoccupazione sempre maggiore per i team di sicurezza, rischio e governance.
Nel breve termine, i team di sicurezza dovranno affrontare significative mancanze di visibilità. Gli agenti autonomi non corrispondono perfettamente alle categorie esistenti quali utenti, account di servizio o applicazioni, il che rende difficile il monitoraggio, l’attribuzione e l’applicazione delle policy. Ciò amplierà la superficie di attacco: agenti configurati in modo errato o con privilegi eccessivi aumentano il rischio di esposizione dei dati, l’uso improprio delle credenziali e le azioni non intenzionali eseguite alla velocità delle macchine.
Inoltre, esiste un’elevata probabilità che gli aggressori sfruttino gli stessi framework degli agenti per automatizzare la ricognizione, la manipolazione e il movimento laterale. Da un punto di vista tecnologico, ciò accelererà la domanda di nuovi controlli incentrati sull’identità degli agenti, sul monitoraggio del comportamento, sulla convalida delle intenzioni e sulle funzionalità di kill switch.
Le organizzazioni dovrebbero considerare questo aspetto come un chiaro segnale per ripensare il modo in cui i sistemi agentici sono progettati e disciplinati. La loro autonomia deve essere intenzionale e limitata e le loro roadmap dovrebbero dare priorità all’osservabilità, al controllo delle autorizzazioni e alla verificabilità, prima ancora di espandere l’autonomia. Dunque, le aziende devono partire dal presupposto che gli agenti interagiranno con altri agenti, compresi quelli non affidabili, e progettare di conseguenza.
Cosa ancora più importante, la governance degli agenti non può essere un pensiero secondario: gli addetti alla sicurezza, al rischio e alla compliance devono essere coinvolti fin dalla fase di progettazione, non dopo l’implementazione. Le organizzazioni che tratteranno gli agenti come un nuovo livello operativo e non solo come una funzione di produttività saranno in grado di affrontare queste evoluzioni con successo”.
Adam Khan, VP Global Security Operations di Barracuda Networks