Le violazioni dei dati con l'IA generativa sono raddoppiate
Il nuovo Netskope Cloud & Threat Report 2026 per la regione DACH avverte: mentre l'uso dell'IA generativa (GenAI) sta triplicando, la sicurezza dei dati è in ritardo. I «rischi tradizionali» come il phishing e le minacce interne rimangono critici.

Nonostante i tentativi di controllare l'utilizzo dell'intelligenza artificiale attraverso gli strumenti ufficiali dell'azienda, la recente pubblicazione di Rapporto su cloud e minacce 2026 dai Threat Labs di Netskope: il numero di violazioni delle linee guida sulla sicurezza dei dati in relazione alle applicazioni di IA è più che raddoppiato rispetto all'anno precedente. Il rischio derivante dall'IA ombra rimane elevato, in quanto i dipendenti continuano ad alimentare enormi quantità di dati sensibili in canali non protetti. Il Netskope Cloud and Threat Report 2026 si basa su dati anonimizzati raccolti in tutto il mondo tramite la Netskope Security Cloud Platform. Analizza le tendenze nell'utilizzo del cloud, l'adozione dell'intelligenza artificiale e il panorama globale delle minacce.
Il boom dell'intelligenza artificiale supera le misure di sicurezza
Il rapporto mostra una crescita esplosiva. Mentre il numero di utenti di applicazioni SaaS GenAI è triplicato lo scorso anno, l'intensità di utilizzo è aumentata drasticamente. Il numero di richieste inviate è aumentato di sei volte. L'aspetto particolarmente critico è che, nonostante i maggiori sforzi da parte dei reparti IT, 47 % degli utenti continuano a utilizzare account AI privati per scopi aziendali. Come risultato di questa AI ombra, le aziende registrano una media di 223 incidenti al mese in cui dati sensibili vengono inviati alle app di AI. Per il quarto superiore (25 %) delle aziende analizzate, questa cifra supera addirittura i 2100 incidenti al mese.
Il rapporto mostra anche altri risultati rilevanti:
- I Gemelli sono in corsia di sorpasso: Google Gemini ha registrato una crescita massiccia. Il tasso di utilizzo è passato da 46 % a 69 %. Netskope prevede che Gemini sostituirà ChatGPT come piattaforma di AI più utilizzata nelle aziende nella prima metà del 2026.
- Pericolose fughe di dati: Il codice sorgente (42 %), i dati regolamentati (32 %) e la proprietà intellettuale (16 %) sono le informazioni sensibili più frequentemente caricate negli strumenti di IA.
- Rischio insider «app personali»: Il 60 % di tutte le minacce interne è legato all'uso di istanze cloud private (come Google Drive o OneDrive), con l'uso di strumenti GenAI che aumentano in modo massiccio questo rischio. Particolarmente preoccupante: il 54 % delle violazioni di dati riguarda dati regolamentati (dati finanziari, sanitari o personali).
IA agenziale e MCP
Per l'anno 2026, Netskope avverte della crescente complessità dell'IA agenziale. Si tratta di sistemi di intelligenza artificiale che eseguono autonomamente compiti complessi su varie risorse aziendali. «L'IA agenziale crea una superficie di attacco completamente nuova», afferma Ray Canzanese, direttore dei Threat Labs di Netskope. «Quando gli agenti autonomi ottengono l'accesso ai dati interni, le configurazioni errate o i suggerimenti dannosi possono portare a una massiccia fuga di dati in pochi millisecondi». Anche la tendenza verso i browser guidati dall'intelligenza artificiale e il Model Context Protocol (MCP) è classificata come un rischio critico per la sicurezza per il 2026.
Raccomandazioni per l'azione
Il rapporto raccomanda quattro livelli di protezione per le aziende:
- Ispezione completa: Ispezione di tutto il traffico HTTP/HTTPS, compreso il traffico AI.
- Governance delle applicazioni: Blocco di strumenti ad alto rischio senza scopo di lucro (ad es. ZeroGPT, DeepSeek).
- Focus DLP: Utilizzo della prevenzione della perdita di dati per proteggere il codice sorgente e le password da fughe nei modelli di intelligenza artificiale.
- Isolamento: Utilizzo di Remote Browser Isolation (RBI) per i domini a rischio o nuovi.
Fonte: Netscope


