Menu di accessibilità (premi Invio per aprire)

11 febbraio 2026

Shadow AI: rischi, governance e conformità normativa

Dall'uso sommerso di strumenti IA ai framework di trusted AI: strategie operative per PMI e grandi imprese

L’adozione capillare di strumenti di intelligenza artificiale generativa nelle imprese italiane ed europee ha portato alla luce il fenomeno della Shadow AI, ossia l’utilizzo non autorizzato di tool IA da parte dei dipendenti, al di fuori dei canali ufficiali e della supervisione IT. Questo fenomeno nasce spesso da esigenze reali di produttività e automazione, ma si colloca in una pericolosa zona grigia per privacy, sicurezza dei dati e conformità a GDPR e AI Act.


Cos’è la Shadow AI?

La shadow AI costituisce un sottoinsieme specifico del più ampio fenomeno dello shadow IT, con differenze sostanziali.

Con shadow IT si indica qualsiasi software, hardware o tecnologia introdotta in azienda senza approvazione o controllo da parte dell’IT. La shadow AI è la sua evoluzione: l’uso di strumenti o applicazioni di intelligenza artificiale da parte dei dipendenti, senza approvazione o supervisione IT. In questo caso i rischi sono amplificati perché i dati non vengono semplicemente “elaborati”, ma spesso inviati a piattaforme esterne che possono riutilizzarli, conservarli o impiegarli per addestrare modelli.​​

Dal punto di vista operativo, questo include scenari molto concreti: un dipendente che copia in un chatbot il testo di un contratto per farsi generare un riassunto, un data analyst che carica un CSV con dati cliente su un servizio di analisi IA online, un tecnico che usa un assistente IA pubblico per generare o refactorizzare codice partendo da repository interni. Ogni volta che questi flussi avvengono su strumenti non autorizzati, l’azienda perde visibilità su dove finiscono i dati, per quanto tempo vengono conservati e con quali garanzie vengono trattati.


L’evoluzione del fenomeno: dati e tendenze

Come rileva IBM, tra il 2023 e il 2024 la diffusione dell’IA generativa nelle aziende è cresciuta in modo esponenziale: la percentuale di dipendenti che la utilizza è passata dal 74% al 96%, e quasi quattro su dieci (38%) ammettono di condividere dati sensibili senza autorizzazione. Un aumento così rapido è spiegato dalla facilità d’accesso ai servizi SaaS, spesso percepiti come più agili ed efficienti rispetto alle soluzioni interne, talvolta considerate obsolete o troppo burocratiche.

Secondo un recente report del Boston Consulting Group (BCG), citato dal Corriere della Sera, la situazione in Italia riflette il trend globale:

  • Il 68% dei lavoratori utilizza regolarmente strumenti di GenAI durante la settimana lavorativa — un valore in linea con Germania e Regno Unito, ma di poco inferiore alla media mondiale (72%);

  • Il 54% dei dipendenti a livello globale dichiara di essere disposto a usare strumenti di IA non autorizzati “in assenza di soluzioni ufficiali”, dando vita a pratiche di shadow AI;

  • Solo un lavoratore su tre ha ricevuto una formazione adeguata, mentre l’85% dei dirigenti utilizza la GenAI con regolarità contro il 51% del personale operativo.

Questi dati evidenziano due aspetti chiave: la shadow AI non è un fenomeno marginale e non riguarda esclusivamente gli “appassionati di tecnologia”. È ormai pervasiva e trasversale, diffusa in ogni ruolo e settore, e nasce nel punto di incontro tra un’esigenza legittima — migliorare efficienza e produttività — e un vuoto organizzativo, dovuto all’assenza di strumenti ufficiali, policy chiare e percorsi formativi adeguati.


Dove si manifesta la shadow AI

La shadow AI emerge dove l’uso dell’IA appare innocuo, infiltrandosi nei processi aziendali chiave.

Nel servizio clienti, chatbot pubblici gestiscono risposte complesse o traduzioni inserendo ticket, dati di reclamo e polizze nei prompt: il risultato è data leakage verso piattaforme esterne e risposte potenzialmente errate o non allineate, con gravi impatti legali e reputazionali. In data analytics, dataset aziendali finiscono su tool IA online per insight rapidi, ma il riutilizzo opaco dei dati viola i principi GDPR di minimizzazione, limitazione della finalità e trasferimenti internazionali. Nel marketing, GenAI genera copy, test A/B, post social e landing page alimentata da segmentazioni clienti e strategie proprietarie: si apre così a fughe di dati e incoerenze con brand guidelines e compliance. Nei team IT e sviluppo, assistenti IA producono codice, refactor e script senza valutazioni di sicurezza, esponendo proprietà intellettuale e introducendo vulnerabilità generate dall’IA stessa.

Tratto comune è l’invisibilità assoluta: mentre il management presume un perimetro tecnologico governato, prolifera una galassia parallela di tool che processano dati sensibili fuori da ogni controllo.


Quadro normativo

Dal punto di vista regolatorio, la shadow AI è un detonatore perfetto perché si colloca all’intersezione di più discipline: protezione dati, regolamentazione dell’intelligenza artificiale e cybersecurity di rete e sistema. Sul piano GDPR, l’uso di tool IA non autorizzati solleva almeno quattro questioni:

  • l’assenza di una base giuridica documentata per il trasferimento dei dati a determinati fornitori o verso paesi terzi;

  • la mancata esecuzione di valutazioni d’impatto (DPIA) per trattamenti che, per natura, ambito e contesto, lo richiederebbero;

  • l’impossibilità di garantire i diritti degli interessati (accesso, cancellazione, limitazione) se l’azienda non sa in quali modelli e sistemi i dati sono confluiti;

  • la difficoltà di dimostrare l’adozione di misure tecniche e organizzative adeguate.​​

Le sanzioni previste dal GDPR, fino a 20 milioni di euro o al 4% del fatturato globale, non sono solo un numero astratto: in presenza di data breach connessi a trattamenti non autorizzati, la combinazione di danno economico diretto e sanzioni può essere devastante, in particolare per le PMI.

L’AI Act introduce ulteriori obblighi: classificazione dei sistemi di IA per livello di rischio, requisiti stringenti per i sistemi ad alto rischio (documentazione, logging, sorveglianza umana, gestione del ciclo di vita), trasparenza e robustezza. Se parti di processo aziendale vengono affidate in modo sommerso a tool IA non censiti, l’azienda non è in grado di dire “quale IA sta usando per cosa”, né di dimostrare la conformità agli obblighi specifici.

Per gli operatori soggetti a NIS2 o al Cyber Resilience Act, la shadow AI introduce infine una superficie d’attacco nuova: API non controllate, estensioni browser che interagiscono con sistemi critici, modelli esterni che leggono dati infrastrutturali. Tutti elementi difficili da proteggere se non sono neppure mappati.


Costi, breach e impatto sul business

Le analisi correlate al 2025 Cost of a Data Breach Report evidenziano come la shadow AI non sia più solo un problema teorico, ma un fattore economico misurabile:

  • le organizzazioni con alti livelli di shadow AI hanno registrato in media 670.000 dollari di costi aggiuntivi per breach rispetto a quelle con livelli bassi o nulli;

  • il 20% delle organizzazioni ha riportato violazioni originate da incidenti di shadow AI;

  • in questi incidenti, la compromissione di dati personali identificabili (PII) sale al 65% e quella di proprietà intellettuale al 40%, valori superiori alla media globale;

  • il 97% delle organizzazioni che ha subito un breach legato all’IA non aveva controlli di accesso adeguati per gli strumenti di intelligenza artificiale.​

Diverse analisi di settore stimano che una parte consistente dei data breach più recenti derivi proprio da un uso non controllato dell’IA, con circa un quinto delle violazioni totali in crescita costante anno dopo anno. Per le PMI, le conseguenze si traducono in sanzioni e costi complessivi compresi tra 1 e 3 milioni di euro per singolo incidente, includendo notifiche, consulenze legali, ripristino dei sistemi e danno reputazionale.

Questi dati confermano un punto chiave dal punto di vista del risk management: la shadow AI non è solo un tema di policy, ma un driver di costo diretto. Ogni applicazione IA non governata che entra in contatto con dati sensibili aumenta, in modo non lineare, la probabilità di incidenti costosi che coinvolgono proprio gli asset più critici: dati clienti, segreti industriali, modelli di pricing, strategie.


Dalla shadow AI alla “Trusted AI”

Affrontare la shadow AI in modo efficace significa andare oltre la logica del divieto e costruire un modello di Trusted AI: un ecosistema in cui l’uso dell’intelligenza artificiale è abilitato, ma entro confini chiari, visibili e verificabili. La costruzione di un ecosistema di trusted AI richiede una strategia integrata che tenga insieme governance e sicurezza: politiche chiare, responsabilità definite, criteri di valutazione per i tool e monitoraggio costante dell’uso nei processi aziendali. Dal punto di vista security, strumenti di AI Security Posture Management (AI‑SPM) permettono di mappare modelli, API e pipeline dati, individuando usi non autorizzati o configurazioni rischiose prima che diventino vulnerabilità.

Un framework efficace include tipicamente:

  • mappatura dei casi d’uso IA già in corso (ufficiali e non) attraverso survey interne, log di rete e analisi degli endpoint;

  • catalogo di strumenti approvati con linee guida chiare su cosa può essere condiviso (es. mai dati personali o IP su tool pubblici);

  • guardrail tecnici: DLP, CASB, controllo estensioni browser, logging centralizzato;

  • valutazione strutturata dei fornitori IA su GDPR, AI Act, localizzazione dati e clausole contrattuali su addestramento e riuso;

  • formazione continua orientata non solo alle competenze d’uso, ma alla consapevolezza dei rischi per chi gestisce dati sensibili.

Un elemento spesso sottovalutato è il dialogo: se l’IT si limita a vietare strumenti popolari senza offrire alternative, la shadow AI si sposta semplicemente più in profondità. Le esperienze più efficaci sostituiscono il divieto con soluzioni strutturate: strumenti valutati, ambienti controllati e modalità d’uso sicure co‑progettate con i team.


Colmare il divario

I dati BCG evidenziano un paradosso critico: l’85% dei dirigenti usa GenAI regolarmente, mentre solo il 51% del personale operativo — che gestisce i processi più esposti a dati sensibili — ha accesso agli stessi strumenti e formazione.

Per ridurre la shadow AI non basta una policy via email. Serve un programma di alfabetizzazione IA strutturato su tre pilastri: comprensione tecnica (limiti dei modelli, bias, hallucinations), consapevolezza normativa (GDPR, AI Act, trattamento dati), responsabilizzazione organizzativa (canali interni per proporre nuovi casi d’uso e segnalare rischi). L’obiettivo non è reprimere l’iniziativa, ma canalizzarla: i dipendenti devono sentirsi incentivati a portare alla luce strumenti utili per valutarli insieme a IT, sicurezza e legale, anziché nasconderli. Un segnale di maturità organizzativa è quando i dipendenti non si limitano a usare tool in autonomia, ma li propongono attivamente per una valutazione condivisa.


Verso una strategia consapevole

La shadow AI è il sintomo di una trasformazione già in atto: i lavoratori hanno integrato l’intelligenza artificiale nel quotidiano, spesso prima che l’organizzazione fosse pronta. I dati di IBM, BCG e dei principali osservatori convergono: ignorare questa realtà non la elimina, ma la rende più rischiosa e costosa. Per le imprese italiane — in particolare le PMI — la sfida immediata non è fermare l’IA, ma ricondurla in un perimetro di fiducia in cui strumenti, dati e processi siano visibili, governati e conformi. È questa la differenza tra una shadow AI che erode valore nell’ombra e una trusted AI che diventa leva di competitività, innovazione e resilienza nel quadro normativo europeo.

Marta Magnini

Marta Magnini

Digital Marketing & Communication Assistant in Aidia, laureata in Scienze della Comunicazione e appassionata delle arti performative.

Aidia

In Aidia sviluppiamo soluzioni software basate su IA, soluzioni di NLP, Big Data Analytics e Data Science. Soluzioni innovative per ottimizzare i processi ed efficientizzare i flussi di lavoro. Per saperne di più, contattaci o inviaci una mail a info@aidia.it.

MECSPE 2026 con Aidia