2 aprile 2026
AI e Cybersecurity 2026: sicurezza preventiva per le aziende italiane
Attacchi AI in crescita del 47%, governance assente nel 80% delle aziende italiane: cosa cambia nel 2026 e come costruire una difesa che regge nel tempo.
Partiamo da un dato concreto: nel 2025, secondo IBM, il costo medio globale di un breach è sceso a $4,44 milioni, per la prima volta in cinque anni. Sembra una buona notizia, ed in parte lo è. Ma negli Stati Uniti, nello stesso anno, lo stesso indicatore ha raggiunto il record storico di $10,22 milioni. Il divario racconta qualcosa di importante: chi si è attrezzato sta iniziando a vedere i risultati, chi è rimasto indietro paga un conto sempre più alto. Al GoBeyond di Milano, lo scorso febbraio, Barbara Poli di Grandi Navi Veloci aveva detto una cosa semplice e precisa: “Ottica preventiva e non reattiva alla sicurezza con la AI.” I mesi successivi non hanno fatto altro che aggiungere numeri a quella frase.
Il threat landscape è cambiato strutturalmente
Gli attacchi cyber potenziati dall’IA sono cresciuti del 47% nel 2025, secondo analisi aggregate che includono il Verizon DBIR e le ricerche di DeepStrike. Non è una percentuale astratta: dietro c’è un cambiamento qualitativo nel modo in cui gli attacchi vengono costruiti ed eseguiti. La barriera d’ingresso al crimine informatico si è abbassata in modo drastico. Non serve più scrivere codice, non servono competenze tecniche avanzate, non serve nemmeno parlare la lingua della vittima. Strumenti come WormGPT (definito il “gemello cattivo” di ChatGPT, è strumento di IA generativa malevola) automatizzano parti significative del ciclo offensivo, dalla ricognizione alla delivery, generando varianti sufficienti a eludere i sistemi di rilevamento basati su firma. Il phishing che arriva nella tua casella di posta conosce il tuo nome, il tuo ruolo, l’ultimo progetto su cui hai lavorato.
La velocità è l’altra variabile che cambia tutto. Un caso documentato dal panel di CISO di Harvard Extension School racconta di un’azienda che ha perso oltre $25 milioni in meno di trenta minuti. Nessun processo di incident response convenzionale è pensato per operare su quella scala temporale. Quando arriva la notifica, è già finita.
L’Italia: il problema non è la tecnologia
Se il quadro globale è preoccupante, quello italiano ha una caratteristica specifica che lo rende ancora più delicato. Non è che le aziende italiane non adottino l’IA, lo fanno, e spesso in fretta. Il problema è quello che costruiscono, o non costruiscono, intorno ad essa. La ricerca di TrendA su 100 decision maker di aziende italiane con oltre 250 dipendenti è abbastanza inequivocabile: il 60% ha approvato progetti IA nonostante preoccupazioni esplicite sulla sicurezza. Non per negligenza, ma per pressione competitiva. La paura di restare indietro è più forte della paura del rischio. È una dinamica comprensibile, ma porta a costruire su fondamenta instabili.
I numeri che seguono completano il quadro. Solo il 20% delle aziende italiane ha policy IA complete e operative. Il 57% del campione ritiene che l’AI stia già superando le proprie capacità difensive, quindi sanno di essere in ritardo, ma continuano comunque. Il 41% cita la mancanza di regolamentazione chiara come principale ostacolo: molti aspettano che le regole arrivino dall’esterno, invece di costruire una governance interna adesso.
Per quanto riguarda il contesto industriale, il settore manifatturiero è il più colpito a livello globale, con il 25,7% degli attacchi totali secondo l’IBM X-Force Threat Intelligence Index. Per un paese in cui il manifatturiero è ancora l’ossatura del sistema produttivo, questo non è un dato di sfondo.
Le quattro minacce da capire davvero
Non tutte le minacce sono uguali, e confonderle porta a difese mal calibrate. Vale la pena distinguerle.
AI-Generated Phishing
Le email costruite da modelli linguistici raggiungono tassi di apertura del 72%, quasi il doppio rispetto al phishing tradizionale. C’è un motivo semplice dietro a questo dato: vengono addestrate sui profili pubblici delle vittime e replicano con precisione tono, contesto e urgenza. Il Verizon DBIR 2025 conferma che il social engineering rimane il principale vettore d’attacco, l’IA lo ha reso solo molto più scalabile.
Deepfake Identity Fraud
Nel 2025 le frodi deepfake hanno causato $1,28 miliardi di perdite documentate su 1.567 incidenti verificati, secondo il 2025 Deepfake Threat Report di Resemble AI, e il dato esclude i danni reputazionali e quelli mai denunciati. Il Deloitte Center for Financial Services stima che le perdite da frodi GenAI raggiungeranno $40 miliardi entro il 2027, con un tasso di crescita annuo del 32%. In contesto aziendale, lo schema ricorrente è una videochiamata del “CEO”, volto e voce sintetici, indistinguibili dall’originale, che istruisce il reparto finance a eseguire un bonifico urgente. Le persone tendono a fidarsi di una voce o un volto che riconoscono. Quando quella fiducia diventa un vettore d’attacco, le procedure di verifica tradizionali non bastano più.
Automated Vulnerability Discovery
Il 41% degli zero-day exploit nel 2025 è stato individuato tramite reverse engineering AI-assisted. Ma il dato sottostima il cambiamento reale: oggi gli strumenti di IA non aspettano che una vulnerabilità venga scoperta, la cercano attivamente, in modo continuo e su scala industriale. Scansionano endpoint cloud esposti, repository GitHub pubblici, API mal configurate. Quando trovano credenziali trapelate o patch mancanti, non le segnalano, le sfruttano. La conseguenza operativa è diretta: il tempo che separa la scoperta di una vulnerabilità dal suo sfruttamento si è ridotto da giorni a ore. Per le organizzazioni senza una gestione disciplinata delle patch e delle configurazioni, non è più una questione di se, ma di quando.
Shadow AI
La Shadow AI è la minaccia che le organizzazioni tendono a sottovalutare perché non arriva dall’esterno. I dipendenti usano strumenti di IA non approvati, per scrivere, analizzare dati, automatizzare task, spesso senza che nessuno ne sia consapevole. Come hanno sottolineato gli esperti di Harvard Extension School, in grandi aziende con centinaia di migliaia di asset una quota significativa di risorse risulta di fatto non monitorata, molte con IA incorporata. Ogni tool non governato è un potenziale canale di esfiltrazione. Per approfondire l’argomento si rimanda all’articolo dedicato “Shadow AI: rischi, governance e conformità normativa”.
Da principio a pratica: cosa fare
Il cambio di paradigma invocato al GoBeyond ha implicazioni operative concrete. I sistemi XDR potenziati da IA hanno ridotto i tempi di risposta agli incidenti del 44% nel 2025. IBM stima che le organizzazioni che usano IA e automazione nelle proprie difese risparmino in media $1,9 milioni per breach rispetto a chi non le usa. Inoltre, le aziende che rilevano un breach entro 200 giorni spendono $1,88 milioni in meno rispetto a quelle che impiegano più tempo. I numeri supportano l’investimento. Ma la tecnologia da sola non basta. Tre principi emergono con chiarezza da tutto il materiale analizzato.
La governance AI non si delega. Affidarsi a un vendor terzo non sposta la responsabilità. David Cass, CISO e istruttore di Harvard Extension School, lo dice in modo netto: “L’IA non può operare come una black box. La responsabilità ricade sempre sull’organizzazione che l’ha adottata.” Pretendere trasparenza dai fornitori non è optional, ma una condizione di ingaggio.
Il CISO deve avere voce nel board. Matteo Macina di TIM al GoBeyond ha messo il dito su una questione culturale prima ancora che organizzativa: finché la sicurezza è percepita come un costo da minimizzare, le organizzazioni restano strutturalmente esposte. Il CISO con mandato reale e accesso al vertice non è un privilegio delle grandi corporation. È una necessità per chiunque gestisca dati sensibili o processi critici.
La frizione tra CIO e CISO serve. Giacomo Morelli di Enegan, che al GoBeyond ha raccontato di ricoprire entrambi i ruoli, ha sollevato una domanda che vale per molte organizzazioni in crescita: ha senso concentrare innovazione e sicurezza nella stessa persona? La risposta che è emersa, e che i dati confermano, è no, almeno oltre una certa soglia di complessità. Le due funzioni hanno logiche strutturalmente in tensione: il CIO spinge verso l’apertura, il CISO verso il controllo. Quella tensione non è un problema da eliminare. È un meccanismo che, gestito bene, alza la qualità di entrambe le funzioni.
Il punto che cambia la prospettiva
IBM ha rilevato che le organizzazioni con difese AI-native rilevano i breach 80 giorni prima rispetto a quelle senza. Ma anche tra queste, una quota non marginale ha subito violazioni nel 2025. Il che porta a una conclusione che vale la pena formulare esplicitamente: la tecnologia è necessaria, non sufficiente.
La sicurezza nel 2026 funziona come sistema: tecnologia, governance, cultura, formazione, architettura decisionale. Rimuovere uno degli elementi indebolisce tutto il resto. Per chi sta costruendo o consolidando il proprio percorso IA, la domanda giusta non è “abbiamo uno strumento di sicurezza”, ma “abbiamo una struttura di governance che tratta la sicurezza come dimensione costitutiva, non come strato aggiuntivo”.
Costruire oggi quello che serve domani
Il vantaggio competitivo nei prossimi anni non andrà a chi ha adottato più Intelligenza Artificiale. Andrà a chi l’ha adottata in modo che regga nel tempo, con governance solida, ruoli chiari, dato controllato. Le organizzazioni che iniziano adesso a costruire su queste basi non stanno solo riducendo il rischio. Stanno accumulando un vantaggio strutturale difficile da recuperare per chi aspetta che qualcuno gli dica quando è il momento giusto.
L’IA che crea valore duraturo è quella che si integra nell’infrastruttura esistente senza togliere controllo all’azienda, sui dati, sulla sicurezza, sulle decisioni. Aidia progetta soluzioni su misura per il mercato enterprise italiano con esattamente questo principio: sistemi AI che funzionano dentro la vostra infrastruttura, con i vostri dati, secondo le vostre regole. Per saperne di più.
Fonti:
-
AI4Busines, Roberto Cosentino, Report trend AI “AI in azienda: in Italia il 60% dei manager approva progetti anche con dubbi sulla sicurezza” (31 marzo 2026) https://www.ai4business.it/intelligenza-artificiale/ai-in-azienda-in-italia-il-60-dei-manager-approva-progetti-anche-con-dubbi-sulla-sicurezza/
-
Harvard Extension School, panel CISO “AI and the Future of Cybersecurity” https://extension.harvard.edu/blog/ai-and-the-future-of-cybersecurity/
-
IBM, “X-Force Threat Intelligence Index 2025” (aprile 2025) https://www.ibm.com/it-it/reports/threat-intelligence
-
IBM Security, “Cost of a Data Breach Report 2025” (luglio 2025) https://it.newsroom.ibm.com/cost-of-data-breach-2025
-
Verizon, “2025 Data Breach Investigations Report”(2025) https://www.verizon.com/business/resources/reports/dbir/
-
DeepStrike, “AI Cybersecurity Threats 2025” (aggiornato 30 marzo 2026) https://deepstrike.io/blog/ai-cybersecurity-threats-2025
-
Industria Italiana, “Il 60% dei leader italiani approva progetti AI nonostante i rischi di sicurezza: la nuova ricerca di TrendAI” (31 marzo 2026) https://www.industriaitaliana.it/ricerca-di-trendai-leader-italiani-progetti-ai-rischi-sicurezza/
-
Resemble AI, “2025 Deepfake Threat Report” (2026) https://www.resemble.ai/2025-deepfake-threat-report/

Marta Magnini
Digital Marketing & Communication Assistant in Aidia, laureata in Scienze della Comunicazione e appassionata delle arti performative.
In Aidia sviluppiamo soluzioni software basate su IA, soluzioni di NLP, Big Data Analytics e Data Science. Soluzioni innovative per ottimizzare i processi ed efficientizzare i flussi di lavoro. Per saperne di più, contattaci o inviaci una mail a info@aidia.it.
Ultime notizie

8 aprile 2026
Intelligenza artificiale: cos'è davvero e cosa non lo è

2 aprile 2026
AI e Cybersecurity 2026: sicurezza preventiva per le aziende italiane

25 marzo 2026
Architetture digitali nel manifatturiero: dalla ISA-95 alla convergenza IT/OT
