24 ottobre 2025
Legge 132/2025: IA e responsabilità per le aziende
La nuova normativa italiana sull'intelligenza artificiale: principi, obblighi, responsabilità e opportunità per imprese e professionisti
La Legge 132/2025, entrata in vigore il 10 ottobre 2025, rappresenta un passaggio fondamentale per il modo in cui imprese, enti pubblici e professionisti italiani devono integrare e gestire l’intelligenza artificiale. Non si tratta solo di principi etici generali, ma di un insieme organico di norme che introduce obblighi concreti, responsabilità penali e amministrative, e un sistema rigoroso di gestione interna. Con questa legge il nostro paese si allinea al Regolamento UE 2024/1689 (AI Act) mettendo al centro la persona, perché la tecnologia resti uno strumento al servizio dell’uomo, rispettando i suoi diritti fondamentali e accompagnando un’innovazione sicura e responsabile.
Quali sono i principi chiave della legge 132/2025?
Questa legge rappresenta il primo grande intervento organico sull’IA in Italia e si fonda su principi essenziali che garantiscono un equilibrio tra innovazione tecnologica e tutela sociale:
- 
Centralità della persona: l’IA deve affiancare e supportare l’attività umana, senza mai sostituirne completamente il giudizio o la responsabilità, specialmente in settori delicati come la sanità, la giustizia e il lavoro. La tutela della dignità e dei diritti delle persone è prioritaria.
 - 
Trasparenza: le aziende devono spiegare in modo chiaro e comprensibile come utilizzano l’IA, soprattutto nei confronti dei lavoratori coinvolti nei processi aziendali. Questo favorisce un clima di fiducia e previene discriminazioni legate all’uso degli algoritmi.
 - 
Sicurezza e cybersicurezza: la protezione del sistema informatico e del ciclo di vita dei dati è una condizione imprescindibile. Le imprese devono seguire le indicazioni dell’Agenzia per la Cybersicurezza Nazionale per difendersi da attacchi e vulnerabilità.
 - 
Protezione dei dati personali: la legge integra il GDPR, imponendo strette regole per il trattamento, la raccolta e la conservazione dei dati usati dall’IA, con particolare riguardo alla provenienza lecita di tali dati e al diritto di scelta degli interessati.
 - 
Inclusione e accessibilità: oltre agli aspetti tecnici, il testo promuove la formazione digitale, garantisce l’accessibilità anche alle persone con disabilità e sostiene la parità di genere e le pari opportunità nel digitale.
 - 
Sovranità digitale: per difendere la sicurezza nazionale e la competitività, il legislatore incentiva la localizzazione di data center e servizi cloud sul territorio italiano.
 
Questi principi si traducono in obblighi stringenti, che coinvolgono direttamente la gestione e la responsabilità aziendale. Questi principi diventano obblighi tangibili, che coinvolgono direttamente la gestione e le responsabilità di imprese e pubblica amministrazione.
Governance aziendale e supervisione umana: un nuovo approccio strategico
Fra le novità più importanti, la legge impone alle aziende di costruire una governance interna dedicata ai sistemi IA, molto più che una mera formalità:
- 
Devono essere chiaramente definiti ruoli e responsabilità per la gestione dei rischi legali, tecnologici e sociali legati all’IA, con team specializzati in compliance e monitoraggio.
 - 
Vanno adottate procedure rigorose di valutazione, test e aggiornamento continuo degli algoritmi, per minimizzare rischi operativi, etici e sociali.
 - 
È obbligatorio effettuare audit periodici e mantenere una documentazione precisa che certifichi ogni passaggio dei processi decisionali automatizzati.
 - 
Non meno importante è la formazione continua di dipendenti e manager, per sviluppare competenze digitali aggiornate e diffondere una cultura della sicurezza.
 
La governance così concepita non solo riduce potenziali rischi e contenziosi, ma migliora la qualità delle decisioni prese con supporto IA e infonde maggiore fiducia in clienti, investitori e partner. Parallelamente, il principio di “Human-in-the-Loop” viene sancito come essenziale: le decisioni importanti, soprattutto in settori sensibili, devono sempre prevedere la supervisione di un operatore umano. L’IA deve essere uno strumento di supporto e non un sostituto totale. Questo assicura responsabilità, valutazioni critiche e mantiene la trasparenza.
Perché è importante la sovranità digitale e come si gestiscono i dati?
La legge dedica grande attenzione a difendere la sovranità digitale, promuovendo la localizzazione di data center e servizi cloud in Italia per offrire maggior controllo sulle infrastrutture strategiche. In parallelo, sono stabilite regole precise per la gestione della filiera dati:
- 
Ogni dato usato per addestrare gli algoritmi deve provenire da fonti lecite e documentate.
 - 
È necessaria la completa tracciabilità dei dati, con registrazioni puntuali di ogni fase del loro utilizzo.
 - 
I titolari dei dati hanno il diritto di opporsi all’impiego dei propri contenuti nell’addestramento degli algoritmi, rafforzando la protezione individuale.
 
La mancata osservanza di questi requisiti può portare a sanzioni pesanti, oltre a danneggiare gravemente reputazione e competitività.
Responsabilità penale e amministrativa: nuova attenzione alla sicurezza e all’etica
Un aspetto molto rilevante riguarda le responsabilità penali e amministrative associate all’uso dell’IA. In particolare:
- 
La legge introduce nuovi reati legati alla mancata adozione o aggiornamento delle misure di sicurezza necessarie per evitare rischi nel lavoro con sistemi IA.
 - 
La diffusione illecita di contenuti manipolati o generati tramite IA (ad esempio deepfake) è punita con pene detentive da 1 a 5 anni.
 - 
Sono previste aggravanti specifiche per reati commessi utilizzando strumenti IA, allargando il campo di responsabilità anche alla manipolazione di mercati e diritti politici. Queste norme rappresentano un forte stimolo per le aziende a dotarsi di strumenti rigorosi per la gestione dei rischi e a promuovere una cultura interna di responsabilità e conformità.
 
Diritto d’autore e creatività umana nell’era digitale
La normativa affronta anche il tema delicato della proprietà intellettuale:
- 
Le opere generate con il supporto dell’IA possono essere tutelate solo se presentano un reale contributo creativo umano, non limitato a operazioni automatiche.
 - 
L’uso di contenuti per l’addestramento degli algoritmi è regolamentato per garantire che gli autori possano decidere se e come utilizzare i propri dati.
 
Questo permette di proteggere la creatività umana, tutelare gli autori e mantenere un equilibrio tra automazione e originalità.
Come cambia la cultura digitale e quali sono le opportunità?
La legge non si limita a dettare regole tecniche, ma punta a un cambiamento culturale ampio e partecipato:
- 
Prevede programmi di formazione per lavoratori, professionisti, studenti e cittadini, per diffondere competenze digitali e coscienza sui rischi e opportunità.
 - 
Promuove l’accessibilità delle tecnologie anche per persone con disabilità, sostenendo al tempo stesso la parità di genere e le pari opportunità.
 - 
Incentiva investimenti e partnership pubblico-privato per creare un ecosistema innovativo e responsabile, capace di unire tecnologia e sostenibilità sociale.
 
Nonostante l’impegno richiesto per l’adeguamento, la Legge rappresenta un’opportunità strategica per le aziende che sapranno trasformare la compliance in un vantaggio competitivo:
- 
Potranno rafforzare la fiducia di clienti, partner e investitori, distinguendosi per trasparenza e responsabilità.
 - 
Avranno accesso a incentivi pubblici e programmi dedicati a start-up e PMI impegnate nell’innovazione digitale.
 - 
Riusciranno a gestire meglio i rischi legali e reputazionali, evitando sanzioni e danni.
 
Il ritorno in termini di reputazione e capacità innovativa sarà decisivo in un mercato digitale sempre più competitivo e regolamentato.
Un futuro digitale umano, sicuro e inclusivo
La Legge 132/2025 segna l’inizio di una nuova fase per l’IA in Italia, posizionando il paese tra i protagonisti europei di una regolamentazione attenta alle persone e allo sviluppo sostenibile. Le imprese e i professionisti devono cogliere questa sfida con rapidità e consapevolezza, rinnovando modelli organizzativi e culturali. Solo così sarà possibile costruire un ecosistema digitale sicuro, trasparente ed etico, in cui la tecnologia accompagna le persone verso un futuro di crescita inclusiva e innovativa.
Fonti:
- 
UNASF Conflavoro PMI, Intelligenza artificiale e lavoro: la nuova legge 132/2025, 14 ottobre 2025. https://unasf.conflavoro.it/news/legge-13225-intelligenza-artificiale/
 - 
Studio Legale D’Agostino, Legge 132/2025 e delega al Governo: ecco il quadro delle novità in materia di diritto d’autore e di sanzioni penali, 6 ottobre 2025. https://www.dagostinolex.com/legge-132-2025-ia-diritto-autore-penali-legal/
 - 
Risk & Compliance, La Legge 132/2025 sull’intelligenza artificiale: impatti e prospettive sulla responsabilità da reato di persone fisiche ed enti, 15 ottobre 2025. https://www.riskcompliance.it/news/la-legge-132-2025-sull-intelligenza-artificiale-impatti-e-prospettive-sulla-responsabilita-da-reato-di-persone-fisiche-ed-enti/
 - 
Gazzetta Ufficiale della Repubblica Italiana, Legge 23 settembre 2025, n. 132 – Disposizioni e deleghe al Governo in materia di intelligenza artificiale, pubblicata nella Serie Generale n. 223 del 25 settembre 2025. https://www.gazzettaufficiale.it/atto/serie_generale/caricaDettaglioAtto/originario?atto.dataPubblicazioneGazzetta=2025-09-25&atto.codiceRedazionale=25G00143&elenco30giorni=true
 

Marta Magnini
Digital Marketing & Communication Assistant in Aidia, laureata in Scienze della Comunicazione e appassionata delle arti performative.
In Aidia sviluppiamo soluzioni software basate su IA, soluzioni di NLP, Big Data Analytics e Data Science. Soluzioni innovative per ottimizzare i processi ed efficientizzare i flussi di lavoro. Per saperne di più, contattaci o inviaci una mail a info@aidia.it.



