Con l’approvazione della Legge 132 del 2025, l’Italia ha compiuto un passo importante nel percorso di regolamentazione dell’Intelligenza Artificiale, introducendo una normativa che punta a conciliare innovazione e tutela dei diritti fondamentali.
La nuova legge rappresenta il primo quadro normativo nazionale ispirato ai principi dell’AI Act europeo, ma con un’attenzione particolare al contesto economico e sociale italiano. L’obiettivo è chiaro: favorire uno sviluppo dell’IA etico, trasparente e sostenibile, dove la tecnologia rimane uno strumento al servizio dell’uomo, non un sostituto.
Intelligenza Artificiale: Legge 132/2025 per uno Sviluppo Etico e Sostenibile
La finalità della Legge 132/2025
La Legge 132/2025 nasce per garantire che l’utilizzo dell’intelligenza artificiale in Italia avvenga in modo responsabile e conforme ai valori costituzionali.
Il testo afferma il principio dell’“antropocentrismo tecnologico”, secondo cui l’essere umano deve sempre rimanere al centro del processo decisionale e del controllo dei sistemi automatizzati.
Le principali finalità della legge sono:
-
promuovere la ricerca e l’adozione dell’IA nel rispetto dei diritti e delle libertà individuali;
-
assicurare che l’uso dell’IA sia trasparente e comprensibile;
-
prevenire discriminazioni, errori e abusi derivanti da processi automatizzati;
-
garantire uno sviluppo sostenibile e inclusivo, anche dal punto di vista ambientale e occupazionale.
I principi fondamentali
La legge si fonda su alcuni principi cardine che guidano la progettazione, lo sviluppo e l’utilizzo dell’intelligenza artificiale nel settore pubblico e privato.
Centralità dell’essere umano
Ogni sistema di IA deve operare come supporto all’attività umana, non come sostituto. Il legislatore ribadisce che la responsabilità ultima delle decisioni deve sempre restare in capo alla persona.
Trasparenza e tracciabilità
Chi utilizza o sviluppa sistemi di IA deve garantire che i processi siano chiari e comprensibili. Gli utenti devono sapere quando interagiscono con un algoritmo e poter ottenere spiegazioni sulle logiche utilizzate.
Sicurezza e affidabilità
I sistemi di intelligenza artificiale devono essere progettati per ridurre al minimo i rischi di errore, manipolazione o uso improprio dei dati. È previsto l’obbligo di controlli periodici e audit di sicurezza.
Tutela dei diritti e non discriminazione
Ogni forma di IA deve rispettare i principi di uguaglianza e parità di trattamento. La legge vieta sistemi che generino discriminazioni basate su sesso, etnia, età o orientamento religioso.
Sviluppo sostenibile
L’IA deve contribuire a una crescita economica compatibile con la sostenibilità ambientale e la tutela dell’occupazione.
Ambiti di applicazione
La Legge 132/2025 si applica a tutti gli operatori — pubblici e privati — che sviluppano, utilizzano o commercializzano sistemi di intelligenza artificiale. Gli ambiti principali interessati sono:
-
Pubblica amministrazione, dove l’IA potrà essere impiegata per semplificare i servizi ai cittadini, ma con limiti precisi a tutela della trasparenza e della privacy.
-
Sanità e ricerca, in cui l’IA dovrà supportare la diagnosi e la gestione dei dati sanitari senza sostituire il giudizio del medico.
-
Giustizia, dove resta fermo il principio secondo cui il giudice è l’unico titolare della decisione, anche se assistito da sistemi di analisi automatizzata.
-
Imprese e professionisti, che dovranno dichiarare l’utilizzo di strumenti basati su IA quando questi incidono in modo significativo sulle decisioni economiche o lavorative.
Le nuove responsabilità per imprese e professionisti
Uno dei punti centrali della legge riguarda l’introduzione di un sistema di responsabilità diretta per chi utilizza l’intelligenza artificiale in ambito professionale o aziendale.
Chi impiega sistemi automatizzati deve:
-
valutare i rischi potenziali legati al loro impiego;
-
predisporre protocolli di sicurezza e tracciabilità dei processi decisionali;
-
assicurare che i dati utilizzati siano corretti, aggiornati e non discriminatori;
-
informare gli utenti e i clienti dell’utilizzo di strumenti basati su IA.
In caso di violazioni o danni derivanti da un uso scorretto della tecnologia, la responsabilità ricadrà su chi l’ha sviluppata o impiegata senza adeguati controlli.
IA e pubblica amministrazione: trasparenza e controllo
Nel settore pubblico, la legge prevede l’istituzione di un Registro Nazionale dei Sistemi di Intelligenza Artificiale utilizzati dalle amministrazioni. Questo registro avrà lo scopo di rendere tracciabili gli algoritmi impiegati e garantire ai cittadini la possibilità di conoscere i criteri con cui vengono prese le decisioni automatizzate.
Inoltre, la normativa impone che ogni decisione basata su un algoritmo sia motivata e verificabile, introducendo il diritto alla spiegazione algoritmica, ossia la possibilità per il cittadino di chiedere come e perché una determinata scelta sia stata effettuata da un sistema di IA.
Etica, educazione e formazione
Uno degli aspetti più innovativi della legge è la promozione della formazione etica e tecnica nell’uso dell’intelligenza artificiale. Il Governo dovrà istituire programmi formativi specifici per:
-
studenti e docenti delle scuole superiori e università;
-
pubbliche amministrazioni e funzionari;
-
imprese e professionisti del settore tecnologico.
L’obiettivo è creare una cultura dell’uso consapevole dell’IA, capace di coniugare sviluppo economico e responsabilità sociale.
Vigilanza e sanzioni
La Legge 132/2025 istituisce anche un Comitato Nazionale per l’Etica dell’Intelligenza Artificiale, con funzioni di indirizzo, controllo e consulenza. Questo organismo vigilerà sull’applicazione dei principi etici, sul rispetto delle norme e sull’impatto sociale dei sistemi di IA.
Sono previste sanzioni amministrative e penali per chi:
-
utilizza l’IA in modo da arrecare danno a persone o enti;
-
diffonde contenuti manipolativi (come deepfake o falsificazioni digitali);
-
non rispetta gli obblighi di trasparenza o di sicurezza previsti dalla legge.
Innovazione e sostenibilità: un equilibrio necessario
La legge italiana sull’intelligenza artificiale non vuole frenare l’innovazione, ma orientarla verso un modello più responsabile. La sfida principale sarà mantenere l’equilibrio tra competitività tecnologica e tutela dei diritti umani, favorendo uno sviluppo dell’IA che sia realmente al servizio della collettività e non solo del mercato.
In questa prospettiva, la Legge 132/2025 rappresenta un passo fondamentale per creare fiducia nei confronti dell’intelligenza artificiale e per garantire che l’Italia possa essere un punto di riferimento in Europa nello sviluppo di tecnologie etiche, sicure e sostenibili.
