Entra oggi, 10 ottobre 2025, in vigore la legge n. 132 del 2025 recante disposizioni e deleghe al Governo in materia di intelligenza artificiale. Il provvedimento, originariamente presentato come disegno di legge di iniziativa governativa (AS 1146), è stato approvato in via definitiva dal Parlamento dopo l’esame in terza lettura presso il Senato della Repubblica.

Il testo, presentato inizialmente dal Governo il 20 maggio 2024, disciplina l’uso dell’intelligenza artificiale nei settori rimessi alla competenza normativa degli Stati membri dal diritto dell’Unione europea e dà attuazione agli obblighi previsti dal Regolamento europeo sull’IA. Al momento della sua presentazione, si è trattato della prima iniziativa legislativa in Europa volta a recepire la nuova disciplina comunitaria, rendendo l’Italia un paese antesignano nella regolamentazione delle tecnologie di intelligenza artificiale.

Il provvedimento legislativo, collegato alla manovra di finanza pubblica 2025, è stato approvato dal Senato della Repubblica il 20 marzo 2025 con modifiche (codice S.1146) e quindi inviato alla Camera dei deputati per l’iter legislativo. Qui, dopo essere stato assegnato il 24 marzo 2025 (codice C.2316) in sede referente alle Commissioni IX (trasporti, poste e telecomunicazioni) e X (Attività produttive, commercio e turismo), dopo disamina di numerosi emendamenti, ha concluso il suo esame nella seduta del 17 giugno 2025 ed è stato quindi ritrasmesso in Senato per la terza lettura (codice S1146-B). Il 2 luglio scorso il disegno di legge è stato riassegnato alle Commissioni 8ª (Ambiente, transizione ecologica, energia, lavori pubblici, comunicazioni, innovazione tecnologica) e 10ª (Affari sociali, sanità, lavoro pubblico e privato, previdenza sociale) riunite in sede referente, e quindi valutate le modifiche apportate presso la Camera e valutati alcuni nuovi emendamenti, ha ottenuto parere non ostativo dalle commissioni incaricate e il 30 luglio scorso è stato calendarizzato per approvazione definitiva in aula, avvenuta il 17 Settembre.

La norma introduce criteri regolatori, norme di principio e di settore, tutti in ambiti rilevanti per la strategia nazionale sulla IA quali le autorità nazionali, le azioni di promozione per il rapido sviluppo, la tutela del diritto d’autore; le sanzioni penali. Vengono conferite, inoltre, due importanti deleghe al Governo: una per l’adeguamento della normativa nazionale al Regolamento europeo e un’altra per la definizione della disciplina penale in caso di uso dell’Intelligenza artificiale per finalità illecite.

Nel corso dei lavori parlamentari sono stati proposti ben oltre quattrocento emendamenti e il disegno di legge è stato oggetto di duecento votazioni nelle aule parlamentari e nelle commissioni. Numerose le audizioni di soggetti pubblici e degli attori rilevanti del mondo ICT che hanno contribuito a far comprendere lo scenario di riferimento dell’Intelligenza Artificiale quale tecnologia evolutiva di quella digitalizzazione che negli ultimi decenni ha modificato radicalmente la nostra società e i mercati globali.

Vi è certamente la consapevolezza politica che la nuova rivoluzione informatica sta accelerando questa trasformazione, con una incidenza sulla vita individuale e collettiva tale da configurare il passaggio della società verso una “società digitale”, caratterizzata dalla diffusione capillare nella sfera individuale, collettiva e nel mondo del lavoro di strumenti tecnologici che richiedono una specifica regolazione ed un nuovo modello di disciplina normativa. Non possiamo che rilevare che la distanza fra l’effettiva comprensione del fenomeno e la realtà complessa e globale di cui quest’ultimo è fatto, ne rende particolarmente difficile il governo anche alla luce della dimensione temporale accelerata che la contraddistingue e che mal si adatta ai tempi ragionati e negoziali della prassi legislativa democratica.

Ciò premesso, i ventotto articoli divisi in sei capi, per dichiarato obiettivo legislativo hanno diretto riferimento e offrono richiami al vigente Regolamento (UE) 2024/1689 IA Act.  Presentano oltremodo peculiarità, scelte e destinate a fornire un orientamento nazionale alla materia. Interessante quindi valutare in un’ottica comparativa questo disegno di legge verso il Regolamento europeo, facendone emergere coerenze, agganci ed elementi esclusivamente nazionali.

Già a partire dall’art. 1 (Finalità e ambito di applicazione) della legge 132/2025 possiamo rilevarne dalla lettura un collegamento e profili di coerenza con gli artt. 1 e 2 del Regolamento Europeo, laddove entrambi i dettati normativi definiscono analoghi obiettivi, ambiti e principi generali. In particolare, al comma 2 dell’articolo della norma , il legislatore richiama l’obbligo di interpretazione e applicazione conforme al dettato del regolamento UE, rinforzando il nesso logico fra quest’atto legislativo e la matrice della norma comunitaria. Interessante e specifico della disciplina nazionale, il richiamo del comma 4 il quale detta un vero e proprio  principio di difesa costituzionale, vietando nella sua formulazione l’utilizzo di sistemi IA che possano “…pregiudicare lo svolgimento con metodo democratico della vita istituzionale e politica e l’esercizio delle competenze e funzioni delle istituzioni territoriali sulla base dei princìpi di autonomia e sussidiarietà o che possano pregiudicare la libertà del dibattito democratico da interferenze illecite…..”. Qui la tradizionale tutela del cittadino e dei suoi diritti fondamentali in ambito IA è estesa all’interesse collettivo per la sovranità dello Stato.

Proseguendo nella lettura, l’art. 2 (Definizioni) è ricollegabile all’Art.3 IA Act, in quanto la legge richiama esplicitamente le definizioni europee di sistema e modello di IA. Giova ricordare che proprio su queste definizioni, per quasi un decennio si è assistito a un ampio dibattito, risolto in ultimo dall’intervento (osiamo dire dottrinale) dell’OCSE e con la riscrittura nel corso della fase di Trilogo, dell’art. 3 IA Act dopo aver attinto a quest’ultima citata definizione. La formulazione originale proposta dal Parlamento UE dell’articolo 3 è considerata in buona ragione, essere stata  “causa di morte infantile” per i prodotti IA delle prime start-up.

Nei commi 2 – 6 dell’art. 3 (Principi Generali) della legge troviamo sottolineato il tema del controllo umano e di quello relativo alla cybersicurezza come condizione essenziale per un utilizzo corretto della nuova tecnologia in un ambiente con un nuovo rischio legato alle azioni di “guerra ibrida”.  Da qui la necessità che le infrastrutture nazionali debbano raggiungere un grado adeguato di protezione. Ciò per altro in linea con gli obblighi gravanti sui sistemi ad alto rischio disciplinati nell’IA Act agli artt. 14 e 15 a cui riteniamo essere raccordabile l’articolo.

Vi è poi ampia sinergia fra l’art.4 (Princìpi in materia di informazione e di riservatezza dei dati personali) della legge e gli artt. 14 e 15 dell’IA Act. Entrambi, infatti, impongono obblighi di trasparenza, linguaggio chiaro, tutela dati personali. Da segnalare tuttavia l’introduzione del nuovo principio nella norma italiana, legato alla disciplina dell’accesso alle tecnologie di intelligenza artificiale e conseguente trattamento dei dati personali da parte dei minori di anni quattordici o di minori di anni 18 che abbiano compiuto i quattordici anni, in conformità a quanto previsto dal regolamento (UE) 2016/679 del Parlamento europeo e dal codice in materia di protezione dei dati personali.

L’articolo 5 (principi in materia di sviluppo economico) orienta l’azione statale nel mercato dell’IA. Tre punti rilevanti per il lettore: al punto A il legislatore pone in capo allo Stato e alle “autorità pubbliche” l’onere di promuovere lo sviluppo e l’utilizzo dell’IA nel tessuto nazionale produttivo, in particolare nella micro, piccola e media impresa, anche mediante l’applicazione della nuova robotica. Si tratta di due chiarimenti (tipologia d’impresa e robotica) molto ben centrati e fortemente strategici per l’applicazione IA.

Nel punto C impone allo Stato di facilitare l’accesso a dati di alta qualità per chi sviluppa soluzioni IA.

Al punto d viene posto l’obbligo in capo alla PP.AA per una scelta prioritaria (ma non obbligatoria) verso fornitori di infrastrutture localizzate sul territorio nazionale e con elevati standard in termini di sicurezza e trasparenza per l’addestramento e lo sviluppo di applicazioni basate sull’IA generativa.

Escludono invece dagli obblighi di applicazione della norma l’art. 6 (Disposizioni in materia di sicurezza e difesa nazionale) della legge. Come per l’art. 3 IA Act, prodotti o sistemi in questa tecnologia ma destinati alla Difesa o alla sicurezza nazionale sono esclusi dal novero della norma.

Quanto introdotto dalla legge nazionale aggiunge tuttavia rispetto al dettato comunitario, oltre ad un’ampia declinazione in tre commi dei soggetti effettivamente esonerati, un preciso onere in merito all’obbligo di operare comunque nel pieno rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione e di quanto disposto all’articolo 3, comma 4, della norma.

Agli art. 7 (Uso dell’intelligenza artificiale in ambito sanitario e di disabilità) e art. 8 (Ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario) della legge 132/2025, il legislatore disciplina puntualmente l’uso dell’IA nei settori della sanità, della ricerca e della sperimentazione. In tal senso va letta la volontà di dare un orientamento legislativo alla gestione di soluzioni che nel regolamento europeo sono considerate ad alto rischio, come per altro indicato dall’Allegato III punti 5-6 dell’AI Act. Analogamente, gli art. 11 (Disposizioni sull’uso dell’intelligenza artificiale in materia di lavoro) e art.12 (Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro) della legge in commento e relativo punto 4 dell’Allegato III AI ACT, deliberano in merito al tema del lavoro, della sua tutela contro eventuale discriminazione e a favore di una trasparenza di nuovi strumenti AI. Il legislatore italiano, tuttavia, interpreta (saggiamente) l’esigenza del governo del fenomeno in una prospettiva più lunga, inserendo nella previsione di legge l’onere in capo al Ministero del Lavoro dell’istituzione di uno specifico Osservatorio con compiti valutativi, strategici ma anche formativi, in ausilio ai settori lavorativi e imprenditoriali. IA impone a tutti i settori della società una maggior conoscenza e un’adeguata professionalizzazione nell’uso di questa tecnologia, pena l’impossibilità di gestirla e la certezza di subirne le conseguenze.

Nell’art.20 (Autorità nazionali per l’intelligenza artificiale) vengono attuate le norme di cui agli artt. 70 – 74 dello AI Act, designando le agenzie AgID e ACN quali autorità nazionali di notifica e vigilanza e viene ribadito inoltre il diretto coinvolgimento nella regia di controllo dell’IA di Banca d’Italia, CONSOB, IVASS nei rispettivi ruoli di vigilanza.

All’art. 23 (Promozione investimenti nel campo della cybersicurezza e del calcolo quantistico) troviamo un’altra estensione nazionale alla disciplina IA e che riguarda fondi e modalità di gestione ed erogazione dei primi finanziamenti nazionali, nelle tecnologie IA, ma anche per quelle estese al capo del calcolo quantistico (prossimo passo evolutivo della tecnologia ICT) e a quelle della cybersicurezza.  Difficile pensare a questa come una dotazione finanziaria definitiva. Pur nella sua considerevole dimensione economica, siamo infatti lontani dagli investimenti necessari per queste tecnologie e per la loro attuazione. È quindi evidente inquadrare modello di governance e fondi disponibili, come utili ad innescare una sinergia pubblico/privato, analogamente a quanto già avvenuto in altri paesi.

L’Art. 24 (Deleghe al Governo) è certamente propedeutico all’attuazione degli art. 70-74, 99 AI Act in quanto fornisce al Governo, previo parere di Commissioni/Garante, gli strumenti per consentire un progressivo allineamento alla normativa UE che avverrà tramite procedure ordinarie e coinvolgendo gli organi previsti. Qui il tema in verità è molto ampio e nello stesso tempo strategico. L’impegno è nel governo dello sviluppo, nella formazione dei lavoratori e degli imprenditori, nei percorsi scolastici e educativi dei giovani, nella disciplina degli strumenti IA in settori critici (ad es. Polizia), fin nell’adeguamento e novazione della legislazione, tra cui quella penale.

Di particolare novità, in via esclusivamente nazionale e al di fuori del novero del Regolamento europeo, l’Art. 25 – Diritto d’autore IA che disciplinerà tramite novazione al codice, la nuova tutela del diritto d’autore per le opere create con IA. Qui sono previste novazioni all’art.1 della legge 22 aprile 1941, n. 633 e l’aggiunta dell’articolo Art. 70-septies e delle modifiche indicate al successivo articolo 26 della norma.

Non legate ad alcuna normazione del regolamento europeo che in verità disciplina unicamente (importanti) sanzioni amministrative, le disposizioni dell’Art. 26 (Modifiche al codice penale e ad ulteriori disposizioni penali) in cui sono apportate diverse modificazioni. Segnalo l’Art. 612-quater C.P. in cui il legislatore punisce l’Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale (contrasto alle fake news)

In sintesi la norma prodotta ha centrato alcuni punti regolatori importanti al fine della salvaguardia di diritti e per un’azione efficace di governo dello sviluppo proponendo un modello esteso e dinamico di regolazione, con un risultato a giudizio di chi scrive, non perfetto ma certamente apprezzabile.

Share this article!