AI Act e L. 132/2025: Analisi Strategica per Aziende
AI Act e Legge 132/2025: ruoli, obblighi, sanzioni e roadmap operativa per le imprese italiane. Analisi aggiornata al Digital Omnibus 2026.
Ordine degli Avvocati di Sciacca n. 747 · Avvocato & Sviluppatore · IT Law
Nota metodologica. La presente analisi è aggiornata al 25 marzo 2026 e tiene conto delle modifiche introdotte dalla proposta Digital Omnibus approvata in commissione il 18 marzo 2026. Le scadenze e gli obblighi normativi sono soggetti a possibili variazioni; si raccomanda di verificare gli aggiornamenti ufficiali pubblicati dalla Commissione Europea, dall'ACN e dall'AI Office UE. L'autore svolge attività professionale nelle materie oggetto del presente contributo. Il contenuto ha finalità esclusivamente informativa e non costituisce parere legale.
1. Cos'è l'AI Act e qual è il suo obiettivo?
Cos'è l'AI Act? L'AI Act (Artificial Intelligence Act), formalmente Regolamento (UE) 2024/1689, è la prima legge organica al mondo che disciplina lo sviluppo e l'uso dell'intelligenza artificiale. L'obiettivo dell'AI Act è garantire che i sistemi di IA immessi nel mercato europeo siano sicuri e rispettino i diritti fondamentali dei cittadini. A differenza di altre normative, adotta un approccio "risk-based" (basato sul rischio): maggiori sono i pericoli di un'IA, più stringenti sono gli obblighi legali e tecnici per chi la produce o la utilizza. In Italia, la normativa è integrata e resa pienamente sanzionabile tramite la Legge 132/2025.
In sintesi: (1) Classificare tutti i software AI aziendali per livello di rischio. (2) I sistemi ad alto rischio richiedono documentazione tecnica e valutazione sui diritti fondamentali (FRIA). (3) Occorre dimostrare l'avvenuta alfabetizzazione AI del personale. (4) Le sanzioni per sistemi vietati o violazioni documentali (massimali ACN) arrivano a 35 milioni di euro. (5) I divieti per i sistemi inaccettabili sono attivi dal 2 febbraio 2025.
L'anno 2026 segna uno spartiacque fondamentale nella storia del diritto delle nuove tecnologie e della governance aziendale. L'Intelligenza Artificiale (IA) ha definitivamente abbandonato il perimetro della pura sperimentazione tecnologica per fare il suo ingresso in un quadro normativo di immediata applicazione operativa.
Il Regolamento Europeo sull'Intelligenza Artificiale (AI Act) è in vigore dal 2 agosto 2024. Tuttavia, secondo i dati dell'Osservatorio Digital Innovation del Politecnico di Milano, solo il 28% delle imprese italiane dotate di progetti AI è in regola con un assetto di compliance strutturato, mentre il 52% ammette di non comprenderne ancora pienamente il framework normativo.
Il tessuto produttivo si trova oggi ad affrontare la più imponente sfida di conformità dai tempi dell'introduzione del GDPR, affrontando un ecosistema stratificato che combina disposizioni sovranazionali e normative nazionali di adeguamento.
Il fulcro di questa rivoluzione giuridica è rappresentato dal Regolamento (UE) 2024/1689, universalmente noto come AI Act, il primo quadro giuridico integrato a livello globale volto a disciplinare lo sviluppo, l'immissione sul mercato e l'utilizzo dei sistemi di intelligenza artificiale. Entrato in vigore il 1° agosto 2024, l'AI Act abbandona la logica della deregolamentazione tecnologica per abbracciare un approccio rigorosamente basato sul rischio, imponendo obblighi proporzionali alla potenziale lesività che l'algoritmo può esercitare sui diritti fondamentali, sulla salute e sulla sicurezza dei cittadini dell'Unione.
Parallelamente, il legislatore italiano ha inteso anticipare e integrare le dinamiche europee promulgando la Legge 23 settembre 2025, n. 132, recante "Disposizioni e deleghe al Governo in materia di intelligenza artificiale". Questa normativa, entrata in vigore il 10 ottobre 2025, rende l'Italia il primo Paese membro dell'Unione Europea a essersi dotato di una legislazione primaria organica sull'IA, introducendo specifiche tutele in ambito lavorativo, doveri deontologici per le professioni intellettuali, nuove fattispecie di reato nel Codice Penale (tra cui la diffusione illecita di deepfake) e delineando l'architettura istituzionale di vigilanza affidata all'Agenzia per l'Italia Digitale (AgID) e all'Agenzia per la Cybersicurezza Nazionale (ACN).
La comprensione profonda di questo duplice binario normativo non costituisce un mero esercizio accademico, ma rappresenta un imperativo strategico per la continuità aziendale. Per un inquadramento introduttivo, si veda la nostra guida completa all'AI Act. Le sanzioni previste per la non conformità, che possono raggiungere i 35 milioni di euro o il 7% del fatturato globale annuo, impongono ai Consigli di Amministrazione, ai dipartimenti legali, ai Chief Information Security Officer (CISO) e ai direttori delle Risorse Umane di adottare misure proattive. Il presente rapporto si propone di fornire un'analisi giuridica ed empirica esaustiva della materia, dissezionando l'ambito di applicazione della norma, la ripartizione delle responsabilità lungo la catena del valore, i complessi obblighi per i sistemi ad alto rischio, le interazioni con la normativa sulla privacy e le recentissime evoluzioni temporali sancite dalla proposta "Digital Omnibus" del marzo 2026. Le aziende che necessitano di assistenza specifica possono rivolgersi al nostro servizio di consulenza AI Act.
2. Fondamenti Giuridici e Ambito di Applicazione Extraterritoriale
L'infrastruttura giuridica dell'AI Act si fonda sulla volontà del legislatore europeo di instaurare un "Effetto Bruxelles" (Brussels Effect) nel dominio dell'intelligenza artificiale, stabilendo standard globali attraverso la forza attrattiva del mercato unico europeo. A differenza di altri ordinamenti internazionali che prediligono approcci di soft-law o regolamentazioni frammentate e puramente settoriali, l'Unione Europea ha optato per un regolamento orizzontale e direttamente applicabile in tutti gli Stati membri.
L'ambito di applicazione del Regolamento si distingue per la sua marcata portata extraterritoriale. Il criterio di collegamento con la giurisdizione europea non si basa esclusivamente sul luogo di stabilimento societario o sulla sede legale dell'operatore economico, bensì sul luogo in cui il sistema di intelligenza artificiale produce i propri effetti o in cui viene immesso sul mercato.
Sotto il profilo strettamente giuridico, l'AI Act si applica a una pluralità di soggetti e scenari:
- Fornitori che immettono sul mercato o mettono in servizio sistemi di IA o modelli di IA per finalità generali (GPAI) all'interno dell'Unione, indipendentemente dal fatto che tali fornitori siano stabiliti nell'UE o in un Paese terzo
- Deployer (utilizzatori) di sistemi di IA che hanno il proprio stabilimento o che sono situati all'interno dell'Unione Europea
- Fornitori e utilizzatori di sistemi di IA situati in un Paese terzo, qualora l'output prodotto dal sistema venga utilizzato all'interno dell'Unione
Questa formulazione giuridica implica che una società tecnologica con sede nella Silicon Valley o a Tel Aviv, priva di uffici o dipendenti in Europa, sia comunque tenuta a conformarsi ai rigorosi standard dell'AI Act qualora commercializzi un'applicazione basata sull'IA accessibile agli utenti europei, o nel caso in cui i risultati generati dal suo algoritmo (ad esempio, un punteggio di affidabilità creditizia calcolato su server esteri) vengano impiegati da una banca italiana per negare un mutuo a un cittadino dell'Unione.
La definizione di "sistema di intelligenza artificiale" adottata dal legislatore europeo riflette un compromesso tra precisione tecnica e flessibilità giuridica, allineandosi alle formulazioni dell'OCSE: un sistema basato su macchine progettato per funzionare con vari livelli di autonomia, che può mostrare adattabilità dopo la sua implementazione e che, per obiettivi espliciti o impliciti, deduce dall'input ricevuto come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare l'ambiente fisico o virtuale. Questa definizione tecnologicamente neutra è stata concepita per resistere all'obsolescenza, abbracciando sia i tradizionali sistemi di machine learning e di reti neurali, sia i più recenti sviluppi nel campo dell'IA generativa e dei modelli fondazionali.
3. Come si ripartiscono legalmente i ruoli e le responsabilità nella filiera AI?
La corretta qualificazione giuridica all'interno della catena del valore dell'intelligenza artificiale rappresenta il primo e più critico snodo per la conformità aziendale. L'AI Act non impone obblighi generici, ma calibra minuziosamente i doveri in base al ruolo che l'operatore economico riveste rispetto al sistema di IA. Le aziende italiane, nell'approcciarsi all'innovazione tecnologica, devono condurre un'attenta due diligence per determinare la propria qualifica, in quanto un errore di inquadramento può esporre la società a sanzioni milionarie per il mancato adempimento di obblighi non previsti per il proprio ruolo effettivo.
Il Fornitore (Provider)
La figura centrale è quella del Fornitore (Provider). Il fornitore è definito come la persona fisica o giuridica, l'autorità pubblica, l'agenzia o l'organismo che sviluppa un sistema di IA o un modello GPAI, oppure che lo fa sviluppare per proprio conto, e che lo immette sul mercato dell'Unione o lo mette in servizio con il proprio nome o marchio commerciale, sia a titolo oneroso che gratuito. Su questa entità grava l'onere normativo più imponente: il fornitore di un sistema ad alto rischio è obbligato a garantire la conformità strutturale dell'algoritmo, istituire un sistema di gestione della qualità, redigere e conservare la documentazione tecnica, progettare il sistema per consentire la supervisione umana, condurre la procedura di valutazione della conformità e, infine, apporre la marcatura CE prima dell'immissione sul mercato.
Il Deployer (Utilizzatore)
La seconda figura, che racchiude la stragrande maggioranza del tessuto imprenditoriale italiano e delle pubbliche amministrazioni, è quella del Deployer (Utilizzatore). Il deployer è il soggetto che utilizza un sistema di intelligenza artificiale sotto la propria autorità nel contesto di un'attività professionale o commerciale. Non si tratta dell'utente finale privato che interagisce con un chatbot per diletto, ma dell'azienda che integra l'IA nei propri processi aziendali.
Pur non dovendo progettare il sistema ex novo, il deployer assume responsabilità cruciali:
- Utilizzare l'IA rigorosamente in conformità alle istruzioni fornite dal provider
- Garantire che le decisioni automatizzate siano sottoposte a un'efficace supervisione umana da parte di personale formato
- Monitorare costantemente i log di funzionamento per rilevare anomalie o bias cognitivi
- Nei casi previsti, condurre valutazioni d'impatto sui diritti fondamentali
Se il deployer rileva che l'utilizzo del sistema ad alto rischio genera un pericolo per la salute, la sicurezza o i diritti fondamentali, ha l'obbligo giuridico di sospenderne immediatamente l'utilizzo e di informare il fornitore e le autorità competenti.
Importatori e Distributori
A queste figure principali si affiancano gli Importatori e i Distributori, che svolgono una funzione di filtro e di garanzia secondaria a tutela del mercato unico europeo. L'importatore, stabilito nell'Unione, immette sul mercato un sistema sviluppato da un fornitore extra-UE e ha il preciso dovere di accertarsi che il fornitore estero abbia espletato correttamente la procedura di valutazione della conformità. Il distributore, d'altro canto, è il soggetto che rende disponibile il sistema sul mercato senza alterarlo; il suo compito si sostanzia nella verifica formale della presenza della marcatura CE e della documentazione accompagnatoria.
| Ruolo AI Act | Attività Principale | Obblighi Chiave |
|---|---|---|
| Provider (Fornitore) | Sviluppa o immette sul mercato il sistema di IA con il proprio marchio | Progettazione sicura, data governance, documentazione tecnica, valutazione conformità, marcatura CE, monitoraggio post-vendita |
| Deployer (Utilizzatore) | Utilizza l'IA nel proprio contesto lavorativo o professionale | Rispetto rigoroso delle istruzioni, supervisione umana, monitoraggio dei log, esecuzione FRIA (se applicabile), sospensione in caso di anomalie gravi |
| Importatore | Immette nell'UE un sistema di IA prodotto da un fornitore extra-europeo | Verifica preventiva della conformità del provider, accertamento marcatura CE e documentazione tecnica |
| Distributore | Rende disponibile il sistema sul mercato dell'Unione Europea | Verifica formale della presenza dei requisiti (marcatura, istruzioni), obbligo di segnalazione e ritiro in caso di non conformità |
Esperienza professionale. Nella mia attività di consulenza legale per startup e PMI del settore tech, noto che la distinzione tra utilizzatore (deployer) e fornitore (provider) - in particolare nei casi di personalizzazione di modelli preaddestrati - è la causa principale di sanzioni o blocchi di mercato. Molte aziende italiane che creano "wrapper" su modelli OpenAI o Anthropic non si rendono conto che possono essere qualificate giuridicamente come fornitori (Art. 25).
3.1. In quali casi un Utilizzatore viene riqualificato legalmente come Produttore AI?
Un meccanismo giuridico di estrema insidia per le aziende italiane è contemplato dall'Articolo 25 dell'AI Act, che disciplina le ipotesi in cui un distributore, un importatore o un semplice deployer subisce una riqualificazione forzosa in "Fornitore", ereditandone in solido tutti gli stringenti obblighi.
Tale metamorfosi giuridica si verifica in tre scenari specifici:
- Quando un'azienda appone il proprio nome o marchio commerciale su un sistema di IA ad alto rischio già immesso sul mercato da terzi
- Quando l'operatore modifica la destinazione d'uso prevista originariamente dal fornitore iniziale - ad esempio, se un'azienda acquista un algoritmo progettato e certificato per l'analisi del sentiment dei consumatori a fini di marketing e decide autonomamente di impiegarlo per valutare lo stato psicologico dei propri dipendenti a fini disciplinari
- Quando l'operatore apporta una "modifica sostanziale" a un sistema di IA ad alto rischio - in tale eventualità, il fornitore originario è sollevato dalle responsabilità per le alterazioni apportate, mentre l'azienda italiana che ha effettuato l'adattamento dovrà sottoporre l'intero sistema a una nuova valutazione di conformità
4. Qual è l'architettura tecnica del rischio stabilita dal Regolamento UE?
L'essenza concettuale e operativa dell'AI Act risiede nel suo approccio piramidale basato sul rischio. Il legislatore ha stabilito che le restrizioni legali debbano essere direttamente proporzionali all'impatto potenziale che il sistema di IA può avere sui diritti fondamentali, sulla salute e sulla sicurezza delle persone. Questa filosofia si traduce in una classificazione in quattro livelli distinti.
4.1. Quali specifiche pratiche di Intelligenza Artificiale sono considerate a rischio inaccettabile e vietate?
All'apice della piramide si collocano le pratiche considerate una minaccia manifesta ai valori dell'Unione Europea, soggette a un divieto assoluto e incondizionato. Queste disposizioni sono già pienamente applicabili e sanzionabili in tutti gli Stati membri a partire dal 2 febbraio 2025.
L'elenco delle pratiche vietate dall'Articolo 5 dell'AI Act comprende:
- Sistemi di IA che impiegano tecniche subliminali, manipolative o ingannevoli al fine di distorcere materialmente il comportamento umano
- Sistemi che sfruttano le vulnerabilità di specifiche categorie di persone (età, disabilità, situazioni sociali ed economiche) per indurle a comportamenti dannosi
- Il Social Scoring: valutazione o classificazione sistematica delle persone fisiche basata sul loro comportamento sociale o su tratti della personalità
- La polizia predittiva individuale: sistemi per valutare o prevedere il rischio che una persona commetta un reato basandosi unicamente sulla profilazione
- L'identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico per scopi di contrasto, salvo eccezioni ristrettissime soggette ad autorizzazione giudiziaria
- Lo scraping non mirato di immagini facciali da internet o da filmati CCTV per creare o espandere database di riconoscimento facciale
- Il riconoscimento delle emozioni nei luoghi di lavoro e negli istituti di istruzione (salvo motivi medici o di sicurezza dimostrabili)
- La categorizzazione biometrica finalizzata a dedurre opinioni politiche, appartenenza sindacale, convinzioni religiose o orientamento sessuale
4.2. Quali sistemi AI ricadono nella pericolosa categoria ad Alto Rischio?
Il cuore pulsante della conformità aziendale risiede nei sistemi classificati come "ad alto rischio". Questi sistemi sono legalmente consentiti, ma la loro immissione sul mercato o la loro messa in servizio è subordinata all'assolvimento di oneri formali e sostanziali di formidabile complessità.
I sistemi ad alto rischio si suddividono in due macro-categorie:
Allegato I - Sistemi integrati in prodotti regolamentati: sistemi di IA destinati a fungere da componenti di sicurezza all'interno di prodotti già soggetti alla legislazione di armonizzazione UE (dispositivi medici, macchinari industriali, autoveicoli, ascensori, giocattoli, attrezzature per l'aviazione civile).
Allegato III - Sistemi "stand-alone" in settori critici: L'Articolo 6, paragrafo 2, elenca otto aree specifiche:
- Identificazione biometrica: sistemi biometrici e di riconoscimento delle emozioni (laddove non ricadano nelle pratiche vietate)
- Infrastrutture critiche: sistemi impiegati come componenti di sicurezza nelle infrastrutture digitali, del traffico stradale, nelle reti di fornitura di acqua, gas, riscaldamento ed elettricità
- Istruzione e formazione professionale: algoritmi per determinare l'accesso alle istituzioni scolastiche, assegnare voti, valutare risultati di apprendimento o monitorare il comportamento degli studenti durante gli esami
- Occupazione e gestione dei lavoratori: sistemi per il reclutamento e la selezione del personale, per decisioni relative a promozioni o licenziamenti, per l'assegnazione di compiti e per la valutazione sistematica delle prestazioni
- Accesso a servizi essenziali: sistemi per valutare l'ammissibilità a prestazioni di welfare, per il credit scoring e per la valutazione dei rischi nell'assicurazione sanitaria e sulla vita
- Forze dell'ordine: strumenti per la valutazione dell'affidabilità delle prove, l'analisi del rischio di recidiva o la profilazione in indagini penali
- Gestione della migrazione e controllo delle frontiere: sistemi per la verifica dell'autenticità dei documenti di viaggio o la valutazione del rischio
- Amministrazione della giustizia e processi democratici: soluzioni per assistere le autorità giudiziarie nella ricerca e nell'interpretazione di fatti e normative
La deroga per mancanza di rischio significativo (Art. 6, par. 3): un sistema di IA non è considerato ad alto rischio qualora il fornitore possa dimostrare che esso non pone un rischio significativo di danno. Tale deroga si applica se il sistema esegue un compito procedurale ristretto, migliora il risultato di un'attività umana precedentemente completata, rileva schemi decisionali senza sostituire la revisione umana, o svolge compiti meramente preparatori. Tuttavia, un sistema che effettua la profilazione di individui fisici è sempre considerato ad alto rischio, senza possibilità di deroghe.
I Sette Pilastri della Conformità per i Sistemi ad Alto Rischio
I fornitori di sistemi ad alto rischio devono edificare un'impalcatura di compliance integrata (Articoli 8-17 dell'AI Act):
- Sistema di Gestione del Rischio (Risk Management System): un processo iterativo, documentato e continuo, progettato per identificare, analizzare, stimare e mitigare i rischi
- Dati e Governance dei Dati (Data Governance): i set di dati di addestramento, validazione e test devono essere pertinenti, rappresentativi, sufficientemente ampi e privi di errori e pregiudizi sistemici (bias)
- Documentazione Tecnica: documentazione dettagliata che comprovi la conformità del sistema ai requisiti di legge
- Conservazione dei Registri (Record-keeping/Logging): registrazione automatica degli eventi durante il funzionamento per garantire la tracciabilità
- Trasparenza e Istruzioni per l'Uso: il funzionamento del sistema deve essere sufficientemente trasparente per consentire ai deployer di interpretarne l'output
- Supervisione Umana (Human Oversight): interfacce uomo-macchina che permettano di comprendere, sorvegliare e, se necessario, ignorare gli output del sistema o interromperne il funzionamento tramite un apposito "kill switch"
- Accuratezza, Robustezza e Cybersicurezza: i sistemi devono mantenere un livello adeguato e misurabile di accuratezza ed essere resilienti agli attacchi mirati
4.3. Rischio Limitato: Gli Obblighi di Trasparenza
Per i sistemi che interagiscono direttamente con le persone o generano contenuti artificiali, l'AI Act impone precisi doveri informativi. La piena applicabilità è fissata per il 2 agosto 2026 (salvo modifiche Omnibus):
- Interazioni dirette: i chatbot e gli assistenti virtuali devono informare l'utente della loro natura artificiale
- Sistemi di categorizzazione biometrica: i deployer devono informare le persone esposte prima dell'elaborazione dei dati
- Contenuti generati o manipolati (Deepfake): stringenti obblighi di etichettatura e watermarking digitale. Qualsiasi immagine generata tramite algoritmi come Midjourney o testi elaborati da ChatGPT e pubblicati a fini commerciali o informativi dovrà recare l'apposita menzione
4.4. Rischio Minimo o Assente
L'ultima fascia raccoglie la stragrande maggioranza dei sistemi di IA attualmente in uso (si stima oltre l'80%): algoritmi per il filtraggio antispam, IA nei videogiochi, filtri di ricerca semplici o strumenti di suggerimento testo. Per questa categoria, l'AI Act non introduce alcun obbligo legale specifico, pur incoraggiando l'adesione volontaria a codici di condotta.
5. Il Regime Speciale dei Modelli di IA per Finalità Generali (GPAI)
Oltre alla categorizzazione per rischio d'uso, l'AI Act introduce una regolamentazione trasversale dedicata ai cosiddetti Modelli di IA per Finalità Generali (General-Purpose AI Models, o GPAI). Questi modelli, come le reti neurali alla base di ChatGPT, Claude o Gemini, sono caratterizzati da una profonda versatilità. Le regole per i provider di modelli GPAI sono vincolanti e sanzionabili dal 2 agosto 2025.
Un modello rientra nella disciplina generale GPAI se è stato addestrato utilizzando una potenza di calcolo superiore a 10²³ operazioni in virgola mobile (FLOPs).
Obblighi per tutti i fornitori GPAI
- Redigere e aggiornare costantemente la documentazione tecnica del modello
- Fornire documentazione e supporto tecnico agli sviluppatori a valle (downstream providers)
- Pubblicare un riepilogo sufficientemente dettagliato dei dati di addestramento
- Implementare una solida politica di conformità al diritto d'autore (Direttiva CDSM 2019/790)
5.1. GPAI con Rischio Sistemico e Modelli Open Source
La normativa eleva il livello di guardia per i modelli GPAI di frontiera. Qualsiasi modello addestrato utilizzando un calcolo cumulativo pari o superiore a 10²⁵ FLOPs è classificato come modello GPAI con rischio sistemico. Le implicazioni includono:
- Valutazioni periodiche del modello, inclusi test da terze parti e red teaming avversario
- Valutazione analitica dei rischi sistemici accompagnata da misure di mitigazione
- Obbligo di segnalazione tempestiva all'European AI Office di incidenti gravi
- Misure di cybersicurezza rafforzate proporzionate alla criticità del modello
Per i modelli Open Source, sono previste esenzioni dalla documentazione tecnica, a condizione che parametri, architettura e pesi siano resi pubblicamente disponibili. Restano tuttavia obbligatori il rispetto del copyright e la pubblicazione della sintesi dei dati di addestramento. Se un modello Open Source supera la soglia dei 10²⁵ FLOPs, tutte le esenzioni decadono immediatamente.
6. Tempistiche di Applicazione e lo Slittamento del "Digital Omnibus" (Marzo 2026)
La comprensione delle tempistiche è vitale per pianificare gli investimenti e le procedure di audit interno. Il cronoprogramma originario prevedeva un'applicazione scaglionata, ma l'infrastruttura istituzionale e tecnica europea ha palesato gravi ritardi strutturali. L'assenza di standard armonizzati definitivi e la mancanza di enti notificati operativi hanno condotto all'approvazione del pacchetto "Digital Omnibus on AI".
Il 18 marzo 2026, le commissioni competenti del Parlamento Europeo (IMCO e LIBE) hanno approvato la relazione congiunta che emenda l'AI Act, introducendo scadenze fisse:
| Data di Applicazione | Disposizioni e Obblighi | Soggetti Impattati |
|---|---|---|
| 2 Febbraio 2025 | Divieto assoluto pratiche rischio inaccettabile, obbligo AI Literacy | Tutti gli operatori |
| 2 Agosto 2025 | Obblighi GPAI, implementazione governance, sanzioni | Provider GPAI, Commissione UE |
| 2 Novembre 2026 | Trasparenza contenuti generati e watermarking (Modifica Omnibus) | Fornitori e Deployer IA generativa |
| 2 Dicembre 2027 | Applicazione completa sistemi Alto Rischio Allegato III (Modifica Omnibus) | Fornitori, Deployer, Importatori |
| 2 Agosto 2028 | Applicazione completa sistemi Alto Rischio Allegato I (Modifica Omnibus) | Fabbricanti prodotti (medicali, auto, ecc.) |
Il testo dell'Omnibus introduce inoltre nell'Articolo 5 un nuovo divieto esplicito (il cosiddetto "Nudifier ban"), che proibisce a livello europeo i sistemi di IA progettati per generare immagini e video sessualmente espliciti raffiguranti persone reali identificabili, senza il loro inequivocabile consenso.
Il rinvio concesso dal pacchetto Omnibus non deve tradursi in compiacimento per le imprese italiane. Al contrario, offre lo spazio strategico per completare la mappatura dei sistemi e strutturare una conformità architetturale che richiederà interi trimestri per essere implementata e testata.
7. Il Contesto Nazionale: La Legge Italiana 132/2025
L'Italia ha svolto un ruolo pionieristico nel recepimento e nell'ampliamento dei principi europei. Il Parlamento italiano ha promulgato la Legge 23 settembre 2025, n. 132, che costituisce il primo quadro normativo nazionale primario a delineare le coordinate di sviluppo e di limite dell'IA nel Paese. Entrata in vigore il 10 ottobre 2025, la Legge fissa precise deleghe al Governo per l'adozione, entro dodici mesi, dei decreti legislativi volti a definire l'adeguamento granulare del diritto interno all'AI Act e a rimodulare il sistema sanzionatorio.
7.1. L'Architettura di Governance: AgID e ACN
L'Articolo 20 della Legge 132/2025 e il successivo Decreto di Adeguamento stabiliscono una governance duale e sinergica che l'azienda deve conoscere per individuare l'interlocutore corretto:
- ACN (Agenzia per la Cybersicurezza Nazionale): Nominata quale Autorità di vigilanza del mercato. È il soggetto preposto alle ispezioni, al controllo tecnico sulla sicurezza dei sistemi e all'esercizio del potere sanzionatorio. In caso di incidente serio o di non conformità tecnica, l'ACN è la controparte istituzionale.
- AgID (Agenzia per l'Italia Digitale): Nominata quale Autorità di notifica. Si occupa di accreditare gli organismi di valutazione della conformità, promuovere standard di interfaccia e sostenere l'adozione dell'IA nella PA e nel tessuto produttivo italiano.
Entrambe le Agenzie cooperano con il Garante per la Protezione dei Dati Personali, che mantiene la competenza esclusiva su ogni trattamento algoritmico che coinvolga dati di persone fisiche (relazione annuale 2024-2025).
7.2. Impatto sul Management Aziendale e sulle Risorse Umane (HR)
L'integrazione di sistemi di IA nei processi di gestione del capitale umano è considerata ad alto rischio dall'AI Act (Allegato III). La legislazione italiana interviene per presidiare questo equilibrio, focalizzandosi sul divieto di discriminazione algoritmica e sulla prevalenza decisionale umana.
Per le aziende che necessitano di un DPO esterno, questo snodo è particolarmente rilevante. Il datore di lavoro italiano si trova oggi vincolato a obblighi di eccezionale trasparenza. In combinato disposto con l'Articolo 1-bis del D.Lgs. 152/1997 ("Decreto Trasparenza"), l'impiego di qualsiasi sistema IA in ambito lavorativo richiede:
- Un'informativa capillare nei confronti dei prestatori di lavoro e delle loro rappresentanze sindacali, da rendersi per iscritto e antecedente all'utilizzo
- La delineazione comprensibile delle logiche di funzionamento dell'algoritmo, della tipologia di dati ingeriti e dei potenziali impatti sull'organizzazione del lavoro
- La notifica tempestiva ai dipendenti di qualsiasi alterazione al sistema algoritmico, con un preavviso minimo di 24 ore
L'intelligenza artificiale non può in alcun caso soppiantare la responsabilità decisionale umana in ambiti che incidano sulla salute, sulla sicurezza sul lavoro, su valutazioni premiali o procedure disciplinari e di licenziamento. L'essere umano deve mantenere il potere incondizionato di contestare, sospendere e correggere l'output generato dalla macchina.
7.3. I Liberi Professionisti (Articolo 13) e la PA (Articolo 14)
Per le professioni intellettuali regolamentate (avvocati, medici, commercialisti, ingegneri, notai), l'Articolo 13 della L. 132/2025 statuisce che l'uso dell'intelligenza artificiale deve avere una funzione meramente "strumentale e di supporto". La responsabilità ultima della prestazione intellettuale rimane inderogabilmente incardinata sul professionista umano.
Il professionista ha il dovere legale e deontologico di comunicare l'utilizzo di strumenti basati sull'IA in un linguaggio "chiaro, semplice ed esaustivo", preservando la natura fiduciaria del mandato professionale. L'omissione espone a profili di negligenza contrattuale, illecito disciplinare e potenziale responsabilità per danni.
L'Articolo 14 detta il nuovo "statuto" dell'IA per la Pubblica Amministrazione: pur incoraggiando l'adozione dell'innovazione, il legislatore ribadisce che l'impiego deve avvenire a solo scopo di "supporto all'attività provvedimentale". Il funzionario pubblico mantiene la titolarità esclusiva del potere decisionale.
7.4. Quali implicazioni penali comporta l'uso di Deepfake per l'Ente (Dlgs 231/2001)?
Le innovazioni forse più dirompenti della L. 132/2025 si sostanziano negli interventi di natura penalistica. Il legislatore ha introdotto nel Codice Penale il nuovo art. 612-quater c.p., specificamente rubricato per reprimere l'uso illecito dei deepfake.
La fattispecie punisce con la reclusione da uno a cinque anni la condotta di colui che genera, diffonde o pubblica senza consenso immagini, video o voci falsificati o alterati mediante l'uso di IA, qualora tali materiali siano idonei a trarre in inganno i terzi sulla loro genuinità. Sono state inoltre inserite aggravanti specifiche per reati tradizionali - aggiotaggio, manipolazione del mercato, frodi informatiche, truffe assicurative - qualora posti in essere avvalendosi dell'IA.
Le ricadute impattano direttamente l'architettura della conformità societaria ex D.Lgs. 231/2001. Le aziende sono chiamate a un tempestivo aggiornamento dei propri Modelli di Organizzazione, Gestione e Controllo (MOG). Per approfondire le implicazioni sanzionatorie per le startup, si veda il nostro articolo su AI Act e sanzioni per le startup italiane. Un Modello 231 non aggiornato alla gestione del rischio algoritmico espone il patrimonio aziendale a:
- Imponenti quote pecuniarie
- Divieto temporaneo o definitivo di contrattare con la PA
- Revoca di autorizzazioni, licenze e concessioni
- Esclusione o revoca dai fondi di finanziamento agevolato (compresi i fondi PNRR)
8. In che modo gli obblighi documentali DPIA (GDPR) e FRIA (AI Act) convergono per le aziende?
L'introduzione dell'AI Act non sospende, né attenua, i diritti e le garanzie sancite dal GDPR; le due architetture normative convivono in rapporto di complementarietà e sovrapposizione. Lo spazio giuridico in cui queste due normative entrano in contatto diretto è il perimetro di analisi dei rischi preventivi.
8.1. Distinzioni Strutturali tra DPIA e FRIA
| Elemento Distintivo | DPIA (Art. 35 GDPR) | FRIA (Art. 27 AI Act) |
|---|---|---|
| Focus Normativo | Tutela dei dati personali e diritto alla riservatezza | Protezione globale dei Diritti Fondamentali (Carta UE): dignità, non discriminazione, equità, lavoro, espressione |
| Dati Coinvolti | Esclusivamente dati personali e dati sensibili | Dati personali e non personali (aggregati, ambientali, statistici) |
| Elemento innescante | Trattamento tecnologico su larga scala di dati personali suscettibile di presentare un "rischio elevato" | Impiego di sistemi ad Alto Rischio (Allegato III) da parte di specifici deployer (PA, banche, assicurazioni, istituti HR) |
| Soggetto Obbligato | Titolare del trattamento dei dati (Data Controller) | Deployer (Utilizzatore) qualificato di specifici sistemi ad Alto Rischio |
| Integrazione con Misure Terze | Misure di sicurezza IT e limitazione d'uso dati (minimizzazione e by design) | Procedure di sorveglianza umana obbligatoria e gestione delle denunce per discriminazione algoritmica |
| Notifica e Divulgazione | Obbligo di consultazione con il Garante Privacy solo in presenza di un rischio residuo inaccettabile | Obbligo di notifica dell'esito all'Autorità di sorveglianza competente (ACN) |
Dalla teoria alla pratica. Come avvocato privacy, noto che nelle aziende che già dispongono di una DPIA consolidata, la tentazione è considerare la FRIA solo come "due pagine extra" da allegare. Questo espone al rischio di sanzioni cumulative da parte di ACN e Garante Privacy. Le due valutazioni richiedono attori diversi: la DPIA coinvolge il DPO e l'IT, mentre la FRIA richiede la collaborazione attiva delle Risorse Umane e, laddove applicabile, dell'Organismo di Vigilanza 231.
8.2. Coordinamento Operativo: L'Integrazione della Compliance
L'Articolo 27(4) dell'AI Act favorisce attivamente un'ottimizzazione del carico di conformità: la FRIA non necessita di una documentazione interamente avulsa, ma può integrare e implementare parzialmente gli adempimenti in seno alla preesistente DPIA, in un unico documento o framework operativo congiunto.
Caso pratico - Manifatturiero e HR: un'industria manifatturiera che implementa un sistema di screening algoritmico dei CV rientra categoricamente nell'Allegato III dell'AI Act. L'azienda, operando in veste di Deployer e Titolare del Trattamento, deve: (1) redigere la DPIA per verificare che la raccolta automatizzata dei dati del personale rispetti il GDPR; (2) sviluppare l'addendum FRIA per analizzare se l'algoritmo contenga bias di genere o provenienza geografica; (3) documentare quale specifico manager detiene il potere di rivedere o correggere il verdetto algoritmico. Questo ecosistema combinato protegge dal rischio sanzionatorio cumulativo (Garante Privacy e ACN).
9. Roadmap Operativa e Checklist per le Imprese Italiane (2026-2028)
La dilazione temporale conferita dal pacchetto "Digital Omnibus" non rappresenta un invito all'inazione gestionale. La strutturazione di una governance conforme richiede cicli operativi che si snodano in molti mesi.
1. AI Mapping & Inventory (Censimento e Classificazione)
La conformità inizia dalla visibilità. Le aziende devono condurre un audit omnicomprensivo di tutti i sistemi o componenti AI attualmente in uso, in fase di test o previsti nel ciclo di approvvigionamento. È necessario debellare il fenomeno della "Shadow AI" (l'uso di modelli generativi da parte dei dipendenti al di fuori dei canali aziendali presidiati). Ciascun sistema deve essere mappato rispetto ai quattro livelli di rischio dell'AI Act e alle classi di rischio del GDPR. Le pratiche "inaccettabili", già sanzionabili da febbraio 2025, devono essere irrevocabilmente estirpate dalle operazioni societarie.
2. Identificazione dei Ruoli e Rinegoziazione Contrattuale della Supply Chain
Il censimento deve produrre una rigorosa qualificazione giuridica. L'azienda sta agendo come mero Deployer o, avendo alterato il sistema, si è giuridicamente esposta agli oneri di un Provider ai sensi dell'Articolo 25? Accertato il ruolo, è imperativo rivedere la contrattualistica ICT con i vendor tecnologici terzi, istituendo specifiche clausole per garantire la documentazione tecnica, le istruzioni trasparenti e le garanzie contrattuali indispensabili per redigere DPIA e FRIA.
3. Governance e Formazione Continua (AI Literacy)
È necessario cristallizzare una "AI Acceptable Use Policy" approvata dai vertici aziendali. Sin da febbraio 2025 (Art. 4 dell'AI Act), l'azienda ha il dovere legale di assicurare un livello adeguato di AI Literacy - formare i dipendenti per aiutarli a riconoscere limitazioni, rischi legali, vulnerabilità e pericoli di bias algoritmici è oggi tanto cogente quanto la formazione obbligatoria sulla sicurezza nei luoghi di lavoro.
4. Integrazione MOG 231 e Prevenzione Deepfake
Il Modello Organizzativo Gestionale (MOG) ex D.Lgs. 231/2001 deve includere un'apposita classe di reato che riconosca l'estensione dell'illecito tramite algoritmi (art. 612-quater c.p. per i deepfake, frodi informatiche potenziate da agenti virtuali). Il rischio per sanzioni derivate da illeciti gestiti con l'IA da parte di posizioni apicali è un punto centrale della responsabilità aziendale moderna.
5. Applicazione dei Livelli di Conformità e Audit (Pre-2027)
Per le imprese Deployer in sistemi Allegato III: implementazione del binomio documentale integrato DPIA e FRIA, creazione del perimetro operativo del "Human-in-the-loop" con identificazione, per mansione, del dipendente preposto alla supervisione dell'output algoritmico.
Per i fornitori o fabbricanti (Provider di Allegato I o III): predisposizione e superamento dell'iter certificativo ai fini del marchio CE, in base agli standard CEN/CENELEC, attivando nel contempo un rigoroso "Post-Market Monitoring" per segnalare ad ACN e AI Office incidenti seri entro il termine di 15 giorni.
6. Trasparenza Immediata e Sito Web
In caso si operi nei settori a rischio "limitato", occorre aggiornare entro le scadenze del 2026 con apposite diciture, etichette chiare e disclaimers ogni sito web, ogni comunicazione commerciale o relazione con clienti ove si utilizzino chatbot o agenti automatizzati o ove si pubblichino grafiche generate da algoritmi generativi. Le aziende che violeranno la prescritta linea a partire dal termine di novembre 2026 esporranno la credibilità del proprio marchio e attrarranno sanzioni dal fatturato.
10. Architettura Sanzionatoria e Tutele per le PMI
Il perimetro sanzionatorio dell'AI Act (Articolo 99) è concepito per un effetto dissuasivo, ma prevede un regime di tutela specifico per le micro, piccole e medie imprese e le startup:
- Violazioni rischio inaccettabile: fino a 35.000.000 EUR o il 7% del fatturato annuo mondiale.
- Mancata conformità sistemi ad Alto Rischio (Allegato III): fino a 15.000.000 EUR o il 3% del fatturato.
- Fornitura di informazioni inesatte: fino a 7.500.000 EUR o l'1% del fatturato.
Il Principio di Proporzionalità: Per le PMI e le startup, in deroga alla regola generale dei grandi gruppi, l'autorità deve applicare il valore più basso tra la cifra assoluta e la percentuale sul fatturato globale. Questa è una salvaguardia fondamentale per l'ecosistema dell'innovazione italiana.
Domande Frequenti (FAQ)
Quali sono le scadenze dell'AI Act da segnare in calendario? Il percorso di conformità è graduale: i divieti (Art. 5) sono già attivi dal 2 febbraio 2025. Le norme per i modelli GPAI (es. ChatGPT) scattano dal 2 agosto 2025. La data più rilevante per le aziende è il 2 agosto 2026, quando diventeranno obbligatori i requisiti per i sistemi ad alto rischio dell'Allegato III.
Cosa rischia concretamente una startup italiana se non è a norma? Oltre alle sanzioni pecuniarie (che per le startup seguono il calcolo del valore più basso), l'ACN può disporre il ritiro del software dal mercato. Inoltre, la mancata conformità può precludere l'accesso a bandi pubblici, finanziamenti PNRR o investimenti di venture capital.
La DPIA del GDPR sostituisce la FRIA dell'AI Act? No, ma possono essere integrate. La DPIA (Art. 35 GDPR) si concentra solo sulla protezione dei dati personali. La FRIA (Art. 27 AI Act) analizza l'impatto sui diritti fondamentali in senso lato (non discriminazione, dignità). L'Art. 27(4) consente espressamente di accorpare le due valutazioni in un unico processo di analisi dei rischi aziendali.
Qual è il ruolo dell'ACN rispetto al Garante Privacy? Sono autorità con compiti distinti ma collaborativi. L'ACN vigila sulla sicurezza e sulla conformità tecnica del sistema IA al Regolamento UE. Il Garante Privacy interviene se quell'IA tratta dati personali, verificando consensi, informative e diritti degli interessati (Relazione 2024 Garante).
I modelli Open Source sono del tutto esenti dagli obblighi? Non del tutto. Sebbene godano di esenzioni sulla documentazione tecnica verso le autorità, devono comunque rispettare il diritto d'autore (policy copyright) e pubblicare una sintesi dei dati di addestramento. Se il modello supera la soglia di 10²⁵ FLOPs (rischio sistemico), le esenzioni decadono.
Bibliografia e Fonti
- AI Governance in 2026: Why Staying Current Is No Longer Optional for Your Business - Security Boulevard
- AI Act | Shaping Europe's digital future - European Union
- EU AI Act 2026 Updates: Compliance Requirements and Business Risks - Legal Nodes
- Legge sull'IA | Plasmare il futuro digitale dell'Europa - Commissione Europea
- AI News: Italy Sets the Rules for AI in the Workplace - K&L Gates
- Entra in vigore la legge 132/2025: l'Italia detta le nuove regole per l'AI - CNI
- Legge n. 132/2025: il nuovo quadro normativo italiano sull'intelligenza artificiale - Vega Engineering
- Article 99: Penalties | EU Artificial Intelligence Act
- Article 101: Fines for Providers of General-Purpose AI Models | EU Artificial Intelligence Act
- EU AI Act Compliance Guide for CISOs & GRC Leaders - Kovrr
- EU AI Act Deadlines 2025–2027: Board Compliance Playbook - Vantedge Search
- MEPs Adopt Joint Position on Proposed Digital Omnibus on AI - Inside Privacy
- EU Parliament Committee Backs AI Act Delay with Fixed 2027 Deadline - PPC Land
- Guida AI Act 2026: Entrata in Vigore e Obblighi per le Imprese - CRMpartners
- AI Act 2026: guida a divieti, sanzioni e nuove scadenze di compliance - Cyber Security 360
- Provider e Deployer nell'AI Act - Studio Legale Delli Ponti
- The 2026 AI Compliance Clock: What the EU AI Act's August Deadline Means - Langsmart
- AI Act Conformity Tool - European DIGITAL SME Alliance
- The EU AI Act: 6 Steps to Take Before 2 August 2026 - Orrick
- La responsabilità del deployer nell'uso dell'Intelligenza Artificiale - Diritto Bancario

Autore
Avvocato iscritto all'Ordine di Sciacca (n. 747), specializzato in diritto delle tecnologie e privacy. Prima dell'attività forense ha sviluppato applicazioni web e architetture cloud, competenza che porta nell'analisi tecnico-giuridica di prodotti digitali, SaaS e sistemi AI. Assiste aziende e startup nell'adeguamento a GDPR, AI Act, NIS2 e DORA.
Profilo completo e competenze