Vai al contenuto principale
Aziende2026-03-2530 min read

AI Act e Legge 132/2025: Analisi Strategica e Operativa per le Aziende Italiane

Analisi giuridica completa dell'AI Act (Reg. UE 2024/1689) e della Legge italiana 132/2025 sull'intelligenza artificiale. Ruoli, obblighi, sanzioni, tempistiche aggiornate al Digital Omnibus 2026 e roadmap operativa per le imprese.

1. Introduzione al Nuovo Ecosistema Normativo sull'Intelligenza Artificiale

L'anno 2026 segna uno spartiacque fondamentale nella storia del diritto delle nuove tecnologie e della governance aziendale. L'Intelligenza Artificiale (IA) ha definitivamente abbandonato il perimetro della pura sperimentazione tecnologica e delle speculazioni etiche per fare il suo ingresso in un quadro normativo vincolante, sanzionabile e di immediata applicazione operativa per le imprese. Il tessuto produttivo europeo, con particolare riferimento a quello italiano, si trova oggi ad affrontare la più imponente sfida di conformità dai tempi dell'introduzione del Regolamento Generale sulla Protezione dei Dati (GDPR), affrontando un ecosistema normativo stratificato che combina disposizioni sovranazionali direttamente applicabili e normative nazionali di adeguamento.

Il fulcro di questa rivoluzione giuridica è rappresentato dal Regolamento (UE) 2024/1689, universalmente noto come AI Act, il primo quadro giuridico olistico a livello globale volto a disciplinare lo sviluppo, l'immissione sul mercato e l'utilizzo dei sistemi di intelligenza artificiale. Entrato in vigore il 1° agosto 2024, l'AI Act abbandona la logica della deregolamentazione tecnologica per abbracciare un approccio rigorosamente basato sul rischio, imponendo obblighi proporzionali alla potenziale lesività che l'algoritmo può esercitare sui diritti fondamentali, sulla salute e sulla sicurezza dei cittadini dell'Unione.

Parallelamente, il legislatore italiano ha inteso anticipare e integrare le dinamiche europee promulgando la Legge 23 settembre 2025, n. 132, recante "Disposizioni e deleghe al Governo in materia di intelligenza artificiale". Questa normativa, entrata in vigore il 10 ottobre 2025, rende l'Italia il primo Paese membro dell'Unione Europea a essersi dotato di una legislazione primaria organica sull'IA, introducendo specifiche tutele in ambito lavorativo, doveri deontologici per le professioni intellettuali, nuove fattispecie di reato nel Codice Penale (tra cui la diffusione illecita di deepfake) e delineando l'architettura istituzionale di vigilanza affidata all'Agenzia per l'Italia Digitale (AgID) e all'Agenzia per la Cybersicurezza Nazionale (ACN).

La comprensione profonda di questo duplice binario normativo non costituisce un mero esercizio accademico, ma rappresenta un imperativo strategico per la continuità aziendale. Per un inquadramento introduttivo, si veda la nostra guida completa all'AI Act. Le sanzioni previste per la non conformità, che possono raggiungere i 35 milioni di euro o il 7% del fatturato globale annuo, impongono ai Consigli di Amministrazione, ai dipartimenti legali, ai Chief Information Security Officer (CISO) e ai direttori delle Risorse Umane di adottare misure proattive. Il presente rapporto si propone di fornire un'analisi giuridica ed empirica esaustiva della materia, dissezionando l'ambito di applicazione della norma, la ripartizione delle responsabilità lungo la catena del valore, i complessi obblighi per i sistemi ad alto rischio, le interazioni con la normativa sulla privacy e le recentissime evoluzioni temporali sancite dalla proposta "Digital Omnibus" del marzo 2026. Le aziende che necessitano di assistenza specifica possono rivolgersi al nostro servizio di consulenza AI Act.


2. Fondamenti Giuridici e Ambito di Applicazione Extraterritoriale

L'infrastruttura giuridica dell'AI Act si fonda sulla volontà del legislatore europeo di instaurare un "Effetto Bruxelles" (Brussels Effect) nel dominio dell'intelligenza artificiale, stabilendo standard globali attraverso la forza attrattiva del mercato unico europeo. A differenza di altri ordinamenti internazionali che prediligono approcci di soft-law o regolamentazioni frammentate e puramente settoriali, l'Unione Europea ha optato per un regolamento orizzontale e direttamente applicabile in tutti gli Stati membri.

L'ambito di applicazione del Regolamento si distingue per la sua marcata portata extraterritoriale. Il criterio di collegamento con la giurisdizione europea non si basa esclusivamente sul luogo di stabilimento societario o sulla sede legale dell'operatore economico, bensì sul luogo in cui il sistema di intelligenza artificiale produce i propri effetti o in cui viene immesso sul mercato.

Sotto il profilo strettamente giuridico, l'AI Act si applica a una pluralità di soggetti e scenari:

  • Fornitori che immettono sul mercato o mettono in servizio sistemi di IA o modelli di IA per finalità generali (GPAI) all'interno dell'Unione, indipendentemente dal fatto che tali fornitori siano stabiliti nell'UE o in un Paese terzo
  • Deployer (utilizzatori) di sistemi di IA che hanno il proprio stabilimento o che sono situati all'interno dell'Unione Europea
  • Fornitori e utilizzatori di sistemi di IA situati in un Paese terzo, qualora l'output prodotto dal sistema venga utilizzato all'interno dell'Unione

Questa formulazione giuridica implica che una società tecnologica con sede nella Silicon Valley o a Tel Aviv, priva di uffici o dipendenti in Europa, sia comunque tenuta a conformarsi ai rigorosi standard dell'AI Act qualora commercializzi un'applicazione basata sull'IA accessibile agli utenti europei, o nel caso in cui i risultati generati dal suo algoritmo (ad esempio, un punteggio di affidabilità creditizia calcolato su server esteri) vengano impiegati da una banca italiana per negare un mutuo a un cittadino dell'Unione.

La definizione di "sistema di intelligenza artificiale" adottata dal legislatore europeo riflette un compromesso tra precisione tecnica e flessibilità giuridica, allineandosi alle formulazioni dell'OCSE: un sistema basato su macchine progettato per funzionare con vari livelli di autonomia, che può mostrare adattabilità dopo la sua implementazione e che, per obiettivi espliciti o impliciti, deduce dall'input ricevuto come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare l'ambiente fisico o virtuale. Questa definizione tecnologicamente neutra è stata concepita per resistere all'obsolescenza, abbracciando sia i tradizionali sistemi di machine learning e di reti neurali, sia i più recenti sviluppi nel campo dell'IA generativa e dei modelli fondazionali.


3. La Catena del Valore: Ripartizione di Ruoli e Responsabilità

La corretta qualificazione giuridica all'interno della catena del valore dell'intelligenza artificiale rappresenta il primo e più critico snodo per la conformità aziendale. L'AI Act non impone obblighi generici, ma calibra minuziosamente i doveri in base al ruolo che l'operatore economico riveste rispetto al sistema di IA. Le aziende italiane, nell'approcciarsi all'innovazione tecnologica, devono condurre un'attenta due diligence per determinare la propria qualifica, in quanto un errore di inquadramento può esporre la società a sanzioni milionarie per il mancato adempimento di obblighi non previsti per il proprio ruolo effettivo.

Il Fornitore (Provider)

La figura centrale è quella del Fornitore (Provider). Il fornitore è definito come la persona fisica o giuridica, l'autorità pubblica, l'agenzia o l'organismo che sviluppa un sistema di IA o un modello GPAI, oppure che lo fa sviluppare per proprio conto, e che lo immette sul mercato dell'Unione o lo mette in servizio con il proprio nome o marchio commerciale, sia a titolo oneroso che gratuito. Su questa entità grava l'onere normativo più imponente: il fornitore di un sistema ad alto rischio è obbligato a garantire la conformità strutturale dell'algoritmo, istituire un sistema di gestione della qualità, redigere e conservare la documentazione tecnica, progettare il sistema per consentire la supervisione umana, condurre la procedura di valutazione della conformità e, infine, apporre la marcatura CE prima dell'immissione sul mercato.

Il Deployer (Utilizzatore)

La seconda figura, che racchiude la stragrande maggioranza del tessuto imprenditoriale italiano e delle pubbliche amministrazioni, è quella del Deployer (Utilizzatore). Il deployer è il soggetto che utilizza un sistema di intelligenza artificiale sotto la propria autorità nel contesto di un'attività professionale o commerciale. Non si tratta dell'utente finale privato che interagisce con un chatbot per diletto, ma dell'azienda che integra l'IA nei propri processi aziendali.

Pur non dovendo progettare il sistema ex novo, il deployer assume responsabilità cruciali:

  • Utilizzare l'IA rigorosamente in conformità alle istruzioni fornite dal provider
  • Garantire che le decisioni automatizzate siano sottoposte a un'efficace supervisione umana da parte di personale formato
  • Monitorare costantemente i log di funzionamento per rilevare anomalie o bias cognitivi
  • Nei casi previsti, condurre valutazioni d'impatto sui diritti fondamentali

Se il deployer rileva che l'utilizzo del sistema ad alto rischio genera un pericolo per la salute, la sicurezza o i diritti fondamentali, ha l'obbligo giuridico di sospenderne immediatamente l'utilizzo e di informare il fornitore e le autorità competenti.

Importatori e Distributori

A queste figure principali si affiancano gli Importatori e i Distributori, che svolgono una funzione di filtro e di garanzia secondaria a tutela del mercato unico europeo. L'importatore, stabilito nell'Unione, immette sul mercato un sistema sviluppato da un fornitore extra-UE e ha il preciso dovere di accertarsi che il fornitore estero abbia espletato correttamente la procedura di valutazione della conformità. Il distributore, d'altro canto, è il soggetto che rende disponibile il sistema sul mercato senza alterarlo; il suo compito si sostanzia nella verifica formale della presenza della marcatura CE e della documentazione accompagnatoria.

Ruolo AI ActAttività PrincipaleObblighi Chiave
Provider (Fornitore)Sviluppa o immette sul mercato il sistema di IA con il proprio marchioProgettazione sicura, data governance, documentazione tecnica, valutazione conformità, marcatura CE, monitoraggio post-vendita
Deployer (Utilizzatore)Utilizza l'IA nel proprio contesto lavorativo o professionaleRispetto rigoroso delle istruzioni, supervisione umana, monitoraggio dei log, esecuzione FRIA (se applicabile), sospensione in caso di anomalie gravi
ImportatoreImmette nell'UE un sistema di IA prodotto da un fornitore extra-europeoVerifica preventiva della conformità del provider, accertamento marcatura CE e documentazione tecnica
DistributoreRende disponibile il sistema sul mercato dell'Unione EuropeaVerifica formale della presenza dei requisiti (marcatura, istruzioni), obbligo di segnalazione e ritiro in caso di non conformità

3.1. Il Pericolo Riqualificazione e le Modifiche Sostanziali

Un meccanismo giuridico di estrema insidia per le aziende italiane è contemplato dall'Articolo 25 dell'AI Act, che disciplina le ipotesi in cui un distributore, un importatore o un semplice deployer subisce una riqualificazione forzosa in "Fornitore", ereditandone in solido tutti gli stringenti obblighi.

Tale metamorfosi giuridica si verifica in tre scenari specifici:

  1. Quando un'azienda appone il proprio nome o marchio commerciale su un sistema di IA ad alto rischio già immesso sul mercato da terzi
  2. Quando l'operatore modifica la destinazione d'uso prevista originariamente dal fornitore iniziale — ad esempio, se un'azienda acquista un algoritmo progettato e certificato per l'analisi del sentiment dei consumatori a fini di marketing e decide autonomamente di impiegarlo per valutare lo stato psicologico dei propri dipendenti a fini disciplinari
  3. Quando l'operatore apporta una "modifica sostanziale" a un sistema di IA ad alto rischio — in tale eventualità, il fornitore originario è sollevato dalle responsabilità per le alterazioni apportate, mentre l'azienda italiana che ha effettuato l'adattamento dovrà sottoporre l'intero sistema a una nuova valutazione di conformità

4. L'Architettura del Rischio: Dalla Proibizione alla Trasparenza

L'essenza concettuale e operativa dell'AI Act risiede nel suo approccio piramidale basato sul rischio. Il legislatore ha stabilito che le restrizioni legali debbano essere direttamente proporzionali all'impatto potenziale che il sistema di IA può avere sui diritti fondamentali, sulla salute e sulla sicurezza delle persone. Questa filosofia si traduce in una classificazione in quattro livelli distinti.

4.1. Rischio Inaccettabile: Le Pratiche di IA Vietate

All'apice della piramide si collocano le pratiche considerate una minaccia manifesta ai valori dell'Unione Europea, soggette a un divieto assoluto e incondizionato. Queste disposizioni sono già pienamente applicabili e sanzionabili in tutti gli Stati membri a partire dal 2 febbraio 2025.

L'elenco delle pratiche vietate dall'Articolo 5 dell'AI Act comprende:

  • Sistemi di IA che impiegano tecniche subliminali, manipolative o ingannevoli al fine di distorcere materialmente il comportamento umano
  • Sistemi che sfruttano le vulnerabilità di specifiche categorie di persone (età, disabilità, situazioni sociali ed economiche) per indurle a comportamenti dannosi
  • Il Social Scoring: valutazione o classificazione sistematica delle persone fisiche basata sul loro comportamento sociale o su tratti della personalità
  • La polizia predittiva individuale: sistemi per valutare o prevedere il rischio che una persona commetta un reato basandosi unicamente sulla profilazione
  • L'identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico per scopi di contrasto, salvo eccezioni ristrettissime soggette ad autorizzazione giudiziaria
  • Lo scraping non mirato di immagini facciali da internet o da filmati CCTV per creare o espandere database di riconoscimento facciale
  • Il riconoscimento delle emozioni nei luoghi di lavoro e negli istituti di istruzione (salvo motivi medici o di sicurezza dimostrabili)
  • La categorizzazione biometrica finalizzata a dedurre opinioni politiche, appartenenza sindacale, convinzioni religiose o orientamento sessuale

4.2. Sistemi di IA ad Alto Rischio (High-Risk)

Il cuore pulsante della conformità aziendale risiede nei sistemi classificati come "ad alto rischio". Questi sistemi sono legalmente consentiti, ma la loro immissione sul mercato o la loro messa in servizio è subordinata all'assolvimento di oneri formali e sostanziali di formidabile complessità.

I sistemi ad alto rischio si suddividono in due macro-categorie:

Allegato I — Sistemi integrati in prodotti regolamentati: sistemi di IA destinati a fungere da componenti di sicurezza all'interno di prodotti già soggetti alla legislazione di armonizzazione UE (dispositivi medici, macchinari industriali, autoveicoli, ascensori, giocattoli, attrezzature per l'aviazione civile).

Allegato III — Sistemi "stand-alone" in settori critici: L'Articolo 6, paragrafo 2, elenca otto aree specifiche:

  • Identificazione biometrica: sistemi biometrici e di riconoscimento delle emozioni (laddove non ricadano nelle pratiche vietate)
  • Infrastrutture critiche: sistemi impiegati come componenti di sicurezza nelle infrastrutture digitali, del traffico stradale, nelle reti di fornitura di acqua, gas, riscaldamento ed elettricità
  • Istruzione e formazione professionale: algoritmi per determinare l'accesso alle istituzioni scolastiche, assegnare voti, valutare risultati di apprendimento o monitorare il comportamento degli studenti durante gli esami
  • Occupazione e gestione dei lavoratori: sistemi per il reclutamento e la selezione del personale, per decisioni relative a promozioni o licenziamenti, per l'assegnazione di compiti e per la valutazione sistematica delle prestazioni
  • Accesso a servizi essenziali: sistemi per valutare l'ammissibilità a prestazioni di welfare, per il credit scoring e per la valutazione dei rischi nell'assicurazione sanitaria e sulla vita
  • Forze dell'ordine: strumenti per la valutazione dell'affidabilità delle prove, l'analisi del rischio di recidiva o la profilazione in indagini penali
  • Gestione della migrazione e controllo delle frontiere: sistemi per la verifica dell'autenticità dei documenti di viaggio o la valutazione del rischio
  • Amministrazione della giustizia e processi democratici: soluzioni per assistere le autorità giudiziarie nella ricerca e nell'interpretazione di fatti e normative

La deroga per mancanza di rischio significativo (Art. 6, par. 3): un sistema di IA non è considerato ad alto rischio qualora il fornitore possa dimostrare che esso non pone un rischio significativo di danno. Tale deroga si applica se il sistema esegue un compito procedurale ristretto, migliora il risultato di un'attività umana precedentemente completata, rileva schemi decisionali senza sostituire la revisione umana, o svolge compiti meramente preparatori. Tuttavia, un sistema che effettua la profilazione di individui fisici è sempre considerato ad alto rischio, senza possibilità di deroghe.

I Sette Pilastri della Conformità per i Sistemi ad Alto Rischio

I fornitori di sistemi ad alto rischio devono edificare un'impalcatura di compliance olistica (Articoli 8-17 dell'AI Act):

  1. Sistema di Gestione del Rischio (Risk Management System): un processo iterativo, documentato e continuo, progettato per identificare, analizzare, stimare e mitigare i rischi
  2. Dati e Governance dei Dati (Data Governance): i set di dati di addestramento, validazione e test devono essere pertinenti, rappresentativi, sufficientemente ampi e privi di errori e pregiudizi sistemici (bias)
  3. Documentazione Tecnica: documentazione dettagliata che comprovi la conformità del sistema ai requisiti di legge
  4. Conservazione dei Registri (Record-keeping/Logging): registrazione automatica degli eventi durante il funzionamento per garantire la tracciabilità
  5. Trasparenza e Istruzioni per l'Uso: il funzionamento del sistema deve essere sufficientemente trasparente per consentire ai deployer di interpretarne l'output
  6. Supervisione Umana (Human Oversight): interfacce uomo-macchina che permettano di comprendere, sorvegliare e, se necessario, ignorare gli output del sistema o interromperne il funzionamento tramite un apposito "kill switch"
  7. Accuratezza, Robustezza e Cybersicurezza: i sistemi devono mantenere un livello adeguato e misurabile di accuratezza ed essere resilienti agli attacchi mirati

4.3. Rischio Limitato: Gli Obblighi di Trasparenza

Per i sistemi che interagiscono direttamente con le persone o generano contenuti artificiali, l'AI Act impone precisi doveri informativi. La piena applicabilità è fissata per il 2 agosto 2026 (salvo modifiche Omnibus):

  • Interazioni dirette: i chatbot e gli assistenti virtuali devono informare l'utente della loro natura artificiale
  • Sistemi di categorizzazione biometrica: i deployer devono informare le persone esposte prima dell'elaborazione dei dati
  • Contenuti generati o manipolati (Deepfake): stringenti obblighi di etichettatura e watermarking digitale. Qualsiasi immagine generata tramite algoritmi come Midjourney o testi elaborati da ChatGPT e pubblicati a fini commerciali o informativi dovrà recare l'apposita menzione

4.4. Rischio Minimo o Assente

L'ultima fascia raccoglie la stragrande maggioranza dei sistemi di IA attualmente in uso (si stima oltre l'80%): algoritmi per il filtraggio antispam, IA nei videogiochi, filtri di ricerca semplici o strumenti di suggerimento testo. Per questa categoria, l'AI Act non introduce alcun obbligo legale specifico, pur incoraggiando l'adesione volontaria a codici di condotta.


5. Il Regime Speciale dei Modelli di IA per Finalità Generali (GPAI)

Oltre alla categorizzazione per rischio d'uso, l'AI Act introduce una regolamentazione trasversale dedicata ai cosiddetti Modelli di IA per Finalità Generali (General-Purpose AI Models, o GPAI). Questi modelli, come le reti neurali alla base di ChatGPT, Claude o Gemini, sono caratterizzati da una profonda versatilità. Le regole per i provider di modelli GPAI sono vincolanti e sanzionabili dal 2 agosto 2025.

Un modello rientra nella disciplina generale GPAI se è stato addestrato utilizzando una potenza di calcolo superiore a 10²³ operazioni in virgola mobile (FLOPs).

Obblighi per tutti i fornitori GPAI

  • Redigere e aggiornare costantemente la documentazione tecnica del modello
  • Fornire documentazione e supporto tecnico agli sviluppatori a valle (downstream providers)
  • Pubblicare un riepilogo sufficientemente dettagliato dei dati di addestramento
  • Implementare una solida politica di conformità al diritto d'autore (Direttiva CDSM 2019/790)

5.1. GPAI con Rischio Sistemico e Modelli Open Source

La normativa eleva il livello di guardia per i modelli GPAI di frontiera. Qualsiasi modello addestrato utilizzando un calcolo cumulativo pari o superiore a 10²⁵ FLOPs è classificato come modello GPAI con rischio sistemico. Le implicazioni includono:

  • Valutazioni periodiche del modello, inclusi test da terze parti e red teaming avversario
  • Valutazione analitica dei rischi sistemici accompagnata da misure di mitigazione
  • Obbligo di segnalazione tempestiva all'European AI Office di incidenti gravi
  • Misure di cybersicurezza rafforzate proporzionate alla criticità del modello

Per i modelli Open Source, sono previste esenzioni dalla documentazione tecnica, a condizione che parametri, architettura e pesi siano resi pubblicamente disponibili. Restano tuttavia obbligatori il rispetto del copyright e la pubblicazione della sintesi dei dati di addestramento. Se un modello Open Source supera la soglia dei 10²⁵ FLOPs, tutte le esenzioni decadono immediatamente.


6. Tempistiche di Applicazione e lo Slittamento del "Digital Omnibus" (Marzo 2026)

La comprensione delle tempistiche è vitale per pianificare gli investimenti e le procedure di audit interno. Il cronoprogramma originario prevedeva un'applicazione scaglionata, ma l'infrastruttura istituzionale e tecnica europea ha palesato gravi ritardi strutturali. L'assenza di standard armonizzati definitivi e la mancanza di enti notificati operativi hanno condotto all'approvazione del pacchetto "Digital Omnibus on AI".

Il 18 marzo 2026, le commissioni competenti del Parlamento Europeo (IMCO e LIBE) hanno approvato la relazione congiunta che emenda l'AI Act, introducendo scadenze fisse:

Data di ApplicazioneDisposizioni e ObblighiSoggetti Impattati
2 Febbraio 2025Divieto assoluto pratiche rischio inaccettabile, obbligo AI LiteracyTutti gli operatori
2 Agosto 2025Obblighi GPAI, implementazione governance, sanzioniProvider GPAI, Commissione UE
2 Novembre 2026Trasparenza contenuti generati e watermarking (Modifica Omnibus)Fornitori e Deployer IA generativa
2 Dicembre 2027Applicazione completa sistemi Alto Rischio Allegato III (Modifica Omnibus)Fornitori, Deployer, Importatori
2 Agosto 2028Applicazione completa sistemi Alto Rischio Allegato I (Modifica Omnibus)Fabbricanti prodotti (medicali, auto, ecc.)

Il testo dell'Omnibus introduce inoltre nell'Articolo 5 un nuovo divieto esplicito (il cosiddetto "Nudifier ban"), che proibisce a livello europeo i sistemi di IA progettati per generare immagini e video sessualmente espliciti raffiguranti persone reali identificabili, senza il loro inequivocabile consenso.

Il rinvio concesso dal pacchetto Omnibus non deve tradursi in compiacimento per le imprese italiane. Al contrario, offre lo spazio strategico per completare la mappatura dei sistemi e strutturare una conformità architetturale che richiederà interi trimestri per essere implementata e testata.


7. Il Contesto Nazionale: La Legge Italiana 132/2025

L'Italia ha svolto un ruolo pionieristico nel recepimento e nell'ampliamento dei principi europei. Il Parlamento italiano ha promulgato la Legge 23 settembre 2025, n. 132, che costituisce il primo quadro normativo nazionale primario a delineare le coordinate di sviluppo e di limite dell'IA nel Paese. Entrata in vigore il 10 ottobre 2025, la Legge fissa precise deleghe al Governo per l'adozione, entro dodici mesi, dei decreti legislativi volti a definire l'adeguamento granulare del diritto interno all'AI Act e a rimodulare il sistema sanzionatorio.

7.1. L'Architettura di Governance: AgID e ACN

L'Articolo 20 della Legge 132/2025 stabilisce una governance duale e sinergica:

  • Agenzia per l'Italia Digitale (AgID): designata quale Autorità di Notifica ai sensi dell'AI Act. L'Agenzia è investita della funzione di promuovere l'innovazione tecnologica, definire le procedure per l'accreditamento degli organismi di valutazione della conformità e supportare le pubbliche amministrazioni con linee guida per il procurement di soluzioni di IA
  • Agenzia per la Cybersicurezza Nazionale (ACN): assume le funzioni di Autorità di Vigilanza del Mercato e di "Punto di Contatto Unico" per il coordinamento con il Comitato Europeo per l'Intelligenza Artificiale. Ad ACN sono attribuiti incisivi poteri di enforcement, tra cui facoltà ispettive e l'irrogazione delle sanzioni

Entrambe le Agenzie operano in costante coordinamento con il Garante per la Protezione dei Dati Personali, mantenendo intatte le prerogative esclusive di quest'ultimo in tema di trattamento dei dati personali connesso all'operatività degli algoritmi.

7.2. Impatto sul Management Aziendale e sulle Risorse Umane (HR)

L'integrazione di sistemi di IA nei processi di gestione del capitale umano è considerata ad alto rischio dall'AI Act (Allegato III). La legislazione italiana interviene per presidiare questo equilibrio, focalizzandosi sul divieto di discriminazione algoritmica e sulla prevalenza decisionale umana.

Per le aziende che necessitano di un DPO esterno, questo snodo è particolarmente rilevante. Il datore di lavoro italiano si trova oggi vincolato a obblighi di eccezionale trasparenza. In combinato disposto con l'Articolo 1-bis del D.Lgs. 152/1997 ("Decreto Trasparenza"), l'impiego di qualsiasi sistema IA in ambito lavorativo richiede:

  • Un'informativa capillare nei confronti dei prestatori di lavoro e delle loro rappresentanze sindacali, da rendersi per iscritto e antecedente all'utilizzo
  • La delineazione comprensibile delle logiche di funzionamento dell'algoritmo, della tipologia di dati ingeriti e dei potenziali impatti sull'organizzazione del lavoro
  • La notifica tempestiva ai dipendenti di qualsiasi alterazione al sistema algoritmico, con un preavviso minimo di 24 ore

L'intelligenza artificiale non può in alcun caso soppiantare la responsabilità decisionale umana in ambiti che incidano sulla salute, sulla sicurezza sul lavoro, su valutazioni premiali o procedure disciplinari e di licenziamento. L'essere umano deve mantenere il potere incondizionato di contestare, sospendere e correggere l'output generato dalla macchina.

7.3. I Liberi Professionisti (Articolo 13) e la PA (Articolo 14)

Per le professioni intellettuali regolamentate (avvocati, medici, commercialisti, ingegneri, notai), l'Articolo 13 della L. 132/2025 statuisce che l'uso dell'intelligenza artificiale deve avere una funzione meramente "strumentale e di supporto". La responsabilità ultima della prestazione intellettuale rimane inderogabilmente incardinata sul professionista umano.

Il professionista ha il dovere legale e deontologico di comunicare l'utilizzo di strumenti basati sull'IA in un linguaggio "chiaro, semplice ed esaustivo", preservando la natura fiduciaria del mandato professionale. L'omissione espone a profili di negligenza contrattuale, illecito disciplinare e potenziale responsabilità per danni.

L'Articolo 14 detta il nuovo "statuto" dell'IA per la Pubblica Amministrazione: pur incoraggiando l'adozione dell'innovazione, il legislatore ribadisce che l'impiego deve avvenire a solo scopo di "supporto all'attività provvedimentale". Il funzionario pubblico mantiene la titolarità esclusiva del potere decisionale.

7.4. Repressione Penale: I Deepfake e l'Estensione della Responsabilità 231

Le innovazioni forse più dirompenti della L. 132/2025 si sostanziano negli interventi di natura penalistica. Il legislatore ha introdotto nel Codice Penale il nuovo art. 612-quater c.p., specificamente rubricato per reprimere l'uso illecito dei deepfake.

La fattispecie punisce con la reclusione da uno a cinque anni la condotta di colui che genera, diffonde o pubblica senza consenso immagini, video o voci falsificati o alterati mediante l'uso di IA, qualora tali materiali siano idonei a trarre in inganno i terzi sulla loro genuinità. Sono state inoltre inserite aggravanti specifiche per reati tradizionali — aggiotaggio, manipolazione del mercato, frodi informatiche, truffe assicurative — qualora posti in essere avvalendosi dell'IA.

Le ricadute impattano direttamente l'architettura della conformità societaria ex D.Lgs. 231/2001. Le aziende sono chiamate a un tempestivo aggiornamento dei propri Modelli di Organizzazione, Gestione e Controllo (MOG). Per approfondire le implicazioni sanzionatorie per le startup, si veda il nostro articolo su AI Act e sanzioni per le startup italiane. Un Modello 231 non aggiornato alla gestione del rischio algoritmico espone il patrimonio aziendale a:

  • Imponenti quote pecuniarie
  • Divieto temporaneo o definitivo di contrattare con la PA
  • Revoca di autorizzazioni, licenze e concessioni
  • Esclusione o revoca dai fondi di finanziamento agevolato (compresi i fondi PNRR)

8. Conformità Integrata: La Convergenza tra GDPR e AI Act (DPIA e FRIA)

L'introduzione dell'AI Act non sospende, né attenua, i diritti e le garanzie sancite dal GDPR; le due architetture normative convivono in rapporto di complementarietà e sovrapposizione. Lo spazio giuridico in cui queste due normative entrano in contatto diretto è il perimetro di analisi dei rischi preventivi.

8.1. Distinzioni Strutturali tra DPIA e FRIA

Elemento DistintivoDPIA (Art. 35 GDPR)FRIA (Art. 27 AI Act)
Focus NormativoTutela dei dati personali e diritto alla riservatezzaProtezione globale dei Diritti Fondamentali (Carta UE): dignità, non discriminazione, equità, lavoro, espressione
Dati CoinvoltiEsclusivamente dati personali e dati sensibiliDati personali e non personali (aggregati, ambientali, statistici)
Elemento innescanteTrattamento tecnologico su larga scala di dati personali suscettibile di presentare un "rischio elevato"Impiego di sistemi ad Alto Rischio (Allegato III) da parte di specifici deployer (PA, banche, assicurazioni, istituti HR)
Soggetto ObbligatoTitolare del trattamento dei dati (Data Controller)Deployer (Utilizzatore) qualificato di specifici sistemi ad Alto Rischio
Integrazione con Misure TerzeMisure di sicurezza IT e limitazione d'uso dati (minimizzazione e by design)Procedure di sorveglianza umana obbligatoria e gestione delle denunce per discriminazione algoritmica
Notifica e DivulgazioneObbligo di consultazione con il Garante Privacy solo in presenza di un rischio residuo inaccettabileObbligo di notifica dell'esito all'Autorità di sorveglianza competente (ACN)

8.2. Coordinamento Operativo: L'Integrazione della Compliance

L'Articolo 27(4) dell'AI Act favorisce attivamente un'ottimizzazione del carico di conformità: la FRIA non necessita di una documentazione interamente avulsa, ma può integrare e implementare parzialmente gli adempimenti in seno alla preesistente DPIA, in un unico documento o framework operativo congiunto.

Caso pratico — Manifatturiero e HR: un'industria manifatturiera che implementa un sistema di screening algoritmico dei CV rientra categoricamente nell'Allegato III dell'AI Act. L'azienda, operando in veste di Deployer e Titolare del Trattamento, deve: (1) redigere la DPIA per verificare che la raccolta automatizzata dei dati del personale rispetti il GDPR; (2) sviluppare l'addendum FRIA per analizzare se l'algoritmo contenga bias di genere o provenienza geografica; (3) documentare quale specifico manager detiene il potere di rivedere o correggere il verdetto algoritmico. Questo ecosistema combinato protegge dal rischio sanzionatorio cumulativo (Garante Privacy e ACN).


9. Roadmap Operativa e Checklist per le Imprese Italiane (2026-2028)

La dilazione temporale conferita dal pacchetto "Digital Omnibus" non rappresenta un invito all'inazione gestionale. La strutturazione di una governance conforme richiede cicli operativi che si snodano in molti mesi.

1. AI Mapping & Inventory (Censimento e Classificazione)

La conformità inizia dalla visibilità. Le aziende devono condurre un audit omnicomprensivo di tutti i sistemi o componenti AI attualmente in uso, in fase di test o previsti nel ciclo di approvvigionamento. È necessario debellare il fenomeno della "Shadow AI" (l'uso di modelli generativi da parte dei dipendenti al di fuori dei canali aziendali presidiati). Ciascun sistema deve essere mappato rispetto ai quattro livelli di rischio dell'AI Act e alle classi di rischio del GDPR. Le pratiche "inaccettabili", già sanzionabili da febbraio 2025, devono essere irrevocabilmente estirpate dalle operazioni societarie.

2. Identificazione dei Ruoli e Rinegoziazione Contrattuale della Supply Chain

Il censimento deve produrre una rigorosa qualificazione giuridica. L'azienda sta agendo come mero Deployer o, avendo alterato il sistema, si è giuridicamente esposta agli oneri di un Provider ai sensi dell'Articolo 25? Accertato il ruolo, è imperativo rivedere la contrattualistica ICT con i vendor tecnologici terzi, istituendo specifiche clausole per garantire la documentazione tecnica, le istruzioni trasparenti e le garanzie contrattuali indispensabili per redigere DPIA e FRIA.

3. Governance e Formazione Continua (AI Literacy)

È necessario cristallizzare una "AI Acceptable Use Policy" approvata dai vertici aziendali. Sin da febbraio 2025 (Art. 4 dell'AI Act), l'azienda ha il dovere legale di assicurare un livello adeguato di AI Literacy — formare i dipendenti per aiutarli a riconoscere limitazioni, rischi legali, vulnerabilità e pericoli di bias algoritmici è oggi tanto cogente quanto la formazione obbligatoria sulla sicurezza nei luoghi di lavoro.

4. Integrazione MOG 231 e Prevenzione Deepfake

Il Modello Organizzativo Gestionale (MOG) ex D.Lgs. 231/2001 deve includere un'apposita classe di reato che riconosca l'estensione dell'illecito tramite algoritmi (art. 612-quater c.p. per i deepfake, frodi informatiche potenziate da agenti virtuali). Il rischio per sanzioni derivate da illeciti gestiti con l'IA da parte di posizioni apicali è un punto centrale della responsabilità aziendale moderna.

5. Applicazione dei Livelli di Conformità e Audit (Pre-2027)

Per le imprese Deployer in sistemi Allegato III: implementazione del binomio documentale integrato DPIA e FRIA, creazione del perimetro operativo del "Human-in-the-loop" con identificazione, per mansione, del dipendente preposto alla supervisione dell'output algoritmico.

Per i fornitori o fabbricanti (Provider di Allegato I o III): predisposizione e superamento dell'iter certificativo ai fini del marchio CE, in base agli standard CEN/CENELEC, attivando nel contempo un rigoroso "Post-Market Monitoring" per segnalare ad ACN e AI Office incidenti seri entro il termine di 15 giorni.

6. Trasparenza Immediata e Sito Web

In caso si operi nei settori a rischio "limitato", occorre aggiornare entro le scadenze del 2026 con apposite diciture, etichette chiare e disclaimers ogni sito web, ogni comunicazione commerciale o relazione con clienti ove si utilizzino chatbot o agenti automatizzati o ove si pubblichino grafiche generate da algoritmi generativi. Le aziende che violeranno la prescritta linea a partire dal termine di novembre 2026 esporranno la credibilità del proprio marchio e attrarranno sanzioni dal fatturato.


10. Architettura Sanzionatoria

Il perimetro sanzionatorio introdotto dal legislatore si manifesta attraverso misure concepite per un effetto marcatamente dissuasivo. L'Articolo 99 dell'AI Act prescrive la facoltà di imputare sanzioni pecuniarie proporzionate al fatturato mondiale del trasgressore:

  • Violazioni rischio inaccettabile (Art. 5): fino a 35.000.000 EUR o il 7% del fatturato annuo mondiale
  • Mancata conformità sistemi ad Alto Rischio e GPAI: fino a 15.000.000 EUR o il 3% del fatturato annuo mondiale
  • Documentazione tecnica mendace o fuorviante: fino a 7.500.000 EUR o l'1% del fatturato annuo mondiale

La normativa impone un principio di proporzionalità: per le PMI e start-up tecnologiche, le autorità devono applicare tra i valori monetari e la percentuale sul fatturato sempre il valore più basso. Oltre alle sanzioni pecuniarie, le autorità possono disporre l'embargo del software con recall obbligatorio dei prodotti dal mercato.



Domande Frequenti (FAQ)

Quali sono le sanzioni previste dall'AI Act?

Le sanzioni variano in base alla gravità della violazione: fino a 35 milioni di euro o il 7% del fatturato globale annuo per le pratiche vietate (Art. 5); fino a 15 milioni di euro o il 3% per la mancata conformità dei sistemi ad alto rischio; fino a 7,5 milioni di euro o l'1% per documentazione tecnica mendace. Per PMI e startup si applica sempre il valore più basso tra importo fisso e percentuale.

Qual è la differenza tra DPIA e FRIA?

La DPIA (Art. 35 GDPR) tutela esclusivamente i dati personali ed è obbligatoria per trattamenti ad alto rischio. La FRIA (Art. 27 AI Act) ha un ambito più ampio: protegge tutti i diritti fondamentali della Carta UE (dignità, non discriminazione, equità) e si applica ai deployer di sistemi ad alto rischio dell'Allegato III. L'Art. 27(4) consente di integrarle in un unico documento.

Quando entrano in vigore gli obblighi per i sistemi ad alto rischio?

Con il pacchetto Digital Omnibus approvato a marzo 2026, la scadenza per i sistemi ad alto rischio dell'Allegato III è stata posticipata al 2 dicembre 2027. Per i sistemi dell'Allegato I (prodotti regolamentati), la data è il 2 agosto 2028. I divieti sulle pratiche inaccettabili sono già in vigore dal 2 febbraio 2025.

Cosa rischia un'azienda che usa l'IA per la selezione del personale?

I sistemi di IA per il reclutamento, la valutazione delle prestazioni e le decisioni su promozioni o licenziamenti sono classificati come ad alto rischio (Allegato III). L'azienda, in qualità di deployer, deve garantire supervisione umana, condurre DPIA e FRIA, informare i dipendenti per iscritto e assicurare che un responsabile umano possa sempre revocare la decisione algoritmica. La violazione espone a sanzioni fino a 15 milioni di euro.

I modelli Open Source sono esenti dall'AI Act?

Parzialmente. I modelli GPAI Open Source sono esonerati dagli obblighi di documentazione tecnica verso le autorità, a condizione che parametri, architettura e pesi siano pubblici. Tuttavia, devono comunque rispettare il copyright e pubblicare la sintesi dei dati di addestramento. Se un modello Open Source supera la soglia di 10²⁵ FLOPs, tutte le esenzioni decadono e si applicano gli obblighi per il rischio sistemico.

Come si aggiorna il Modello 231 per l'intelligenza artificiale?

Il MOG ex D.Lgs. 231/2001 deve includere una nuova classe di reato che contempli l'illecito tramite algoritmi: l'art. 612-quater c.p. per i deepfake, le frodi informatiche potenziate da IA e la manipolazione del mercato. Va inoltre prevista la mappatura dei rischi algoritmici, la formazione del personale e protocolli di supervisione umana per prevenire la responsabilità amministrativa dell'ente.


Bibliografia e Fonti

  1. AI Governance in 2026: Why Staying Current Is No Longer Optional for Your Business — Security Boulevard
  2. AI Act | Shaping Europe's digital future — European Union
  3. EU AI Act 2026 Updates: Compliance Requirements and Business Risks — Legal Nodes
  4. Legge sull'IA | Plasmare il futuro digitale dell'Europa — Commissione Europea
  5. AI News: Italy Sets the Rules for AI in the Workplace — K&L Gates
  6. Entra in vigore la legge 132/2025: l'Italia detta le nuove regole per l'AI — CNI
  7. Legge n. 132/2025: il nuovo quadro normativo italiano sull'intelligenza artificiale — Vega Engineering
  8. Article 99: Penalties | EU Artificial Intelligence Act
  9. Article 101: Fines for Providers of General-Purpose AI Models | EU Artificial Intelligence Act
  10. EU AI Act Compliance Guide for CISOs & GRC Leaders — Kovrr
  11. EU AI Act Deadlines 2025–2027: Board Compliance Playbook — Vantedge Search
  12. MEPs Adopt Joint Position on Proposed Digital Omnibus on AI — Inside Privacy
  13. EU Parliament Committee Backs AI Act Delay with Fixed 2027 Deadline — PPC Land
  14. Guida AI Act 2026: Entrata in Vigore e Obblighi per le Imprese — CRMpartners
  15. AI Act 2026: guida a divieti, sanzioni e nuove scadenze di compliance — Cyber Security 360
  16. Provider e Deployer nell'AI Act — Studio Legale Delli Ponti
  17. The 2026 AI Compliance Clock: What the EU AI Act's August Deadline Means — Langsmart
  18. AI Act Conformity Tool — European DIGITAL SME Alliance
  19. The EU AI Act: 6 Steps to Take Before 2 August 2026 — Orrick
  20. La responsabilità del deployer nell'uso dell'Intelligenza Artificiale — Diritto Bancario
Nota Informativa: I contenuti di questo articolo hanno finalità puramente divulgative e informative. Non costituiscono parere legale né instaurano un rapporto professionale. Ogni caso concreto richiede una valutazione specifica.

Serve assistenza per il tuo caso?

Prenota un assessment online in videochiamata da tutta Italia. Analizzeremo la situazione e definiremo i passi operativi in totale sicurezza.