Conformità AI Act
Il Regolamento (UE) 2024/1689 sull'intelligenza artificiale introduce un framework normativo basato sul rischio. Lo studio offre assistenza legale in materia di classificazione del rischio, compliance e documentazione tecnica, erogabile in videochiamata su tutto il territorio nazionale.
Il Nuovo Framework Europeo sull'AI
L'AI Act è il primo framework normativo al mondo che regola l'intelligenza artificiale in modo orizzontale. Entrato in vigore il 1° agosto 2024, prevede un'applicazione graduale con scadenze differenziate.
Febbraio 2025
Divieto dei sistemi AI a rischio inaccettabile
Agosto 2025
Requisiti per modelli AI general-purpose
Agosto 2026
Piena applicazione per sistemi ad alto rischio
A Chi Si Applica?
- Fornitori di sistemi AI immessi sul mercato UE
- Deployer (utilizzatori) di sistemi AI nell'UE
- Importatori e distributori di sistemi AI
- Produttori che integrano AI nei propri prodotti
- Rappresentanti autorizzati di fornitori extra-UE
Approccio Basato sul Rischio
L'AI Act classifica i sistemi AI in base al livello di rischio per i diritti fondamentali e la sicurezza, applicando requisiti proporzionati.
Rischio Inaccettabile
Sistemi vietati: manipolazione subliminale, social scoring governativo, identificazione biometrica remota in tempo reale (con eccezioni).
Rischio Alto
Sistemi soggetti a requisiti stringenti: valutazione conformità, gestione rischi, trasparenza, supervisione umana.
Rischio Limitato
Sistemi con obblighi di trasparenza: informare gli utenti che interagiscono con un sistema AI.
Rischio Minimo
Sistemi liberamente utilizzabili, eventualmente con codici di condotta volontari.
Livelli di Rischio AI Act: Obblighi e Sanzioni
Riepilogo degli obblighi e delle sanzioni previste dal Regolamento (UE) 2024/1689 per ciascun livello di rischio.
| Livello di Rischio | Obblighi Principali | Sanzione Massima | Scadenza |
|---|---|---|---|
| Inaccettabile | Divieto assoluto di immissione sul mercato e utilizzo | Fino a 35 mln € o 7% del fatturato mondiale | Febbraio 2025 |
| Alto | Valutazione conformità, gestione rischi, documentazione tecnica, supervisione umana, trasparenza | Fino a 15 mln € o 3% del fatturato mondiale | Agosto 2026 |
| Limitato | Obblighi di trasparenza: informare gli utenti dell'interazione con AI | Fino a 15 mln € o 3% del fatturato mondiale | Agosto 2026 |
| Minimo | Nessun obbligo specifico, codici di condotta volontari | Nessuna sanzione specifica | N/A |
Ambiti di Assistenza
Le attività di consulenza comprendono i seguenti ambiti, dalla fase di assessment alla predisposizione della documentazione richiesta dal Regolamento.
Classificazione del Rischio
Analisi dei sistemi AI in uso o in fase di sviluppo per determinare la classe di rischio e gli obblighi applicabili.
Gap Analysis
Valutazione dello stato attuale rispetto ai requisiti dell'AI Act, identificazione delle aree di intervento.
Sistema di Gestione Rischi
Supporto per l'implementazione del sistema di gestione dei rischi richiesto per i sistemi ad alto rischio.
Documentazione Tecnica
Redazione della documentazione tecnica obbligatoria: descrizione sistema, dati training, testing, monitoraggio.
Governance AI
Definizione della governance interna: ruoli, responsabilità, procedure per lo sviluppo e l'utilizzo di sistemi AI.
Formazione
Sessioni formative per management, sviluppatori e utilizzatori sui requisiti dell'AI Act e le best practice.
Le Voci delle Istituzioni Europee
Cosa hanno dichiarato i protagonisti dell'AI Act al momento della sua approvazione.
“We finally have the world's first binding law on artificial intelligence, to reduce risks, create opportunities, combat discrimination, and bring transparency.”
“L'Italia sostiene una via europea all'intelligenza artificiale, che si distacca dall'esasperato liberismo americano come dal sovranismo autarchico. La nostra è una via mediana, per la libertà, la democrazia e la dignità umana in Europa.”
Stato dell'Implementazione in Italia (aggiornato a marzo 2026)
- Legge n. 132/2025 — L'Italia è il primo Stato membro ad aver adottato una legge nazionale sull'IA (23 settembre 2025)
- ACN (Agenzia per la Cybersicurezza Nazionale) designata come autorità di vigilanza con poteri ispettivi e sanzionatori
- AgID (Agenzia per l'Italia Digitale) designata come autorità di notifica per i sistemi AI
- Gennaio 2026: l'EU AI Office ha avviato le prime richieste formali di informazioni verso fornitori di modelli general-purpose, tra cui X (Grok) e Meta
Domande Frequenti
Quando entra in vigore l'AI Act?
L'AI Act (Reg. UE 2024/1689) è entrato in vigore il 1° agosto 2024. I divieti per sistemi a rischio inaccettabile si applicano da febbraio 2025, i requisiti per modelli general-purpose da agosto 2025, la piena applicazione per sistemi ad alto rischio da agosto 2026.
La mia azienda è soggetta all'AI Act?
L'AI Act si applica a fornitori, deployer, importatori e distributori di sistemi AI immessi o utilizzati nel mercato UE, indipendentemente dalla sede dell'azienda. Se sviluppi, utilizzi o distribuisci sistemi AI nell'UE, sei probabilmente soggetto alla normativa.
Quali sono le sanzioni per la non conformità?
Le sanzioni possono arrivare fino a 35 milioni di euro o il 7% del fatturato mondiale annuo per le violazioni più gravi (sistemi vietati). Per altre infrazioni, fino a 15 milioni o il 3% del fatturato.
Come si classifica il rischio di un sistema AI?
L'AI Act prevede 4 livelli: rischio inaccettabile (vietato), alto (requisiti stringenti), limitato (obblighi di trasparenza) e minimo (nessun obbligo specifico). La classificazione dipende dall'uso previsto e dal contesto di impiego.
