Il Nuovo Framework Europeo sull'AI
L'AI Act è il primo framework normativo al mondo che regola l'intelligenza artificiale in modo orizzontale. Entrato in vigore il 1° agosto 2024, prevede un'applicazione graduale con scadenze differenziate.
Febbraio 2025
Divieto dei sistemi AI a rischio inaccettabile
Agosto 2025
Requisiti per modelli AI general-purpose
Agosto 2026
Piena applicazione per sistemi ad alto rischio
A Chi Si Applica?
- Fornitori di sistemi AI immessi sul mercato UE
- Deployer (utilizzatori) di sistemi AI nell'UE
- Importatori e distributori di sistemi AI
- Produttori che integrano AI nei propri prodotti
- Rappresentanti autorizzati di fornitori extra-UE
Approccio Basato sul Rischio
L'AI Act classifica i sistemi AI in base al livello di rischio per i diritti fondamentali e la sicurezza, applicando requisiti proporzionati.
Rischio Inaccettabile
Sistemi vietati: manipolazione subliminale, social scoring governativo, identificazione biometrica remota in tempo reale (con eccezioni).
Rischio Alto
Sistemi soggetti a requisiti stringenti: valutazione conformità, gestione rischi, trasparenza, supervisione umana.
Rischio Limitato
Sistemi con obblighi di trasparenza: informare gli utenti che interagiscono con un sistema AI.
Rischio Minimo
Sistemi liberamente utilizzabili, eventualmente con codici di condotta volontari.
Servizi Offerti
Supporto completo per navigare i requisiti dell'AI Act, dalla fase di assessment fino all'implementazione della compliance.
Classificazione del Rischio
Analisi dei sistemi AI in uso o in fase di sviluppo per determinare la classe di rischio e gli obblighi applicabili.
Gap Analysis
Valutazione dello stato attuale rispetto ai requisiti dell'AI Act, identificazione delle aree di intervento.
Sistema di Gestione Rischi
Supporto per l'implementazione del sistema di gestione dei rischi richiesto per i sistemi ad alto rischio.
Documentazione Tecnica
Redazione della documentazione tecnica obbligatoria: descrizione sistema, dati training, testing, monitoraggio.
Governance AI
Definizione della governance interna: ruoli, responsabilità, procedure per lo sviluppo e l'utilizzo di sistemi AI.
Formazione
Sessioni formative per management, sviluppatori e utilizzatori sui requisiti dell'AI Act e le best practice.
Domande Frequenti
Quando entra in vigore l'AI Act?
L'AI Act (Reg. UE 2024/1689) è entrato in vigore il 1° agosto 2024. I divieti per sistemi a rischio inaccettabile si applicano da febbraio 2025, i requisiti per modelli general-purpose da agosto 2025, la piena applicazione per sistemi ad alto rischio da agosto 2026.
La mia azienda è soggetta all'AI Act?
L'AI Act si applica a fornitori, deployer, importatori e distributori di sistemi AI immessi o utilizzati nel mercato UE, indipendentemente dalla sede dell'azienda. Se sviluppi, utilizzi o distribuisci sistemi AI nell'UE, sei probabilmente soggetto alla normativa.
Quali sono le sanzioni per la non conformità?
Le sanzioni possono arrivare fino a 35 milioni di euro o il 7% del fatturato mondiale annuo per le violazioni più gravi (sistemi vietati). Per altre infrazioni, fino a 15 milioni o il 3% del fatturato.
Come si classifica il rischio di un sistema AI?
L'AI Act prevede 4 livelli: rischio inaccettabile (vietato), alto (requisiti stringenti), limitato (obblighi di trasparenza) e minimo (nessun obbligo specifico). La classificazione dipende dall'uso previsto e dal contesto di impiego.
