AI Act — Regolamento Europeo sull'Intelligenza Artificiale
Il primo quadro normativo europeo che disciplina lo sviluppo e l'uso dei sistemi di intelligenza artificiale, con un approccio basato sul rischio.
Definizione
L'AI Act (Regolamento UE 2024/1689) è il primo quadro normativo completo al mondo sulla regolamentazione dell'intelligenza artificiale. Adotta un approccio basato sul rischio: classifica i sistemi AI in quattro categorie (rischio inaccettabile, alto rischio, rischio limitato, rischio minimo) e impone obblighi proporzionali alla categoria di appartenenza. Si applica a chi sviluppa (provider) e a chi mette in uso (deployer) sistemi AI nel mercato europeo.
Riferimenti normativi
Reg. UE 2024/1689, art. 6
«I sistemi di IA ad alto rischio sono classificati in base all'allegato III e soggetti agli obblighi del Capo III.»
Implicazioni pratiche
Tempistiche di applicazione
Agosto 2024: entrata in vigore. Febbraio 2025: divieto per sistemi a rischio inaccettabile. Agosto 2025: obblighi per GPAI e governance. Agosto 2026: obblighi per sistemi ad alto rischio.
Provider vs Deployer
Il provider è chi sviluppa il sistema AI. Il deployer è chi lo utilizza in un contesto professionale. Gli obblighi variano: i provider hanno oneri maggiori (documentazione tecnica, conformità CE, registro EU), i deployer devono verificare la conformità e formare il personale.
Domande frequenti
ChatGPT o altri modelli generativi rientrano nell'AI Act?
Sì, come modelli GPAI (General Purpose AI). Sono soggetti a obblighi di trasparenza, gestione dei diritti d'autore e, per i modelli con impatto sistemico, a obblighi più stringenti inclusa la valutazione avversariale.
Le PMI italiane sono soggette all'AI Act?
Sì, se sviluppano o utilizzano sistemi AI nel mercato europeo. Esistono alcune esenzioni e semplificazioni per le PMI nella fase di conformità, ma i divieti assoluti e gli obblighi di trasparenza si applicano a tutti.
