Europa-AI ACT

Laboratorio Erasmus. Proviamo a scrivere con IA. AI Act in arrivo

Di  Linda Kaiser

Riflessioni conclusive su filosofia ed etica, regolamentazione e ambiente.

Il Regolamento dell’Unione Europea (UE) sull’Intelligenza Artificiale (IA) dovrà subire ancora l’ultima definizione dei dettagli anche linguistico-giuridici per la messa a punto di un testo integrale, per poi essere applicato a partire dal 2026.
Questa è la prima normativa in assoluto al mondo sull’IA, volta a garantire la sicurezza, il rispetto dei valori e dei diritti dell’UE, in nome anche di un’economia più innovativa, sostenibile e competitiva.

L’IA può contribuire a migliorare la sicurezza, l’istruzione, l’assistenza sanitaria e la lotta ai cambiamenti climatici. Si cerca così di fissare uno standard per un approccio globale all’IA, che sostenga da un lato lo sviluppo delle tecnologie, ma che, dall’altro, incoraggi un approccio etico e antropocentrico, sicuro e affidabile alle stesse. L’intenzione dei legislatori è quella di promuovere gli investimenti nella ricerca e l’innovazione, garantire un maggiore coordinamento di reti e sinergie tra centri di ricerca europei, armonizzare le regole tramite azioni congiunte con gli Stati membri, accrescere la fiducia e l’aggiornamento tecnologico dell’IA.


Il lungo iter di produzione del documento inizia nel 2020 (1 e 2 ottobre), con l’invito del Consiglio UE alla Commissione per proporre un Regolamento sull’IA. Questa lo presenta nel 2021 (21 aprile) e il Consiglio approva la sua posizione nel 2022 (6 dicembre), avviando negoziati con il Parlamento UE (triloghi). Il 9 dicembre 2023 il Consiglio e il Parlamento raggiungono un accordo, per il quale dovranno adottare formalmente il testo definitivo.


L’accordo provvisorio prevede sistemi di IA adottati in tutta Europa, sicuri e rispettosi dei diritti, secondo un approccio basato sul rischio, classificato in quattro livelli, dove tanto maggiore è il rischio quanto più rigorose sono le regole. Se il rischio viene definito “inaccettabile” (es. punteggio sociale, identificazione biometrica e delle emozioni, polizia predittiva), i sistemi di IA sono vietati, perché pericolosi per la sicurezza e i diritti degli utenti; se il rischio è “alto” (es. valutazioni di esami, colloqui di assunzione, concessioni di prestiti), i sistemi di IA dovranno soddisfare criteri rigorosi per poter essere immessi sul mercato; se il rischio rientra nel “limitato” (es. chatbot), i sistemi di IA saranno autorizzati, ma con obblighi di trasparenza verso gli utenti; il rischio “minimo” (es. videogiochi) non comporta regolamentazioni nei sistemi di IA.
Stabilendo per l’IA un quadro giuridico orizzontale uniforme, l’UE persegue la sua mission nell’assicurare la certezza del diritto, promuove allo stesso tempo gli investimenti e l’innovazione nell’IA, e migliora la governance per lo sviluppo di un mercato unico per le sue applicazioni.


Versione con IA


Il Regolamento dell’Unione Europea sull’Intelligenza Artificiale (IA) è in fase di definizione finale per la sua applicazione a partire dal 2026. Questo regolamento, la prima normativa mondiale sull’IA, mira a garantire sicurezza, rispetto dei valori e dei diritti dell’UE, promuovendo un’economia più innovativa, sostenibile e competitiva. Si cerca di stabilire uno standard per un approccio globale all’IA, combinando lo sviluppo tecnologico con un approccio etico e sicuro. Il processo di produzione del documento ha avuto inizio nel 2020 e coinvolge negoziati tra il Consiglio UE e il Parlamento UE, con un accordo provvisorio raggiunto nel dicembre 2023. Il regolamento prevede sistemi di IA sicuri e rispettosi dei diritti, classificati in base al rischio, con regole più rigorose per i sistemi ad alto rischio. L’obiettivo è assicurare un quadro giuridico uniforme per l’IA nell’UE, promuovendo investimenti, innovazione e governance migliorate.