La legge sull’intelligenza artificiale: garanzia di protezione nell’UE
L’Unione Europea (UE) sta facendo un passo avanti nella regolamentazione dell’intelligenza artificiale (IA) attraverso l’introduzione della prima normativa al mondo sull’argomento. Questa mossa fa parte della strategia digitale dell’UE, con l’obiettivo di garantire condizioni migliori per lo sviluppo e l’uso di questa innovativa tecnologia.
L’IA offre numerosi vantaggi, come un miglioramento dell’assistenza sanitaria, dei trasporti più sicuri e puliti, una produzione più efficiente e un’energia più conveniente e sostenibile.
Nell’aprile 2021, la Commissione Europea ha presentato il primo quadro normativo sull’IA nell’UE. La proposta prevede l’analisi e la classificazione dei sistemi di intelligenza artificiale in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio comporteranno diverse regolamentazioni. Se adottate, queste norme rappresenteranno un punto di riferimento globale nell’ambito della regolamentazione dell’IA. Ma quali sono gli obiettivi della legislazione sull’IA proposta dal Parlamento Europeo?
La priorità del Parlamento è garantire che i sistemi di intelligenza artificiale utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. Si desidera che l’IA sia supervisionata da esseri umani anziché da processi automatizzati, al fine di evitare conseguenze dannose.
Il Parlamento mira anche a stabilire una definizione tecnologicamente neutra e uniforme dell’IA che possa essere applicata ai futuri sistemi di intelligenza artificiale. La legge sull’intelligenza artificiale: diverse regole per diversi livelli di rischio.
Le nuove regole stabiliscono obblighi per i fornitori e gli utenti in base al livello di rischio dell’IA. Molti sistemi di intelligenza artificiale comportano un rischio minimo, ma devono comunque essere valutati.
Rischio inaccettabile
I sistemi di intelligenza artificiale considerati a rischio inaccettabile, e quindi vietati, sono quelli che rappresentano una minaccia per le persone. Alcuni esempi includono:
Manipolazione comportamentale di persone o gruppi vulnerabili, come ad esempio giocattoli vocali che incoraggiano comportamenti pericolosi nei bambini.
Classificazione sociale delle persone in base al comportamento, al livello socio-economico o alle caratteristiche personali.
Sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.
Tuttavia, alcune eccezioni potrebbero essere consentite. Ad esempio, i sistemi di identificazione biometrica a distanza “post”, in cui l’identificazione avviene dopo un significativo ritardo, saranno consentiti solo per perseguire reati gravi e previa autorizzazione del tribunale.
Alto rischio
I sistemi di intelligenza artificiale che possono influire negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:
I sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti. Questi includono giocattoli, aviazione, automobili, dispositivi medici e ascensori.
I sistemi di intelligenza artificiale in otto settori specifici dovranno essere registrati in un database dell’UE. Questi settori includono l’identificazione biometrica, la gestione delle infrastrutture critiche, l’istruzione e la formazione professionale, l’occupazione, l’accesso ai servizi privati essenziali e ai servizi pubblici, le forze dell’ordine, la gestione delle migrazioni, l’assistenza legale e l’applicazione della legge.
Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita.
IA generativa
L’IA generativa, come ChatGPT, dovrà rispettare determinati requisiti di trasparenza. Questi includono:
Rivelare che il contenuto è stato generato da un’intelligenza artificiale.
Progettare il modello in modo da impedire la generazione di contenuti illegali.
Pubblicare riepiloghi dei dati con diritti d’autore utilizzati per l’addestramento.
Rischio limitato
I sistemi di intelligenza artificiale a rischio limitato dovranno soddisfare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con queste applicazioni, l’utente potrà decidere se desidera continuare a utilizzarle. Gli utenti devono essere informati quando interagiscono con l’IA, incluso l’utilizzo di sistemi di intelligenza artificiale che generano o manipolano contenuti audio, video o immagini (come i deepfake).
Prossime tappe
Il Parlamento Europeo definirà la propria posizione negoziale durante la sessione plenaria di giugno 2023, a seguito della quale inizieranno i negoziati con i Paesi dell’UE in sede di Consiglio per la redazione finale della legge.
L’obiettivo è raggiungere un accordo entro la fine dell’anno, assicurando così una normativa chiara e completa sull’intelligenza artificiale che promuova la fiducia e la protezione nell’uso di questa tecnologia in Europa.