UE verso approvazione legge su intelligenza artificiale: regole diverse per livelli di rischio
14.06.2023 | Quotidiano Sanità
Come parte della sua strategia digitale, l’UE intende regolamentare l’intelligenza artificiale (IA) al fine di garantire migliori condizioni per lo sviluppo e l’uso di questa innovativa tecnologia.
Ne dà conto una nota del Parlamento Europeo che sottolinea come l’IA possa portare molti benefici, ad esempio una migliore assistenza sanitaria, trasporti più sicuri e puliti, una produzione più efficiente e un’energia più conveniente e sostenibile ma possa anche essere origine di rischi per un suo cattivo uso.
Nell’aprile 2021, la Commissione UE ha proposto il primo quadro normativo dell’UE sull’IA. La norma propone che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio comporteranno una maggiore o minore regolamentazione. Una volta approvate, queste saranno le prime regole al mondo sull’IA.
Quali sono gli obiettivi della normativa sull’IA del Parlamento:
La priorità per il Parlamento è quella di assicurarsi che i sistemi di intelligenza artificiale utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. I sistemi di intelligenza artificiale dovrebbero essere supervisionati da persone, anziché da automazione, per evitare conseguenze dannose.
Il Parlamento vuole anche stabilire una definizione tecnologicamente neutra e uniforme per l’IA che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale.
La legge sull’intelligenza artificiale: regole diverse per diversi livelli di rischio
Le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio dell’IA. Molti sistemi di intelligenza artificiale comportano un rischio minimo, ma devono essere valutati.
Rischio inaccettabile
I sistemi di intelligenza artificiale sono considerati a rischio inaccettabile, e pertanto vietati, quando costituiscono una minaccia per le persone.
Questi comprendono:
manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici: ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini
classificazione sociale: classificazione delle persone in base al comportamento, al livello socio-economico, alle caratteristiche personali
sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale
Alcune eccezioni potrebbero tuttavia essere ammesse: per esempio, i sistemi di identificazione biometrica a distanza “post”, in cui l’identificazione avviene dopo un significativo ritardo, saranno consentiti per perseguire reati gravi e solo previa autorizzazione del tribunale
Alto rischio
I sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:
I sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti. Questi includono giocattoli, aviazione, automobili, dispositivi medici e ascensori.
I sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database dell’UE:
identificazione e categorizzazione biometrica di persone naturali
gestione e funzionamento di infrastrutture critiche
istruzione e formazione professionale
occupazione, gestione dei lavoratori e accesso all’autoimpiego
accesso e fruizione di servizi privati essenziali e servizi pubblici e vantaggi • forze dell’ordine
gestione delle migrazioni, asilo e controllo delle frontiere
assistenza nell’interpretazione e applicazione legale della legge.
Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita.
AI generativa
L’IA generativa, come ChatGPT, dovrà rispettare requisiti di trasparenza:
rivelare che il contenuto è stato generato da un’intelligenza artificiale
progettare il modello in modo da impedire la generazione di contenuti illegali
pubblicare riepiloghi dei dati con diritti d’autore utilizzati per l’addestramento
Rischio limitato
I sistemi di intelligenza artificiale a rischio limitato dovrebbero rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente può decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l’IA. Questo include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video (ad esempio deepfake).
Prossime tappe
Il Parlamento definirà la propria posizione negoziale durante la sessione plenaria di giugno 2023, dopodiché inizieranno i negoziati con i Paesi dell’UE in Consiglio per la stesura finale della legge.
L’obiettivo, conclude la nota del Parlamento UE, è quello di raggiungere un accordo entro la fine di quest’anno.