UE verso approvazione legge su intelligenza artificiale: regole diverse per livelli di rischio

Come parte della sua strategia digitale, l’UE intende regolamentare l’intelligenza artificiale (IA) al fine di garantire migliori condizioni per lo sviluppo e l’uso di questa innovativa tecnologia.

Ne dà conto una nota del Parlamento Europeo che sottolinea come l’IA possa portare molti benefici, ad esempio una migliore assistenza sanitaria, trasporti più sicuri e puliti, una produzione più efficiente e un’energia più conveniente e sostenibile ma possa anche essere origine di rischi per un suo cattivo uso.

Nell’aprile 2021, la Commissione UE ha proposto il primo quadro normativo dell’UE sull’IA. La norma propone che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio comporteranno una maggiore o minore regolamentazione. Una volta approvate, queste saranno le prime regole al mondo sull’IA.

Quali sono gli obiettivi della normativa sull’IA del Parlamento:

La priorità per il Parlamento è quella di assicurarsi che i sistemi di intelligenza artificiale utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. I sistemi di intelligenza artificiale dovrebbero essere supervisionati da persone, anziché da automazione, per evitare conseguenze dannose.

Il Parlamento vuole anche stabilire una definizione tecnologicamente neutra e uniforme per l’IA che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale.

La legge sull’intelligenza artificiale: regole diverse per diversi livelli di rischio

Le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio dell’IA. Molti sistemi di intelligenza artificiale comportano un rischio minimo, ma devono essere valutati.

Rischio inaccettabile

I sistemi di intelligenza artificiale sono considerati a rischio inaccettabile, e pertanto vietati, quando costituiscono una minaccia per le persone.

Questi comprendono:

Alto rischio

I sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:

  1. I sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti. Questi includono giocattoli, aviazione, automobili, dispositivi medici e ascensori.
  2. I sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database dell’UE:

Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita.

AI generativa

L’IA generativa, come ChatGPT, dovrà rispettare requisiti di trasparenza:

Rischio limitato

I sistemi di intelligenza artificiale a rischio limitato dovrebbero rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente può decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l’IA. Questo include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video (ad esempio deepfake).

Prossime tappe

Il Parlamento definirà la propria posizione negoziale durante la sessione plenaria di giugno 2023, dopodiché inizieranno i negoziati con i Paesi dell’UE in Consiglio per la stesura finale della legge.

L’obiettivo, conclude la nota del Parlamento UE, è quello di raggiungere un accordo entro la fine di quest’anno.

Contenuti simili

I più visti