In arrivo dalla UE la prima legge al mondo per regolamentare l’AI

Si tratta di una normativa senza precedenti a livello globale, che intende garantire la sicurezza e il rispetto dei diritti fondamentali e dei valori europei da parte dei sistemi di Intelligenza artificiale immessi sul mercato.
Dopo una maratona di negoziati durata tre giorni il Consiglio UE e il Parlamento europeo hanno raggiunto un accordo sulla proposta di norme armonizzate sull’Intelligenza artificiale. 

L’idea principale è regolamentare l’AI in base alla capacità di causare danni alla società: maggiore è il rischio, più severe sono le regole.
La stragrande maggioranza dei sistemi di AI rientra però nella categoria del rischio minimo, pertanto, beneficeranno di un ‘free-pass’.

I sistemi considerati ad alto rischio

Le sandbox normative faciliteranno l’innovazione responsabile e lo sviluppo di sistemi AI conformi. Quindi, i sistemi identificati ad alto rischio saranno tenuti a rispettare requisiti rigorosi.

Esempi di sistemi di AI ad alto rischio includono alcune infrastrutture critiche, come nei settori acqua/gas/elettricità, dispositivi medici, sistemi per determinare l’accesso alle istituzioni educative o per reclutare persone, alcuni sistemi utilizzati nei settori delle forze dell’ordine, controllo delle frontiere, amministrazione della giustizia e processi democratici.
Sono considerati ad alto rischio anche i sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni.

La blacklist dei sistemi a rischio inaccettabile

Il rischio inaccettabile riguarda i sistemi di AI considerati una chiara minaccia ai diritti fondamentali delle persone, e saranno vietati.
La blacklist include sistemi o applicazioni di AI che manipolano il comportamento umano per aggirare il libero arbitrio, sistemi che consentono il ‘punteggio sociale’ da parte di governi o aziende, e alcune applicazioni di polizia predittiva.

Alcuni utilizzi dei sistemi biometrici saranno vietati, ad esempio, il riconoscimento delle emozioni sul posto di lavoro, e alcuni sistemi per la categorizzazione delle persone, o il riconoscimento facciale in tempo reale in spazi accessibili al pubblico.

Sistemi a rischi specifici a contrassegno obbligatorio 

L’accordo della UE chiarisce gli obiettivi in cui tale uso è strettamente necessario ai fini dell’applicazione della legge, e per i quali le autorità dovrebbero essere eccezionalmente autorizzate a utilizzare tali sistemi.
L’accordo prevede ulteriori garanzie, limitando le eccezioni alle vittime di determinati reati, prevenzione di minacce reali, come ad esempio, attacchi terroristici, e la ricerca di persone sospettate di gravi crimini.

Vi è poi la categoria dei rischi specifici, quali le ormai famose chatbot.
Quando utilizzano le chatbot, riporta AGI, gli utenti dovrebbero essere consapevoli che stanno interagendo con una macchina. Deepfake e altri contenuti generati dall’AI dovranno essere etichettati come tali.
Inoltre, i fornitori dovranno progettare sistemi in modo che i contenuti audio/video/testo/immagini sintetici siano contrassegnati e rilevabili come generati o manipolati artificialmente.