Ue, arriva il regolamento per l’intelligenza artificiale

Nataliya Bolboka
11/12/2023
Tempo di lettura: 2 minuti
Ia

Dall’Unione europea arriva la nuova normativa per regolare l’intelligenza artificiale. Dopo una tre giorni di negoziati, il Consiglio e il Parlamento europei sono giunti all’accordo sull’IA Act, il cui obiettivo è, da una parte, garantire che i sistemi di intelligenza artificiale immessi sul mercato europeo rispecchino i criteri Ue e, dall’altra, stimolare gli investimenti e l’innovazione in tale ambito.

“La legge europea sull’intelligenza artificiale rappresenta una novità a livello mondiale. Un quadro giuridico unico per lo sviluppo di un’intelligenza artificiale di cui ci si può fidare. Garantendo la sicurezza e i diritti fondamentali delle persone e delle imprese. Un impegno che abbiamo assunto nei nostri orientamenti politici e che abbiamo mantenuto”, ha commentato la presidente della Commissione europea, Ursula von der Leyen, riporta Euronews.

La normativa segue un approccio basato sul rischio dell’ia di determinare danni per la società. In base a questo principio i sistemi che rientrano nella categoria del rischio minimo, ovvero la maggioranza, avranno un free-pass e dovranno sottostare a regole meno ferree.

Al contrario i requisiti dei sistemi ad alto rischio sono molto più rigorosi e prevedono la mitigazione del pericolo, la registrazione delle attività e una documentazione dettagliata, elevati livelli di accuratezza e sicurezza informatica, informazioni chiare sugli utenti, nonché la necessità di una supervisione umana.

Vi sono poi i sistemi che comportano rischi inaccettabili e saranno quindi vietati perché ledono i diritti fondamentali delle persone, come i meccanismi che manipolano il comportamento umano, che categorizzano le persone o i sistemi che possono essere utilizzati da governi o aziende per affidare un “punteggio sociale”.

Allo stesso tempo saranno vietati anche alcuni sistemi biometrici, mentre l’utilizzo dei meccanismi di riconoscimento facciale in tempo reale da parte delle forze dell’ordine sarà concesso solo dietro autorizzazione e in casi estremi.

Infine, il regolamento prevede una categoria dei rischi specifici, come le chatbot, che dovranno informare gli utenti del fatto che stanno interagendo con una macchina. Inoltre, tutti contenuti generati attraverso sistemi di intelligenza artificiale dovranno essere opportunatamente segnalati come generati o manipolati artificialmente.

Nonostante l’IA Act rappresenti un importante passo nella regolamentazione dell’intelligenza artificiale, i rischi connessi a questo tipo di sistemi permangono. Infatti, la normativa non verrà applicata ai sistemi utilizzati a scopi militari o di difesa, né a quelli di ricerca e innovazione o alle persone che utilizzano l’ia per motivi non professionali.

Nataliya Bolboka