Riceviamo e pubblichiamo in anteprima un articolo di Mario Sabato (Financial & International Consultant) sul Regolamento europeo in materia di Intelligenza Artificiale che sarà pubblicato sul prossimo numero di “Leasing Time Magazine”, il mensile di economia e finanza diretto da Gianfranco Antognoli.
Ad inizio marzo 2024 l’Unione Europea ha messo a punto e deliberato, con un atto legislativo, un Regolamento sull’IA partendo dall’analisi dei livelli di rischio. Si tratta di un passo importante anche perché la forma scelta del Regolamento (IA Act), a differenza della Direttiva, non necessita di attuazione da parte dei singoli stati attraverso una legge nazionale, ma si applica direttamente.
L’Unione Europea diventa così apripista nel regolamentare la rivoluzione dell’IA, innovazione tecnologica che promette di cambiare per sempre la vita degli utenti nella EU (ma anche utenti IA world wide).
In breve, detto Regolamento mira ad assicurare che i sistemi diversi di IA immessi (o che lo saranno) sul mercato europeo, siano sicuri e rispettino i diritti fondamentali ed i valori dell’EU, contribuendo a stimolare gli investimenti e l’innovazione in materia di IA in Europa. Tra l’altro trattandosi di una prima legge unitaria sulla materia, si presterebbe ad essere un vero e proprio modello di legislazione anche per gli altri Stati. Tale regolamento adotta una schematizzazione dei temi basata sul livello di rischio che ciascun sistema di IA (anche generativo) potrà comportare: in pratica maggiore è il rischio e maggiori sono le regole imposte e da adottare a cura dei fornitori di IA, ivi compresa la differenza tra i rischi ipotizzabili; ad esempio un primo livello di rischio è accettato mentre l’ultimo livello di rischio è vietato integralmente (cd: rischio inaccettabile).
Ma cosa intendiamo quando parliamo di rischio? A seguire alcuni importanti parametri per valutare il grado di rischio di un sistema di IA: la sicurezza, la salute ed i diritti fondamentali delle persone utenti. Da ciò ne deriva che le IA che producono un rischio non accettabile per uno o tutti i suddetti parametri, sono vietate ai sensi di detto Regolamento.
Trattandosi di un Regolamento deliberato solo di recente, alcuni analisti hanno al riguardo ipotizzato una sorta di piramide dei vari rischi da tenere in considerazione, fatte salve le verifiche puntuali che avverranno a breve. Ovviamente sistemi di IA a basso rischio si collocano alla base di detta piramide e non impattano in obblighi se non quelli già esistenti ed imposti da normative tipo quella sulla Privacy (trattamento dati persone fisiche).
Discorso diverso invece per i sistemi di IA a rischio limitato per i quali sono previsti generici obblighi di trasparenza che il neo Regolamento che ci occupa fissa, e cioè rendere noto agli utenti che il contenuto è stato generato dell’IA, in modo che si possano adottare decisioni informate circa l’ulteriore diffusione/utilizzo del contenuto. Al riguardo un valido esempio è rappresentato dai cosiddetti software progettati per simulare la conversazione umana che risultano sempre più spesso inseriti in svariati siti e che hanno il compito precipuo di veicolare H 24 informazioni su servizi e prodotti offerti dai siti che li ospitano.
Alto rischio ovvero rischio significativo per la salute e la sicurezza ovvero per i diritti essenziali delle persone. Tali sistemi di IA, ai sensi del Regolamento deliberato, dovranno in futuro necessariamente rispettare una lunga serie di requisiti per ottenere l’affidabilità necessaria, oltre ad una valutazione di conformità alla Normativa vigente, prima di poter essere immessi sul mercato EU. Da notare che tali obblighi posti in capo a fornitori ma anche ad utenti, sono previsti tali durante l’intero ciclo di vita dei sistemi di IA.
Parliamo infine dei cosiddetti rischi inaccettabili per la salute, la sicurezza e i diritti fondamentali dell’EU, cioè della punta della citata piramide (che contiene tutti i tipi di rischi). L’Unione Europea ha ritenuto che tali rischi vadano associati a quei sistemi che comportano un elevato potenziale in termini di manipolazione delle persone attraverso sofisticate tecniche subliminali, senza che esse ne siano consapevoli, oppure di vero sfruttamento della vulnerabilità di alcuni gruppi di utenti, tipo minori o persone con disabilità, con impatti anche solo potenziali di distorcere materialmente il comportamento con danni psicologici o addirittura fisici.
Altre pratiche di sfruttamento o manipolative che interessano gli adulti e che potrebbero essere assai facilitate dai sistemi di IA, dovranno infine essere soggette alla vigente normativa in materia di protezione dei dati, tutela dei consumatori e servizi digitali, in modo da garantire sempre la libera scelta e l’assenza di profilazione o altre pratiche che potranno influire sui comportamenti.
Sono stati considerati quindi i livelli di rischio: elevato, limitato, minimo o nullo. In pratica l’Europa con tale neo Regolamento si posiziona come leader nello sviluppo sostenibile ma anche etico delle tecnologie di IA.
L’ufficio europeo per l’IA, attivato dal febbraio 2024, curerà in particolare la creazione di un ambiente EU in cui le tecnologie di IA rispettino la dignità umana, i diritti e la fiducia, e promuoverà la creazione della necessaria governance globale, attraverso il dialogo e la cooperazione internazionale.
Mario Sabato Financial & International Consultant