L’evoluzione dell’intelligenza artificiale (IA) è stata rapida, portando alla necessità urgente di una regolamentazione a livello europeo che dovrebbe culminare con l’imminente uscita del Regolamento sull’Intelligenza Artificiale (AI Act). La regolamentazione dell’IA, infatti, è vista come un mezzo per garantire che tutta la tecnologia e le evoluzioni ad essa associate, siano sviluppate e utilizzate in modo etico e sicuro. Ed è proprio in questa direzione che l’UE, dal giugno scorso, sta agendo a tempo di record e con passi significativi, verso l’elaborazione di un quadro normativo attraverso l’eleaborazione dell’AI Act. Tuttavia, la strada verso un compromesso tra le varie parti interessate rimane ancora molto complessa data la natura dinamica delle tecnologie di IA e di tutti gli aspetti ad esse associati.
In questo breve articolo, abbiamo cercato di esplorare alcuni dei punti chiave relativi alla regolamentazione dell’Intelligenza Artificiale (IA) nell’Unione Europea che tanto oggi vengono dibattuti e sono oggetto di accese speculazioni. Alcuni dei temi centrali includono la struttura di governance e l’applicazione dell’AI Act a livello UE, la classificazione dei sistemi IA ad alto rischio e la definizione stessa di “alto rischio” nell’ambito dell’IA, il profiling degli individui attraverso sistemi IA, l’interazione tra le istituzioni dell’UE, gli Stati Membri e altre parti interessate, oltre che la flessibilità della regolamentazione dell’IA per adattarsi all’evoluzione tecnologica. Questi temi rappresentano aree delicatissime per un’efficace regolamentazione dell’IA, garantendo al contempo l’innovazione e la tutela dei diritti fondamentali.
La struttura di Governance ed applicazione del AI Act a livello UE
L’efficacia della regolamentazione dell’Intelligenza Artificiale (IA) nell’UE è strettamente legata alla struttura di governance e all’applicazione del prossimo AI ACT. La proposta di un ente di governance a livello UE mira a garantire un’applicazione uniforme ed efficace della regolamentazione, oltre a una risposta rapida ai dubbi emersi associati all’IA. Tra le strutture suggerite e discusse in un documento non ufficiale circolato a metà settembre e sottoscritto da sette paesi (Belgio, Bulgaria, Danimarca, Ungheria, Lettonia, Paesi Bassi e Slovacchia), vi sono l’Ufficio Europeo per l’Intelligenza Artificiale (AI Office) e/o un Consiglio per l’IA (AI Board), che potrebbero assumere compiti chiave come l’applicazione della legge in casi specifici, la promozione della trasparenza algoritmica e il supporto continuo agli Stati membri. Queste entità potrebbero anche collaborare con altre strutture esistenti a livello UE, come il Centro Europeo per la Trasparenza Algoritmica (ECAT) stabilito sotto l’Atto sui Servizi Digitali (DSA). Le proposte suggerite nel documento, quindi, sembrano proprio voler sottolineare l’importanza di evitare gli errori passati relativi alla coordinazione transfrontaliera e alla frammentazione dell’applicazione, puntando verso una struttura di governance solida ed efficace per lo sviluppo e l’implementazione dei modelli e le tecnologie di IA.
Classificazione dei Sistemi IA ad Alto Rischio
La classificazione dei sistemi IA ad alto rischio è un tema scottante nel dibattito su una regolamentazione efficace. E in quest’ottica, la normativa europea sembra muoversi verso la proposta di un approccio basato su concetto di regola-eccezione, identificando i sistemi IA come ad alto rischio a meno che non soddisfino determinate condizioni che ne diminuiscono il rischio stesso. Alcuni esempi pratici illustrano come i sistemi IA destinati a compiti procedurali stretti o che supportano, anziché sostituire, la valutazione umana possono essere esclusi dalla classificazione ad alto rischio. Di contro, però, qualsiasi sistema IA che esegue profilazioni (a qualunque livello) viene sempre considerato ad alto rischio. Questa classificazione richiede una valutazione accurata da parte dei fornitori, con un’adeguata documentazione e registrazione in un database UE, facilitando così la tracciabilità e l’ispezione da parte delle autorità di sorveglianza del mercato.
Definizione di “Alto Rischio” nell’ambito dell’IA
La definizione di “alto rischio” nell’ambito dell’IA è sicuramente un fattore centrale per guidare la regolamentazione. Tale definizione, basata sulla gravità e la probabilità del danno potenziale generato dall’uso improprio della tecnologia, guida tutta l’identificazione dei sistemi IA ad alto rischio dell’AI Act. Le implicazioni legali discusse infatti, includono vari obblighi aggiuntivi per i fornitori e l’introduzione di misure di mitigazione del rischio precise. Le implicazioni pratiche, invece, riguardano la necessità per i fornitori di comprendere e applicare la classificazione e per le autorità, di sorvegliare il mercato per valutare la conformità dei sistemi IA, assicurando così una protezione adeguata dei diritti fondamentali e della sicurezza pubblica.
Profiling degli Individui attraverso sistemi di IA
Il profiling attraverso sistemi IA è un altro aspetto che può avere impatti significativi sui diritti individuali e sulla privacy dei cittadini. L’etica riguarda l’uso responsabile dei dati e la trasparenza nelle decisioni automatizzate. Legalmente, il GDPR e l’AI Act, vogliono proporre e definire un quadro normativo ben definito, chiaro e efficace. Le misure di mitigazione includono la trasparenza, il consenso informato, e la possibilità di revisione umana di tutto quello che è stato elaborato dall’IA. In questa direzione quindi, cruciale sarà il bilanciamento tra l’innovazione tecnologica, la protezione dei diritti individuali e la conformità normativa al fine di garantire un’applicazione etica e legale del profiling attraverso sistemi IA.
Interazione tra le Istituzioni dell’UE, gli Stati Membri e altre parti interessate
Altro punto molto discusso, è l’interazione tra le istituzioni dell’UE, gli Stati Membri e altre parti interessate per l’elaborazione di un quadro normativo efficace sull’IA. Questo dialogo permette di armonizzare le normative, condividere le best practice e garantire che le politiche sull’IA siano allineate con gli obiettivi comuni. La cooperazione può avvenire attraverso vari canali, inclusi incontri formali, gruppi di lavoro e consultazioni pubbliche. Inoltre, la collaborazione con il settore privato e la società civile è fondamentale per assicurare che la regolamentazione sia pratica e rifletta una comprensione approfondita delle potenzialità e delle opportunità associate allo sviluppo dell’IA.
Flessibilità della regolamentazione dell’IA
La regolamentazione dell’IA proposta nell’Unione Europea mira ad essere flessibile per adattarsi all’evoluzione tecnologica. Attraverso meccanismi come gli atti delegati, la Commissione può aggiornare l’elenco dei sistemi IA ad alto rischio, permettendo così un aggiornamento continuo della regolamentazione. Inoltre la proposta, come accennato poco fa, potrebbe anche prevedere la creazione di strutture di governance, come un Ufficio Europeo per l’Intelligenza Artificiale (AI Office) e/o un Consiglio per l’IA (AI Board), per monitorare e valutare i rischi emergenti. Questa flessibilità è cruciale per garantire che la regolamentazione rimanga pertinente ed efficace nel tempo dato il ritmo di rapido sviluppo dell’IA.
In sintesi
L’analisi del complesso dibattito in merito ad un quadro normativo per l’Intelligenza Artificiale (IA) nell’Unione Europea, lascia comunque intravedere un impegno significativo verso la creazione di un ambiente regolatorio solido ed efficace. La struttura di governance suggerita, insieme alla classificazione dettagliata dei sistemi IA e le misure proposte per il profiling, sembrano rappresentare passi concreti verso la mitigazione dei dubbi associati all’utilizzo delle tecnologie di IA. In questo contesto, l’interazione tra le istituzioni dell’UE, gli Stati membri e altre parti interessate appare fondamentale per l’evoluzione e la creazione di tale scenario. In aggiunta, la volontà di incorporare una certa flessibilità nella regolamentazione consente un adattamento continuo all’evoluzione tecnologica, garantendo che le normative sull’IA rimangano pertinenti ed efficaci nel tempo.
Alla luce di ciò, possiamo augurarci che, con l’evoluzione delle tecnologie di IA, anche la struttura regolatoria dell’UE possa continuare ad evolversi e a calibrarsi efficacemente al fine di mantenere elevato l’equilibrio tra innovazione, legislazione e protezione dei diritti. In tale senso, sarà di fondamentale importanza che l’interazione tra le varie parti interessate si intensifichi sempre di più, così da gestire al meglio i rischi, portando all’apertura di nuove collaborazioni transnazionali che avranno lo scopo di garantire l’applicazione efficace delle (giuste) norme su tutti i possibili fronti.