Connect with us

Tecnologia

Il Parlamento dell’UE adotta regole “storiche” sull’IA

Published

on

Un’insegna dell’Ai (intelligenza artificiale) nello stand di Deutsche Telekom AG al Mobile World Congress (MWC), il più grande raduno annuale dell’industria delle telecomunicazioni, a Barcellona il 27 febbraio 2024. Foto: Times of Malta

Mercoledì scorso il Parlamento europeo ha approvato in via definitiva un’ampia normativa dell’UE che regola l’intelligenza artificiale, compresi sistemi potenti come ChatGPT di OpenAI.

Gli alti funzionari dell’Unione Europea affermano che le regole, proposte per la prima volta nel 2021, proteggeranno i cittadini dai possibili rischi di una tecnologia che si sta sviluppando a rotta di collo, promuovendo al contempo l’innovazione nel continente.

Bruxelles si è affrettata ad approvare la nuova legge da quando il ChatGPT di OpenAI, sostenuto da Microsoft, è arrivato sulla scena alla fine del 2022, scatenando una corsa globale all’intelligenza artificiale.

L’IA generativa ha suscitato un’esplosione di entusiasmo quando ChatGPT ha stupito il mondo con le sue capacità simili a quelle umane, dalla digestione di testi complessi alla produzione di poesie in pochi secondi o al superamento di esami medici.

Altri esempi di modelli di IA generativa sono DALL-E e Midjourney, che producono immagini, mentre altri modelli producono suoni a partire da un semplice input nel linguaggio quotidiano.

Il regolamento di ampia portata è passato con il sostegno di 523 legislatori al Parlamento europeo di Strasburgo, in Francia, mentre 46 hanno votato contro.

I 27 Stati membri dell’UE dovrebbero approvare il testo in aprile, prima che la legge venga pubblicata sulla Gazzetta Ufficiale dell’UE in maggio o giugno.

Advertisement

“Oggi è di nuovo una giornata storica nel nostro lungo cammino verso la regolamentazione dell’IA”, ha dichiarato Brando Benifei, un legislatore italiano che ha spinto il testo in Parlamento insieme all’eurodeputato rumeno Dragos Tudorache.

“È il primo regolamento al mondo che traccia un percorso chiaro verso uno sviluppo sicuro e incentrato sull’uomo dell’IA”, ha aggiunto Benifei, parlando poco prima del voto.

“Siamo riusciti a trovare un equilibrio molto delicato tra l’interesse a innovare e l’interesse a proteggere”, ha dichiarato Tudorache ai giornalisti prima del voto.

Il commissario per il mercato interno dell’UE, Thierry Breton, ha salutato il voto.

“Accolgo con favore lo schiacciante sostegno del Parlamento europeo alla legge europea sull’intelligenza artificiale”, ha dichiarato. “L’Europa è ora uno standard globale per l’IA affidabile”

Le norme che riguardano i modelli di IA come ChatGPT entreranno in vigore 12 mesi dopo l’ufficializzazione della legge, mentre le aziende dovranno conformarsi alla maggior parte delle altre disposizioni entro due anni.

– Restrizioni alla polizia dell’IA

Le regole dell’UE, note come “AI Act”, adottano un approccio basato sul rischio: più il sistema è rischioso, più i requisiti sono severi, con divieti assoluti per gli strumenti di IA ritenuti più pericolosi.

Advertisement

Ad esempio, i fornitori di IA ad alto rischio devono condurre valutazioni del rischio e garantire che i loro prodotti siano conformi alla legge prima di essere resi disponibili al pubblico.

“Stiamo regolamentando il meno possibile e il più possibile, con misure proporzionate per i modelli di IA”, ha dichiarato Breton all’AFP.

Le violazioni possono comportare per le aziende multe che vanno da 7,5 a 35 milioni di euro (da 8,2 a 38,2 milioni di dollari), a seconda del tipo di violazione e delle dimensioni dell’azienda.

Sono previsti divieti severi sull’uso dell’IA per la polizia predittiva e sui sistemi che utilizzano informazioni biometriche per dedurre la razza, la religione o l’orientamento sessuale di un individuo.

Le norme vietano anche il riconoscimento facciale in tempo reale negli spazi pubblici, ma con alcune eccezioni per le forze dell’ordine, anche se la polizia deve chiedere l’approvazione di un’autorità giudiziaria prima di utilizzare l’IA.

– Lobby e cani da guardia

Poiché l’IA trasformerà probabilmente ogni aspetto della vita degli europei e le grandi aziende tecnologiche sono in lizza per dominare quello che sarà un mercato lucrativo, l’UE è stata oggetto di un’intensa attività di lobbying sulla legislazione.

Martedì gli osservatori hanno sottolineato le campagne della startup francese Mistral AI e della tedesca Aleph Alpha, nonché di giganti tecnologici statunitensi come Google e Microsoft.

Advertisement

Hanno avvertito che l’attuazione delle nuove norme “potrebbe essere ulteriormente indebolita dalle lobby aziendali”, aggiungendo che la ricerca ha mostrato “quanto forte sia stata l’influenza delle aziende” durante i negoziati.

“Molti dettagli della legge sull’intelligenza artificiale sono ancora aperti e devono essere chiariti in numerosi atti di esecuzione, ad esempio per quanto riguarda gli standard, le soglie o gli obblighi di trasparenza”, hanno dichiarato i tre organismi di vigilanza con sede in Belgio, Francia e Germania.

Il commissario Breton ha sottolineato che l’UE “ha resistito agli interessi particolari e alle lobby che chiedevano di escludere i grandi modelli di IA dal regolamento”, aggiungendo: “Il risultato è un regolamento equilibrato, basato sul rischio e a prova di futuro”

Il legislatore Tudorache ha affermato che la legge è stata “uno dei testi legislativi più oggetto di lobby, sicuramente in questo mandato”, ma ha insistito: “Abbiamo resistito alle pressioni”

Cosa prevede la nuova legge dell’UE sull’IA

Mercoledì il Parlamento europeo ha dato il via libera definitivo a norme di ampia portata sull’intelligenza artificiale, che l’UE spera servano sia a sfruttare l’innovazione sia a difendersi dai danni.

La legge, nota come “legge sull’intelligenza artificiale”, era stata proposta per la prima volta nell’aprile 2021 dalla Commissione europea, il braccio esecutivo dell’UE.

Ma è solo dopo l’irruzione sulla scena di ChatGPT, finanziato da Microsoft, alla fine del 2022, che è iniziata la vera gara dell’IA e anche la corsa alla regolamentazione.

Advertisement

L’anno scorso la Cina e gli Stati Uniti hanno introdotto una normativa sull’IA, ma la legge dell’Unione Europea è la più completa.

L’UE adotterà un approccio scaglionato nell’applicazione della legge.

I divieti veri e propri sulle forme di IA considerate a più alto rischio scatteranno nel corso di quest’anno, mentre le regole su sistemi come ChatGPT si applicheranno 12 mesi dopo l’entrata in vigore della legge e il resto delle disposizioni nel 2026.

Mentre i negoziatori dell’UE discutevano il testo, le tensioni all’interno e le pressioni esterne erano al massimo su come regolamentare i modelli di IA di uso generale, come i chatbot.

Gli sviluppatori di tali modelli dovranno fornire dettagli sui contenuti utilizzati, come testi o immagini, per addestrare i loro sistemi e rispettare la legge sul copyright dell’UE.

Sono previsti una serie maggiore di requisiti per i modelli, ad esempio l’ultimo ChatGPT-4 di OpenAI e Gemini di Google, che secondo l’UE presentano “rischi sistemici”

Tali rischi potrebbero includere la possibilità di causare incidenti gravi, di essere utilizzati in modo improprio per attacchi informatici di vasta portata o per propagare pregiudizi dannosi online.

Advertisement

Le aziende che offrono queste tecnologie devono valutare e mitigare le minacce, tracciare e segnalare alla Commissione gli incidenti gravi (come i decessi), adottare misure per garantire la sicurezza informatica e fornire dettagli sul consumo energetico dei loro modelli.

La Commissione ha già istituito un ufficio per l’IA che si occuperà dell’applicazione delle regole sull’IA per scopi generici.

– Approccio basato sul rischio

L’UE esamina i sistemi di IA dal punto di vista dei rischi per la democrazia, la salute pubblica, i diritti e lo Stato di diritto.

I prodotti ad alto rischio, come i dispositivi medici, quelli utilizzati nell’istruzione o i sistemi utilizzati in infrastrutture chiave come l’acqua, sono soggetti a maggiori obblighi per mitigare qualsiasi pericolo.

Ad esempio, i fornitori ad alto rischio devono sviluppare i sistemi con dati di qualità, garantire la supervisione umana e mantenere una solida documentazione.

Anche dopo aver immesso il loro prodotto sul mercato, i fornitori devono tenere alta l’attenzione.

I cittadini dell’UE avranno il diritto di presentare reclami sui sistemi di IA, mentre gli enti pubblici dovranno registrare i sistemi di IA ad alto rischio che impiegano in un database pubblico dell’UE.

Advertisement

Infrangere le regole può essere costoso.

L’UE può infliggere ai fornitori di IA multe comprese tra 7,5 e 35 milioni di euro (8,2 e 38,2 milioni di dollari), o tra l’1,5 e il sette per cento del fatturato globale di un’azienda, a seconda dell’entità della violazione.

Le norme stabiliscono inoltre che i cittadini devono essere consapevoli quando hanno a che fare con l’IA.

Ad esempio, le immagini deepfake prodotte con l’IA devono essere etichettate come tali, mentre i chatbot devono indicare che sono alimentati dall’IA nelle loro interazioni.

– Divieti

Ci sono alcuni tipi di IA vietati dall’UE perché i rischi che comportano sono considerati troppo elevati.

Tra questi, la polizia predittiva, i sistemi di riconoscimento delle emozioni nei luoghi di lavoro o nelle scuole e i sistemi di punteggio sociale che valutano gli individui in base al loro comportamento.

La legge vieta anche agli agenti di polizia di utilizzare la tecnologia di riconoscimento facciale in tempo reale, con eccezioni per le forze dell’ordine se stanno cercando un individuo condannato o sospettato di un reato grave, come lo stupro o il terrorismo.

Advertisement

La polizia può chiedere di utilizzare la tecnologia per trovare le vittime di rapimenti o di traffici illeciti, previa approvazione di un giudice o di un’altra autorità giudiziaria e per un uso limitato nel tempo e nel luogo.