L’Unione europea avrà una legislazione sull’Intelligenza artificiale, la più completa ed organica al mondo, con l’obiettivo di coniugarne lo sviluppo con il rispetto dei diritti fondamentali. Il Parlamento e il Consiglio dell’Unione Europea hanno trovato un accordo politico sull’AI Act. Il testo finale andrà ancora limato nelle prossime settimane, ma l’intesa assicura che sarà approvato entro la fine della legislatura europea, per poi entrare progressivamente in vigore nei successivi due anni.
La proposta era stata presentata dalla Commissione europea nel 2021, ma ha richiesto molto tempo considerate le distanze con cui da un lato il Parlamento, più attento alla protezione dei diritti, e dall’altro i governi, più attenti alle ragioni dello sviluppo economico e dell’ordine pubblico. Anche il negoziato è stato lungo: l’accordo sull’AI Act è stato raggiunto dopo un’intensa maratona negoziale di 36 ore, evidenziando la complessità e la natura delicata della legislazione. «È un momento storico» ha esultato il Commissario europeo Thierry Breton, definendo l’AI Act una rampa di lancio che permetterà a ricercatori e aziende europee «di guidare la corsa globale all’AI».
L’iniziativa della Commissione copre diversi ambiti e applicazioni della AI, dai sistemi per le nuove assunzioni di personale nelle aziende, agli algoritmi che fanno funzionare le automobili a guida autonoma, passando per il riconoscimento facciale da parte delle forze dell’ordine e la diffusione della disinformazione online. L’AI Act mira a garantire che l’intelligenza artificiale in Europa sia sicura e rispetti i diritti fondamentali, la democrazia e lo stato di diritto. Questo obiettivo comprende la protezione dei cittadini da possibili abusi legati all’uso dell’IA e l’assicurazione che l’uso dell’IA sia etico e responsabile.
Uno dei temi centrali, e già ampiamente discussi prima che la proposta fosse presentata ufficialmente, è legato ai sistemi di riconoscimento facciale. Durante i negoziati si è discusso a lungo di come le forze dell’ordine dovrebbero gestire questi sistemi nel rispetto della privacy delle persone per evitare il rischio di schedature di massa. Diversi paesi erano a favore di misure molto restrittive, mentre Italia, Ungheria e Francia hanno sostenuto una posizione più permissiva. Il riconoscimento facciale è stato vietato, ad eccezione di tre casi: l’evidente minaccia di un attacco terroristico, la ricerca di vittime, le indagini che riguardano reati gravi come omicidi, sequestri, violenza sessuale.
Sono stati vietati sistemi di riconoscimento biometrico che utilizzano dati sensibili, come le idee politiche, la religione e l’orientamento sessuale. Non possono essere utilizzate immagini ricavate da internet per creare database di riconoscimento facciale. Il regolamento prevede altri divieti nell’uso delle AI, per esempio non sarà consentito utilizzare tecnologie per calcolare il «punteggio sociale» di ogni individuo, una pratica sempre più sperimentata in Cina dove a ogni cittadino vengono assegnati punti in base ai comportamenti, cosa che dà la possibilità di accedere a particolari servizi preclusi invece a chi ha punteggi bassi.
Un altro punto importante della legge si occupa dei sistemi tecnologici su cui sono basati servizi di chatbot come ChatGPT. Sono stati previsti due livelli di regole distinguendo tra AI ad alto impatto da tutti gli altri sistemi di intelligenza artificiale. Per AI ad alto impatto si intendono i sistemi con una notevole potenza di calcolo: secondo le prime informazioni, al momento soltanto GPT-4 di OpenAI rientrerebbe in questa categoria. I sistemi di AI ad alto impatto devono rispettare regole relative alla trasparenza dei processi di addestramento dell’intelligenza artificiale e alla condivisione della documentazione tecnica prima di essere messi sul mercato. Tutti gli altri sistemi devono rispettare queste regole soltanto dal momento in cui i servizi vengono commercializzati.