L’intelligenza artificiale ora ha delle regole

Immagine
Articolo
Sviluppo tecnologico e innovazione

L’intelligenza artificiale ora ha delle regole

20 Maggio 2024
Federico Cella, Michela Rovelli

“L’Europa è ora un regolatore globale degli standard nel campo dell’intelligenza artificiale. Stiamo regolamentando il meno possibile, ma quanto necessario!”. Con queste parole il commissario europeo al Mercato interno e al digitale, Thierry Breton, ha salutato l’approvazione dell’AI Act da parte del Parlamento europeo. La votazione, avvenuta il 13 marzo, è stata un plebiscito: 523 voti a favore, 46 contrari e 49 astenuti. L’Unione si conferma così come punto di riferimento globale per la regolazione dell’economia digitale, dopo l’introduzione del Regolamento generale per la protezione dei dati (il GDPR), il Digital Markets Act e il Digital Services Act. Manca solo il voto, una sorta di ratifica formale, da parte del Consiglio europeo. Poi sarà ufficiale la prima legge al mondo per provare a regolamentare l'intelligenza artificiale. Come spiega l'eurodeputato italiano Brando Benifei, relatore della legge: «Rappresenta un chiaro percorso per lo sviluppo sicuro e umano-centrico dell'intelligenza artificiale».

La definizione di un sistema di intelligenza artificiale data dall'AI Act è piuttosto ampia, con l’idea di fondo di essere valida non solo per ciò che intendiamo con AI oggi ma anche per gli sviluppi futuri: «Un sistema basato su macchine progettato per operare con vari livelli di autonomia e che può mostrare capacità di adattamento dopo l'implementazione e che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali». L’insieme delle nuove norme si rivolge a tutto l’ecosistema intorno allo sviluppo dei software - fornitori, installatori, importatori, distributori e produttori - con l'obiettivo di fornire regole e obblighi per tutte le applicazioni che opereranno all'interno dei confini dell'Unione europea. Il testo è strutturato per provare a incasellare le diverse applicazioni in quattro gruppi distinti, a seconda del livello di rischio che ciascuna può rappresentare per i cittadini europei.

  • Rischio inaccettabile: questi sono i sistemi che violano i valori europei e che dunque saranno vietati all'interno dei confini dell'Unione.
  • Rischio alto: rientrano in questa categoria i sistemi che hanno o potranno avere un impatto controverso sulla sicurezza e sui diritti delle persone. Non ne viene dunque proibita la diffusione ma si chiede che le società responsabili rispondano a una precisa serie di requisiti.
  •  Rischio limitato: qui rientrano le applicazioni che non comportano pericoli considerevoli e che dunque dovranno assicurare solo un set limitato di requisiti
  • Rischio minimo: in questo caso non è previsto nessun obbligo per legge

Interessante valutare a volo d’uccello quali sono le possibili applicazioni di software intelligenti definite “inaccettabili”. Tra le applicazioni di uso vietato ci sono i sistemi di «social scoring», ossia programmi come quelli già utilizzati in diverse parti della Cina che creano una valutazione dei cittadini in base ai propri comportamenti. Il regolamento bandisce quindi i cosiddetti strumenti di polizia predittiva, che sfrutta i dati di un individuo per capirne in anticipo la pericolosità (una sorta di Minority Report già applicato in alcuni stati americani). Sono vietati poi tutti quei sistemi che valutano gli utenti per sfruttare alcune caratteristiche, considerate vulnerabili dall’Act europeo: età, disabilità, situazioni sociali o economiche. L'Ai act proibisce anche i sistemi di riconoscimento delle emozioni, in particolare nei luoghi di lavoro e nelle scuole. Vengono vietati infine i sistemi di riconoscimento biometrico così come la creazione di database di riconoscimento facciale che vengono creati sfruttando la raccolta di dati online («scraping») o da telecamere a circuito chiuso. Questo è stato uno dei punti maggiormente discussi: quello che si vuole evitare è la cosiddetta “sorveglianza di massa”, ossia l'analisi in tempo reale delle persone in spazi pubblici. La pratica è assolutamente vietata, salvo qualche eccezione: previa autorizzazione giudiziaria, le forze dell'ordine potranno richiedere di utilizzare l'identificazione biometrica ma solo in casi di reati gravi. In caso di persona scomparsa oppure per prevenire un possibile attacco terroristico.