L’Eurocamera ha approvato l’Ai Act, un pacchetto di norme per limitare l’uso dell’intelligenza artificiale. È la prima legge al mondo che regola l'Ai. Bruxelles, con il voto favorevole delle commissioni Mercato interno e Libertà civili, ha posto le basi per un ventaglio di regole che puntano a garantire che i sistemi di intelligenza artificiale siano supervisionati dalle persone. Che siano sicuri, trasparenti, tracciabili e non discriminatori. Lo stop all’uso del riconoscimento biometrico in tempo reale è solo un esempio del progetto legislativo di Bruxelles. “Vogliamo creare un rapporto tra società e tecnologia che sia basato sulla fiducia, non sulla paura”. Brando Benifei, eurodeputato, capodelegazione del Pd, è il relatore del testo. E in riferimento al ministro dell’Interno, Matto Piantedosi, che aveva annunciato qualche giorno fa la possibilità di potenziare i sistemi di riconoscimento facciale, commenta: “La sua impostazione securitaria sarà contrastata con fermezza. Mon vogliamo un’Europa a rischio Grande Fratello”.
L'intervista
Benifei (Pd): "Su Ai e riconoscimento facciale l'Ue sarà un modello. Contrasteremo la linea securitaria di Piantedosi"
di Arcangelo Rociola
Intervista al capodelegazione dem, relatore del testo che regola l'uso dell'intelligenza artificiale approvato ieri dall'Eurocamera: "Vogliamo che il rapporto tra società e tecnologia sia basato sulla fiducia, non sulla paura"
L’Europa potrebbe dotarsi della prima legge al mondo che regola l’intelligenza artificiale. Qual è l’obiettivo di questo regolamento?
"L’Unione europea vuole stabilire delle garanzie a favore degli utenti di quei servizi e prodotti che includono l’intelligenza artificiale specialmente quando viene riconosciuto un certo livello di rischiosità per la salute, la sicurezza e i diritti fondamentali. L’obiettivo è proprio quello di prevenire e mitigare i rischi, attraverso procedure di certificazione su governance dei dati, controllo umano, specifiche tecniche e altro, incrementando le potenzialità per consumatori e imprese, per creare sviluppo e opportunità. In ultimo si può dire che ci si aspetta di ottenere un certo 'Brussels Effect': nel resto del mondo c’è già un dibattito intorno alle nostre regole e auspichiamo che il nostro modello regolatorio possa essere una base per il confronto con gli altri Paesi, per questo abbiamo già portato avanti un dialogo in sede Ocse e con altre organizzazioni internazionali.
Su quali aspetti della norma crede ci sarà maggiore scontro politico nella plenaria del prossimo mese?
"Penso in particolare a due proposte del parlamento, che non erano presenti nella bozza della Commissione. La fortissima limitazione del riconoscimento biometrico da parte delle forze dell’ordine per la sorveglianza dei luoghi pubblici, che nella bozza prevedeva eccezioni troppo estese. E la previsione di una valutazione d’impatto sui diritti fondamentali per le AI ad alto rischio. In generale abbiamo poi aumentato il numero di casi di uso vietati, ad esempio alcuni ambiti del riconoscimento emotivo, per garantire una maggior tutela delle persone. Tale elenco potrebbe essere oggetto di dibattito ma in realtà, vista la larga maggioranza di questa votazione, mi auguro che procederemo senza troppi problemi ad approvare il testo in plenaria. La vera sfida sarà il successivo confronto coi governi su alcuni di questi punti più delicati".
Il testo cerca di regolare anche social scoring, riconoscimento facciale, polizia predittiva. Quale rapporto tra società e tecnologia si cerca di realizzare?
"Un rapporto di fiducia più che di paura. L’AI non deve diventare uno strumento di controllo e non vogliamo permettere che un suo uso, magari in partenza a fin di bene, possa tramutarsi in abuso. Purtroppo la storia ci insegna che una volta che la porta è aperta, benché le eccezioni esistano, sarà sempre difficile verificarle una a una. Per questo non vogliamo correre rischi e invece sostenere al massimo tutti gli ampi potenziali positivi di questa tecnologia dalla scuola, al lavoro, all’impresa".
In che modo l’Europa cerca di posizionarsi sul tema dell’Ai rispetto a Cina, Usa e alle loro aziende?
"Sicuramente non vogliamo aspettare che il peggio accada prima di avere delle norme. E poi non dobbiamo dimenticare che di casi, anche in Europea, in cui l’AI è stata usata a danno delle persone non mancano. Li abbiamo visti in Italia, in Olanda, nel Regno Unito e ci hanno fatto riflettere su ciò che era necessario. La verità è che ormai anche la Cina e gli Stati Uniti, soprattutto con l’accelerazione degli ultimi mesi dovuta alla diffusione dei large language model tra milioni di utenti, sono corse ai ripari. La differenza è che l’Unione europea ci sta lavorando da molti anni".
ChatGpt ha acceso un forte dibattito sul ruolo dell’Ai. Tra i rischi più sentiti c’è quello che tramite questi strumenti si possa creare disinformazione, con danno per la stabilità delle democrazie. Come viene affrontato questo problema?
"Abbiamo previsto dei nuovi obblighi per le AI generative come ChatGpt. Dovranno dichiarare in modo trasparente ogni volta che un testo è generato dall'IA, nonché fornire un riassunto dettagliato dei dati di addestramento tutelati dal copyright. Queste scelte permetteranno a chi legge di sapere che sta leggendo qualcosa di non scritto da un essere umano (e quindi soggetto ad una percentuale di errore e imprecisione più alta) e faciliterà anche le richieste di chi ha prodotto il materiale su cui l’AI si è allenata, con possibili risarcimenti, ove dovuti. Inoltre verrà facilitato il contrasto alla produzione di contenuti illegali oltre alla identificabilità dei deepfakes".
Un altro timore è per l’impatto sul mondo del lavoro.
"Per quanto riguarda i posti di lavoro sarà fondamentale che Unione Europea e governi mantengano un impegno adeguato sul fronte degli investimenti, della formazione, della scelta di portare avanti progetti comuni, in modo da gestire efficacemente la transizione e far crescere opportunità lavorative nei vari ambiti di sviluppo e controllo dell’AI".
Sempre sul tema del lavoro, c'è il tema del controllo dei lavoratori tramite sistemi di intelligenza artificiale.
"Il controllo dei lavoratori sarà limitato, oltre che dal GDPR, dal ban del riconoscimento biometrico, delle emozioni e del social scoring. Le esigenze di controllo della produttività non devono sfociare nella sorveglianza e nella discriminazione dei lavoratori e per questo abbiamo inserito una chiara salvaguardia sulla necessità di coinvolgere le rappresentanze delle parti sociali per introdurre l’IA nei luoghi di lavoro e abbiamo chiarito la possibilità di sviluppare norme più protettive nei confronti dei lavoratori senza che ciò possa essere contestato come divergente dal regolamento che rimane un regolamento sul mercato interno. Su questi temi ho dato molto battaglia mettendoli come priorità per il mio gruppo politico perché non voglio che queste tecnologie siano usate per allargare disuguaglianze e squilibri di potere".
Ci sono stati degli incontri tra legislatori europei e vertici di aziende come OpenAi in questo periodo?
"Sono anni che le istituzioni incontrano gli stakeholder, dalle imprese alla società civile. È un processo normale e utile, sia in fase di scrittura del testo, da parte della Commissione, che in fase di revisione da parte del Parlamento e del Consiglio. Sicuramente ci saranno anche in vista del trilogo e saranno utili a comprendere meglio quello che ancora dovesse sfuggire ai co-legislatori. È molto importante a questo riguardo avere la massima trasparenza su chi si è incontrato e anche discutere con franchezza sui differenti approcci in campo".
Una delle norme del testo riguarda l’applicazione del riconoscimento facciale negli spazi pubblici. Il ministro Piantedosi recentemente ha dichiarato di volerlo potenziare in alcuni luoghi critici.
"L’unica cosa di positivo che posso dire è che sono lieto che il Garante sia già al lavoro per fare in modo che una possibile proposta, che comunque non vede il mio favore, sia rispettosa del diritto fondamentale della privacy. In passato abbiamo visto comuni e forze dell’ordine installare tali sistemi senza il rispetto di quelle garanzie che la normativa europea propone da tempo e che stiamo cercando di rafforzare con l’AI Act nell’ambito del riconoscimento biometrico. L’impostazione non basata su dati ma pregiudizialmente securitaria di ministri come Piantedosi e altri ministri europei sarà contrastata con fermezza perché non vogliamo un’Europa a rischio “Grande Fratello” e data la potenza di questi sistemi non pensiamo che questo sia uno 'slogan' esagerato".
Sarebbe possibile farlo con questa norma?
"Fosse per me dovrebbe essere vietato in modo totale. Come Parlamento al momento la posizione comune è che sia vietato il riconoscimento biometrico in tempo reale e ci sia una possibilità di utilizzo molto limitato dalla autorità giudiziaria solo in caso di utilizzo differito e per reati già compiuti. Sono talmente tanti gli errori di questa tecnologia che il rischio di fermare degli innocenti partendo da immagini confuse e non definite è troppo alto. Al momento per fortuna esiste una moratoria in Italia spinta dal Partito Democratico e in particolare dal parlamentare Filippo Sensi".
Che impatto ha avuto la decisione del Garante di fermare ChatGpt in Italia?
"L’intervento del Garante ha fatto alzare le antenne a tutti, non solo in Europa, mi trovavo negli Stati Uniti nei gironi della decisione e se ne è parlato molto. Molte altre autorità hanno iniziato le proprie indagini e in ogni caso se oggi stiamo pensando a questo nuovo regolamento abbiamo il dovere di far rispettare le norme esistenti".
In quanto tempo l’Europa potrà dotarsi di questa legge?
"A metà giugno voteremo il testo in sessione plenaria a Strasburgo e poi inizieremo i triloghi di negoziazione la Commissione e il Consiglio. Vogliamo concludere entro l’anno in modo da approvare la norma in via definitiva a inizio 2024, la cui applicazione inizierà gradualmente per step successivi e richiederà complessivamente quasi due anni. Sono convinto che si discuterà ancora sulla possibilità di accelerare ulteriormente l’entrata in vigore a cui io sono favorevole".