Il recentissimo, neonato “AI Office”, lo strumento con il quale l’Unione europea vigilerà sulla implementazione di una normativa fondamentale per il nostro futuro, è tra le sue responsabilità: se l’azione sarà troppo blanda, le macchine prenderanno il controllo del mondo, se sarà troppo restrittiva, perderemo di nuovo la sfida dell’innovazione e della competitività con gli Stati Uniti, come accaduto con il web, i social e il cloud.
A Bruxelles non si finisce di brindare per questo AI Act, “il primo al mondo”: «In realtà – dice Sioli alla Stampa – quest’ultimo passaggio parlamentare è stato importante ma stavamo già lavorando sull’implementazione delle norme. Abbiamo festeggiato in dicembre, quando c’è stato l’accordo politico con il Parlamento e il Consiglio europeo. Anche il 2 febbraio, quando c’è stato un voto meno scontato, al Coreper».
Il Coreper è il Comitato dei Rappresentanti Permanenti, un organo del Consiglio dell’Unione Europea dove i capi delegazione negoziano gli accordi fra i 27 Paesi, che poi i ministri ratificheranno. Le riunioni del Coreper sono un momento decisivo: dopo che il trilogo Parlamento-Commissione-Consiglio trova l’accordo politico finale su un atto, tocca ai rappresentanti permanenti entrare nel dettaglio delle norme e si sa che è nei dettagli che si decide chi ha davvero vinto e perso in una trattativa. Insomma a gennaio negli uffici della Direzione Generale Connect il clima era improvvisamente cambiato: sul tavolo della Commissione Europea erano arrivate lettere, appelli, proteste, anche autorevoli, nei quali si argomentava che la fretta con la quale il provvedimento era stato adottato, sotto la spinta della energica presidenza di turno della Spagna, aveva portato il legislatore a commettere alcuni errori macroscopici che, se confermati, avrebbero potuto inficiare lo sviluppo dell’intelligenza artificiale nell’Unione Europea: «In effetti ogni Paese ha cercato di far valere le proprie ragioni, però va notato che la legge è passata all’unanimità, nessun astenuto e nessun voto contrario».
Sul tema del divieto del riconoscimento facciale in tempo reale in luoghi pubblic non avete ceduto: sebbene aveste contro le polizie di tutta Europa.
«Il Parlamento ha molto insistito su questo punto. L’utilizzo dell’intelligenza artificiale per il riconoscimento facciale in tempo reale in luoghi pubblici può essere molto invasivo: ti potresti trovare a protestare in piazza e venire identificato; la tecnologia può portare rischi di sorveglianza massiva; ma la norma dice anche che la polizia può usare l’intelligenza artificiale come strumento per l’accertamento di reati gravi, come attacchi terroristici ad esempio, dopo aver ottenuto l’autorizzazione da un giudice o da un’autorità amministrativa indipendente».
Alcuni scienziati vi hanno scritto appelli accorati affinché venisse ammorbidito il divieto di usare l’intelligenza artificiale nel riconoscimento delle emozioni che, dicono, può avere importanti applicazioni mediche.
«L’atto dice solo che l’utilizzo di questo tipo di IA viene limitato nel campo del lavoro e dell’istruzione, quando fai un colloquio di lavoro o un esame universitario ad esempio, perché un software può influire in modo determinante sull’esito danneggiando il candidato; ma se ci sono ragioni mediche o di sicurezza questa tecnologia è utile e si può utilizzare».
Il principale motivo di scontro, quello che fino all’ultimo ha rischiato di far saltare il provvedimento, era però un altro ancora.
«Il fatto che abbiamo affrontato il problema dell’ intelligenza artificiale generativa, definita general purpose, cioè IA con uno scopo generale. Si tratta di modelli allenati con grosse quantità di dati e in grado di essere applicati a una vasta gamma di usi. Ad esempio, il modello GPT4 che alimenta ChatGPT. Le norme prevedono che tutti questi modelli debbano rispettare obblighi di trasparenza, ovvero spiegare come funzionano e su quali basi dati sono stati addestrati. Per i modelli più grossi e più potenti, gli sviluppatori dovranno fornire un piano dettagliato su come intendono fronteggiare eventuali rischi. Quali? Per esempio la disinformazione, oppure il fatto di fornire informazioni che permettano o meno di svolgere alcune attività in campi critici, come quelli del nucleare o delle armi biologiche. Non si tratta di problemi astratti: l’intelligenza artificiale generativa è appena arrivata nelle nostre vite e già viene usata da decine di milioni di persone, se qualcosa va storto l’impatto può essere enorme».
Quali sono gli obblighi per le aziende che sviluppano Large Language Model?
«Informare la Commissione prima di lanciare un prodotto sul mercato. Adesso incominceremo a preparare un codice di condotta per le imprese, dove esamineremo i rischi e identificheremo le misure necessarie per mitigarli. I modelli verranno sottoposti a dei test, un “Red Teaming”, per scoprire eventuali vulnerabilità o falle del modello».
Il testo dell’AI Act sarà vidimato, con una presa d’atto, dal Consiglio Europeo e poi pubblicato sulla Gazzetta Ufficiale, probabilmente in giugno, e da quel momento ci saranno dodici mesi di tempo prima che gli obblighi sui modella general purpose siano applicabili. Ha già iniziato a lavorare invece l’AI Office. Il 24 gennaio c’è stata la decisione della Commissione Europea che ne ha descritto i compiti, e a febbraio quella norma è entrata in vigore. Come è accaduto che lei si è trovata a guidare l’ufficio chiave per l’implementazione delle norme sull’intelligenza artificiale?
«Nel 2018 sono stata nominata direttore della direzione che si occupa di AI e industria digitale. Nel 2019 la Presidente Von der Layen ha identificato l’AI uno dei punti prioritari del suo programma politico. Abbiamo organizzato un gruppo di esperti di alto livello che ci ha aiutato a preparare i principi che sottendono all’AI Act. Confesso che non mi aspettavo che il tema sarebbe stato sulla bocca di tutti, come è accaduto con il lancio di Chat GPT».
In realtà quando è arrivato Chat GPT, il 30 novembre 2022, l’iter legislativo era già partito da un pezzo ed è sembrato vecchio di colpo.
«Sì, quando abbiamo visto i progressi dell’IA generativa ci è stato subito chiaro che il testo della legge andava aggiornato e lo abbiamo fatto».
Forse andrà previsto un ulteriore aggiornamento a proposito dei robot: lo ha visto il video del robot Figure 01 nel quale è stato inserito Chat GPT? Dietro c’è l’ennesima startup americana….
«Se parliamo di robotica e sistemi industriali l’Europa ha un vantaggio comparato che non vogliamo perdere. L’AI generativa e’ un game changer. Abbiamo preparato un programma (GenAI4EU) su questo punto, per sostenere l’integrazione dell’AI generative europea in nuove applicazioni, come la robotica”. Non vogliamo che il nostro futuro sia solo nelle mani dei Big Tech, abbiamo talento anche in Europa».
In realtà dicono che in Silicon Valley abbiano brindato il giorno dell’approvazione dell’AI Act: perché l’Europa con norme così stringenti ha rinunciato ad essere competitiva.
«Non credo che lo abbiano fatto, l’AI Act si applica a tutti, anche alle aziende americane, non vedo perché quelle europee sarebbero svantaggiate».
Le faccio un esempio: perché abbiamo oltre 400 pagine di norme che una startup europea, senza un potente ufficio legale alle spalle, non può neanche iniziare ad affrontare senza rischiare una multa.
«Non sono oltre 400 pagine, sono molte meno. Le startup europee potranno partecipare alla definizione del codice di condotta. I test di Red Teaming previsti per i grossi modelli non costituiscono un ostacolo, quei test possono essere fatti da tutti».
L’ex consigliere della Casa Bianca per l’innovazione, Alec Ross, ormai di stanza in Italia, in proposito ha detto: l’America innova, la Cina copia, l’Europa regola. È d’accordo?
«Stiamo facendo molto per favorire l’innovazione delle imprese europee. Per esempio stiamo mettendo in piedi le fabbriche dell’intelligenza artificiale, e puntiamo a rafforzare i super computer, come l’italiano Leonardo o quello exascale che si sta per inaugurare in Germania, facilitando il loro utilizzo da parte delle startup. Abbiamo messo sul tavolo un certo budget, 500 milioni di euro, che gli Stati Membri possono raddoppiare per fare un aggiornamento dei supercomputer e migliorarne le capacità per allenare l’AI. Vorremmo che i super computer aiutassero gli sviluppatori di modelli di AI. E stiamo finanziando anche attività di formazione con l’idea di formare e federare il talento europeo: purtroppo ad oggi non sono così tante le persone che sono in grado di sviluppare questi modelli».
Si tratta di una industria nascente e di un mercato che ancora nessuno sa davvero immaginare: queste norme non sono arrivate troppo presto?
«Se si tratta di aumentare la fiducia dei cittadini e delle imprese in questo tipo di tecnologia, non è mai troppo presto per intervenire. Inoltre, l’obiezione avrebbe senso se avessimo imposto sull’AI generativa obblighi molto dettagliati ma non lo abbiamo fatto; abbiamo invece proposto lo sviluppo di codici di condotta con le imprese, per analizzare insieme i rischi e identificare le misure per mitigarli. Nell’applicazione delle norme ci adatteremo all’evoluzione della tecnologia. Per far ciò lavoreremo con un gruppo di scienziati, uno Scientific Panel, che selezioneremo a breve. Abbiamo già incominciato ad assumere cento persone nel corso dei prossimi due anni per rafforzare l’AI Office: cerchiamo scienziati dei dati ed esperti di algoritmi, ma anche giuristi ed esperti di rapporti internazionali».
Scienziati e politici sono divisi fra apocalittici e integrati a proposito dell’impatto dell’IA nella nostra vita.
«Io pendo verso i secondi, sono una ottimista, lo stato di sviluppo non mi sembra tale da doverci spaventare. Di fatto questi modelli per ora calcolano le probabilità che una parola ne succeda un’altra, non sono così intelligenti come molti pensano. Ci sono dei rischi, ma sono convinta che i modelli porteranno ad una trasformazione positiva».
Circolano studi sul fatto che sono a rischio milioni di posti di lavoro dei cosiddetti colletti bianchi e nell’industria della creatività.
«Le stesse cose si dicevano quando è arrivato il web e abbiamo visto che è accaduto il contrario, l’occupazione è cambiata ed è cresciuta. Anche in questo caso bisogna ancora capire quali lavori saranno effettivamente sostituiti dalle macchine e quali invece cambieranno. Intanto una cosa va notata: la trasformazione digitale è sempre andata a vantaggio di chi sapeva usare il digitale, di chi aveva le competenze e di conseguenza creava dei divari sociali; l’intelligenza artificiale generativa invece sembra rendere molto bravo anche chi è tecnologicamente meno dotato ed è quindi inclusiva, può ridurre le differenze anziché aumentarle».
Si fa un gran parlare di una via italiana all’intelligenza artificiale: questa cosa ha senso?
«Avere un AI generativa nella propria lingua è importante, serve a trasmettere anche gli aspetti culturali. Spero che i campioni europei di intelligenza artificiale si rafforzino presto, ma per arrivarci servono politiche a sostegno di questi sviluppi».
Il relatore dell’AI Act è stato il parlamentare Brando Benifei; sull’applicazione vigilate lei e Roberto Viola. Può essere un vantaggio?
«Il vantaggio dell’Italia si chiama Leonardo, il supercomputer che il Cineca gestisce a Bologna. L’Italia ne deve andare fiera e deve investire nel suo sviluppo».