A maggio i legislatori dell’UE hanno approvato l’AI Act, il primo insieme completo di regole al mondo per la gestione di questa tecnologia, dopo mesi di intense negoziazioni tra diversi gruppi politici.
E ora le più grandi aziende tecnologiche del mondo hanno avviato una campagna per convincere l’Unione Europea ad adottare un approccio leggero nella regolamentazione dell’intelligenza artificiale, cercando di scongiurare il rischio di multe miliardarie.
Fino a quando non saranno finalizzati i codici di condotta che accompagneranno la legge, però, rimane incerto quanto severamente verranno applicate le regole per i sistemi di intelligenza artificiale “ad uso generale” (GPAI), come ChatGPT di OpenAI, e invece quante cause di violazione del copyright e multe miliardarie potrebbero affrontare le aziende.
L’UE ha invitato aziende, accademici e altri soggetti a contribuire alla stesura del codice di condotta, ricevendo quasi 1.000 candidature, un numero insolitamente alto secondo una fonte vicina alla questione, che ha richiesto l’anonimato poiché non autorizzata a parlare pubblicamente.
Il codice di condotta per l’AI non sarà legalmente vincolante quando entrerà in vigore alla fine del prossimo anno, ma fornirà alle aziende un elenco di controllo per dimostrare la loro conformità.
Un’azienda che affermasse di rispettare la legge ignorando il codice potrebbe affrontare conseguenze legali. “Il codice di condotta è cruciale. Se lo facciamo bene, saremo in grado di continuare a innovare”, ha affermato Boniface de Champris, senior policy manager dell’organizzazione commerciale CCIA Europe, i cui membri includono Amazon, Google e Meta.
Il problema della raccolta dei dati
Aziende come Stability AI e OpenAI sono state messe sotto accusa per aver utilizzato libri di successo o archivi fotografici per addestrare i loro modelli senza il consenso dei creatori, sollevando dubbi sulla possibile violazione del copyright.
Secondo l’AI Act, le aziende saranno obbligate a fornire “sintesi dettagliate” dei dati utilizzati per addestrare i loro modelli. Col risultato che in teoria, qualora un creatore di contenuti scoprisse che il proprio lavoro è stato utilizzato per addestrare un modello di intelligenza artificiale, potrebbe richiedere un risarcimento, anche se questa questione è ancora oggetto di contenziosi legali.
Alcuni leader aziendali hanno affermato che le sintesi richieste dovrebbero contenere pochi dettagli per proteggere i loro segreti commerciali, mentre altri sostengono che i titolari del copyright abbiano il diritto di sapere se il loro contenuto sia stato utilizzato senza permesso.
OpenAI, criticata per aver rifiutato di rispondere a domande sui dati utilizzati per addestrare i suoi modelli, ha presentato domanda per partecipare ai gruppi di lavoro, secondo una persona vicina alla questione che ha preferito rimanere anonima. Anche Google ha presentato una candidatura, come confermato da un portavoce a Reuters. Nel frattempo, Amazon ha dichiarato di voler “contribuire con la nostra esperienza e garantire il successo del codice di condotta”.
Maximilian Gahntz, responsabile delle politiche sull’AI presso la Mozilla Foundation, l’organizzazione no-profit dietro il browser web Firefox, ha espresso preoccupazione per il fatto che le aziende stiano “facendo di tutto per evitare la trasparenza”. “L’AI Act rappresenta la migliore opportunità per far luce su questo aspetto cruciale e illuminare almeno una parte della scatola nera”, ha affermato.
Le grandi aziende e le priorità dell’AI Act
Alcuni esponenti del mondo imprenditoriale hanno criticato l’UE per aver dato priorità alla regolamentazione tecnologica rispetto all’innovazione, e coloro che sono incaricati di redigere il testo del codice di condotta dovranno trovare un compromesso.
E in un contesto di crescente protezionismo all’interno dell’UE, le aziende tecnologiche locali sperano che nell’AI Act vengano introdotte deroghe per favorire le startup europee emergenti. “Abbiamo insistito sul fatto che questi obblighi debbano essere gestibili e, se possibile, adattati alle startup”, ha dichiarato Maxime Ricard, policy manager di Allied for Startups, una rete di organizzazioni commerciali che rappresentano le piccole aziende tecnologiche.
Una volta pubblicato il codice nella prima parte del prossimo anno, le aziende tecnologiche avranno tempo fino ad agosto 2025 prima che i loro sforzi di conformità vengano valutati in base ad esso. Anche organizzazioni no-profit hanno presentato domanda per contribuire alla stesura del codice.
Gahntz ha dichiarato: “Mentre entriamo nella fase in cui molti degli obblighi dell’AI Act vengono definiti in modo più dettagliato, dobbiamo stare attenti a non permettere ai grandi player dell’intelligenza artificiale di annacquare importanti requisiti di trasparenza“.


