Le più importanti aziende tecnologiche del mondo, tra cui Meta e OpenAI, potrebbero non essere pronte a rispettare le rigide normative europee sull’intelligenza artificiale che entreranno in vigore nei prossimi due anni.
A rivelarlo in esclusiva è Reuters, secondo cui un nuovo strumento di valutazione ha rivelato che alcuni dei principali modelli di IA non raggiungono gli standard richiesti dall’AI Act dell’UE in aree cruciali come la sicurezza informatica e la prevenzione di output discriminatori.
L’Unione Europea ha lungamente discusso la necessità di regolamentare l’intelligenza artificiale prima che il lancio pubblico di ChatGPT da parte di OpenAI, alla fine del 2022, spingesse il dibattito su temi di sicurezza e rischi esistenziali associati a questi modelli.
Questo ha accelerato il processo legislativo, portando alla definizione di regole specifiche per le intelligenze artificiali di uso generale, conosciute come GPAI (General-Purpose AI).
Cos’è l’AI Act
Prima di passare alla news vera e propria, spendiamo qualche riga per spiegare nuovamente cosa sia l’AI Act dell’Unione Europea.
Si tratta di una delle prime proposte di regolamentazione completa sull’intelligenza artificiale a livello globale. Presentato per la prima volta nel 2021, ha lo scopo di creare un quadro normativo chiaro e omogeneo per garantire che lo sviluppo e l’uso dell’intelligenza artificiale avvengano in modo sicuro ed etico.
Il regolamento stabilisce regole per classificare i sistemi di IA in base al loro livello di rischio, da basso a inaccettabile, e impone restrizioni più severe per le applicazioni ad alto rischio, come quelle usate nei sistemi di sorveglianza o nei processi decisionali automatizzati che riguardano i diritti fondamentali.
L’AI Act si concentra su aspetti chiave come la trasparenza, la sicurezza, la protezione dei dati e l’equità, richiedendo che i sistemi di intelligenza artificiale siano progettati in modo da prevenire la discriminazione e garantire la conformità alle norme europee.
Una volta approvato, sarà implementato in varie fasi fino al 2025, con l’obiettivo di bilanciare l’innovazione tecnologica con la tutela dei diritti dei cittadini e la sicurezza sociale.
Il nuovo “checker” e i risultati preliminari
Torniamo così alla news di oggi. Che è origina da un nuovo strumento, sviluppato dalla startup svizzera LatticeFlow AI insieme a due importanti istituti di ricerca, l’ETH di Zurigo e l’INSAIT in Bulgaria.
Questo tool ha messo alla prova i modelli di IA generativa di alcune delle maggiori aziende del settore, valutandoli su decine di categorie in linea con i requisiti del vasto AI Act europeo. Lo strumento assegnava un punteggio che varia tra 0 e 1, considerando parametri come la robustezza tecnica e la sicurezza.
I risultati, pubblicati mercoledì da LatticeFlow, hanno mostrato che i modelli sviluppati da giganti come Alibaba, Anthropic, OpenAI, Meta e Mistral hanno ottenuto punteggi medi superiori a 0,75.
A posto così? In realtà no, perché sono emerse alcune lacune importanti. In particolare, il “Large Language Model (LLM) Checker”, questo il nome dello strumento, avrebbe evidenziato debolezze in aree fondamentali come la resilienza alle minacce informatiche e la gestione di output potenzialmente discriminatori.
Le aziende che non rispetteranno i requisiti dell’AI Act rischiano pesanti sanzioni: multe fino a 35 milioni di euro o il 7% del fatturato globale annuo.
Una prospettiva pensata per costringere le aziende tecnologiche a investire rapidamente in adeguamenti per evitare di incorrere in violazioni.
Discriminazione e bias: una sfida persistente per l’IA
Una delle aree critiche messe in luce dal checker è quella degli output discriminatori.
I modelli di intelligenza artificiale, basati su dati umani spesso caratterizzati da pregiudizi di genere, razza o altre categorie sociali, continuano a generare risposte che riflettono questi bias.
Nonostante i continui miglioramenti, il problema rimane una sfida centrale nello sviluppo di IA generative, che rischiano di violare i principi di equità e non discriminazione previsti dalle normative europee.
Sebbene l’intento sia più che nobile, va ricordato che è delicatissimo nella sua implementazione, come ci hanno insegnato in passato i tentativi da parte di Google e Meta di correggere il bias delle IA generative. Con risultati opposti a quelli desiderati che sono sfociati in polemiche, scuse e tracolli azionari.
Il futuro dell’IA in Europa
L’Unione Europea è ancora nella fase di definizione delle modalità con cui verranno applicate le norme dell’AI Act, in particolare per quanto riguarda strumenti come ChatGPT.
Esperti del settore sono stati convocati per elaborare un codice di condotta che dovrebbe essere pronto entro la primavera del 2025. Nel frattempo, questo strumento di verifica rappresenta un primo passo per individuare le aree in cui le aziende tecnologiche devono migliorare per evitare di cadere in infrazioni che potrebbero costare caro.
Mentre le grandi aziende tecnologiche cercano di adeguarsi ai nuovi requisiti, l’AI Act dell’Unione Europea si preannuncia come una delle normative più ambiziose al mondo in materia di regolamentazione dell’intelligenza artificiale.
La capacità di bilanciare innovazione e sicurezza sarà cruciale per garantire che l’IA non solo migliori le nostre vite, ma lo faccia in modo etico e sicuro.
L’implementazione dell’AI Act rappresenta quindi una sfida significativa per i colossi tecnologici globali ma è anche un’opportunità per dimostrare il loro impegno verso un’IA più responsabile e sicura.
Oppure, come ha lasciato intendere Zuckerberg neanche troppo velatamente, sarà ciò che rallenterà lo sviluppo dell’IA in Europa. Perché USA e Cina, lo sappiamo già, si faranno meno problemi di noi europei.


