AI Act: i primi test mostrano le debolezze di Big Tech

da | 17 Ott 2024 | IA, Legal, Politica

Le più importanti aziende tecnologiche del mondo, tra cui Meta e OpenAI, potrebbero non essere pronte a rispettare le rigide normative europee sull’intelligenza artificiale che entreranno in vigore nei prossimi due anni.

A rivelarlo in esclusiva è Reuters, secondo cui un nuovo strumento di valutazione ha rivelato che alcuni dei principali modelli di IA non raggiungono gli standard richiesti dall’AI Act dell’UE in aree cruciali come la sicurezza informatica e la prevenzione di output discriminatori.

L’Unione Europea ha lungamente discusso la necessità di regolamentare l’intelligenza artificiale prima che il lancio pubblico di ChatGPT da parte di OpenAI, alla fine del 2022, spingesse il dibattito su temi di sicurezza e rischi esistenziali associati a questi modelli.

Questo ha accelerato il processo legislativo, portando alla definizione di regole specifiche per le intelligenze artificiali di uso generale, conosciute come GPAI (General-Purpose AI).

Cos’è l’AI Act

Prima di passare alla news vera e propria, spendiamo qualche riga per spiegare nuovamente cosa sia l’AI Act dell’Unione Europea.

Si tratta di una delle prime proposte di regolamentazione completa sull’intelligenza artificiale a livello globale. Presentato per la prima volta nel 2021, ha lo scopo di creare un quadro normativo chiaro e omogeneo per garantire che lo sviluppo e l’uso dell’intelligenza artificiale avvengano in modo sicuro ed etico.

Il regolamento stabilisce regole per classificare i sistemi di IA in base al loro livello di rischio, da basso a inaccettabile, e impone restrizioni più severe per le applicazioni ad alto rischio, come quelle usate nei sistemi di sorveglianza o nei processi decisionali automatizzati che riguardano i diritti fondamentali.

L’AI Act si concentra su aspetti chiave come la trasparenza, la sicurezza, la protezione dei dati e l’equità, richiedendo che i sistemi di intelligenza artificiale siano progettati in modo da prevenire la discriminazione e garantire la conformità alle norme europee.

Una volta approvato, sarà implementato in varie fasi fino al 2025, con l’obiettivo di bilanciare l’innovazione tecnologica con la tutela dei diritti dei cittadini e la sicurezza sociale.

Il nuovo “checker” e i risultati preliminari

Torniamo così alla news di oggi. Che è origina da un nuovo strumento, sviluppato dalla startup svizzera LatticeFlow AI insieme a due importanti istituti di ricerca, l’ETH di Zurigo e l’INSAIT in Bulgaria.

Questo tool ha messo alla prova i modelli di IA generativa di alcune delle maggiori aziende del settore, valutandoli su decine di categorie in linea con i requisiti del vasto AI Act europeo. Lo strumento assegnava un punteggio che varia tra 0 e 1, considerando parametri come la robustezza tecnica e la sicurezza.

I risultati, pubblicati mercoledì da LatticeFlow, hanno mostrato che i modelli sviluppati da giganti come Alibaba, Anthropic, OpenAI, Meta e Mistral hanno ottenuto punteggi medi superiori a 0,75.

A posto così? In realtà no, perché sono emerse alcune lacune importanti. In particolare, il “Large Language Model (LLM) Checker”, questo il nome dello strumento, avrebbe evidenziato debolezze in aree fondamentali come la resilienza alle minacce informatiche e la gestione di output potenzialmente discriminatori.

Le aziende che non rispetteranno i requisiti dell’AI Act rischiano pesanti sanzioni: multe fino a 35 milioni di euro o il 7% del fatturato globale annuo.

Una prospettiva pensata per costringere le aziende tecnologiche a investire rapidamente in adeguamenti per evitare di incorrere in violazioni.

Discriminazione e bias: una sfida persistente per l’IA

Una delle aree critiche messe in luce dal checker è quella degli output discriminatori.

I modelli di intelligenza artificiale, basati su dati umani spesso caratterizzati da pregiudizi di genere, razza o altre categorie sociali, continuano a generare risposte che riflettono questi bias.

Nonostante i continui miglioramenti, il problema rimane una sfida centrale nello sviluppo di IA generative, che rischiano di violare i principi di equità e non discriminazione previsti dalle normative europee.

Sebbene l’intento sia più che nobile, va ricordato che è delicatissimo nella sua implementazione, come ci hanno insegnato in passato i tentativi da parte di Google e Meta di correggere il bias delle IA generative. Con risultati opposti a quelli desiderati che sono sfociati in polemiche, scuse e tracolli azionari.

Il futuro dell’IA in Europa

L’Unione Europea è ancora nella fase di definizione delle modalità con cui verranno applicate le norme dell’AI Act, in particolare per quanto riguarda strumenti come ChatGPT.

Esperti del settore sono stati convocati per elaborare un codice di condotta che dovrebbe essere pronto entro la primavera del 2025. Nel frattempo, questo strumento di verifica rappresenta un primo passo per individuare le aree in cui le aziende tecnologiche devono migliorare per evitare di cadere in infrazioni che potrebbero costare caro.

Mentre le grandi aziende tecnologiche cercano di adeguarsi ai nuovi requisiti, l’AI Act dell’Unione Europea si preannuncia come una delle normative più ambiziose al mondo in materia di regolamentazione dell’intelligenza artificiale.

La capacità di bilanciare innovazione e sicurezza sarà cruciale per garantire che l’IA non solo migliori le nostre vite, ma lo faccia in modo etico e sicuro.

L’implementazione dell’AI Act rappresenta quindi una sfida significativa per i colossi tecnologici globali ma è anche un’opportunità per dimostrare il loro impegno verso un’IA più responsabile e sicura.

Oppure, come ha lasciato intendere Zuckerberg neanche troppo velatamente, sarà ciò che rallenterà lo sviluppo dell’IA in Europa. Perché USA e Cina, lo sappiamo già, si faranno meno problemi di noi europei.

POTREBBE INTERESSARTI

Nvidia CES 2026 Jensen Huag

Al CES 2026 la Silicon Valley ha scelto Trump

La Genesis Mission, Nvidia e il nuovo asse Washington-Silicon Valley: al Consumer Electronics Show è andata in scena la fine della neutralità tech.

Matthew Prince Cloudflare

Cloudflare contro l’AGCOM: dopo la multa, minaccia di abbandonare l’Italia

Il CEO Matthew Prince denuncia uno “schema di censura” e minaccia il ritiro dei server. Per la Lega Serie A, l’azienda è il rifugio tecnologico della...
Harry Potter e la Pietra Filosofale

I ricercatori sono riusciti a estrarre Harry Potter (quasi per intero) dai principali LLM

Una ricerca di Stanford dimostra che Claude, GPT-4.1, Gemini e Grok hanno memorizzato interi libri protetti da copyright. E possono riprodurli quasi parola per...
Grok

Grok, la risposta di Musk ai deepfake è farli pagare

Dall’Indonesia al Regno Unito, i governi reagiscono ai deepfake di Grok. Musk attacca gli inglesi: “Fascisti”. Ma intanto le immagini abusive...
Character

Google e Character.AI, accordi milionari per evitare il processo

Le famiglie ottengono risarcimenti per i suicidi legati al chatbot, ma il vuoto normativo sulla responsabilità dell’IA generativa resta intatto.

Andreessen Horowitz

Il secolo americano di Andreessen Horowitz: 15 miliardi per blindare il futuro tech

Dalla difesa all’intelligenza artificiale: come il colosso di Menlo Park sta puntando a riscrivere il rapporto tra capitale privato, sovranità e potere.

data center

La corsa all’IA accende il mercato dei bond per i data center europei

L’Europa importerà i modelli finanziari americani per recuperare il terreno perduto rispetto a USA e Cina, trasformando i data center in asset...
Dario Amodei Anthropic

Anthropic tratta un nuovo finanziamento a una valutazione da 350 miliardi

La start-up di intelligenza artificiale, in competizione con OpenAI, mira a raccogliere circa 10 miliardi mentre prende forma l’ipotesi di una quotazione in...
ChatGPT Health

OpenAI annuncia ChatGPT Health (ma non in Europa)

Negli Stati Uniti 230 milioni di persone già usano il chatbot di Sam Altman per parlare di salute. Ma non mancano le sfide in termini di sensibilità dei dati e le...
giustizia giudici IA

Negli USA i giudici iniziano a usare l’IA per decidere i processi

Dagli Stati Uniti arriva la spinta per l’IA in tribunale: non più solo ricerca legale ma bozze di sentenze e decisioni automatizzate.

Share This