Il Parlamento Europeo ieri ha compiuto un passo decisivo verso la regolamentazione dell’intelligenza artificiale. Martedì, infatti, due influenti gruppi di legislatori hanno ratificato un accordo preliminare per l’attuazione dell’AI Act, una legislazione volta a definire le regole per l’uso dell’intelligenza artificiale. Ciò apre la strada al voto previsto per aprile, il quale potrebbe fare dell’UE il primo legislatore mondiale in questo ambito tecnologico.
L’AI Act rappresenta un tentativo ambizioso di porre dei limiti a una tecnologia sempre più pervasiva nella società contemporanea, impiegata in settori che spaziano dal settore bancario e automobilistico, fino ai prodotti elettronici e al settore aereo, oltre che in ambiti legati alla sicurezza e alle forze dell’ordine.
Un aspetto fondamentale della nuova normativa riguarda la regolamentazione dell’intelligenza artificiale generativa, come quella sviluppata da OpenAI, alla base di ChatGPT. I sistemi di IA addestrati su vasti set di dati e capaci di apprendere da nuove informazioni, saranno soggetti a specifici controlli.
Il comitato del Parlamento Europeo per le Libertà Civili, la Giustizia e gli Affari Interni, e il Comitato del Parlamento Europeo per il Mercato Interno e la Protezione dei Consumatori, hanno espresso sostegno all’accordo enfatizzando l’importanza di garantire la sicurezza e il rispetto dei diritti fondamentali. Questo passo viene dunque visto come il giusto equilibrio tra innovazione tecnologica e tutela dei consumatori e dei cittadini.
L’approvazione dell’accordo da parte dei paesi dell’UE è stata facilitata da alcune concessioni ottenute dalla Francia, volte a ridurre l’onere amministrativo per i sistemi di IA considerati ad alto rischio e a fornire una maggiore protezione dei segreti commerciali. Le aziende del Big Tech rimangono però caute, esistendo una preoccupazione diffusa riguardo alla formulazione generica di alcune parti del testo legislativo e alle possibili ripercussioni di queste norme sull’innovazione nel settore.


