New York sfida Washington e firma il RAISE Act per regolare l’IA

da | 20 Dic 2025 | IA, Legal

La Governatrice dello stato di new york, Kathy Hochul. | Foto: Heute.at/creative commons

Quando la governatrice di New York Kathy Hochul ha firmato il RAISE Act, la scelta del nome non è stata casuale. RAISE è infatti l’acronimo di Responsible AI Safety and Evaluation Act, ma è anche un gioco di parole: “to raise” significa alzare, innalzare l’asticella.

Ed è proprio questo il messaggio politico della legge, che ambisce a fissare uno standard minimo di sicurezza per i modelli di intelligenza artificiale più avanzati, in un contesto nazionale ancora privo di regole federali condivise.

Con questa firma, New York si è dunque allineata alla California nel tentativo di trasformare le leggi statali in un riferimento di fatto per l’intero settore.

Cosa prevede il RAISE Act

Il cuore della legge riguarda i cosiddetti modelli di IA di frontiera, cioè i sistemi più potenti e avanzati sviluppati dalle grandi aziende tecnologiche.

Il RAISE Act ha introdotto obblighi di valutazione dei rischi, piani di sicurezza e soprattutto un meccanismo di segnalazione degli incidenti: le aziende sono tenute a notificare allo Stato eventuali problemi di sicurezza entro 72 ore.

Accanto a questi obblighi, la legge ha previsto un sistema di sanzioni economiche, fino a 1 milione di dollari per una prima violazione e fino a 3 milioni per quelle successive, oltre alla creazione di una struttura di supervisione dedicata alla trasparenza dei modelli di IA più avanzati.

Multe americane, multe europee

È proprio sul terreno delle sanzioni che emerge uno dei limiti più evidenti del RAISE Act. Se confrontate con l’approccio europeo, le multe previste dalla legge di New York appaiono contenute.

Nell’Unione europea, l’AI Act ha scelto una logica diversa, legando le sanzioni a percentuali del fatturato globale delle aziende, con importi potenzialmente molto più elevati.

Il confronto non è solo numerico ma culturale: da un lato un modello che punta a una deterrenza forte e strutturale, dall’altro un approccio più prudente, che sembra voler segnalare un confine politico senza colpire duramente i grandi operatori.

Il RAISE Act alza sì l’asticella, ma senza spingersi fino a rendere le sanzioni uno strumento realmente deterrente.

Il braccio di ferro con Washington

La firma della legge è comunque arrivata a una settimana di distanza dall’ordine esecutivo con cui il presidente Donald Trump ha cercato di superare le normative statali sull’intelligenza artificiale.

Lo scontro è ormai esplicito: da una parte abbiamo New York e California, Stati a guida democratica che da tempo rivendicano un ruolo attivo nella regolazione della tecnologia e che vedono nell’intelligenza artificiale un terreno su cui intervenire in assenza di regole federali.

Dall’altra troviamo la Casa Bianca, guidata da un presidente repubblicano che con l’ordine esecutivo firmato da Donald Trump ha cercato di ridurre la frammentazione normativa e di mantenere un quadro il più possibile favorevole all’industria. In questo senso, la contrapposizione tra Stati democratici e Casa Bianca di Trump esiste ed è leggibile anche in chiave politica.

Ridurre però la partita a una semplice dinamica ideologica rischia di essere fuorviante. La frattura più profonda resta istituzionale: il vuoto normativo federale sull’intelligenza artificiale dura da anni e ha attraversato amministrazioni di segno diverso, spingendo gli Stati più avanzati a muoversi in autonomia.

A questo si aggiunge una dimensione industriale non secondaria: le leggi statali colpiscono soprattutto i grandi sviluppatori di modelli di IA di frontiera, mentre dalla prospettiva della Casa Bianca la proliferazione di regole locali rischia di complicare il business e di indebolire la competitività delle aziende americane su scala globale.

È su questo incrocio tra federalismo, interessi industriali e tempistiche politiche che si gioca la vera partita regolatoria sull’intelligenza artificiale negli Stati Uniti.

Un compromesso che diventa precedente

Prima dell’approvazione finale, la legge è stata oggetto di intense trattative con le lobby tecnologiche, che hanno spinto per un allineamento al modello californiano in nome della “certezza normativa” per l’industria. I promotori del provvedimento, però, sono riusciti a rafforzare alcuni passaggi chiave, in particolare sugli obblighi di segnalazione degli incidenti più critici.

Nonostante i suoi limiti, il RAISE Act si inserisce in una dinamica tipica del federalismo americano: in assenza di una legge federale, sono gli Stati a intervenire. La particolarità, questa volta, è che a farlo sono New York e California, che per peso economico e centralità tecnologica spesso finiscono per fissare regole destinate a valere ben oltre i propri confini.

Regole imperfette, forse, ma comunque sufficienti ad alzare il livello minimo del dibattito americano sulla sicurezza dell’intelligenza artificiale.

Fonte: Axios

POTREBBE INTERESSARTI

Trump Chip

Trump firma il dazio del 25% sui chip H200, ma Nvidia ringrazia

La Casa Bianca impone dazi sui semiconduttori di fascia alta in transito verso la Cina. Ma per Nvidia è una vittoria: finalmente può vendere ai clienti cinesi...
Sam Altman OpenAI Elon Musk

Sam Altman avvisa gli investitori: “Preparatevi al peggio da Musk”

In vista del processo di aprile, OpenAI prepara partner e finanziatori: aspettatevi “sparate a effetto” e “dichiarazioni fuori da ogni...
Mira Murati Thinking Machines

Il saccheggio di Thinking Machines: OpenAI si riprende tre co-fondatori

In meno di un anno la startup di Mira Murati perde quattro figure chiave. A quanto pare i soldi non comprano la lealtà neppure nell’industria...
pubblicità IA

La pubblicità bussa alla porta dei chatbot: Google apre, gli altri seguiranno

Il colosso di Mountain View sperimenta annunci in AI Mode. OpenAI e Perplexity osservano, Meta si prepara. E chi non vorrà spot dovrà probabilmente pagare

Brad Smith, presidente di Microsoft

Microsoft promette: i nostri data center non peseranno sulle bollette degli americani

L’azienda si impegna a non chiedere sgravi fiscali e a formare i residenti. Brad Smith: “Non chiediamo ai contribuenti di sovvenzionarci”.

Matthew McConaughey

McConaughey registra sé stesso come marchio contro i deepfake

Otto trademark approvati negli USA trasformano l’immagine dell’attore in un asset legale. Nel vuoto normativo sui deepfake, Hollywood ricorre...
Google AI Overviews

Google rimuove le AI Overviews per alcune ricerche mediche

Un’indagine del Guardian documenta errori potenzialmente letali nei riassunti sanitari del motore di ricerca. Il tempismo col lancio di ChatGPT Health solleva...
Google agente

Google entra nello shopping con gli agenti IA per i retailer

Con Gemini Enterprise for Customer Experience, Big G offre strumenti per costruire assistenti virtuali proprietari. Ma il commercio agentico è davvero dietro...
Apple Intelligence Siri

Siri parlerà con la voce di Gemini: Apple sceglie Google per l’IA

Annunciata ieri una partnership che riscrive gli equilibri del mercato. E anche una svolta storica che solleva domande sul futuro della privacy di Cupertino.

Nvidia CES 2026 Jensen Huag

Al CES 2026 la Silicon Valley ha scelto Trump

La Genesis Mission, Nvidia e il nuovo asse Washington-Silicon Valley: al Consumer Electronics Show è andata in scena la fine della neutralità tech.

Share This