Quando la governatrice di New York Kathy Hochul ha firmato il RAISE Act, la scelta del nome non è stata casuale. RAISE è infatti l’acronimo di Responsible AI Safety and Evaluation Act, ma è anche un gioco di parole: “to raise” significa alzare, innalzare l’asticella.
Ed è proprio questo il messaggio politico della legge, che ambisce a fissare uno standard minimo di sicurezza per i modelli di intelligenza artificiale più avanzati, in un contesto nazionale ancora privo di regole federali condivise.
Con questa firma, New York si è dunque allineata alla California nel tentativo di trasformare le leggi statali in un riferimento di fatto per l’intero settore.
Cosa prevede il RAISE Act
Il cuore della legge riguarda i cosiddetti modelli di IA di frontiera, cioè i sistemi più potenti e avanzati sviluppati dalle grandi aziende tecnologiche.
Il RAISE Act ha introdotto obblighi di valutazione dei rischi, piani di sicurezza e soprattutto un meccanismo di segnalazione degli incidenti: le aziende sono tenute a notificare allo Stato eventuali problemi di sicurezza entro 72 ore.
Accanto a questi obblighi, la legge ha previsto un sistema di sanzioni economiche, fino a 1 milione di dollari per una prima violazione e fino a 3 milioni per quelle successive, oltre alla creazione di una struttura di supervisione dedicata alla trasparenza dei modelli di IA più avanzati.
Multe americane, multe europee
È proprio sul terreno delle sanzioni che emerge uno dei limiti più evidenti del RAISE Act. Se confrontate con l’approccio europeo, le multe previste dalla legge di New York appaiono contenute.
Nell’Unione europea, l’AI Act ha scelto una logica diversa, legando le sanzioni a percentuali del fatturato globale delle aziende, con importi potenzialmente molto più elevati.
Il confronto non è solo numerico ma culturale: da un lato un modello che punta a una deterrenza forte e strutturale, dall’altro un approccio più prudente, che sembra voler segnalare un confine politico senza colpire duramente i grandi operatori.
Il RAISE Act alza sì l’asticella, ma senza spingersi fino a rendere le sanzioni uno strumento realmente deterrente.
Il braccio di ferro con Washington
La firma della legge è comunque arrivata a una settimana di distanza dall’ordine esecutivo con cui il presidente Donald Trump ha cercato di superare le normative statali sull’intelligenza artificiale.
Lo scontro è ormai esplicito: da una parte abbiamo New York e California, Stati a guida democratica che da tempo rivendicano un ruolo attivo nella regolazione della tecnologia e che vedono nell’intelligenza artificiale un terreno su cui intervenire in assenza di regole federali.
Dall’altra troviamo la Casa Bianca, guidata da un presidente repubblicano che con l’ordine esecutivo firmato da Donald Trump ha cercato di ridurre la frammentazione normativa e di mantenere un quadro il più possibile favorevole all’industria. In questo senso, la contrapposizione tra Stati democratici e Casa Bianca di Trump esiste ed è leggibile anche in chiave politica.
Ridurre però la partita a una semplice dinamica ideologica rischia di essere fuorviante. La frattura più profonda resta istituzionale: il vuoto normativo federale sull’intelligenza artificiale dura da anni e ha attraversato amministrazioni di segno diverso, spingendo gli Stati più avanzati a muoversi in autonomia.
A questo si aggiunge una dimensione industriale non secondaria: le leggi statali colpiscono soprattutto i grandi sviluppatori di modelli di IA di frontiera, mentre dalla prospettiva della Casa Bianca la proliferazione di regole locali rischia di complicare il business e di indebolire la competitività delle aziende americane su scala globale.
È su questo incrocio tra federalismo, interessi industriali e tempistiche politiche che si gioca la vera partita regolatoria sull’intelligenza artificiale negli Stati Uniti.
Un compromesso che diventa precedente
Prima dell’approvazione finale, la legge è stata oggetto di intense trattative con le lobby tecnologiche, che hanno spinto per un allineamento al modello californiano in nome della “certezza normativa” per l’industria. I promotori del provvedimento, però, sono riusciti a rafforzare alcuni passaggi chiave, in particolare sugli obblighi di segnalazione degli incidenti più critici.
Nonostante i suoi limiti, il RAISE Act si inserisce in una dinamica tipica del federalismo americano: in assenza di una legge federale, sono gli Stati a intervenire. La particolarità, questa volta, è che a farlo sono New York e California, che per peso economico e centralità tecnologica spesso finiscono per fissare regole destinate a valere ben oltre i propri confini.
Regole imperfette, forse, ma comunque sufficienti ad alzare il livello minimo del dibattito americano sulla sicurezza dell’intelligenza artificiale.
Fonte: Axios


